Technology Track – der Vormittag
Bernd Fondermann über kostengünstiges Distributed Computing mit Apache Hadoop.
- von Google entwickelt: Google FS als Grundlage für Hadoop FS
- Google’s Big Table -> HBase != RDBS, da keine Schlüsselbeziehungen
- Map/Reduce: Aggregation über viele Daten (Käufer von X kauften auch..; Zählen von Trackbacks)
- geeignet v.a. für lesende Zugriffe, ab Terrabyte Datenhaltung empfohlen, „Designed-for-failure“, verwendbar auf OTS-Hardware, genutzt von Facebook A9 IBM Google Maps
- Prinzip: 1 Master Node : n DataNodes
- replication policy ist selbst bestimmbar (auf x nodes an y Standorten …)
Carsten Klenner, Universität zu Köln, ZIB WiSo, Forschungsgruppe ISLP: Einführung von Open Source – Ergebnisse einer empirischen Untersuchung
- Datenbasis Client-Orientiert (v.a. PIM, OpenOffice)
- Migration von proprietären Softwarekomponenten mit Plattformcharakter (Lock In) auf Open Source: hoher Aufwand, hohe Kosten -> hohes Risiko
- Ort der Auswirkungen der Umstellung sollte das grundsätzliche Vorgehen bestimmen („Locus of Impact“) – technische Veränderung vs. Ablaufveränderung
- Einführung von / Umstellung auf OS war immer von externen Faktoren motiviert (z.B. Support-Ende)
- Projektdurchführung
- Big Band: kurz und schmerzvoll
- Divide & Conquer: Schritt für Schritt
- Laissez faire: softe Migration inkl. Koexistenz von Plattformen/Technologien – funktioniert nicht nachhaltig!
- keine singulären Erfolgsfaktoren benennbar, Matrix vieler Faktoren muss gleichberechtigt berücksichtigt sein