Technology Track – der Vormittag

Bernd Fondermann über kostengünstiges Distributed Computing mit Apache Hadoop.

  • von Google entwickelt: Google FS als Grundlage für Hadoop FS
  • Google’s Big Table -> HBase != RDBS, da keine Schlüsselbeziehungen
  • Map/Reduce: Aggregation über viele Daten (Käufer von X kauften auch..; Zählen von Trackbacks)
  • geeignet v.a. für lesende Zugriffe, ab Terrabyte Datenhaltung empfohlen, „Designed-for-failure“, verwendbar auf OTS-Hardware, genutzt von Facebook A9 IBM Google Maps
  • Prinzip: 1 Master Node : n DataNodes
  • replication policy ist selbst bestimmbar (auf x nodes an y Standorten …)

Carsten Klenner, Universität zu Köln, ZIB WiSo, Forschungsgruppe ISLP: Einführung von Open Source – Ergebnisse einer empirischen Untersuchung

  • Datenbasis Client-Orientiert (v.a. PIM, OpenOffice)
  • Migration von proprietären Softwarekomponenten mit Plattformcharakter (Lock In) auf Open Source: hoher Aufwand, hohe Kosten -> hohes Risiko
  • Ort der Auswirkungen der Umstellung sollte das grundsätzliche Vorgehen bestimmen („Locus of Impact“) – technische Veränderung vs. Ablaufveränderung
  • Einführung von / Umstellung auf OS war immer von externen Faktoren motiviert (z.B. Support-Ende)
  • Projektdurchführung
    • Big Band: kurz und schmerzvoll
    • Divide & Conquer: Schritt für Schritt
    • Laissez faire: softe Migration inkl. Koexistenz von Plattformen/Technologien – funktioniert nicht nachhaltig!
  • keine singulären Erfolgsfaktoren benennbar, Matrix vieler Faktoren muss gleichberechtigt berücksichtigt sein