Reconf 2008 – der zweite Konferenztag am 12.03.2008
Am Zweiten Konferenztag erwarteten die Konferenzteilnehmer wieder eine Fülle von Vorträgen. Im methodischen Bereich startete Michael Jastram von der Hood Groop mit seiner Präsentation zu „Formale[n] Methoden in Industrieanwendungen“. Zu dem trocken klingenden Thema fanden sich nur ca. 30 Personen ein, obwohl sich das Thema durch den angenehmen Vortragsstil durchaus lohnte. Basierend auf dem RODIN-Projekt des 6. Forschungsrahmenprogramms, versucht die EU mit Deploy die Forschungsergebnisse zu formalen Methoden von dem universitären Umfeld in die industrielle Praxis zu tragen. Das Einsatzgebiet von formalen Methoden befindet sich bei der Entwicklung von komplexen, dynamischen Systemen. Dabei nutzt man mathematisch-formale Spezifikationen wie die B-Methode, die bewiesen, animiert und mit Model Checking überprüft werden können. Anhand der kostenlosen Werkzeuge Rodin (Eclipse-basiert) und Pro-B demonstrierte Hr. Jastram den Beweis und die Animation von Verfeinerungen in einem einfachen Modell. Mit dieser Methode wird der Testaufwand reduziert und gerade bei komplexen Systemen wie Steuereinheiten (z.B. Fahrerlose U-Bahn in Paris) gibt es bereits eine Umsetzung in der Praxis. Auch bei der Überprüfung von Kundenanforderungen kommen formale Methoden bereits bei SAP zum Einsatz.
Weiter ging es in diesem Bereich mit dem Thema „Best Practices für RM/RE in einem Prozess Framework“, gehalten von Thomas Schröder (Telelogic). Hierbei ging es um die effiziente Dokumentation von Best Practices/Methoden in einem Rahmenwerk, aus dem man spezifisch für ein Projekt die relevanten Methoden zusammenstellen und dann auch publizieren und für Planungszwecke nutzen kann. Vorgestellt wurde das Open Source Projekt Eclipse Prozess Framework ( EPF), mit dem Prozessmanager aufbauend auf der Basis OpenUP Prozesse und damit auch Best Practices erstellen und publizieren können. Basierend auf dem Metamodel SPEM 2.0 können flexibel Erweiterungen integriert und auch Schnittstellen zu anderen Bereichen wie Projektmanagement genutzt werden. Ausgehend von den Rollen in einem Projekt wird ein zugeordneter Prozess bestehend aus Aufgaben, die mit Konzepten, Guidelines, Checklisten, Beziehungen, etc. weiterspezifiziert sind, dokumentiert und über Web-Oberfläche publiziert. Trotz des etwas zähen, monotonen Vortragsstils ein flexibler Ansatz, den man sich genauer ansehen kann.
Nach der ersten Pause hielten Martin Zavrel (von Continental) und Dr. Uwe Rastofer (von method park) einen etwas langatmigen Anwender-Vortrag aus dem Bereich Automotive zum Thema „Höhere Effizienz durch Wiederverwendung von Anforderungen“. Basierend auf einem Beispielproduktteil (Elektronische Bremssysteme) wurden die Hauptanforderungen genannt und in das bei Continental verwendete Metamodell des Anforderungsmanagements eingeordnet. Weiterhin wurde ausgeführt, dass aufgrund gleicher bzw. aufeinander aufbauender Funktionen (z.B. in verschiedenen Produktlinien) die Wiederverwendung von Anforderungen nahe liegt. Bei dem gewählten Ansatz zum RE wurden Anforderungen in einen generischen (z.B. Text, ID,…) und einen projektspezifischen (z.B. Priorität) Teil gesplittet und der generische Teil in den projektspezifischen Anforderungen referenziert. Dabei werden beide Teile durch Stati näher klassifiziert und darüberhinaus festgelegt, ob der generische Teil statisch oder dynamisch auf Änderungen reagiert. An einer Übertragung des mit dem Tool MKS unterstützten Ansatzes auf den Bereich Testmanagement wird gearbeitet. Die Präsentation wurde kurioserweise mit einem Exkurs zum Thema RIF (Requirements Interchange Format) beendet, das bei Continental positiv bewertet wurde.
Der nächste Vortrag zum Thema „Requirements based testing“ von Joachim Schulz von QualityPark, war zu größeren Teilen etwas oberflächlich theoretisch bzw. zu Marketing-lastig. Er beschäftigte sich mit der systematischen Ableitung von Test Cases aus Anforderungen basierend auf dem V-Modell, das ausführlich erläutert wurde und das in zwei Bereiche Anforderungs- (Demands -> Business Requirements -> Technical Requirements -> Design) und Testmanagement (Component &Integration Test -> System Test -> Business Acceptance Test -> System in Use) aufgeteilt ist. Dabei lassen sich die Tests aus den Anforderungen ableiten (Business Requirements -> Business Acceptance Test / Technical Requirements -> System Test / Design -> Component & Integration Test), werden aber meist mit unterschiedlichen Tools verwaltet, die nur selten mit einander synchronisiert werden. Ein Werkzeug namens Mercury Quality Center, dass es ermöglicht, über eine Schnittstelle Requirements zu importieren und darauf aufbauend Tests zu planen, durchzuführen und Defects zu tracken, wurde vorgestellt. Nähere Ausführungen zu dem Aufbau von Tests aus den Anforderungen heraus oder Beispiele wurden leider nicht gegeben.
Gut gestärkt durch die Mittagspause startete die nächste Präsentationsrunde im Anwenderbereich „Flexibilität über alles – Natürlichsprachliches Anforderungsmanagement und Systemspezifikation mit UML in dem extrem dynamischen Telekommunikationskontext bei O2“, gehalten von Walter Meyer (O2) und Markus Reinhold (CoCOO), mit einem auflockernden, ironischen Film. Der Vortrag startete dann in eine Beschreibung der Umsetzung des RE bei O2 auf Basis des Rational Unified Process (RUP) in einer stark heterogenen IT-Landschaft durch umfassendes Out-Sourcing. Probleme lagen vor allem hinsichtlich Transparenz und Schnittstellen vor, so dass die Effizienz des Software Engineerings und des Testens unbedingt verbessert werden musste. Time-Boxing und späte Umsetzungsentscheidungen erfordern als Rahmenbedingungen einen kontinuierlichen, Modell-getriebenen Verbesserungsprozess. Durchgeführt wurde eine Nachdokumentation (Delta-Anforderungen) der IT-Landschaft mit System Use Cases und deren Szenarien (inkl. Sequenzdiagrammen). Diese werden von Teilprojekten als Kopien bearbeitet bis eine Entscheidung pro oder contra das Teilprojekt gefallen ist – erst dann werden die Änderungen aus den Kopien in das Repository integriert und konsolidiert. Der insgesamt unterhaltsame Vortrag bot schon mal einen praktischen Einstieg in das nächste Thema, die Methode der Delta-Spezifikation.
Den Abschluss der Methoden-Vorträge bildete das vielversprechende Thema „Deltaanforderungen – Gutes Requirement Engineering trotz Altlasten“ von Dirk Schüpferling (SOPHIST, Nürnberg). Hierbei handelt es sich um einen strukturierten Ansatz zum Umgang mit nicht gut dokumentierten Systemen, die erweitert werden müssen. Dabei werden Use Cases in Schritte, Teilschritte und funktionale Anforderungen gesplittet, verfeinerte Use Cases in Aktivitätsdiagrammen abgebildet und wieder verfeinert. Nicht-Funktionale Anforderungen werden mit den Use Cases verlinkt. Die Dokumentation erfolgt dabei Schrittweise über die Ergänzung der Teilschritte, die neu spezifiziert und implementiert werden, und integriert dabei aber auch immer Teile des bestehenden Systems. Wichtig ist dabei eine Zuordnung der einzelnen Teilschritte in die übergeordnete Struktur der Use Cases. Der kurzweilige Vortrag gab eine gute Einführung in das Thema, hätte aber mehr Beispiele gebrauchen können.
Vor der Verabschiedung der Konferenzteilnehmer durch Rupert Wiebel von der HOOD Group, referierte noch Dr. Helmuth Partsch von der Universität Ulm über die Aktualität des „Modell-basierte[n] Requirements Engineering: Alles schon da gewesen (?)“. In sehr unterhaltsamen, aber auch gleichermaßen schnellen und kurzatmigen Ton gab Dr. Partsch noch mal einen kurzen Abriss über die historische Entwicklung des Requirements Engineering. Er hob dann kurz die Bedeutung und die Probleme des Anforderungsmanagements hervor, bevor er auf den Schwerpunkt der Modell-Basierung einging. Er beleuchtete dabei zunächst die Vor- und Nachteile, und die Definition und Merkmale von Modellen, und anschließend das Thema Modellbildung. Der Vortrag entwickelte sich immer mehr in Richtung einer recht theoretischen Vorlesung, griff aber immerhin das Thema der Präsentation gegen Ende noch mal auf und fundierte die heutigen Entwicklungen in den ersten Theorien aus den 70er Jahren.
Der morgige Workshop-Tag verspricht wieder mehr Interaktion und praktische Aspekte und weniger Theorie.