Campusmanagement

Campusmanagement an der FAU

Inhalt

Einführung der individuellen Rücktrittsfrist

Ab dem WS 2014/15 berechnet mein campus automatisch individuell pro Studierendem die Rücktrittsfrist nach den Vorgaben der jeweiligen Prüfungsordnung. Zur Berechnung der Rücktrittsfrist wird das individuelle Prüfungsdatum des Studierenden herangezogen, welches vom Prüfer in der Funktion Notenverbuchung (Spalte Termin) einsehbar und editierbar ist.

Wenn man als Prüfer dort keine individuellen Termine setzen möchte, kann das Prüfungsdatum auch wie bisher allgemein über die Funktion Prüfungsorganisation hinterlegt werden. Durch das Speichern eines allgemeinen Prüfungsdatums werden automatisch die individuellen Prüfungstermine der Teilnehmer aktualisiert, es sei denn bei einem Teilnehmer war bereits vorher ein vom allgemeinen Datum abweichender Termin eingetragen.

Mit der automatischen Berechnung der Rücktrittsfrist entfällt die Möglichkeit in der Funktion Prüfungsorganisation eine Rücktrittsfrist einzugeben. Stattdessen kann man als Prüfer in den Funktionen Teilnehmerliste und Notenverbuchung die individuell berechnete Rücktrittsfrist einsehen.

Die individuelle Rücktrittsfrist wird den Studierenden nun auch in der Funktion Angemeldete Prüfungen angezeigt und dient als Basis für die Überprüfung der Zulässigkeit einer Prüfungsabmeldung. Sowohl dem Studierenden als auch dem Prüfer wird anstelle der Rücktrittsfrist der Hinweistext Pflichtanmeldung angezeigt, wenn es sich um eine Prüfung handelt, von der ein Rücktritt nicht erlaubt ist.

HISInOne Schulung Erstellung von Regeln in EXA

Vom 15.-17.01.2014 fand in Hannover die mit Spannung erwartete Schulung zur Regelerstellung in EXA, der Prüfungsverwaltung in HISinOne, statt. Die erste HIS-Schulung zu diesem Thema war voll besetzt und bei der Anmeldung in Windeseile ausgebucht.

Bei der Einführung von HISinOne kann die Struktur der Studiengänge mit ihren Modulen und Prüfungen migriert werden. Dies gilt jedoch nicht für die Regeln, mit denen z.B. die Noten/ECTS der Module und (Gesamt-)Konten berechnet oder die Voraussetzungen für das Ablegen einer Prüfung abgeprüft werden. Hier hat die HIS das alte Konzept komplett überarbeitet, u.a. um die Berechnungsregeln zu verallgemeinern und dadurch in ihrer Anzahl zu reduzieren. Da die Regelerstellung in HIS-POS sehr komplex und zeitaufwändig war, stellt sich natürlich für die Hochschulen die Frage, wie aufwändig die komplette Neuabbildung der Regeln bei der Einführung von HISinOne sein wird.

Daher haben viele Hochschulen die Chance genutzt durch die Schulung eine erste Einführung in diesen Bereich zu erhalten, obwohl die meisten Teilnehmer berichteten, dass ihre Hochschule – genau wie die FAU  – in HISinOne erst den Bereich APP (Onlinebewerbung) produktiv eingeführt haben.

Obwohl es sich um die Premiere handelte, war die Schulung gut organisiert und vorbereitet. Alle Teilnehmer erhielten umfangreiche Unterlagen, mit denen sich das erworbene Wissen nach der Schulung auffrischen und vertiefen lässt. Dies ist auch notwendig, da sich schnell herausstellte, dass der neue Regeleditor in HISinOne in seiner Komplexität nicht hinter der alten Fassung zurücksteht. So war es in der Kürze der Zeit nur möglich in der Schulung die ersten Grundlagen (Modulgenerierung, einfache Voraussetzung, Abschlusskonto) gemeinsam zu erarbeiten. Dies geschah in einem angenehmen Wechsel aus theoretischen und praktischen Anteilen, wobei durchaus auf das individuelle Tempo und spezielle Fragen der einzelnen Teilnehmer eingegangen wurde.

Nach diesem ersten Schritt ist es nun sinnvoll und notwendig, das neu erworbene Wissen in einer Testumgebung mit Beispielfällen aus den gültigen Prüfungsordnungen der FAU umzusetzen und zu testen. Nur so kann man Praxiserfahrung sammeln und den Zeitaufwand für die Migration realistisch einschätzen. Die meisten Teilnehmer wünschten sich am Ende der Schulung, dass die HIS für die Zukunft auch eine Fortgeschrittenen-Schulung konzipiert, in der man nach der Sammlung der ersten Praxiserfahrung lernt, wie man am Besten Spezialfälle (z.B. Freiversuchsregeln) in HISinOne umsetzen kann. Diesem Wunsch kann ich mich nur voll und ganz anschliessen.

weitere Master an der Rechts- und Wirtschaftswissenschaftlichen Fakultät in mein campus integriert

In einem Modellierungssprint wurden in der 38. und 39. Kalenderwoche 8 weitere Masterstudiengänge abgebildet, welche zum Wintersemester an der Rechts- und Wirtschaftswissenschaftlichen Fakultät starten:

Die graphische Abbildung der neuen Studiengänge finden Sie wie gewohnt an auf unserer Webseite.

Mehrfachanzeige von Studierenden in Teilnehmerlisten, Noten- und Leistungsverbuchung

Durch das Deaktivieren der Anzeige des Studiengangs in den Funktionen Teilnehmerliste, Noten- und Leistungsverbuchung werden derzeit Studierende, die mehr als einen Studiengang studieren, in allen drei Funktionen mehrfach aufgeführt. Die HIS GmbH ist bereits über dieses Problem informiert und arbeitet an einer Behebung der Mehrfachanzeige.
Die durch diesen Fehler enstandenen Unanehmlichkeiten bitten wir zu entschuldigen.
[UPDATE]:
Das Problem der Mehrfachanzeige wurde behoben. Für die Beseitigung dieses Problems mußte allerdings zusätzlich zur Anzeige des Studiengangs die Anzeige des Abschlusses ausgeblendet werden.

Generierungsbedingungen der Grundlagen- und Orientierungsprüfung überarbeitet

Im Sommersemester 2009 haben die ersten Studierenden der neuen, seit dem WS 2007/08 etablierten Bachelorstudiengänge das 4. Fachsemester erreicht. In den verschiedenen Prüfungsordnungen ist festgelegt, dass spätestens bis zum Beginn des 4. Fachsemesters die Grundlagen- und Orientierungsprüfung (GOP) bestanden sein muss. Ist dies nicht der Fall, ist die GOP endgültig nicht bestanden, es sei denn die Gründe hierfür sind von dem Studierenden nicht zu vertreten und werden vom Prüfungsamt / Prüfungsausschuss anerkannt.
Für die Umsetzung dieser Regelung war eine Überarbeitung der Generierungsbedingungen der GOP und der zur GOP gehörenden Module notwendig. In diesem Zusammenhang wurden insbesondere die Module der Wahlpflichtbereiche der Grundlagen- und Orientierungsprüfung im Lehramt und den Zwei-Fach-Bachelor-Studiengängen überarbeitet. Diese Anpassungen wurden innerhalb des letzten Monats während des laufenden Betriebs durchgeführt und sind nun abgeschlossen, so dass die Mitarbeiter des Prüfungsamts die Fristenüberprüfung in nächster Zeit durchführen können.

mein campus Notenspiegel – eine unendliche Geschichte?

Einigen Studierenden dürfte im Lauf der letzten Woche aufgefallen sein, dass die Darstellung des Notenspiegel teilweise unvollständig oder doppelt angezeigt wurde. Die Ursache dieses Problems ist in der Vielzahl der Fälle zu suchen, die der Notenspiegel korrekt anzeigen muß. Da wären zunächst die Unterschiede zwischen einfachen Bachelorstudiengängen und 2-Fach Bachelorstudiengängen. Dort kam es bereits in einigen Fällen zu doppelten Anzeigen vor allem bei 2-Fach Bachelorstudiengängen. Die Anpassungen die dieses Problem lösten sorgten dann aber für einen unvollständigen Notenspiegel bei Studierenden, die zwar das Studienfach, aber nicht den angestrebten Abschluß gewechselt haben, z.B. Bachelor of Science Informatik nach Bachelor of Science Maschinenbau. Die Korrektur dieses Fehlers führte dann dazu, das 1-Fach Bachelorstudiengänge den Notenspiegel doppelt angezeigt bekommen.
Eine heute gemachte Änderung zeigt jetzt bei allen gemachten Tests, die anhand der Tickets die über die Support-Hotline oder per E-Mail an meincampus-support@uni-erlangen.de eingegangen sind, eine korrekte Darstellung des Notenspiegels, so dass begründete Hoffnung besteht jetzt alle Eventualitäten abgedeckt zu haben.
Trotzdem zum Schluß die Bitte: Wer in den nächsten Tagen einen unvollständigen – d.h. ein ganzer Studiengang fehlt, nicht nur einzelne Noten – oder doppelt angezeigten Notenspiegel bekommt, sollte dies mit Angabe der Matrikelnummer an meincampus-support@uni-erlangen.de melden, so dass wir dann auch die letzten Probleme mit der Anzeige des Notenspiegels aus der Welt schaffen können.

Master of Arts Medien – Ethik – Religion in mein campus integriert

Nachdem die Prüfungsordnung des neuen Masterstudiengang Medien – Ethik – Religion im Dezember vom Rektor ausgefertigt wurde, erfolgte im Januar die Abbildung des Studiengangs in mein campus. Für die Prüfungsanmeldung im nächsten Semester stehen den Prüfern und Studierenden nun alle Module und Prüfungen des Studiengangs zur Verfügung. Aus welchen Modulen sich dieser zusammensetzt können Interessenten graphisch unter der Rubrik Masterstudiengänge in Dokumente und Materialien nachvollziehen.

Reconf 2008 – Abschlusstag und Fazit

Am 13.03. ging die diesjährige Reconf mit einem weiteren Workshop-Tag zu Ende. „Vom Geschäftsprozess zur IT-Spezifikation – Mit Business Process driven Requirements Engineering Anforderungen (BPRE) durchgängig aufnehmen“, gehalten von Peter Aschenbrenner von Arcway, hielt nur teilweise was der Titel versprach – die vorgestellte Methode umfasst zwar viel Geschäftsprozessmodellierung, aber von Anforderungen war nur kurz in den letzten 20 Minuten des Workshops die Rede. Nach einer kurzen Vorstellung der Teilnehmer und der Firma Arcway, folgte eine etwas längliche, theoretische Einführung in das Thema BPRE. Danach wechselten kurze Einführungen in Teilbereiche der Methodik mit Gruppenarbeit an Praxisbeispielen ab. Bearbeitet wurden auf diese Weise klassische EPKs, Organisationslandkarten (Organisationsstruktur) und Fachlandkarten. Bei letzteren handelt es sich um eine Übersicht über die funktionalen Bereiche eines Unternehmens und ihr Zusammenspiel mit den in diesen Bereichen benötigten und erzeugten Informationen. Bei dem praktischen Beispiel, dass sich durch alle drei Übungsteile zog, handelte es sich um einen Online-Bestellservice für Pizza – ein eher einfaches Beispiel mit geringer Granularität, dass die Möglichkeiten der Methodik skizzierte, welche aber auch deutlich detaillierter angewendet werden kann und auch wird.
Nach einem kurzen Überblick über die weiteren eingesetzten Methoden (Anwendungslandkarten, Petri-Netze und Use Case-, Klassen- und Sequenzdiagramme nach der UML), wurde am Ende noch kurz die Einbindung von Anforderungen an die einzelnen Prozessschritte der EPKs und die mögliche Referenzierung und Ableitung von Anforderungen untereinander vorgestellt. Die Abbildung der Übungsbeispiele mit Arcway Cockpit ermöglichte ein paar Einblicke in dieses noch relativ junge Tool, dass sicher noch einige Schwachstellen aufweist (z.B. kein Cross-Checking zwischen den Modellen, nur eine Beziehungsart zwischen Anforderungen, etc.), aber für den kurzen Zeitraum seiner Existenz einen recht ordentlichen Eindruck macht. Der Notationsansatz an sich hat jedoch keine signifikanten Vorteile gegenüber der UML und muss in manchen Teilen auf die UML-Notation zurückgreifen. Dies hat im Gegensatz zur UML den Nachteil, dass es sich nicht mehr um einen in sich geschlossenen Notationsansatz (Metamodel) handelt. Eingesetzt wird die Methodik dennoch im deutschsprachigen Raum (außerhalb Deutschlands ist eher BPMN zur Geschäftsprozessmodellierung verbreitet), da im betriebswirtschaftlichen Bereich EPKs sehr bekannt sind und die UML-Notation auf Skepsis stößt. Insgesamt brachten die praktischen Teile des Workshops den Teilnehmern einen guten Einblick in diesen methodischen Ansatz.
Insgesamt bot die Reconf 2008 gute Einblicke in aktuelle Trends im Requirements Engineering und die Möglichkeit, mit Teilnehmern aus den unterschiedlichsten Bereichen ins Gespräch zu kommen und sich über praktische Erfahrungen auszutauschen. Über diese Kontakte und die besuchten Workshops bekam man Tipps und Anregungen, die man in der eigenen praktischen Arbeit umsetzen kann.

Reconf 2008 – der zweite Konferenztag am 12.03.2008

Am Zweiten Konferenztag erwarteten die Konferenzteilnehmer wieder eine Fülle von Vorträgen. Im methodischen Bereich startete Michael Jastram von der Hood Groop mit seiner Präsentation zu „Formale[n] Methoden in Industrieanwendungen“. Zu dem trocken klingenden Thema fanden sich nur ca. 30 Personen ein, obwohl sich das Thema durch den angenehmen Vortragsstil durchaus lohnte. Basierend auf dem RODIN-Projekt des 6. Forschungsrahmenprogramms, versucht die EU mit Deploy die Forschungsergebnisse zu formalen Methoden von dem universitären Umfeld in die industrielle Praxis zu tragen. Das Einsatzgebiet von formalen Methoden befindet sich bei der Entwicklung von komplexen, dynamischen Systemen. Dabei nutzt man mathematisch-formale Spezifikationen wie die B-Methode, die bewiesen, animiert und mit Model Checking überprüft werden können. Anhand der kostenlosen Werkzeuge Rodin (Eclipse-basiert) und Pro-B demonstrierte Hr. Jastram den Beweis und die Animation von Verfeinerungen in einem einfachen Modell. Mit dieser Methode wird der Testaufwand reduziert und gerade bei komplexen Systemen wie Steuereinheiten (z.B. Fahrerlose U-Bahn in Paris) gibt es bereits eine Umsetzung in der Praxis. Auch bei der Überprüfung von Kundenanforderungen kommen formale Methoden bereits bei SAP zum Einsatz.
Weiter ging es in diesem Bereich mit dem Thema „Best Practices für RM/RE in einem Prozess Framework“, gehalten von Thomas Schröder (Telelogic). Hierbei ging es um die effiziente Dokumentation von Best Practices/Methoden in einem Rahmenwerk, aus dem man spezifisch für ein Projekt die relevanten Methoden zusammenstellen und dann auch publizieren und für Planungszwecke nutzen kann. Vorgestellt wurde das Open Source Projekt Eclipse Prozess Framework ( EPF), mit dem Prozessmanager aufbauend auf der Basis OpenUP Prozesse und damit auch Best Practices erstellen und publizieren können. Basierend auf dem Metamodel SPEM 2.0 können flexibel Erweiterungen integriert und auch Schnittstellen zu anderen Bereichen wie Projektmanagement genutzt werden. Ausgehend von den Rollen in einem Projekt wird ein zugeordneter Prozess bestehend aus Aufgaben, die mit Konzepten, Guidelines, Checklisten, Beziehungen, etc. weiterspezifiziert sind, dokumentiert und über Web-Oberfläche publiziert. Trotz des etwas zähen, monotonen Vortragsstils ein flexibler Ansatz, den man sich genauer ansehen kann.

Nach der ersten Pause hielten Martin Zavrel (von Continental) und Dr. Uwe Rastofer (von method park) einen etwas langatmigen Anwender-Vortrag aus dem Bereich Automotive zum Thema „Höhere Effizienz durch Wiederverwendung von Anforderungen“. Basierend auf einem Beispielproduktteil (Elektronische Bremssysteme) wurden die Hauptanforderungen genannt und in das bei Continental verwendete  Metamodell des Anforderungsmanagements eingeordnet. Weiterhin wurde ausgeführt, dass aufgrund gleicher bzw. aufeinander aufbauender Funktionen (z.B. in verschiedenen Produktlinien) die Wiederverwendung von Anforderungen nahe liegt. Bei dem gewählten Ansatz zum RE wurden Anforderungen in einen generischen (z.B. Text, ID,…) und einen projektspezifischen (z.B. Priorität) Teil gesplittet und der generische Teil in den projektspezifischen Anforderungen referenziert. Dabei werden beide Teile durch Stati näher klassifiziert und darüberhinaus festgelegt, ob der generische Teil statisch oder dynamisch auf Änderungen reagiert. An einer Übertragung des mit dem Tool MKS unterstützten Ansatzes auf den Bereich Testmanagement wird gearbeitet. Die Präsentation wurde kurioserweise mit einem Exkurs zum Thema RIF (Requirements Interchange Format) beendet, das bei Continental positiv bewertet wurde.
Der nächste Vortrag zum Thema „Requirements based testing“ von Joachim Schulz von QualityPark, war zu größeren Teilen etwas oberflächlich theoretisch bzw. zu Marketing-lastig. Er beschäftigte sich mit der systematischen Ableitung von Test Cases aus Anforderungen basierend auf dem V-Modell, das ausführlich erläutert wurde und das in zwei Bereiche Anforderungs- (Demands -> Business Requirements -> Technical Requirements -> Design) und Testmanagement (Component &Integration Test -> System Test -> Business Acceptance Test -> System in Use) aufgeteilt ist. Dabei lassen sich die Tests aus den Anforderungen ableiten (Business Requirements -> Business Acceptance Test / Technical Requirements -> System Test / Design -> Component & Integration Test), werden aber meist mit unterschiedlichen Tools verwaltet, die nur selten mit einander synchronisiert werden. Ein Werkzeug namens Mercury Quality Center, dass es ermöglicht, über eine Schnittstelle Requirements zu importieren und darauf aufbauend Tests zu planen, durchzuführen und Defects zu tracken, wurde vorgestellt. Nähere Ausführungen zu dem Aufbau von Tests aus den Anforderungen heraus oder Beispiele wurden leider nicht gegeben.
Gut gestärkt durch die Mittagspause startete die nächste Präsentationsrunde im Anwenderbereich  „Flexibilität über alles – Natürlichsprachliches Anforderungsmanagement und Systemspezifikation mit UML in dem extrem dynamischen Telekommunikationskontext bei O2“, gehalten von Walter Meyer (O2) und Markus Reinhold (CoCOO), mit einem auflockernden, ironischen Film. Der Vortrag startete dann in eine Beschreibung der Umsetzung des RE bei O2 auf Basis des Rational Unified Process (RUP) in einer stark heterogenen IT-Landschaft durch umfassendes Out-Sourcing. Probleme lagen vor allem hinsichtlich Transparenz und Schnittstellen vor, so dass die Effizienz des Software Engineerings und des Testens unbedingt verbessert werden musste. Time-Boxing und späte Umsetzungsentscheidungen erfordern als Rahmenbedingungen einen kontinuierlichen, Modell-getriebenen Verbesserungsprozess. Durchgeführt wurde eine Nachdokumentation (Delta-Anforderungen) der IT-Landschaft mit System Use Cases und deren Szenarien (inkl. Sequenzdiagrammen). Diese werden von Teilprojekten als Kopien bearbeitet bis eine Entscheidung pro oder contra das Teilprojekt gefallen ist – erst dann werden die Änderungen aus den Kopien in das Repository integriert und konsolidiert. Der insgesamt unterhaltsame Vortrag bot schon mal einen praktischen Einstieg in das nächste Thema, die Methode der Delta-Spezifikation.
Den Abschluss der Methoden-Vorträge bildete das vielversprechende Thema „Deltaanforderungen – Gutes Requirement Engineering trotz Altlasten“ von Dirk Schüpferling (SOPHIST, Nürnberg). Hierbei handelt es sich um einen strukturierten Ansatz zum Umgang mit nicht gut dokumentierten Systemen, die erweitert werden müssen. Dabei werden Use Cases in Schritte, Teilschritte und funktionale Anforderungen gesplittet, verfeinerte Use Cases in Aktivitätsdiagrammen abgebildet und wieder verfeinert. Nicht-Funktionale Anforderungen werden mit den Use Cases verlinkt. Die Dokumentation erfolgt dabei Schrittweise über die Ergänzung der Teilschritte, die neu spezifiziert und implementiert werden, und integriert dabei aber auch immer Teile des bestehenden Systems. Wichtig ist dabei eine Zuordnung der einzelnen Teilschritte in die übergeordnete Struktur der Use Cases. Der kurzweilige Vortrag gab eine gute Einführung in das Thema, hätte aber mehr Beispiele gebrauchen können.
Vor der Verabschiedung der Konferenzteilnehmer durch Rupert Wiebel von der HOOD Group, referierte noch Dr. Helmuth Partsch von der Universität Ulm über die Aktualität des „Modell-basierte[n] Requirements Engineering: Alles schon da gewesen (?)“. In sehr unterhaltsamen, aber auch gleichermaßen schnellen und kurzatmigen Ton gab Dr. Partsch noch mal einen kurzen Abriss über die historische Entwicklung des Requirements Engineering. Er hob dann kurz die Bedeutung und die Probleme des Anforderungsmanagements hervor, bevor er auf den Schwerpunkt der Modell-Basierung einging. Er beleuchtete dabei zunächst die Vor- und Nachteile, und die Definition und Merkmale von Modellen, und anschließend das Thema Modellbildung. Der Vortrag entwickelte sich immer mehr in Richtung einer recht theoretischen Vorlesung, griff aber immerhin das Thema der Präsentation gegen Ende noch mal auf und fundierte die heutigen Entwicklungen in den ersten Theorien aus den 70er Jahren.

Der morgige Workshop-Tag verspricht wieder mehr Interaktion und praktische Aspekte und weniger Theorie.

Reconf 2008 – abwechslungsreicher Konferenztag (11.03.2008)

Nach einer doch nicht ganz so kurzen Einführung in die organisatorischen Belange der Reconf, startete der erste Konferenztag mit zwei Keynotes vor einem schon recht vollen Konferenzsaal (ca. 200 Personen), obwohl noch längst nicht alle Konferenzteilnehmer anwesend sind. Die erste Keynote war ein nicht gerade spannender, sehr allgemein gehaltener Vortrag über Anforderungsmanagement von Dr. Chrisof Ebert (Gründe / Methoden), der nicht stark in die Tiefe ging. Die zweite Keynote von Colin Hood war dagegen sehr kurzweilig und immer wieder mit lustigen Sprüchen aufgelockert. Er skizzierte Entwicklungen im Anforderungsmanagement von den 70er Jahren bis heute und gab eine Aussicht auf die Herausforderungen in der Zukunft. Hier wurden vor allem die Themen genannt, die auch in vielen Fachvorträgen der Konferenz eine Rolle spielen: Priorisierung und Wiederverwendung von Anforderungen, Eindeutigkeit versus Verständlichkeit, Testbarkeit. Ebenfalls angesprochen wurde die Problematik zu langer Analysephasen versus zu viele Nachforderungen, für die als Lösung die möglichst schnelle Produktion eines Prototyps genannt wurde. Dadurch kann ein rechtzeitiger Diskurs mit den Stakeholdern initiiert werden, so wie das auch mit dem Beta-Test von Campus IT ermöglicht wurde.

Die Fachvorträge, von denen immer drei verschiedene Themen zur Auswahl standen, starteten mit dem Thema „Ontologien im Anforderungsmanagement“, gehalten von Thomas Syldatke (Audi AG) und Joachim Zeyn (Peak Solutions), welcher seinem Kollegen schon mal ins Wort fiel. Vorgestellt wurde ein Projekt bei Audi, bei dem ein Ansatz zur Lösung des Problems unterschiedlichen Vokabulars in der zentralen IT und den verschiedenen Fachbereichen implementiert wurde. Bei Ontologien handelt es sich um eine Methode des Wissensmanagement – um ein maschinell unterstütztes Set von Begriffen, Relationen und Abhängigkeiten. Hierbei wurden Begriffe und Unterbegriffe (Vererbung) mit ihren Synonymen in einem Thesaurus (Glossar) definiert und dokumentiert. Über eine Inferenzmaschine ist dann eine webbasierte Suchfunktion angebunden, die Füllwörter herausfiltert und über Synonyme, Unter- und Überbegriffe die Ergebnisse der Anforderungssuche listet. Über Angaben zu Kategorien und einen Ähnlichkeitsindex kann das Ranking der Suchergebnisse verändert werden. Leider wurden keine Details zur Implementierung des Projekts in der Präsentation vorgestellt, deutlich wurde jedoch, dass ein solches Projekt mit einer Laufzeit von 10 Jahren und einem Budget von mehreren Millionen Euro pro Jahr,  erst bei einer gewissen Größe des Unternehmens und des dort etablierten Anforderungsmanagements sinnvoll ist.
Deutlich spannender gestaltete sich „Conversations in Context – Using Use Cases on Agile Projects“, einer der wenigen englisch-sprachigen Vorträge der Reconf 2008. Gehalten wurde er von Ian Spence (Ivar Jacobson Consulting), der mit seinem lockeren Sprachstil, einer guten Powerpoint-Präsentation und mit Publikumsinteraktion überzeugte. Seine erste Umfrage ergab, dass das Publikum zu überragenden Teilen interessiert an agile projects war, aber bisher wenig Erfahrung mit diesem Ansatz zur Systemarchitektur hatte. Agile projects nutzen schnelle, gut zu ändernde Methodiken, die auf kleinen (1-5 Manntage) Arbeitsschritten basieren, was eine gewisse Abneigung gegen stark formalisierte Anforderungen nach sich zieht. Eine sehr verbreitete Methode in Agile Projects sind User Story Cards, die als Platzhalter einer Konversation und als Grundlage für das zentrale Thema Testen dienen, und die sich zu „Epics“ und „Themes“ zusammenfassen lassen. Als Ergänzung stellte Ian Spence Use Cases als weitere Methode für agile projects vor. Dabei werden die Use Cases durch viele verschiedene Szenarien (happy day, exceptions) spezifiziert und dienen als Grundlage für die Generierung von Test Cases. Ein solches Szenario wird mit mehreren Test Cases zu einem Use Case-Modul zusammengefasst und ist dann gut auf Karten dokumentierbar (vglb. mit den User story Cards). Sie dienen darüberhinaus als Grundlage für die Kalkulation von Arbeitstagen und damit der Kostenplanung. Die mit dieser Methodik bearbeiten Projekte, die als Beispiele vorgestellt wurden, erreichten die bei agile projects angestrebten kurzen Zeiträume für Software-Release von 6-9 Monaten, hatten Iterationszeiträume von 2-4 Wochen und waren in unterschiedlichsten Größenordnungen erfolgreich.
Der Dritte Vortrag aus dem Bereich  Anwendervorträge IT beschäftigte sich mit einem „Rahmenwerk für (modellbasierte) Fachkonzepte“ von Dr. Walburg an der Bundesagentur für Arbeit. Ein Projekt, welches sich noch am Anfang seiner Implementierung befindet, und das auf ein systematisches, einheitliches Vorgehen im Anforderungsmanagement abzielt. Dies reicht von den grobgranularen Anforderungen des Lastenhefts bis zu der feingranularen Ebene der Systemspezifikation (Pflichtenheft) und dient  auch der Standardisierung bei externer Auftragsvergabe. Genutzt werden hier die zeitige Einbindung von Entwicklern und Testern, Traceability (das Management der Nachvollziehbarkeit von Anforderungen) und Qualitätssicherung. Der Schwerpunkt liegt dabei auf einem modellbasierten Anforderungsmodell (UML 2), wobei vor allem UseCase-, Activity-, Class-, Component- und State-Diagramme verwendet werden. Der Vortrag blieb aufgrund des Projektstands noch sehr theoretisch und sorgte durch Kommentare zur Erotik von Modellen für unfreiwillige Erheiterung.
Interessanter Methodenvortrag zu den Erweiterungen aus der SysML, die es ermöglichen „Anforderungen im Modell [zu] integrieren“, von Tim Weilkiens (oose Innovative Informatik GmbH), der durch zahlreiche Veröffentlichungen zur SysML bekannt ist. Die Stakeholder eines Projekts können in das Modell über Actor-Symbole integriert werden, anstelle sie in Listen zu verwalten,  was den Vorteil aufweist, sie mit Anforderungen verknüpfen zu können. Anforderungen können auf verschiedene Weisen modelliert werden – über natürliche Sprache, EPKs, etc. In der UML kommen sie nicht klassisch als eigenes Element vor. Die SysML bietet als eine Erweiterung  der UML für den Systems Engineering-Bereich einen Stereotyp namens „requirement“, der prinzipiell nur die Basisbestandteile (Name, ID, Text) umfasst, die aber als Stereotyp um zusätzliche Elemente (z.B. Priorität, Risiko, Test Cases…) erweitert werden kann. Die SysML ermöglicht die Zerlegung von Anforderungen über eine „Enthalten Sein“-Beziehung und die Verknüpfung von  Anforderungen untereinander bzw. mit Stakeholdern oder Test Cases über die trace-Beziehung. Die Transition deriveReqt dient der Ableitung von Anforderungen untereinander, Varianten lassen sich über Packages im Modell abbilden. Eine Verknüpfung zu Anwendungsfällen kann über die refine-Beziehung erreicht werden. Wichtig bei der Einführung dieser Erweiterungen ist laut Hr. Weilkiens vorab die Frage zu regeln, welche Beziehungen benötigt werden und wann sie eingesetzt werden. Vor allem bei einer großen Menge an Anforderungen ist es sinnvoll, das Modell nicht nur als Diagramm, sondern auch über Reports als Listen darzustellen oder mit Anforderungsmanagement-Werkzeugen zu verknüpfen.
Hr. Schacher stellte mit angenehmen Schweizer Akzent den Modellierungsansatz seiner Firma Know Gravity aus Zürich vor. Bei dem Ansatz des „Model Driven Enterprise Engineering“ liegt der Schwerpunkt auf dem Unternehmen, nicht auf einer Software oder einem Sytem, was vielleicht der Grund für die mit ca. 35 Personen geringe Zuhörerschaft sein kann. Der Ansatz basiert auf den Standards  der OMG und umfasst die Bereiche Geschäftsstrategie, Geschäftsgestaltung, IT-Konzept und IT-Realisation. In dem ersten Bereich geht es um die Motivation eines Unternehmens, welche in einem Business Motivation Model (BMM)  dargestellt wird, das als Elemente Ziele, Einflüsse, Einschätzungen und Mittel umfasst. In der operationalen Geschäftsgestaltung werden die Prozesse, Organisationstrukturen, Regeln und das Vokabular eines Unternehmens modelliert. Neben BPMN und Organigramme wurde hier eine neue Methodik der OMG vorgestellt, die Semantics of Business Vocabulary and Business Rules (SBVR), welche die Definition von Begriffen in strukturellen Regeln genauso beinhaltet wie das Umsetzungskonzept operativer Regeln. Das IT-Konzept, das Projekte, Anforderungen, Spezifikationen und Test Cases umfasst, wird im Model Driven Enterprise Engineering mit Hilfe der SysML und xUML (ausführbare UML-Modelle) beschrieben – bei der IT-Realisation kommen die „klassische“ UML und Model Driven Architecture zum Einsatz. Der Vortrag war etwas theoretisch, aber machte durchaus Lust darauf sich noch weiter mit diesen Methoden zu befassen.
Insgesamt ein thematisch abwechslungsreicher Tag mit einigem Input, der Vorfreude auf den zweiten Konferenztag erzeugt hat.