KONWIHR

Kompetenznetzwerk für wissenschaftliches Höchstleistungsrechnen in Bayern

Inhalt

„HPC Village“ bei der Langen Nacht der Wissenschaften an der FAU

Im „HPC-Village“ auf der Langen Nacht der Wissenschaften im Großraum Nürnberg-Fürth-Erlangen am 19. Oktober 2019 präsentiert das RRZE gemeinsam mit seinen (teilweise auch immer wieder KONWIHR-geförderten) Partnern neben den neuesten Technologien verschiedene faszinierende HPC-Anwendungsfelder aus der Praxis.

Biologie: Wie funktioniert eine Zellmembran?
Klimaforschung: Wie interagiert ein Gletscher mit der Umwelt?
Materialwissenschaft: Wie zerbricht ein Werkstoff und was führt zum Versagen eines Bauteils?
Medizintechnik: Wie beeinflusst der Wind die Akustik von Hörgeräten?
Mikrophysik: Millionen kleiner Partikel, jedes bewegt sich für sich – wie kommt es, dass das Ganze dennoch mehr als die Summe seiner Teile ist?
Linguistik: Mit Händen und Füßen reden – kann der Computer das verstehen?

 

Es darf gestaunt, angefasst und experimentiert werden!

  • Ausstellung mit Exponaten und Filmmaterial
  • dauerhaft geöffnet von 18:00 – 01:00 Uhr
  • Erlangen, Martensstr. 1, Raum 0.031 – 113 (Erdgeschoss des RRZE)

KONWIHR-III: Neuauflage der KONWIHR Multicore-Software-Initiative

KONWIHR hat aus der Not eine Tugend gemacht und das Förderkonzept den aktuellen Gegebenheiten angepasst. Um trotz geringen Budgets eine bessere Breitenwirkung zu erzielen, werden in der nächsten Förderperiode („KONWIHR-III“) neben zwei „Leuchtturmprojekten“ sowie den Unterstützungsprojekten an den beiden Rechenzentren (ompi4papps) v.a. mittelgroße Projekte mit einem Zeithorizont von bis zu 12 Monaten finanziert. Zentrale Arbeitsgebiete dieser Projekte sollen in der Portierung, Optimierung und Parallelisierung von Anwendungscodes und Bibliotheken liegen. Dabei ist immer ein längerer Aufenthalt des jeweiligen Projektmitarbeiters an einem der beiden Rechenzentren vorgesehen. Damit wird den Erfahrungen der überaus erfolgreich verlaufenen KONWIHR-Softwareinitiative aus den Jahren 2009-2011 Rechnung getragen.

Details des Calls können einem Flyer entnommen werden.

Wissenschaftler der Universität Erlangen-Nürnberg mit europäischem Preis für die Lehre in der Informatik ausgezeichnet

Georg Hager, Gerhard Wellein und Jan Treibig vom Regionalen Rechenzentrum Erlangen (RRZE) und dem Department für Informatik wurden auf dem „7. European Computer Science Summit 2011” in Mailand (Italien) mit dem „Informatics Europe Curriculum Best Practices Award: Parallelism and Concurrency” ausgezeichnet. Den mit 30.000 € dotierten Preis, der in diesem Jahr zum ersten Mal vergeben wurde, teilt sich die Gruppe mit Viktor Gergel und Vladimir Voevodin von der Nischni Nowgorod Staatsuniversität und der Lomonossow-Universität Moskau.

Das Preiskomitee, das sich aus renommierten Informatikern aus der ganzen Welt zusammensetzt, würdigte die herausragenden Aktivitäten der Gruppe bei der Aus- und Weiterbildung von Studenten und Wissenschaftlern auf dem Gebiet des parallelen Rechnens. Dabei setzt das Team auf einen einzigartigen Ansatz, der die klassischen Themengebiete der Parallelisierung und Programmoptimierung mit dem sinnvollen Einsatz von Performancemodellen kombiniert. Ein Performancemodell beschreibt die Wechselwirkung eines Programmcodes mit der Hardware, auf der er läuft. Dadurch wird es möglich zu beurteilen, wie gut die Ressourcen der Hardware ausgenutzt werden und ob weitere Optimierungen angebracht sind, um die Programmausführung zu beschleunigen. Auf dem Gebiet des wissenschaftlichen Rechnens zählt in den meisten Fällen nur die Zeit, in der ein numerisches Problem gelöst werden kann. Daher ist ein wirtschaftlicher Umgang mit den zur Verfügung stehenden Ressourcen, d.h. mit den Hochleistungsrechnern, die mittels öffentlicher Gelder beschafft wurden, oberstes Gebot.

Diese Konzepte werden von der Gruppe nicht nur in klassischen Lehrveranstaltungen, sondern auch in internationalen Workshops und Tutorien vermittelt. Im vergangenen Jahr veröffentlichten Georg Hager und Gerhard Wellein das Lehrbuch „Introduction to High Performance Computing for Scientists and Engineers“, das mittlerweile weltweit Eingang in zahlreiche Lehrveranstaltungen gefunden hat. Diese Publikation und deren internationale Akzeptanz waren mit ausschlaggebend für die Vergabe der Auszeichnung, die ausdrücklich an die Bedingung geknüpft war, dass die Aktivitäten der Preisträger einen messbaren Einfluss auf die Lehre außerhalb der eigenen Universität haben sollten.

In seinem Vortrag im Rahmen der Verleihungszeremonie hob Dr. Hager die wichtige Rolle ineinandergreifender Aktivitäten hervor, die die Erlanger Gruppe einzigartig machen: Im Spannungsfeld von Forschungsarbeit und Beratungstätigkeiten für Wissenschaftler aus den Anwendungsfächern konnte sich hier über die letzten zehn Jahre eine Lehrsystematik herausbilden, die international Ihresgleichen sucht. Eine wichtige Rolle spielte und spielt dabei KONWIHR, das „Kompetenznetzwerk für wissenschaftliches Hochleistungsrechnen in Bayern“, das als Initiative des Freistaates Bayern Projekte fördert, die unmittelbar mit der Nutzbarmachung von Hochleistungsrechnern in den Simulationswissenschaften verknüpft sind. Seit dem Jahr 2000 wurde das RRZE von KONWIHR unterstützt, womit der Grundstein für die vielfältigen Beratungs- und Lehrtätigkeiten gelegt werden konnte.

Der „European Computer Science Summit“ ist die jährliche Konferenz von „Informatics Europe“, einer Organisation von Informatik-Departments und Forschungseinrichtungen aus ganz Europa, die sich die Verbesserung der Qualität von Lehre und Forschung in der Informatik zum Ziel setzt. Der „Informatics Europe Best Practices Award“ wird von der Firma Intel unterstützt, die das Preisgeld zur Verfügung gestellt hat. Im nächsten Jahr wird der Preis für hervorragende Beiträge zur Lehre auf dem Gebiet „Mobile and Embedded Computing“ vergeben.

Weitere Informationen
7. European Computer Science Summit 2011: http://www.ecss2011.polimi.it/
Informatics Europe: http://www.informatics-europe.org/

Kontakt
Dr. Georg Hager, HPC Services am RRZE, hpc@rrze.uni-erlangen.de

Erlangen beim 2. HPC-Call des BMBF erfolgreich: 1,1 Millionen € für Computer-Aided Drug Design

Das Bundesministerium für Bildung und Forschung (BMBF) hat einem interdisziplinären Forscherteam aus dem Computer-Chemie-Centrum (CCC, Prof. Clark), dem Lehrstuhl für Theoretische Chemie (Prof. Zahn) und der Professur für Höchstleistungsrechnen (Prof. Wellein) / dem Regionalen Rechenzentrum Erlangen (RRZE) 1,1 Millionen € für ein Verbundprojekt zusammen mit dem Arbeitskreis von Prof. Kast (Theoretische Chemie, TU Dortmund) und der Sanofi-Aventis Deutschland GmbH bewilligt. Das Projekt hpCADD (high-performance Computer—Aided Drug Design) wird von Prof. Clark (CCC) koordiniert und soll mit einem Gesamtvolumen von € 1,5 Millionen innerhalb von drei Jahren zur Entwicklung einer neuen Generation von sehr genauen Methoden zur Computer-gestützten Vorhersage der biologischen und physikalischen Eigenschaften von Wirkstoff-Molekülen führen. Alle drei beteiligten Gruppen aus Erlangen sind Mitglieder des Zentralinstituts für Scientific Computing (ZISC). Für das Vorhaben stellt das Höchstleistungsrechnen eine Schlüsseltechnologie dar, um auch solche Rechnungen zu ermöglichen, für die herkömmliche Computer nicht ausreichen.

Computer-Aided Drug Design (CADD) wird routinemäßig in der pharmazeutischen Industrie eingesetzt, um biologisch aktive Moleküle zu identifizieren und ihre pharmakologischen Eigenschaften zu optimieren ─ ohne sie vorher synthetisieren zu müssen. Ziel des hpCADD-Projektes ist die Einführung einer grundlegend neuen Generation von Rechentechniken, die erst durch die neuesten hoch parallelen Computer bzw. durch die zu erwartende Leistung zukünftiger Hardware möglich ist. Zu diesem Zweck sollen in den drei Chemie-Gruppen Methoden entwickelt und auf die besonderen Erfordernisse des Höchstleistungsrechnens angepasst werden, um sie schließlich in der industriellen Forschung und Entwicklung einzuführen. In Erlangen wird diese Initiative durch den im Jahr 2010 installierten „LiMa“-Cluster des Regionalen Rechenzentrums Erlangen (RRZE) unterstützt, welcher zurzeit Platz 196 in der Liste der 500 schnellsten Computer der Welt belegt.

Buchveröffentlichung: „Introduction to High Performance Computing for Scientists and Engineers“

Bei der Ausbildung von Studenten und Wissenschaftlern auf dem Gebiet des High Performance Computing herrscht ein eklatanter Mangel an adäquater, d.h. aktueller Fachliteratur: Obwohl es viele beliebte Standardwerke gibt, sind diese entweder veraltet, beschäftigen sich nur mit bestimmten Teilaspekten, oder sind nicht für wissenschaftliche Anwender geschrieben, die sich ja vorrangig für numerische Ergebnisse und weniger für theoretische Grundlagen der Informatik interessieren. Das neue Lehrbuch von Georg Hager und Gerhard Wellein (RRZE, FAU Erlangen-Nürnberg) soll diese Lücke füllen. Es behandelt die Grundlagen der Rechnerarchitektur, der parallelen Programmierung mit MPI bzw. OpenMP und der Programmoptimierung -*- auf einem Niveau, das für Praktiker relevant ist, und ohne unnötigen theoretischen Ballast. Übungsaufgaben mit Lösungen runden den Stoff ab.

Aus dem Vorwort von Jack Dongarra, University of Tennessee, Knoxville, USA: „Georg Hager and Gerhard Wellein have developed a very approachable introduction to high performance computing for scientists and engineers. Their style and descriptions are easy to read and follow. … This book presents a balanced treatment of the theory, technology, architecture, and software for modern high performance computers and the use of high performance computing systems. The focus on scientific and engineering problems makes it both educational and unique. I highly recommend this timely book for scientists and engineers. I believe it will benefit many readers and provide a fine reference.

Kapitelübersicht:

  1. Modern processors
  2. Basic optimization techniques for serial code
  3. Data access optimization
  4. Parallel computers
  5. Basics of parallelization
  6. Shared-memory parallel programming with OpenMP
  7. Efficient OpenMP programming
  8. Locality optimizations on ccNUMA architectures
  9. Distributed-memory parallel programming with MPI
  10. Efficient MPI programming
  11. Hybrid parallelization with MPI and OpenMP
  • Appendix A: Topology and affinity in multicore environments
  • Appendix B: Solutions to the problems

Auf der Webseite zum Buch finden sich Zusatzinformationen wie eine erweiterte Version des Literaturverzeichnisses (inklusive Links und Abstracts) und Codebeispiele. Der offizielle Flyer des Verlages enthält ein detaillierteres Inhaltsverzeichnis und Informationen zur Bestellung und möglicher Discounts. Bei den üblichen online-Buchhändlern wird der Titel ab Ende Juli verfügbar sein.

Georg Hager and Gerhard Wellein:
Introduction to High Performance Computing for Scientists and Engineers
CRC Press, ISBN 978-1439811924
E-Book: ISBN 978-1439811931
Paperback, 356 Seiten
Erhältlich ab Juli 2010

Toolsammlung „Likwid“ veröffentlicht

Die Toolsammlung „Likwid“ (http://code.google.com/p/likwid/) ist ein Ergebnis der Arbeiten des RRZE im Rahmen des KONWIHR-Projekts omi4papps und stellt einen Satz von Hilfsprogrammen bereit, die für die Entwicklung und Ausführung von Programmen auf Multi-Core Systemen sehr hilfreich sein können.

Likwid stands for Like I knew what I am doing. This project contributes easy to use command line tools for Linux to support programmers in developing high performance multi threaded programs.
It contains the following tools:

  • likwid-topology: Show the thread and cache topology
  • likwid-perfCtr: Measure hardware performance counters on Intel and AMD processors
  • likwid-features: Show and Toggle hardware prefetch control bits on Intel Core 2 processors
  • likwid-pin: Pin your threaded application without touching your code (supports pthreads, Intel OpenMP and gcc OpenMP)

There are already a bunch of performance counter tools available. Likwid stands out because:

  • No kernel patching, any vanilla kernel with the standard msr module works
  • Transparent, always clear which events are chosen, event tags have the same naming as in documentation
  • Ease of use, no java hog, simple to build, no need to touch your code, configurable from outside. Clear CLI interface
  • Multiplatform, likwid supports Intel and AMD processors
  • Up to date, likwid tries to fully support new processors as soon as possible

Best Paper Awards für Arbeiten im KONWIHR-Umfeld

Der Beitrag von Stefan Donath et al. (LS Systemsimulation, Uni-Erlangen, KONWIHR-Projekt waLBerlaMC) wurde auf der ParCFD Konferenz im Mai 2009 mit dem Best Paper Award ausgezeichnet.

Der Beitrag von Gerhard Wellein et al. (RRZE, Uni-Erlangen, KONWIHR-Projekt omi4papps) wurde auf der COMPSAC Konferenz im Juli 2009 mit dem Best Paper Award ausgezeichnet.

Details zu beiden Arbeiten werden im KONWIHR-Quartl zu finden sein.

Gewinner des Multi-Core-Wettbewerb von KONWIHR/Intel bekanntgegeben

Die Preisträger des Multi-Core-Wettbewerb von KONWIHR/Intel stehen fest:

  1. Felix Schmidt: Programming for Cache Locality on CMPs with Memory Temperatures, Georg-Simon-Ohm-Hochschule Nürnberg
  2. Johannes Habich: Towards multicore-aware wavefront parallelization of a lattice Boltzmann flow solver, Regionales Rechenzentrum Erlangen, Universität Erlangen-Nürnberg
  3. Markus Stürmer: A framework that supports in writing performance-optimized stencil-based codes, Lehrstuhl für Systemsimulation, Universität Erlangen-Nürnberg

Die Preisübergabe fand in kleiner Runde bereits Ende Mai statt (siehe Foto). Die Preisträger werden ihre Arbeiten jedoch auch noch im Rahmen des 5th Erlangen High-End-Computing Symposium, das 22.6.2009 nachmittags an der FAU stattfindet, öffentlich präsentieren.

Gewinner des KONWIHR/Intel-Multicore-Wettbewerbs

Workshop „Heterogeneous Computing with Nvidia GPGPUs“

Das Leibniz-Rechenzentrum veranstaltete am 11.02.2009 zusammen mit den Firmen Nvidia und FluiDyna einen Workshop „Heterogeneous Computing with Nvidia GPGPUs“, bei dem es um den Einsatz moderner GPGPUs im Umfeld des Höchstleistungsrechnens ging.

Die Veranstaltung wurde von Prof. Dr. Dieter Kranzlmüller, Mitglied des Direktoriums des LRZ eröffnet. Prof. Kranzlmüller wies dabei auf die zunehmende Bedeutung massiv parallelen Computern hin. Der Hauptvortrag wurde gegeben von Dr. William Dally, Professor an der Stanford University und seit kurzem Chief Scientist und Vice-President of Research bei Nvidia. Prof. Dally legte in seinem Vortrag besonderes Gewicht auf das enorme Potential von GPUs (graphics processing units) als GPGPUs (general-purpose computing on graphics processing units). Durch die enorme Anzahl an Fließkomma-Einheiten und sehr schnellem lokalen Speicher würden GPGPUs die Beschleunigung geeigneter Anwendungen um das bis zu 150-fache gegenüber der Ausführung auf herkömmlichen CPUs ermöglichen. Damit könnten kleine Supercomputer mit erheblich reduziertem Stromverbrauch sehr günstig gebaut werden. Prof. Dally erklärte ausserdem, wie Anwender ihre Programme mittels der von Nvidia entwickelten „Compute Unified Device Architecture“ (CUDA) auf GPGPUs beschleunigen können.

Im Anschluss daran gab Dipl. Inf. (FH) Eugen Riegel vom Lehrstuhl für Aerodynamik der Technischen Universität München einen Vortrag über seine Erfahrungen in der Implementierung der Lattice-Boltzmann-Methode für die numerische Fluidmechanik auf GPGPUs von Nvidia.

Timothy Lanfear, Systementwickler bei Nvidia, gab danach eine Präsentation des „Nvidia Tesla Personal Supercomputer“ mit 4 Nvidia Tesla-Karten, die eine Leistung von bis zu 4 TFlop/s, der die Größe und den Preis einer Workstation besitzt.

Sämtliche Vorträge trafen auf reges Interesse bei den 120 Teilnehmern des Workshops, was sich in zahlreichen Fragen und Diskussionen im Anschluss an die einzelnen Präsentationen zeigte.

Das Leibniz-Rechenzentrum wies die Teilnehmer darauf hin, dass ab Ende Februar für Benutzer des Linux-Clusters die Möglichkeit besteht, auf zwei neuen Maschinen, die mit Mitteln des D-GRID angeschafft wurden und insgesamt 8 Nvidia Quadro FX5800 Grafikkarten besitzen, CUDA-Fähige Programme laufen zu lassen und so eine maximale Leistung von 8 TFlop/s zu erreichen.

Im Anschluss an die Vorträge konnten mehrere Live-Demonstrationen der Firma FluiDyna besichtigt werden, die Beispiele aus der Fluiddynamik, Astrophysik und Biochemie umfassten. Mitarbeiter der Firma FluiDyna und Nvidia standen den Teilnehmern zudem in Einzelgesprächen Rede und Antwort. Auch hier zeigte sich ein reges Interesse an diesen neuen und spannenden Technologien.

Dr. Helmut Satzger, LRZ