KONWIHR

Kompetenznetzwerk für wissenschaftliches Höchstleistungsrechnen in Bayern

Inhalt

Multicore-Technologie-Briefing: fuer Entscheider aus Wissenschaft und Wirtschaft

Das Zentralinstitut für Scientific Computing der Friedrich-Alexander-Universität Erlangen-Nürnberg veranstaltet am Donnerstag, den 13.10.2011, ein Multicore-Technologie-Briefing, das sich an Entscheider aus Wissenschaft und Wirtschaft wendet und einen Überblick zu Hardware- und Softwareaspekten im Multicore-/GPGPU-Zeitalter sowie Fakten und Mythen der Performance-Optimierung gibt.

Für die Veranstaltung ist eine Anmeldung erforderlich.

Weitere Informationen: http://www.zisc.uni-erlangen.de/veranstaltungen/multicore-briefing.shtml

Erlangen beim 2. HPC-Call des BMBF erfolgreich: 1,1 Millionen € für Computer-Aided Drug Design

Das Bundesministerium für Bildung und Forschung (BMBF) hat einem interdisziplinären Forscherteam aus dem Computer-Chemie-Centrum (CCC, Prof. Clark), dem Lehrstuhl für Theoretische Chemie (Prof. Zahn) und der Professur für Höchstleistungsrechnen (Prof. Wellein) / dem Regionalen Rechenzentrum Erlangen (RRZE) 1,1 Millionen € für ein Verbundprojekt zusammen mit dem Arbeitskreis von Prof. Kast (Theoretische Chemie, TU Dortmund) und der Sanofi-Aventis Deutschland GmbH bewilligt. Das Projekt hpCADD (high-performance Computer—Aided Drug Design) wird von Prof. Clark (CCC) koordiniert und soll mit einem Gesamtvolumen von € 1,5 Millionen innerhalb von drei Jahren zur Entwicklung einer neuen Generation von sehr genauen Methoden zur Computer-gestützten Vorhersage der biologischen und physikalischen Eigenschaften von Wirkstoff-Molekülen führen. Alle drei beteiligten Gruppen aus Erlangen sind Mitglieder des Zentralinstituts für Scientific Computing (ZISC). Für das Vorhaben stellt das Höchstleistungsrechnen eine Schlüsseltechnologie dar, um auch solche Rechnungen zu ermöglichen, für die herkömmliche Computer nicht ausreichen.

Computer-Aided Drug Design (CADD) wird routinemäßig in der pharmazeutischen Industrie eingesetzt, um biologisch aktive Moleküle zu identifizieren und ihre pharmakologischen Eigenschaften zu optimieren ─ ohne sie vorher synthetisieren zu müssen. Ziel des hpCADD-Projektes ist die Einführung einer grundlegend neuen Generation von Rechentechniken, die erst durch die neuesten hoch parallelen Computer bzw. durch die zu erwartende Leistung zukünftiger Hardware möglich ist. Zu diesem Zweck sollen in den drei Chemie-Gruppen Methoden entwickelt und auf die besonderen Erfordernisse des Höchstleistungsrechnens angepasst werden, um sie schließlich in der industriellen Forschung und Entwicklung einzuführen. In Erlangen wird diese Initiative durch den im Jahr 2010 installierten „LiMa“-Cluster des Regionalen Rechenzentrums Erlangen (RRZE) unterstützt, welcher zurzeit Platz 196 in der Liste der 500 schnellsten Computer der Welt belegt.

Workshops and Tutorials for High Performance Computing at LRZ

The following LRZ workshops and tutorials for High Performance Computing have been scheduled for autumn 2010 and winter 2010/11:

* Eclipse for C/C++ programming (with a slight Fortran touch), Oct 1, 2010
* Compact course: Iterative linear solvers and parallelization, Oct 4 – Oct 8, 2010
* Advanced Fortran Topics, Oct 11 – Oct 15, 2010
* Einführung in C++ fuer Programmierer Oct 11 – Oct 15, 2010
* Parallel performance Analysis with VAMPIR, Oct 18, 2010
* Introduction to the Usage of High Performance Systems,Remote Visualization and Grid Facilities at LRZ, Oct 20, 2010
* Intel Ct Training, Nov 30 – Dec 1, 2010
* GPGPU Programming, Dec 7 – Dec 9, 2010
* Scientific 3D-Animation with Blender, Jan 13 – Jan 14, 2011
* Introduction to the PGAS languages UPC and CAF, Jan 19, 2011
* Introduction to Molecular Modeling on Supercomputers, Jan 25 – Jan 27, 2011
* Programming with Fortran, Feb 7 – Feb 11, 2011
* Parallel programming with R, Feb 15, 2011
* Visualisation of Large Data Sets on Supercomputers, Feb 23,2011
* Parallel Programming of High Performance Systems, Mar 7 – Mar 11, 2011
* Advanced Topics in High Performance Computing, Mar 21 – Mar 23, 2011

Please consult http://www.lrz.de/services/compute/courses for details.

Buchveröffentlichung: „Introduction to High Performance Computing for Scientists and Engineers“

Bei der Ausbildung von Studenten und Wissenschaftlern auf dem Gebiet des High Performance Computing herrscht ein eklatanter Mangel an adäquater, d.h. aktueller Fachliteratur: Obwohl es viele beliebte Standardwerke gibt, sind diese entweder veraltet, beschäftigen sich nur mit bestimmten Teilaspekten, oder sind nicht für wissenschaftliche Anwender geschrieben, die sich ja vorrangig für numerische Ergebnisse und weniger für theoretische Grundlagen der Informatik interessieren. Das neue Lehrbuch von Georg Hager und Gerhard Wellein (RRZE, FAU Erlangen-Nürnberg) soll diese Lücke füllen. Es behandelt die Grundlagen der Rechnerarchitektur, der parallelen Programmierung mit MPI bzw. OpenMP und der Programmoptimierung -*- auf einem Niveau, das für Praktiker relevant ist, und ohne unnötigen theoretischen Ballast. Übungsaufgaben mit Lösungen runden den Stoff ab.

Aus dem Vorwort von Jack Dongarra, University of Tennessee, Knoxville, USA: „Georg Hager and Gerhard Wellein have developed a very approachable introduction to high performance computing for scientists and engineers. Their style and descriptions are easy to read and follow. … This book presents a balanced treatment of the theory, technology, architecture, and software for modern high performance computers and the use of high performance computing systems. The focus on scientific and engineering problems makes it both educational and unique. I highly recommend this timely book for scientists and engineers. I believe it will benefit many readers and provide a fine reference.

Kapitelübersicht:

  1. Modern processors
  2. Basic optimization techniques for serial code
  3. Data access optimization
  4. Parallel computers
  5. Basics of parallelization
  6. Shared-memory parallel programming with OpenMP
  7. Efficient OpenMP programming
  8. Locality optimizations on ccNUMA architectures
  9. Distributed-memory parallel programming with MPI
  10. Efficient MPI programming
  11. Hybrid parallelization with MPI and OpenMP
  • Appendix A: Topology and affinity in multicore environments
  • Appendix B: Solutions to the problems

Auf der Webseite zum Buch finden sich Zusatzinformationen wie eine erweiterte Version des Literaturverzeichnisses (inklusive Links und Abstracts) und Codebeispiele. Der offizielle Flyer des Verlages enthält ein detaillierteres Inhaltsverzeichnis und Informationen zur Bestellung und möglicher Discounts. Bei den üblichen online-Buchhändlern wird der Titel ab Ende Juli verfügbar sein.

Georg Hager and Gerhard Wellein:
Introduction to High Performance Computing for Scientists and Engineers
CRC Press, ISBN 978-1439811924
E-Book: ISBN 978-1439811931
Paperback, 356 Seiten
Erhältlich ab Juli 2010

6th Erlangen International High-End-Computing Symposium

Das Erlangen International High-End-Computing Symposium trägt zu einer Bestandsaufnahme des High-End-Computing aus einer internationalen Perspektive bei und beleuchtet zukünftige Entwicklungen. Für die Veranstaltung konnten auch dieses Jahr wieder vier international renommierte Vortragende gewonnen werden.

Spitzenforschung ist mehr denn je auf die Möglichkeiten des High-End-Computing angewiesen. Simulationsrechnungen ersetzen immer öfter aufwändige Experimente; komplexe theoretische Modelle sind häufig nur noch in Kombination mit Computerberechnungen sinnvoll nutzbar. Die computergestützte Optimierung von Prozessen und technischen Systemen ist der Schlüssel für die Entwicklung konkurrenzfähiger Produkte für den Weltmarkt. Aber auch in der Medizin, den Wirtschaftswissenschaften oder Geisteswissenschaften, wird High-End-omputing immer öfter als leistungsfähiges Werkzeug erkannt. Das 6th Erlangen International High-End-Computing Symposium (EIHECS) soll auch in diesem Jahr wieder zu einer Bestandsaufnahme des High-End-Computing aus einer internationalen Perspektive eitragen und aktuelle und zukünftige Entwicklungen beleuchten.

Das Symposium findet statt
am Freitag, den 04. Juni 2010 von 10:00-14:00 Uhr
im Hörsaal 4 (Martensstr. 1, Erlangen)
am Regionalen Rechenzentrum Erlangen
der Friedrich-Alexander-Universität Erlangen-Nürnberg

Für die Veranstaltung konnten auch dieses Jahr wieder vier international renommierte Vortragende gewonnen werden. Nähere Informationen finden Sie unter http://www10.informatik.uni-erlangen.de/de/Misc/EIHECS6/

Die Teilnahme ist kostenlos. Um planen zu können, bitten wir dennoch um eine Anmeldung auf der obigen Webseite.

LIKWID 1.0beta veröffentlicht

Die im Rahmen der KONWIHR-Projekts OMI4paps entwickelten Tools des LIKWID Frameworks haben die Version 1.0beta erreicht.

A lot of issues were fixed, among these are:

  • a complete rewrite of the perfmon module for cleaner code base
  • string handling was ported to a library with memory management
  • lots of bugs were fixed
  • better error checks (Event -> Register mapping is now validated)

New features mainly with regard to likwid-perfCtr are:

  • output in tabular form with improved formatting
  • Nehalem Uncore events now fully supported with socket lock
  • as many custom events as there are counters can be measured in one run
  • new flexible marker API with named regions and accumulated results
  • Supported events and counters can be printed on the command line (-e)

The code is available on the Likwid homepage at: http://code.google.com/p/likwid/

Please read the updated WIKI pages for more information. Feedback about problems with the applications or the documentation are welcome.

Intel Ct tutorial at RRZE

Intel has kindly agreed to give a tutorial about their new parallel programming model „Ct“. The tutorial will be conducted on Friday, April 16th, 2010, 9:15-12:00 at RRZE (the room will be announced shortly before). If you want to attend, please send email to
hpc@rrze,uni-erlangen.de.

Note that this is not a finished product, and there is not even a public beta release yet. Hence you will be most interested in this presentation if you work in the field of programming languages or parallel programming models.

Abstract

Intel Ct Technology is a high-level descriptive programming model for data-parallel programming. It strives to simplify efficient parallelization of computations over large data sets. Programmers no longer focus on the implementation details of their data-parallel program, but instead express a program’s algorithms in terms of operations on data. Ct’s deterministic semantics avoid race conditions and deadlocks and enable use for both rapid prototyping and production-stable codes.

Ct hides the complexity of mapping the high-level description of the program’s operations by employing JIT compilation techniques. Its internal JIT compiler dynamically optimizes a program to whatever hardware is used for execution, automatically emitting vectorized and multi-threaded code. With Ct’s JIT compiler it becomes possible to execute the program on multiple computing platforms (e.g Intel® SSE, Intel AVX) without recompiling the application. Ct’s JIT is key to support upcoming execution environments without the need to recompile a program: replacing the Ct library suffices to enable future platforms.

In this tutorial, we introduce to the participants the programming model and the execution environment of Intel Ct Technology. We provide an in-depth guide to the basic building blocks of the Ct language: scalar types, dense and sparse vector data types and vector operations. We present Ct’s way to control an application’s control flow and to utilize different levels of abstraction. Based on real-world scientific codes and other examples, we then show how to construct data-parallel algorithms from these basic building blocks. We demonstrate how to smoothly move an existing sequential code base to a parallel code base. In addition, we illustrate how to utilize external libraries such as the Intel® Math Kernel Library. We close the tutorial with a live demonstration of performance and scalability analysis as well as performance optimization of Ct applications.

Presenter: Michael Klemm, Senior Application Engineer, Intel, Software and Solutions Group

Biographical Information

Since 2008, Michael Klemm is part of Intel’s Software and Services Group, Developer Relations Division. His focus is on High Performance & Throughput Computing Enabling. Michael obtained an M.Sc. with honors in Computer Science in 2003. He received a Doctor of Engineering degree (Dr.-Ing.) in Computer Science from the Friedrich-Alexander-University Erlangen-Nuremberg, Germany. Michael’s research focus was on compilers and runtime optimizations for distributed systems. His areas of interest include compiler construction, design of programming languages, parallel programming, and performance analysis and tuning. Michael is a member of ACM and IEEE, and is an active member of the OpenMP Language Committee.

2. BMBF-HPC-Call veröffentlicht

Ende Februar wurde vom BMBF der zweite Call aus der Reihe „HPC-Software für skalierbare Parallelrechner“ veröffentlicht: http://www.bmbf.de/foerderungen/14191.php

Gefördert werden interdisziplinäre Verbindprojekte bei denen eine nachhaltige Nutzung der gewonnenen Erkenntnisse durch eine breite Anwenderschar sichergestellt ist.

Antragsskizzen müssen bis zum 31. Mai 2010 beim BMBF bzw. dem beauftragten Projektträger eingereicht werden.