KONWIHR

Kompetenznetzwerk für wissenschaftliches Höchstleistungsrechnen in Bayern

Inhalt

Multicore-Technologie-Briefing: fuer Entscheider aus Wissenschaft und Wirtschaft

Das Zentralinstitut für Scientific Computing der Friedrich-Alexander-Universität Erlangen-Nürnberg veranstaltet am Donnerstag, den 13.10.2011, ein Multicore-Technologie-Briefing, das sich an Entscheider aus Wissenschaft und Wirtschaft wendet und einen Überblick zu Hardware- und Softwareaspekten im Multicore-/GPGPU-Zeitalter sowie Fakten und Mythen der Performance-Optimierung gibt.

Für die Veranstaltung ist eine Anmeldung erforderlich.

Weitere Informationen: http://www.zisc.uni-erlangen.de/veranstaltungen/multicore-briefing.shtml

Erlangen beim 2. HPC-Call des BMBF erfolgreich: 1,1 Millionen € für Computer-Aided Drug Design

Das Bundesministerium für Bildung und Forschung (BMBF) hat einem interdisziplinären Forscherteam aus dem Computer-Chemie-Centrum (CCC, Prof. Clark), dem Lehrstuhl für Theoretische Chemie (Prof. Zahn) und der Professur für Höchstleistungsrechnen (Prof. Wellein) / dem Regionalen Rechenzentrum Erlangen (RRZE) 1,1 Millionen € für ein Verbundprojekt zusammen mit dem Arbeitskreis von Prof. Kast (Theoretische Chemie, TU Dortmund) und der Sanofi-Aventis Deutschland GmbH bewilligt. Das Projekt hpCADD (high-performance Computer—Aided Drug Design) wird von Prof. Clark (CCC) koordiniert und soll mit einem Gesamtvolumen von € 1,5 Millionen innerhalb von drei Jahren zur Entwicklung einer neuen Generation von sehr genauen Methoden zur Computer-gestützten Vorhersage der biologischen und physikalischen Eigenschaften von Wirkstoff-Molekülen führen. Alle drei beteiligten Gruppen aus Erlangen sind Mitglieder des Zentralinstituts für Scientific Computing (ZISC). Für das Vorhaben stellt das Höchstleistungsrechnen eine Schlüsseltechnologie dar, um auch solche Rechnungen zu ermöglichen, für die herkömmliche Computer nicht ausreichen.

Computer-Aided Drug Design (CADD) wird routinemäßig in der pharmazeutischen Industrie eingesetzt, um biologisch aktive Moleküle zu identifizieren und ihre pharmakologischen Eigenschaften zu optimieren ─ ohne sie vorher synthetisieren zu müssen. Ziel des hpCADD-Projektes ist die Einführung einer grundlegend neuen Generation von Rechentechniken, die erst durch die neuesten hoch parallelen Computer bzw. durch die zu erwartende Leistung zukünftiger Hardware möglich ist. Zu diesem Zweck sollen in den drei Chemie-Gruppen Methoden entwickelt und auf die besonderen Erfordernisse des Höchstleistungsrechnens angepasst werden, um sie schließlich in der industriellen Forschung und Entwicklung einzuführen. In Erlangen wird diese Initiative durch den im Jahr 2010 installierten „LiMa“-Cluster des Regionalen Rechenzentrums Erlangen (RRZE) unterstützt, welcher zurzeit Platz 196 in der Liste der 500 schnellsten Computer der Welt belegt.

Workshops and Tutorials for High Performance Computing at LRZ

The following LRZ workshops and tutorials for High Performance Computing have been scheduled for autumn 2010 and winter 2010/11:

* Eclipse for C/C++ programming (with a slight Fortran touch), Oct 1, 2010
* Compact course: Iterative linear solvers and parallelization, Oct 4 – Oct 8, 2010
* Advanced Fortran Topics, Oct 11 – Oct 15, 2010
* Einführung in C++ fuer Programmierer Oct 11 – Oct 15, 2010
* Parallel performance Analysis with VAMPIR, Oct 18, 2010
* Introduction to the Usage of High Performance Systems,Remote Visualization and Grid Facilities at LRZ, Oct 20, 2010
* Intel Ct Training, Nov 30 – Dec 1, 2010
* GPGPU Programming, Dec 7 – Dec 9, 2010
* Scientific 3D-Animation with Blender, Jan 13 – Jan 14, 2011
* Introduction to the PGAS languages UPC and CAF, Jan 19, 2011
* Introduction to Molecular Modeling on Supercomputers, Jan 25 – Jan 27, 2011
* Programming with Fortran, Feb 7 – Feb 11, 2011
* Parallel programming with R, Feb 15, 2011
* Visualisation of Large Data Sets on Supercomputers, Feb 23,2011
* Parallel Programming of High Performance Systems, Mar 7 – Mar 11, 2011
* Advanced Topics in High Performance Computing, Mar 21 – Mar 23, 2011

Please consult http://www.lrz.de/services/compute/courses for details.

6th Erlangen International High-End-Computing Symposium

Das Erlangen International High-End-Computing Symposium trägt zu einer Bestandsaufnahme des High-End-Computing aus einer internationalen Perspektive bei und beleuchtet zukünftige Entwicklungen. Für die Veranstaltung konnten auch dieses Jahr wieder vier international renommierte Vortragende gewonnen werden.

Spitzenforschung ist mehr denn je auf die Möglichkeiten des High-End-Computing angewiesen. Simulationsrechnungen ersetzen immer öfter aufwändige Experimente; komplexe theoretische Modelle sind häufig nur noch in Kombination mit Computerberechnungen sinnvoll nutzbar. Die computergestützte Optimierung von Prozessen und technischen Systemen ist der Schlüssel für die Entwicklung konkurrenzfähiger Produkte für den Weltmarkt. Aber auch in der Medizin, den Wirtschaftswissenschaften oder Geisteswissenschaften, wird High-End-omputing immer öfter als leistungsfähiges Werkzeug erkannt. Das 6th Erlangen International High-End-Computing Symposium (EIHECS) soll auch in diesem Jahr wieder zu einer Bestandsaufnahme des High-End-Computing aus einer internationalen Perspektive eitragen und aktuelle und zukünftige Entwicklungen beleuchten.

Das Symposium findet statt
am Freitag, den 04. Juni 2010 von 10:00-14:00 Uhr
im Hörsaal 4 (Martensstr. 1, Erlangen)
am Regionalen Rechenzentrum Erlangen
der Friedrich-Alexander-Universität Erlangen-Nürnberg

Für die Veranstaltung konnten auch dieses Jahr wieder vier international renommierte Vortragende gewonnen werden. Nähere Informationen finden Sie unter http://www10.informatik.uni-erlangen.de/de/Misc/EIHECS6/

Die Teilnahme ist kostenlos. Um planen zu können, bitten wir dennoch um eine Anmeldung auf der obigen Webseite.

LIKWID 1.0beta veröffentlicht

Die im Rahmen der KONWIHR-Projekts OMI4paps entwickelten Tools des LIKWID Frameworks haben die Version 1.0beta erreicht.

A lot of issues were fixed, among these are:

  • a complete rewrite of the perfmon module for cleaner code base
  • string handling was ported to a library with memory management
  • lots of bugs were fixed
  • better error checks (Event -> Register mapping is now validated)

New features mainly with regard to likwid-perfCtr are:

  • output in tabular form with improved formatting
  • Nehalem Uncore events now fully supported with socket lock
  • as many custom events as there are counters can be measured in one run
  • new flexible marker API with named regions and accumulated results
  • Supported events and counters can be printed on the command line (-e)

The code is available on the Likwid homepage at: http://code.google.com/p/likwid/

Please read the updated WIKI pages for more information. Feedback about problems with the applications or the documentation are welcome.

Intel Ct tutorial at RRZE

Intel has kindly agreed to give a tutorial about their new parallel programming model „Ct“. The tutorial will be conducted on Friday, April 16th, 2010, 9:15-12:00 at RRZE (the room will be announced shortly before). If you want to attend, please send email to
hpc@rrze,uni-erlangen.de.

Note that this is not a finished product, and there is not even a public beta release yet. Hence you will be most interested in this presentation if you work in the field of programming languages or parallel programming models.

Abstract

Intel Ct Technology is a high-level descriptive programming model for data-parallel programming. It strives to simplify efficient parallelization of computations over large data sets. Programmers no longer focus on the implementation details of their data-parallel program, but instead express a program’s algorithms in terms of operations on data. Ct’s deterministic semantics avoid race conditions and deadlocks and enable use for both rapid prototyping and production-stable codes.

Ct hides the complexity of mapping the high-level description of the program’s operations by employing JIT compilation techniques. Its internal JIT compiler dynamically optimizes a program to whatever hardware is used for execution, automatically emitting vectorized and multi-threaded code. With Ct’s JIT compiler it becomes possible to execute the program on multiple computing platforms (e.g Intel® SSE, Intel AVX) without recompiling the application. Ct’s JIT is key to support upcoming execution environments without the need to recompile a program: replacing the Ct library suffices to enable future platforms.

In this tutorial, we introduce to the participants the programming model and the execution environment of Intel Ct Technology. We provide an in-depth guide to the basic building blocks of the Ct language: scalar types, dense and sparse vector data types and vector operations. We present Ct’s way to control an application’s control flow and to utilize different levels of abstraction. Based on real-world scientific codes and other examples, we then show how to construct data-parallel algorithms from these basic building blocks. We demonstrate how to smoothly move an existing sequential code base to a parallel code base. In addition, we illustrate how to utilize external libraries such as the Intel® Math Kernel Library. We close the tutorial with a live demonstration of performance and scalability analysis as well as performance optimization of Ct applications.

Presenter: Michael Klemm, Senior Application Engineer, Intel, Software and Solutions Group

Biographical Information

Since 2008, Michael Klemm is part of Intel’s Software and Services Group, Developer Relations Division. His focus is on High Performance & Throughput Computing Enabling. Michael obtained an M.Sc. with honors in Computer Science in 2003. He received a Doctor of Engineering degree (Dr.-Ing.) in Computer Science from the Friedrich-Alexander-University Erlangen-Nuremberg, Germany. Michael’s research focus was on compilers and runtime optimizations for distributed systems. His areas of interest include compiler construction, design of programming languages, parallel programming, and performance analysis and tuning. Michael is a member of ACM and IEEE, and is an active member of the OpenMP Language Committee.

2. BMBF-HPC-Call veröffentlicht

Ende Februar wurde vom BMBF der zweite Call aus der Reihe „HPC-Software für skalierbare Parallelrechner“ veröffentlicht: http://www.bmbf.de/foerderungen/14191.php

Gefördert werden interdisziplinäre Verbindprojekte bei denen eine nachhaltige Nutzung der gewonnenen Erkenntnisse durch eine breite Anwenderschar sichergestellt ist.

Antragsskizzen müssen bis zum 31. Mai 2010 beim BMBF bzw. dem beauftragten Projektträger eingereicht werden.

Toolsammlung „Likwid“ veröffentlicht

Die Toolsammlung „Likwid“ (http://code.google.com/p/likwid/) ist ein Ergebnis der Arbeiten des RRZE im Rahmen des KONWIHR-Projekts omi4papps und stellt einen Satz von Hilfsprogrammen bereit, die für die Entwicklung und Ausführung von Programmen auf Multi-Core Systemen sehr hilfreich sein können.

Likwid stands for Like I knew what I am doing. This project contributes easy to use command line tools for Linux to support programmers in developing high performance multi threaded programs.
It contains the following tools:

  • likwid-topology: Show the thread and cache topology
  • likwid-perfCtr: Measure hardware performance counters on Intel and AMD processors
  • likwid-features: Show and Toggle hardware prefetch control bits on Intel Core 2 processors
  • likwid-pin: Pin your threaded application without touching your code (supports pthreads, Intel OpenMP and gcc OpenMP)

There are already a bunch of performance counter tools available. Likwid stands out because:

  • No kernel patching, any vanilla kernel with the standard msr module works
  • Transparent, always clear which events are chosen, event tags have the same naming as in documentation
  • Ease of use, no java hog, simple to build, no need to touch your code, configurable from outside. Clear CLI interface
  • Multiplatform, likwid supports Intel and AMD processors
  • Up to date, likwid tries to fully support new processors as soon as possible

Erweiterung der Windows-HPC-Rechenkapazität am RRZE

Um die steigende Nachfrage nach HPC-Rechenleistung unter Microsoft Windows befriedigen zu können, hat das RRZE die Hardware des Windows-HPC-Clusters erneuert und deutlich erweitert: 16 Dual-Socket Rechenknoten mit Hexa-Core AMD Istanbul Prozessoren und jeweils 32 GB Arbeitsspeicher stellen jetzt 192 Rechenkerne, 512 GB Hauptspeicher und eine Peak-Performance von 2 TFLOP/s unter Windows HPC2008 zur Verfügung.

Eine Einführung in das neue System mit einer Hands-On Session findet am 1.12.2009 von 11:00-13:00 am RRZE statt. Interessierte Teilnehmer aus ganz Bayern sind herzlich eingeladen. Eine Anmeldung bei hpc@rrze.uni-erlangen.de ist erforderlich.