KONWIHR

Kompetenznetzwerk für wissenschaftliches Höchstleistungsrechnen in Bayern

Inhalt

Workshops and Tutorials for High Performance Computing at LRZ

The following LRZ workshops and tutorials for High Performance Computing have been scheduled for autumn 2010 and winter 2010/11:

* Eclipse for C/C++ programming (with a slight Fortran touch), Oct 1, 2010
* Compact course: Iterative linear solvers and parallelization, Oct 4 – Oct 8, 2010
* Advanced Fortran Topics, Oct 11 – Oct 15, 2010
* Einführung in C++ fuer Programmierer Oct 11 – Oct 15, 2010
* Parallel performance Analysis with VAMPIR, Oct 18, 2010
* Introduction to the Usage of High Performance Systems,Remote Visualization and Grid Facilities at LRZ, Oct 20, 2010
* Intel Ct Training, Nov 30 – Dec 1, 2010
* GPGPU Programming, Dec 7 – Dec 9, 2010
* Scientific 3D-Animation with Blender, Jan 13 – Jan 14, 2011
* Introduction to the PGAS languages UPC and CAF, Jan 19, 2011
* Introduction to Molecular Modeling on Supercomputers, Jan 25 – Jan 27, 2011
* Programming with Fortran, Feb 7 – Feb 11, 2011
* Parallel programming with R, Feb 15, 2011
* Visualisation of Large Data Sets on Supercomputers, Feb 23,2011
* Parallel Programming of High Performance Systems, Mar 7 – Mar 11, 2011
* Advanced Topics in High Performance Computing, Mar 21 – Mar 23, 2011

Please consult http://www.lrz.de/services/compute/courses for details.

Buchveröffentlichung: „Introduction to High Performance Computing for Scientists and Engineers“

Bei der Ausbildung von Studenten und Wissenschaftlern auf dem Gebiet des High Performance Computing herrscht ein eklatanter Mangel an adäquater, d.h. aktueller Fachliteratur: Obwohl es viele beliebte Standardwerke gibt, sind diese entweder veraltet, beschäftigen sich nur mit bestimmten Teilaspekten, oder sind nicht für wissenschaftliche Anwender geschrieben, die sich ja vorrangig für numerische Ergebnisse und weniger für theoretische Grundlagen der Informatik interessieren. Das neue Lehrbuch von Georg Hager und Gerhard Wellein (RRZE, FAU Erlangen-Nürnberg) soll diese Lücke füllen. Es behandelt die Grundlagen der Rechnerarchitektur, der parallelen Programmierung mit MPI bzw. OpenMP und der Programmoptimierung -*- auf einem Niveau, das für Praktiker relevant ist, und ohne unnötigen theoretischen Ballast. Übungsaufgaben mit Lösungen runden den Stoff ab.

Aus dem Vorwort von Jack Dongarra, University of Tennessee, Knoxville, USA: „Georg Hager and Gerhard Wellein have developed a very approachable introduction to high performance computing for scientists and engineers. Their style and descriptions are easy to read and follow. … This book presents a balanced treatment of the theory, technology, architecture, and software for modern high performance computers and the use of high performance computing systems. The focus on scientific and engineering problems makes it both educational and unique. I highly recommend this timely book for scientists and engineers. I believe it will benefit many readers and provide a fine reference.

Kapitelübersicht:

  1. Modern processors
  2. Basic optimization techniques for serial code
  3. Data access optimization
  4. Parallel computers
  5. Basics of parallelization
  6. Shared-memory parallel programming with OpenMP
  7. Efficient OpenMP programming
  8. Locality optimizations on ccNUMA architectures
  9. Distributed-memory parallel programming with MPI
  10. Efficient MPI programming
  11. Hybrid parallelization with MPI and OpenMP
  • Appendix A: Topology and affinity in multicore environments
  • Appendix B: Solutions to the problems

Auf der Webseite zum Buch finden sich Zusatzinformationen wie eine erweiterte Version des Literaturverzeichnisses (inklusive Links und Abstracts) und Codebeispiele. Der offizielle Flyer des Verlages enthält ein detaillierteres Inhaltsverzeichnis und Informationen zur Bestellung und möglicher Discounts. Bei den üblichen online-Buchhändlern wird der Titel ab Ende Juli verfügbar sein.

Georg Hager and Gerhard Wellein:
Introduction to High Performance Computing for Scientists and Engineers
CRC Press, ISBN 978-1439811924
E-Book: ISBN 978-1439811931
Paperback, 356 Seiten
Erhältlich ab Juli 2010

6th Erlangen International High-End-Computing Symposium

Das Erlangen International High-End-Computing Symposium trägt zu einer Bestandsaufnahme des High-End-Computing aus einer internationalen Perspektive bei und beleuchtet zukünftige Entwicklungen. Für die Veranstaltung konnten auch dieses Jahr wieder vier international renommierte Vortragende gewonnen werden.

Spitzenforschung ist mehr denn je auf die Möglichkeiten des High-End-Computing angewiesen. Simulationsrechnungen ersetzen immer öfter aufwändige Experimente; komplexe theoretische Modelle sind häufig nur noch in Kombination mit Computerberechnungen sinnvoll nutzbar. Die computergestützte Optimierung von Prozessen und technischen Systemen ist der Schlüssel für die Entwicklung konkurrenzfähiger Produkte für den Weltmarkt. Aber auch in der Medizin, den Wirtschaftswissenschaften oder Geisteswissenschaften, wird High-End-omputing immer öfter als leistungsfähiges Werkzeug erkannt. Das 6th Erlangen International High-End-Computing Symposium (EIHECS) soll auch in diesem Jahr wieder zu einer Bestandsaufnahme des High-End-Computing aus einer internationalen Perspektive eitragen und aktuelle und zukünftige Entwicklungen beleuchten.

Das Symposium findet statt
am Freitag, den 04. Juni 2010 von 10:00-14:00 Uhr
im Hörsaal 4 (Martensstr. 1, Erlangen)
am Regionalen Rechenzentrum Erlangen
der Friedrich-Alexander-Universität Erlangen-Nürnberg

Für die Veranstaltung konnten auch dieses Jahr wieder vier international renommierte Vortragende gewonnen werden. Nähere Informationen finden Sie unter http://www10.informatik.uni-erlangen.de/de/Misc/EIHECS6/

Die Teilnahme ist kostenlos. Um planen zu können, bitten wir dennoch um eine Anmeldung auf der obigen Webseite.

LIKWID 1.0beta veröffentlicht

Die im Rahmen der KONWIHR-Projekts OMI4paps entwickelten Tools des LIKWID Frameworks haben die Version 1.0beta erreicht.

A lot of issues were fixed, among these are:

  • a complete rewrite of the perfmon module for cleaner code base
  • string handling was ported to a library with memory management
  • lots of bugs were fixed
  • better error checks (Event -> Register mapping is now validated)

New features mainly with regard to likwid-perfCtr are:

  • output in tabular form with improved formatting
  • Nehalem Uncore events now fully supported with socket lock
  • as many custom events as there are counters can be measured in one run
  • new flexible marker API with named regions and accumulated results
  • Supported events and counters can be printed on the command line (-e)

The code is available on the Likwid homepage at: http://code.google.com/p/likwid/

Please read the updated WIKI pages for more information. Feedback about problems with the applications or the documentation are welcome.

Intel Ct tutorial at RRZE

Intel has kindly agreed to give a tutorial about their new parallel programming model „Ct“. The tutorial will be conducted on Friday, April 16th, 2010, 9:15-12:00 at RRZE (the room will be announced shortly before). If you want to attend, please send email to
hpc@rrze,uni-erlangen.de.

Note that this is not a finished product, and there is not even a public beta release yet. Hence you will be most interested in this presentation if you work in the field of programming languages or parallel programming models.

Abstract

Intel Ct Technology is a high-level descriptive programming model for data-parallel programming. It strives to simplify efficient parallelization of computations over large data sets. Programmers no longer focus on the implementation details of their data-parallel program, but instead express a program’s algorithms in terms of operations on data. Ct’s deterministic semantics avoid race conditions and deadlocks and enable use for both rapid prototyping and production-stable codes.

Ct hides the complexity of mapping the high-level description of the program’s operations by employing JIT compilation techniques. Its internal JIT compiler dynamically optimizes a program to whatever hardware is used for execution, automatically emitting vectorized and multi-threaded code. With Ct’s JIT compiler it becomes possible to execute the program on multiple computing platforms (e.g Intel® SSE, Intel AVX) without recompiling the application. Ct’s JIT is key to support upcoming execution environments without the need to recompile a program: replacing the Ct library suffices to enable future platforms.

In this tutorial, we introduce to the participants the programming model and the execution environment of Intel Ct Technology. We provide an in-depth guide to the basic building blocks of the Ct language: scalar types, dense and sparse vector data types and vector operations. We present Ct’s way to control an application’s control flow and to utilize different levels of abstraction. Based on real-world scientific codes and other examples, we then show how to construct data-parallel algorithms from these basic building blocks. We demonstrate how to smoothly move an existing sequential code base to a parallel code base. In addition, we illustrate how to utilize external libraries such as the Intel® Math Kernel Library. We close the tutorial with a live demonstration of performance and scalability analysis as well as performance optimization of Ct applications.

Presenter: Michael Klemm, Senior Application Engineer, Intel, Software and Solutions Group

Biographical Information

Since 2008, Michael Klemm is part of Intel’s Software and Services Group, Developer Relations Division. His focus is on High Performance & Throughput Computing Enabling. Michael obtained an M.Sc. with honors in Computer Science in 2003. He received a Doctor of Engineering degree (Dr.-Ing.) in Computer Science from the Friedrich-Alexander-University Erlangen-Nuremberg, Germany. Michael’s research focus was on compilers and runtime optimizations for distributed systems. His areas of interest include compiler construction, design of programming languages, parallel programming, and performance analysis and tuning. Michael is a member of ACM and IEEE, and is an active member of the OpenMP Language Committee.

2. BMBF-HPC-Call veröffentlicht

Ende Februar wurde vom BMBF der zweite Call aus der Reihe „HPC-Software für skalierbare Parallelrechner“ veröffentlicht: http://www.bmbf.de/foerderungen/14191.php

Gefördert werden interdisziplinäre Verbindprojekte bei denen eine nachhaltige Nutzung der gewonnenen Erkenntnisse durch eine breite Anwenderschar sichergestellt ist.

Antragsskizzen müssen bis zum 31. Mai 2010 beim BMBF bzw. dem beauftragten Projektträger eingereicht werden.

Toolsammlung „Likwid“ veröffentlicht

Die Toolsammlung „Likwid“ (http://code.google.com/p/likwid/) ist ein Ergebnis der Arbeiten des RRZE im Rahmen des KONWIHR-Projekts omi4papps und stellt einen Satz von Hilfsprogrammen bereit, die für die Entwicklung und Ausführung von Programmen auf Multi-Core Systemen sehr hilfreich sein können.

Likwid stands for Like I knew what I am doing. This project contributes easy to use command line tools for Linux to support programmers in developing high performance multi threaded programs.
It contains the following tools:

  • likwid-topology: Show the thread and cache topology
  • likwid-perfCtr: Measure hardware performance counters on Intel and AMD processors
  • likwid-features: Show and Toggle hardware prefetch control bits on Intel Core 2 processors
  • likwid-pin: Pin your threaded application without touching your code (supports pthreads, Intel OpenMP and gcc OpenMP)

There are already a bunch of performance counter tools available. Likwid stands out because:

  • No kernel patching, any vanilla kernel with the standard msr module works
  • Transparent, always clear which events are chosen, event tags have the same naming as in documentation
  • Ease of use, no java hog, simple to build, no need to touch your code, configurable from outside. Clear CLI interface
  • Multiplatform, likwid supports Intel and AMD processors
  • Up to date, likwid tries to fully support new processors as soon as possible

Erweiterung der Windows-HPC-Rechenkapazität am RRZE

Um die steigende Nachfrage nach HPC-Rechenleistung unter Microsoft Windows befriedigen zu können, hat das RRZE die Hardware des Windows-HPC-Clusters erneuert und deutlich erweitert: 16 Dual-Socket Rechenknoten mit Hexa-Core AMD Istanbul Prozessoren und jeweils 32 GB Arbeitsspeicher stellen jetzt 192 Rechenkerne, 512 GB Hauptspeicher und eine Peak-Performance von 2 TFLOP/s unter Windows HPC2008 zur Verfügung.

Eine Einführung in das neue System mit einer Hands-On Session findet am 1.12.2009 von 11:00-13:00 am RRZE statt. Interessierte Teilnehmer aus ganz Bayern sind herzlich eingeladen. Eine Anmeldung bei hpc@rrze.uni-erlangen.de ist erforderlich.

Workshop am LRZ: Application Scalability, 13. Oktober 2009

Audiance: Attendees should be ideally application experts or people who have experience to port and tune applications on different hardware platforms. They shoud intend to scale or have already scaled their codes to more than several hundreds or thousands of cores.

Background: The last years have seen a tremendous increase of the number of cores of HPC systems. The next petascale system at LRZ will probably have more than one hundred thousand cores. Scaling applications to high core counts is crucial for reaching high performance because the increase of processor frequency will be rather limited in the future. Therefore, LRZ is glad to offer this workshop about Application Scalability together with Cray Inc.

Lecturer: John Levesque, Cray Inc.

Termin/Ort: Oct 13, 2009, 10:00-16:00, LRZ (Garching).

The number of attendees is limited ! Registration is required.

Registration and further details: check http://www.lrz-muenchen.de/services/compute/hlrb/aktuell/ali3529/

Workshop am LRZ: Performance Analysis and Workload Characterization with IPM, 17.9.2009

IPM is a profiling and workload characterization tool for MPI applications. IPM achieves its goal of minimizing monitoring overhead by recording performance data in a fixed-size hash table resident in memory and carefully optimizing time-critical operations. At the same time, IPM offers very detailed and user-centric performance metrics. IPM’s performance data is delivered as an XML file that can subsequently be used to generate HTML pages, avoiding the need for custom GUI programs. Pairwise communication volume between processes, communication time breakdown across ranks, MPI operation timings, and MPI message sizes (buffer lengths) are some of IPM’s most widely used features. IPM is available at http://ipm-hpc.sourceforge.net for download and is distributed under the LGPL license.

Vortragende: David Skinner and Karl Fuerlinger, Lawrence Berkeley National Laboratory (LBNL), National Energy Research Scientific Computing Center (NERSC)

Ort/Termin: Leibniz Rechenzentrum, Garching, Kommissionsraum H.2.002, 17 September 2009, 14:00 s.t.