Vorlesung "Paralleles Rechnen"
27. 10. 2009
In dem Seminar sollen aktuelle Themen aus dem Bereich Cluster und Grid Computing bearbeitet werden. Hierbei wird ein Schwerpunkt auf selbständige praktische Arbeiten gelegt.
Die Themen werden in Gruppen von 2-3 StudentenInnen bearbeitet. Die Themen kommen zum einen aus dem Bereich der Arbeitsgruppe Cluster und Grid Computing von Prof. Schnor zum anderen aus Kooperation mit anderen wissenschaftlichen Einrichtungen in Potsdam, wie beispielsweise dem Potsdamer Institut für Klimafolgenforschung(PIK), dem Astrophysikalischen Institut Potsdam (AIP) und dem Albert-Einstein-Institut (AEI).
Weitere Informationen zum Seminar werden auf der Informationsveranstaltung (1. Vorlesung) gegeben.
Die detaillierte Themenvorstellung und -vergabe erfolgt beim ersten Termin am 27. 10. 2009.
Bitte informieren Sie Sich jedoch bereits jetzt anhand der Teaser-Texte zu den einzelnen Themen und geben Sie per E-Mail an Prof. Schnor bekannt, für welches Thema Sie Sich interessieren.
Im Forschungsbereich „Erdsystemanalyse“ des Potsdam-Instituts für Klimafolgenforschung wird u.a. an der nächsten Generation eines Erdsystem-Modells mittlerer Komplexität gearbeitet (http://www.pik-potsdam.de/research/research-domains/earth-system-analysis/projects/next/climber-3/climber-3). Ziel dieser Modellentwicklung ist die Untersuchung der gekoppelten Dynamik der Geosphäre, Biosphäre und Anthroposphäre im Hinblick auf natürliche und vom Menschen geschaffene Ă„nderungen. Die Ergebnisse sollen helfen, die zu erwartenden Wirkungen des Globalen Wandels für das Erdsystem abzuschätzen.
Da solche Modelle sehr rechenaufwendig sind, ist Beschleunigung durch paralleles Rechnen eine wichtige Voraussetzung für die beabsichtigten Forschungsarbeiten.
Im Rahmen dieser Climber-3 Aktivität wird ein neues Atmosphärenmodell Potsdam-3 (Potsdam statistical-dynamical atmosphere model) entwickelt und in
C++ implementiert.
Im Praktikum soll das Potsdam-3 Modell parallelisiert werden. In dem Modell wird die Atmosphäre durch ein 3-dimensionales Gitter repräsentiert, der Zeitablauf wird in diskrete Zeitschritte unterteilt. In jedem Zeitschritt wird der neue Zustand der Atmosphäre durch 7 von einander unabhängige Gleichungen aus dem alten Zustand berechnet. Als Parallelisierungsansatz bietet sich daher eine funktionale Zerlegung an, bei der jede der 7 Funktionen von einem anderen Prozessor berechnet wird. Ein anderer Ansatz arbeitet mit Gebietszerlegung, so dass jeder Prozessor die gleichen Operationen, aber auf einem anderen Teilstück der Atmosphäre berechnet.
Das Deep Computing Messaging Framework (DCMF) ist eine Kommunikationsschnittstelle für parallele Anwendungen. Ursprünglich für die Blue Gene Architektur gedacht, wurde es auch für Sockets portiert und kann somit auf Linux-Clustern ausprobiert werden. Das Interface stellt Primitiven für klassische zweiseitige Kommunikation, Remote Memory Access via one-sided communication und kollektive Operationen bereit. Vorherrschendes Prinzip ist nicht-blockierende Kommunikation in Verbindung mit Active Messages und Callbacks.
Im Rahmen des Praktikums soll die eine Performanceanalyse von DCMF auf dem Zuse-Cluster vorgenommen werden. Hierzu muss DCMF auf Zuse installiert werden (in Absprache mit Klemens Kittan) und einfache Anwendengen (Beispiel Zellularautomat, FFT) low-level auf DCMF portiert werden.
Nowadays multicore architectures become more and more important, thus leading to these questions in the Parallel Computing field: Would the MPI-applications benefit from Clusters composed of multicore computation nodes? Or would the combination of OpenMP and MPI be more suitable for this architecture? How about the performance of Universal Parallel C (UPC) on multicore computers? This theme aims to answer these questions by implementing and testing the Cellular Automatons developed with pure MPI, pure OpenMP, UPC and the combination of OpenMP and MPI on multicore computers.
Zum Vergleich findet sich hier die ähnliche Aufgabenstellung aus dem Wintersemester 2008/2009.
[zurück]
[nach oben]
Mail to webmaster
© by Prof. Dr. Bettina Schnor, Klemens Kittan
Design by Klemens Kittan, Maximilian Haase