Vorlesung „Paralleles Rechnen“
Voraussetzung
Vorlesung „Grundlagen Betriebssysteme und Rechnernetze“
Zeit/Ort
- Vorlesung:
- Mittwoch, 10:15–11:45 Uhr, Raum 03.04.1.02
- Übung:
- Dienstag, 13:30–15:00 Uhr, Raum 03.04.1.03
(alle 14 Tage)
Umfang und Zuordnung
- Hinweis:
- Masterveranstaltung (ab 7. Semester)
- Veranstaltungsform:
- Vorlesung + Übung (2+1 SWS)
- Leistungspunkte:
- 6
- Informatikfachzuordnung:
- Praktische Informatik (3000)
Start
22. 04. 2009
Die erste Übung findet am 28. 04. 2009 statt.
Ansprechpartner
Folien
Die Folien zur Vorlesung finden Sie hier!
Anforderungen
- Es müssen studienbegleitend mindestens 50 % der Hausaufgabenpunkte erreicht werden, um zur Prüfung (Klausur) zugelassen zu werden.
- Die Prüfung (Klausur) muss mit mindestens 4.0 bestanden werden.
Klausurtermin
Die Klausur findet am Dienstag, dem 28. Juli, Raum 1.02, 10:00–12:00 Uhr statt.
Inhalte
Die Vernetzung von Arbeitsplatzrechnern hat zu einer preisgünstigen Plattform für parallele
Anwendungen geführt – den sogenannten Clustern. Mit der Entwicklung von leistungsfähigen
Kommunikationstechnologien (z. B. Gigabit Ethernet, Myrinet, Quadrics, InfiniBand) sind Cluster auch für den
Bereich High Performance Computing und E-Commerce interessant geworden und stehen dort aufgrund ihres
Preis/Leistungsverhältnis in direkter Konkurrenz zu traditionellen Parallelrechnern. Die Vorlesung
stellt die Konzepte der Parallelverarbeitung vor und legt ihren Schwerpunkt auf den Bereich Cluster
Computing. Es werden Systemansätze zur Unterstützung paralleler Anwendungen in Clustern
besprochen, z. B. Ressourcenmanagment, Lastverteilung und Fehlertoleranz.
U. a. werden folgende Fragestellungen behandelt:
- Wer oder was ist ein Beowulf?
- Wieso ist Gamma um mehr als ein Epsilon besser als IP?
- Welche Parallelisierungskonzepte gibt es?
- Gibt es bessere Schedulingverfahren als First Come First Served für parallele Anwendungen?
- Wie vermeide ich den Ping-Pong-Effekt bei der Lastbalancierung?
- Wie erreicht man superlinearen Speedup?
Inhaltsübersicht
- Einführung: Motivation und Terminologie
- Hardware:
- Parallelrechnerarchitekturen
- Clustertechnologie
- Konzepte paralleler Anwendungen
- Ebenen der Parallelität
- Programmiermodelle für parallele Anwendungen
- Graphenbasierte Modellierung von parallelen Programmen
- Das nachrichtenbasierte Programmiermodell
- Beispiel: Message Passing System (MPI)
- Das datenparallele Programmiermodell
- Beispiel: Fortran 90, High Performance Fortran
- Das Programmiermodell des gemeinsamen Speichers
- Leistungsanalyse
- Leistungsmaße wie z.B. Speedup, Effizienz
- Benchmarks
- Top 500
- Scheduling und Mapping paralleler Anwendungen
- Space-Sharing-Strategien
- Time-Sharing-Strategien/Gang-Scheduling
- Metacomputing/Grid Computing
- Beispielsysteme: Globus, Legion, Nimrod
- Fehlertoleranz
- Cluster-Monitoring
- Checkpointing und Checkpointing-Protokolle
- Migrationssysteme: Condor, PBeam, CoCheck
- Parallele Ein-/Ausgabe
Literatur
- Michael J. Quinn: Parallel Programming, Mcgraw-Hill Higher Education, 2004.
- Peter Sanders, Thomas Worsch: Parallele Programmierung mit MPI, Logos Verlag, 1997.
- Ian Foster: Designing and Building Parallel Programs, Addison Wesley, 1995.
- Hwang/Xu: Scalable Parallel Computing: Technology, Architecture, Programming, Boston, WCB/McGraw-Hill, 1998.
[zurück]
[nach oben]
Mail to webmaster
© by Prof. Dr. Bettina Schnor, Klemens Kittan
Design by Klemens Kittan, Maximilian Haase