Vorlesung Paralleles Rechnen
aktuelle Informationen
- Zulassung zur Nachklausur
- Ergebnisse der Klausur vom 12.02.04;
hier finden Sie den Notenspiegel
- Nachklausur: Eine Nachklausur findet am Montag, den 29.03.04
von 10:00 bis 12:00 Uhr
in Raum 1.02 statt.
- Klausureinsicht:
- Donnerstag 18.03.04 von 14:00 bis 16:00 Uhr
- Dienstag 23.03.04 von 09:00 bis 11:00 Uhr
- Klausur UPDATE!! natürlich schreiben wir nicht 3 Std. Klausur,
sonden 2. Also von 9:30 bis 11:30.
Ab 9:00 ist "Einlass".
- Tabelle: Klausuzulassung UPDATE (10.02.04)
- Klausurhinweise:
- Unterlagen erlaubt
- keine Taschenrechner
- keine Notebooks
- Resultate von Blatt 3 (03.02.04)
- Resultate von Blatt 2 (20.04.04)
- Klausur: Donnerstag, 12. Februar 2004; HPI HS 3; 9:00 Uhr - 12:00 Uhr
- Exkursion: Mittwoch, 21.01.2004, 9:00 Uhr c.\,t.,
Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut), Golm
-
- drittes Aufgabenblatt:
Ausgabe am 14.01.04 Abgabe: bis 28.01.04
- 17.12.03: Vorlesungsausfall wegen Krankheit
- zweites Aufgabenblatt:
Ausgabe am 3.12.03 Abgabe: bis 17.12.03
- Resultate von Blatt 1 (03.12.03)
- Hinweise zur Clusternutzung
- Klausur: Donnerstag, 12. Februar 2004; HPI HS 3; 9:00 Uhr - 12:00 Uhr
- erstes Aufgabenblatt:
Ausgabe am 5.11.03 Abgabe: bis 19.11.03
- Vorlesung: Mittwoch 9:15-10:45, Raum 03.04.0.02
Ansprechpartner
Dr. Stefan Petri
Henryk Feider (Bearbeitet die Übungsaufgaben)
Folien
Die Folien zur Vorlesung finden Sie hier!
Anforderungen
Die Anforderungen gelten auch für den unbenoteten Schein.
- mindestens 50% der Hausaufgabenpunkte
- Bestehen der Klausur
Umfang und Zuordnung
Veranstaltungsform: Vorlesung (2 SWS)
Belegungspunkte: 3
Informatikfachzuordnung: Praktische Informatik (3000)
Praktikum
Zu der Veranstaltung wird im Sommersemster 2004 ein Praktikum angeboten (4 SWS, 6 LP).
Inhalt
Die Vernetzung von Arbeitsplatzrechnern hat zu einer preisgünstigen Plattform für parallele
Anwendungen geführt - den sogenannten Clustern. Mit der Entwicklung von leistungsfähigen
Kommunikationstechnologien (z. B. Fast/Gigabit Ethernet, Myrinet, SCI) sind Cluster auch für den
Bereich High Performance Computing und eCommerce interessant geworden und stehen dort aufgrund ihres
Preis/Leistungsverhältnis in direkter Konkurrenz zu traditionellen Parallelrechnern. Die Vorlesung
stellt die Konzepte der Parallelverarbeitung vor und legt ihren Schwerpunkt auf den Bereich Cluster
Computing. Es werden Systemansätze zur Unterstützung paralleler Anwendungen in Clustern
besprochen, z. B. Ressourcenmanagment, Lastverteilung und Fehlertoleranz.
U. a. werden folgende Fragestellungen behandelt:
- Wer oder was ist ein Beowulf?
- Wieso ist Gamma um mehr als ein Epsilon besser als IP?
- Gibt es bessere Schedulingverfahren als First Come First Served für parallele Anwendungen?
- Wie vermeide ich den Ping-Pong-Effekt bei der Lastbalancierung?
- Wie erreicht man superlinearen Speedup?
- Warum ist Prozeßmigration aufwendig?
Voraussetzung ist der Stoff aus der Vorlesung "Grundlagen Betriebssysteme und Rechnernetze".
Gliederung
- Einführung: Motivation und Terminologie
- Hardware:
- Parallelrechnerarchitekturen
- Clustertechnologie
- Konzepte paralleler Anwendungen
- Ebenen der Parallelität
- Programmiermodelle für parallele Anwendungen
- Graphenbasierte Modellierung von parallelen Programmen
- Das nachrichtenbasierte Programmiermodell
- Beispiel: Message Passing System (MPI)
- Das datenparallele Programmiermodell
- Beispiel: Fortran 90, High Performance Fortran
- Das Programmiermodell des gemeinsamen Speichers
- Leistungsanalyse
- Leistungsmaße wie z.B. Speedup, Effizienz
- Benchmarks
- Top 500
- Scheduling und Mapping paralleler Anwendungen
- Space-Sharing-Strategien
- Time-Sharing-Strategien/Gang-Scheduling
- Metacomputing/Grid Computing
- Beispielsysteme: Globus, Legion, Nimrod
- Fehlertoleranz
- Cluster-Monitoring
- Checkpointing und Checkpointing-Protokolle
- Migrationssysteme: Condor, PBeam, CoCheck
- Parallele Ein-/Ausgabe
Literatur
- Rajkumar Buyya (ed.): High Performance Cluster Computing Volume 1: Architectures and Systems, Prentice Hall, 1999.
- Rajkumar Buyya (ed.): High Performance Cluster Computing Volume 2: Programming and Applications, Prentice Hall, 1999.
- Hwang/Xu: Scalable Parallel Computing: Technology, Architecture, Programming, Boston, WCB/McGraw-Hill, 1998.
- Fran Berman, Geoffrey Fox, and Anthony J.G. Hey (eds.): Grid Computing: Making the Global Infrastructure a Reality, John Wiley & Sons, 2003.
- Ian Foster und Carl Kesselman (eds.): The Grid: Blueprint for a New Computing Infrastructure, Morgan Kaufmann, 1999.
- Ian Foster: Designing and Building Parallel Programs, Addison Wesley, 1995.
- Peter Sanders, Thomas Worsch: Parallele Programmierung mit MPI, Logos Verlag, 1997.
[zurück]
[nach oben]
Mail to webmaster
© by Prof. Dr. Bettina Schnor, Klemens Kittan
Design by Klemens Kittan, Maximilian Haase