Die Vernetzung von Arbeitsplatzrechnern hat zu einer
preisgünstigen Plattform für parallele Anwendungen geführt - den sogenannten Clustern.
Mit der Entwicklung von leistungsfähigen Kommunikationstechnologien
(z. B. Fast/Gigabit Ethernet, Myrinet, SCI)
sind Cluster auch für den Bereich High Performance Computing
und eCommerce interessant geworden und stehen dort aufgrund ihres Preis/Leistungsverhältnis
in direkter Konkurrenz zu traditionellen Parallelrechnern.
Die Vorlesung stellt die Konzepte der Parallelverarbeitung vor
und legt ihren Schwerpunkt auf den Bereich Cluster Computing. Es werden Systemansätze
zur Unterstützung paralleler Anwendungen in Clustern besprochen, z. B. Ressourcenmanagment, Lastverteilung und Fehlertoleranz.
U. a. werden folgende Fragestellungen behandelt:
- Wer oder was ist ein Beowulf?
- Wieso ist Gamma um mehr als ein Epsilon besser als IP?
- Gibt es bessere Schedulingverfahren als First Come First Served für
parallele Anwendungen?
- Wie vermeide ich den Ping-Pong-Effekt bei der Lastbalancierung?
- Wie erreicht man superlinearen Speedup?
- Warum ist Prozeßmigration aufwendig?
Mittwoch 9:15-10:45, Raum 03.04.1.03
Beginn: 17.10.01
Mittwoch, 27.03.2002, 9.00-11.00, Raum 1.03
Hier die Ergebnisse!
Die Folien zur Vorlesung finden Sie
hier!
Vorlesung ``Grundlagen Betriebssysteme und Rechnernetze''
Prof. Dr. Bettina Schnor
schnor@cs.uni-potsdam.de, Tel. 0331-977-3120, Raum 2.23
Zu der Veranstaltung wird ein
Praktikum
angeboten.
- 1.
- Einführung: Motivation und Terminologie
- 2.
- Hardware:
- Parallelrechnerarchitekturen
- Clustertechnologie
- 3.
- Konzepte paralleler Anwendungen
- Ebenen der Parallelität
- Programmiermodelle für parallele Anwendungen
- Graphenbasierte Modellierung von parallelen Programmen
- 4.
- Das nachrichtenbasierte Programmiermodelle
Beispiel: Message Passing Systeme PVM und MPI
- 5.
- Das datenparallele Programmiermodell
Beispiel: Fortran 90, High Performance Fortran
- 6.
- Das Programmiermodell des gemeinsamen Speichers
Beispiel: OpenMP
- 7.
- High Performance Java
- 8.
- Leistungsanalyse
- Leistungsmaße wie z.B. Speedup, Effizienz
- Benchmarks
- Top 500
- 9.
- Cluster Computing
- 10.
- Metacomputing/Grid Computing
Beispielsysteme: Globus, Legion, Nimrod
- 11.
- Ressourcenmanagementsysteme
- Komponenten und ihre Aufgaben
- Beispielsysteme: DQS, LSF, Codine
- 12.
- Scheduling und Mapping paralleler Anwendungen
- Space-Sharing-Strategien
- Time-Sharing-Strategien/Gang-Scheduling
- 13.
- Lastverteilung
- statische/dynamische Lastverteilung
- Migrationsstrategien
- 14.
- Checkpointing und Checkpointing-Protokolle
- 15.
- Migrationssysteme
Beispielsysteme: Condor, PBeam, CoCheck
- Rajkumar Buyya (ed.): High Performance Cluster Computing Volume 1:
Architectures and Systems, Prentice Hall, 1999.
- Rajkumar Buyya (ed.): High Performance Cluster Computing Volume 2:
Programming and Applications, Prentice Hall, 1999.
- Hwang/Xu: Scalable Parallel Computing:
Technology, Architecture, Programming, Boston, WCB/McGraw-Hill, 1998.
- Barry Wilkinson and Michael Allen: Parallel Programming: Techniques
and Applications Using Networked Workstations and Parallel Computers,
Prentice Hall, 1999.
- Ian Foster und Carl Kesselman (eds.): The Grid: Blueprint for a New
Computing Infrastructure, Morgan Kaufmann, 1999.
- Ian Foster: Designing and Building Parallel Programs, Addison Wesley, 1995.
- Hans-Ulrich Heiss: Prozessorzuteilung in Parallelrechnern, BI
Wissenschaftsverlag, Reihe Informatik Band 98, 1994.
Home
Address
Staff
Research
Re
search Lab
Teaching
Institute for Computer Science
University Potsdam