Technische Universität Berlin
Parallelisierung mit MPI

Zum FB3

Übersicht

für

IBM UNIX Workstationcluster

Silicon Graphics Origin 200

CRAY T3E


- Zugang zum Rechnernetz
- Workstationnetz (FB Mathematik Forschungsbereich)
- SGI Origin 200 (FB Mathematik Forschungsbereich)
- CRAY T3E (Konrad Zuse Zentrum für Informationstechnik ZIB Berlin)
- MPI Installationen im FB Mathematik
- LAM MPI
- SGI's Origin 200 MPI
- MPI im Detail
- Wichtige MPI Routinen
- MPI Rahmenprogramm
- Einfache Beispiele
- Programmieren im Detail
- CRAY Batchjobs - allgemein
- CRAY Batchjobs - Beispiel
- Nützliche Compileroptionen
- 32-Bit und 64-Bit Datentypen
- Zeitmessungen
- MPI Dokumentation
- MPI Referenzbuch (ausserhalb des FB Netzes)


Parallele Numerik
06.05.1999 Annette Jäkel