IT-Forschung 2006
Förderprogramm Informations-
und Kommunikationstechnik
4.2.2. Höchstleistungsrechnen und Grid Computing
Ausgangslage
In den vergangenen 10 Jahren hat sich in Deutschland durch die Förderung des Bundesministerium für Bildung und Forschung eine für das Höchstleistungsrechnen günstige technische, wissenschaftliche und organisatorische Infrastruktur gebildet, von der die Wirtschaft zunehmend profitiert. Die Erschließung von Anwendungen der Wirtschaft für das Höchstleistungsrechnen ist im numerischen Bereich (international) relativ weit gediehen. Im nichtnumerischen Bereich sind in den nächsten Jahren enorme breitgefächerte Anforderungen zu erwarten. Ein Nachholbedarf besteht noch im Ausbildungsbereich.
Höchstleistungsrechner werden künftig fast ausschließlich aus gekoppelten homogenen SMP-Knoten (shared memory Multiprozessoren) bestehen. Damit wird Höchstleistungsrechnen zunehmend zum Cluster-Computing, wobei die Cluster durch sukzessive Updates im Laufe der Zeit automatisch heterogen werden. Grid Computing wird als Konsequenz moderner Rechnerarchitekturen, leistungsfähiger Datennetze und verteilter Arbeits- und Programmorganisationen zunehmend eine wichtige Rolle im High Performance Computing (HPC) spielen.
Software für Höchstleistungsrechner in verteilten Systemen ist und bleibt weltweit die kritische Ressource. Das betrifft alle Bereiche - von mathematischen Verfahren bis hin zur Management-Software in heterogenen Umgebungen. Hersteller werden zukünftig mit den Rechnern nur Basiskomponenten der Systemsoftware liefern.
Erzielte Leistungen für reale Anwendungsprogramme im HPC liegen in vielen Fällen bis zu 80% unter der theoretischen Spitzenleistung der Superrechner.
Handlungsbedarf und Ziele
Der gezielte Ausbau der Supercomputer-Zentren nach dem Votum des Wissenschaftsrats "Empfehlung zur zukünftigen Nutzung von Höchstleistungsrechnern" ist unabdingbar für den Erhalt der Kompetenz in dem für die deutsche Wissenschaft und Wirtschaft wichtigen Hochtechnologiebereich.
Für den Zusammenschluss deutscher Supercomputer- und Kompetenzzentren ist im "High-End-Bereich" ein dediziertes Breitband-Verbundnetz mit Dienstgütegarantie notwendig.
Eine Stabilisierung und Weiterentwicklung der Software-Kompetenz für das HPC im internationalen Vergleich ist für Deutschland ohne eigene Hardwareentwicklung eminent wichtig. An Verbundvorhaben sollen verstärkt Softwarehäuser beteiligt werden, um FuE-Projektergebnisse in Softwareprodukte umsetzen zu können, da im HPC- und Simulationsbereich deutsche Software-Produkte noch eine zu geringe Rolle spielen.
Grid-Technologie muss im täglichen anwendungsbezogenen Einsatz und nicht nur als Prinzipdemonstration erprobt werden. Für neue Anwendungsbereiche fehlt weitgehend eine leistungsfähige Middleware. Grid Computing entwickelt sich gleichermaßen im wissenschaftlichen und industriellen Bereich und stellt damit hohe Anforderungen an den Technologietransfer.
Die in Deutschland vorhandene wissenschaftliche und Anwenderkompetenz zum High Performance und Grid Computing soll zusammengeführt und stärker gebündelt werden. Der Kompetenzerhalt ist durch Maßnahmen der Aus- und Weiterbildung dauerhaft zu sichern.
Im Bereich der Nichtnumerik sind neue breite Anwendungsgebiete durch die Entwicklung geeigneter Methoden und Verfahren zu erschließen (Data Mining, Datenbankanwendungen, intelligente Bildverarbeitung, kombinatorische Methoden und Optimierung, nichtnumerische Simulation).
Forschungsthemen
- Numerische Verfahren und Stabilität
- Es ist zum Teil unklar, wie sich heutige Algorithmen bei 100 Tflops-Anwendungen, d.h. extremen numerischen Simulationen verhalten. Es soll daher untersucht werden, inwieweit mathematische Modellbildung und numerische Verfahren Einfluss auf die Stabilität von Ergebnissen haben. Validierungs- und Verifikationsmethoden sind dazu notwendig.
- Da die Schere zwischen der Steigerung der CPU-Leistung und der Speicherzugriffsleistung immer größer wird, sollen Methoden entwickelt werden, um die Speicherzugriffe zu reduzieren.
- Cluster- und Grid Computing
- Bei der Programmierung großer Clustersysteme und für das Grid Computing sollen einheitliche Programmiermodelle, systemübergreifende Programmierumgebungen, Werkzeuge für die Programmentwicklung und -optimierung, Software-Bausteine für Anwendungen sowie neue Programmierkonzepte zum heterogenen Rechnen (funktionale Zerlegung, Abbildungsmethoden auf das Grid) unterstützt werden. Wichtige FuE-Aufgaben werden Untersuchungen zur Architektur gekoppelter Systeme und zur Sicherung der Interoperabilität systemübergreifender Komponenten (Integration unterschiedlicher Ansätze) sein. Des Weiteren sollen Untersuchungen zu Clusterarchitekturen für Echtzeitanwendungen gefördert werden.
- Die Vernetzung von Höchstleistungsrechnern in Supercomputer- und Kompetenzzentren bleibt einer der wichtigsten Bestandteile des Grid Computing. Hier sind effiziente und für die Anwender intuitiv bedienbare Softwarelösungen weiter zu entwickeln und als Standards zu etablieren.
- Für eine breite Nutzung des Grid sind von applikativer Seite wichtige Anwendungen "gridfähig" zu machen und mit fortschrittlichen Netztechniken zusammen zu führen, um aus Grid Computing ein Werkzeug für den täglichen Einsatz zu machen und dessen Leistungspotenzial zu erschließen.
- Datenmanagement
- Effiziente Methoden des Managements zur Bereitstellung und Bearbeitung großer Datenmengen zwischen Elementen von Superrechnern und auch in verteilten Systemen sollen gefördert werden.
- Neue leistungsfähige parallele Data-Mining-Verfahren von Texten, Bildern, Tondokumenten, Mustern und Web-Seiten für große Datenbestände und Datenbanken sollen unterstützt werden. Dazu gehören neue Systemansätze für verteilte Datenbankarchitekturen mit paralleler Verarbeitung.
- Parallele Methoden der Nichtnumerik
- Um den Einsatz paralleler Optimierungsverfahren in Industrie und Wirtschaft, in Banken und Versicherungen weiter voranzubringen, sollen wiederverwendbare parallele Libraries mit Standardoptimierungsalgorithmen für Probleme der Logistik und Produktion entwickelt werden. Bedeutsam sind auch Simulationsmethoden für diskrete Probleme wie Verkehrssimulation.
- Bei technischen und naturwissenschaftlichen Problemen sollen parallele Monte-Carlo-Verfahren und parallele Algorithmen für komplexe Computer-Algebra-Probleme gefördert werden.
- Numerische Simulation soll mit nichtnumerischen Verfahren zur Analyse von Simulationsergebnissen (etwa durch Data Mining) kombiniert werden.
- Neue Methoden des HPC sollen für die Biotechnologien entwickelt werden.
- Verlässliches Höchstleistungsrechnen
- Mehrebenenmodelle der Verlässlichkeit,
- Technisch/Organisatorische Gesamtkonzepte und Betreibermodelle,
- Verfügbarkeitsoptimierung.
- Kompetenzzentren, Kompetenznetzwerk
Die vorhandenen Kompetenzzentren für numerische Anwendungen sollen vernetzt und um ein bis zwei Kompetenzzentren für die Nichtnumerik ergänzt werden.
Wichtige Anwendungsgebiete
- Das größte Anwendungspotenzial für numerische Fragestellungen liegt nach wie vor im naturwissenschaftlichen Bereich (Physik - Festkörper- und Vielteilchenphysik, Chemie - Molekulardynamik, Quantenchemie, Wirkstoffforschung), in der Umweltforschung (Meeresströmungen, Schadstoffausbreitung) und in ingenieurwissenschaftlichen und technischen Fragestellungen (Strömungssimulation, Strukturmechanik, Kopplungsprobleme).
- Im nichtnumerischen Bereich hat die Suche nach Bildinhalten ein enormes Anwendungspotenzial. Biologische und medizinische Fragestellungen werden zunehmend wichtig.
- Einsatzfelder für Datenbankanwendungen sind neben der Wirtschaft (Finanzen und Data-Warehouse) vor allem Geoinformationssysteme und Biodatenbanken.
- Es besteht ein hohes Optimierungspotenzial im Bereich von Produktions- und Logistikketten.
- In Entwurf und Fertigung wachsen die Anforderungen an umfassende integrierte Simulationsumgebungen.
zum Seitenanfang