Beteiligte Institute:
ZAM Verantwortlich: Dr. Dr. T. Lippert, ZAM,
th.lippert@fz-juelich.de
HGF - Research Field / Programme / Topic(s)
| |
4 |
Key Technologies |
| |
4.1 |
Scientific Computing |
| |
4.1.1 |
National Supercomputing Centre John von Neumann - Institute for Computing (NIC) |
| |
4.1.2 |
Computational Science, Algorithms and Architectures |
| |
4.1.3 |
Grid Computing |
Aufgaben und Ziele
Wissenschaftliches Rechnen/Scientific Computing hat sich zur dritten Säule wissenschaftlicher Methodik und damit zu einer strategischen Schlüsseltechnologie entwickelt. Das FZJ setzt diese Technologie intensiv bei seinen Forschungsarbeiten ein und stellt sie darüber hinaus im Rahmen des John von Neumann-Instituts für Computing (NIC) der Forschung in Deutschland zur Verfügung.
Die Aufgabe dieses FE-Vorhabens ist die Weiterentwicklung des Jülicher Supercomputing-Zentrums mit dem Ziel, seine Spitzenstellung als eines der drei nationalen Höchstleistungsrechenzentren zu sichern und auszubauen. Die Arbeiten hierzu werden im Zentralinstitut für Angewandte Mathematik (ZAM) durchgeführt und umfassen den Betrieb, die Weiterentwicklung und Optimierung der Supercomputer-Systeme, die Entwicklung der Methodik zu ihrer Nutzung in den Computational Sciences sowie die Integration von Rechnern und Daten in Grid-Systemen. Ausbildungsangebote im Höchstleistungsrechnen ergänzen diese Arbeiten.
Wichtige Ergebnisse im Jahr 2003
Nationales Höchstleistungsrechenzentrum
John von Neumann-Institut für Computing (NIC)
Im Mittelpunkt der Arbeiten standen die Vorbereitungen zur Installation des neuen Supercomputers, der zum Jahresende 2003 angeliefert wurde. Termingerecht wurde dafür die neue 1000 m2 große Maschinenhalle fertiggestellt, in der große luftgekühlte Systeme mit einem Energieverbrauch von zunächst 500 kVA betrieben werden können.
Der neue Supercomputer IBM eServer Cluster 1600 besteht aus 41 Knotenrechnern des Typs p690 mit je 32 Prozessoren POWER4+ (1,7 GHz) und 128 GByte gemeinsamem Speicher, wobei die Knoten durch einen High-Performance-Switch (HPS) miteinander verbunden sind. Der Rechner hat eine Peak-Leistung von ca. 9 TeraFLOPS und ist damit zur Zeit der leistungsstärkste Rechner in Europa. Anwendungen können über 1000 Prozessoren und 5 TeraByte Hauptspeicher nutzen. Sie haben über ein globales paralleles Filesystem Zugriff auf über 60 TeraByte Plattenplatz und einen integrierten Kassettenspeicher mit einer Kapazität von einem PetaByte.
Zur Vorbereitung des Produktionsbetriebes wurden auf zwei Knoten der neue HPS und die zugehörige Management-Software getestet. Im Sommer 2003 wurde ein aus 6 Knoten bestehendes Produktionssystem aufgebaut und den Benutzern übergeben. Mit einer Peak-Leistung von 1 TeraFLOPS ersetzte es den älteren der beiden CRAY T3E-Rechner im ZAM.
Weitere Entwicklungsarbeiten betrafen unter anderem die automatische Steuerung des Cluster-Systems auch bei Ausfall einzelner Komponenten, die Einrichtung eines globalen parallelen Dateisystems, die Leistungsoptimierung des Systems und von Anwendungen sowie die Datenmigration von den Cray-Systemen.
Um zwischen dem FZJ, der RWTH Aachen und der FH Aachen/Jülich neue Möglichkeiten für kommunikationsintensive gemeinsame Anwendungen zu eröffnen, wurde eine leistungsfähige Datenkommunikationsverbindung auf der Basis von Glasfasern (dark fibre) geplant und umgesetzt. Die verbesserte und flexiblere Anbindung an den DFN-Knoten Aachen ermöglicht die Teilnahme an nationalen und europäischen Forschungsvorhaben in den Bereichen Networking und Grid-Computing.
Computational Science, Algorithmen und Architekturen
Quantenchemie: Die Parallelisierung des RIDFT-Moduls (resolution of identity density functional theory) des Programmpakets TURBOMOLE inklusive Multipol-Approximation erlaubt nun nahezu interaktive DFT-Rechnungen bei state-of-the-art Problemgrößen von ca. 1000 Atomen.
Strukturmechanik: Zum Abschluss der dreijährigen Kooperation mit SERC, Indien, und der INTES GmbH, Stuttgart, wurde die Leistungsfähigkeit und Funktionalität des Finite-Elemente-Programms FINEART von 2D auf große 3D-Modelle erweitert.
Coulomb-Wechselwirkung: Eine neu implementierte Fast-Multipol-Methode für kontinuierliche Ladungsverteilungen wurde in TURBOMOLE integriert. Für die Bestimmung der langreichweitigen Wechselwirkungen in Vielteilchen-Systemen wurde ein Mehrgitterverfahren entwickelt.
Mit semi-empirischen Methoden wurde die Stabilität von mit stark positiv geladenem Jod dotiertem Thymin studiert. Die Rechnungen deuten auf eine "Coulombexplosion" für Ladungen größer als 5 Elementarladungen hin. Mit dem parallelen Tree-Code PEPC des ZAM wurde eine Untersuchung der Protonenbeschleunigung von laserbestrahlten Folien- und Draht-Targets durchgeführt.
Performance-Analyse: Die automatische Leistungsanalyseumgebung KOJAK wurde um die Möglichkeit zur Analyse von Hardware-Counter-Daten erweitert. Zusammen mit IBM entstand ein Leistungsmesswerkzeug für OpenMP-Anwendungen, welches auf binärer Instrumentierung und der Messschnittstelle POMP beruht.
Virtual-Reality-Techniken: Mit der Universität Moskau wurde eine Visualisierung von Magneto-Hydrodynamik-Daten implementiert. In Zusammenarbeit mit der RWTH Aachen wurden verteilte Szenengraphen realisiert. Der Einsatz der VISIT-Bibliothek des ZAM ermöglichte das "Steering" astrophysikalischer Simulationen.
Data-Mining: Für die Datenanalyse im Projekt GALA mit der Firma Grünenthal wurden Algorithmen zur binären Klassifikation mit Support-Vektor-Maschinen, einer Methode des maschinellen Lernens, implementiert und auf Daten aus der pharmazeutischen Forschung angewandt.
Grid-Computing
Mit der unter Führung des ZAM entwickelten UNICORE-Software hat das FZJ weltweite Sichtbarkeit im Grid-Computing erlangt und ist weiterhin gesuchter Partner in internationalen Projektvorhaben. Das ZAM ist im 6. EU-Rahmenprogramm an sieben positiv bewerteten Projektvorschlägen beteiligt.
Für das EUROGRID-Projekt wurde ein alternativer Dateitransfer für UNICORE konzipiert und mittels GridFTP implementiert und stark beschleunigt.
Eine Anbindung der Software VISIT an UNICORE wurde entwickelt und in Kombination mit der Access-Grid-Technik erfolgreich demonstriert.
Für das Projekt GRIP wurde UNICORE im Hinblick auf die Open Grid Services Architecture weiterentwickelt. Neben der leitenden Mitarbeit in entsprechenden Standardisierungsgremien konnten Dienste nach dem neuen Grid-Standard OGSI in UNICORE integriert werden.
Im Projekt OpenMolGRID wurden Erweiterungen zum UNICORE-System für den Molekül-Entwurfsprozess entwickelt. Insbesondere wurde der Zugriff auf Datenbanken mit chemischen und physikalischen Moleküleigenschaften realisiert und die Unterstützung mehrstufiger komplexer Arbeitsabläufe integriert.
Für das Projekt PAB wurden neue Konzepte und Werkzeuge zur Verwaltung einer Netzwerkdomäne auf der Basis von MPLS (multi-protocol label switching) entwickelt. Ferner wurden die mit MPLS verbundenen Signalisierungsverfahren detailliert untersucht.
Zum Seitenanfang