Das unter dem Codename "Project Ultraviolet" laufende langfristige, visionäre Vorhaben zielt auf mehr Produktivität beim Supercomputing. Aus dem Projekt sollen Systeme hervorgehen, die erstmals verschiedene Ansätze des numerischen Hochleistungsrechnens unterstützen und diese auch in kombinierter Form zu nutzen erlauben. Damit werden Kunden bei ihren technisch-wissenschaftlichen Aufgabenstellungen ein Optimum an Leistungsfähigkeit erhalten - egal, nach welchem Programmiermodell ihre Anwendungscodes entwickelt sind, und ungeachtet dessen, wie ausgewogen die Computing-Last anfallen mag.
Geschwindigkeit alleine ist nicht zielführend
Dr. Eng Lim Goh, Entwicklungs-Chef von SGI: "Wir haben einen Punkt erreicht, ab dem es kaum mehr zielführend ist, Computer schneller zu machen, aber die Architektur beizubehalten. Wie mächtig, wie wertvoll ein Rechner wirklich ist, das hängt von seiner Nutzungsfähigkeit und Eignung ab, mit der er den Ingenieur oder Wissenschaftler bei der Bewältigung der Probleme unterstützen kann. Das Projekt Ultraviolet ist getrieben von Erfordernissen der Wissenschaft. Mit ihm und unserem Multi-Paradigm-Computing-Konzept wollen wir den Anwender produktiver machen."
Das Konzept des Multi-Paradigm-Computing (MPC) dient den strategischen Technologieentwicklern von SGI als Richtlinie, um den Hochleistungsrechner der Zukunft zu schaffen. MPC bedeutet, dass die Maschine die Anforderungen eines großen Spektrums technisch-wissenschaftlicher Anwendungen abdecken können muss. Diesem Ziel entsprechend verfolgt SGI einen System-Entwurf, der zum einen diverse Elemente bisher getrennter Rechnerarchitekturen mit einbezieht. Zum anderen soll er dafür sorgen, dass diese unterschiedlichen Ressourcen in der Lage sind, kooperativ und hocheffizient ein-und-denselben Datensatz zu bearbeiten, der - für sie gemeinsam zugänglich - in einem zusammenhängenden großen, flexibel ausbaubaren Systemspeicher residiert: im Skalierbaren Shared-Memory.
System-Entscheidung - ein Lebenszyklus von Restriktionen
"Wissenschaftler und Ingenieure treffen beim Kauf ihrer Hochleistungsrechner heute Entscheidungen, durch die sie sich auf Zeiträume von 10 und mehr Jahre festlegen," unterstreicht Goh. Über solche Lebenszyklus-Spannen hinweg arbeiten sie dann mit Applikationen - und teilweise entwickeln und pflegen sie Codes sogar selbst -, die genau dieser gewählten Architektur entsprechen. Mehr noch, die Wahl zwischen einer Cluster-, Shared-Memory- oder Vektor-Architektur bedeutet in vielen Fällen auch: Man muss Einschränkungen hinnehmen bei der Art und Größe der Datenmodelle, mit denen die Anwendungen aufgrund der jeweils gegebenen Hardware-Limitierungen umgehen können."
Flexibilität - für Stochastik, Multi-Physics und vieles mehr
"Diese Einschränkungen nehmen mehr und mehr zu, insbesondere wenn man sich das wachsende Interesse an fortgeschrittenen Computing-Methoden vor Augen führt. Der Bedarf erstreckt sich vom vermehrten und gezielteren Rechnen mit Stochastik-, Ensemble- und Multi-Physics-Ansätzen zur Multi-skalen Simulation (mit unterschiedlichen Sicht- und Beschreibungsweisen für ein-und-dieselbe Realität) bis hin zur Multidisziplinären Design-Optimierung (bei der man bisher isoliert behandelte Arbeitsgebiete und -methoden gemeinsam auf ein optimales Ergebnis ansetzt). Mit Multi-Paradigm-Computing werden sich die Dinge ändern. Sämtliche unterschiedlichen Paradigmen werden dann auf einem grundlegenden Niveau effizient unterstützt. SGI möchte den Wissenschaftlern zu mehr Produktivität verhelfen, indem sie sich statt der Computertechnik mehr ihrem eigentlichen Metier, der Wissenschaft, widmen."
Kooperationen aus Government und Industrie
"Intel freut sich, zusammen mit SGI an der Ultraviolet-Architektur zu arbeiten," sagt Justin Ratner, Senior Fellow bei Intel. "Intel und SGI werden im Rahmen des Advanced Computing Program Programmier-Schnittstellen entwickeln, die sowohl produktiver wie auch besser skalierbar sind. Dadurch lassen sich dann beim Arbeiten mit großen Datenmodellen massiv parallele Prozesse besser einsetzen. Die Entwicklung solcher Technologien wird die Parallelverarbeitung im Intel-Itanium2 basierenden Marktsegment vereinfachen und die Dinge auch für SGIs technisch-wissenschaftliche Anwender im HighEnd-Bereich erleichtern."
Weitere Kooperationen im Rahmen des Projekts Ultravilot wird SGI in den nächsten Monaten bekannt geben - mit Partnern aus dem US-Regierungsbereich wie auch aus der Industrie.
Systeme für MPC ab 2007 - Erste Ansätze schon ab 2005
Ebenso wird das Unternehmen in den nächsten Monaten Konkreteres zu seinen Plänen für die Next-Generation-SGI®-Systeme bekannt geben, die im Jahr 2005 auf den Markt kommen. Erste Schritte in Richtung Multi-Paradigm-Computing werden in ihnen dann bereits implementiert sein. Das Roll-out für den ersten ausgewachsenen, echten MPC-Rechner ist für etwa 2007 geplant.
Kompetenz bei Shared-Memory-Architekturen
SGI sieht sich in seinem Engagement, als Pionier die Implementierung von Multi-Paradigm-Computing voranzutreiben, gut positioniert. Das Unternehmen kann auf langjährige Erfahrung und führende Kompetenz mit skalierbaren Shared-Memory-Systemen aufbauen.
Seit 1996 hat das Unternehmen mit der Server- und Supercomputer-Familie SGI®Origin® die Grenzen bei System-Kommunikation und System-Management verschoben, so dass heute Hunderte von Mikroprozessoren gemeinsam einen Pool von Daten in einem einzigen großen zusammenhängenden Systemspeicher bearbeiten können. Shared-Memory bedeutet: Sämtliche Rechner-Ressourcen können gleichzeitig an einem einheitlichen großen Modell, ohne dass man es in viele kleinere Teilstücke zerlegen muss. Der Nutzer oder Programmierer ist nicht gezwungen, das Modell in passgerechte Portionen aufzusplitten, die für die einzelnen Ressourcen dann verdaubar sind. Ebensowenig muss er sich auf komplizierte Kommunikationsprozesse zwischen den Ressourcen verlassen, um sicher zu gehen, dass das Gesamtmodell konsistent bleibt, wenn Daten sich ändern.
Führende Institutionen wie das NASA Ames Research Center und das Fleet Numerical Meteorological and Oceanographic Center sowie Einrichtungen des US-Verteidungsministeriums setzen Origin-Supercomputer aufgrund der Tatsache ein, dass Forscher und Wissenschaftler in dem Shared-Memory extrem große und komplexe Datenmodelle analysieren können.
In Form der Server- und Supercluster-Systeme SGI®Altix® hat das Unternehmen die branchenführende Technologie für Shared-Memory-Computing auch auf die 64-Bit-Linux®-Plattform übertragen. Altix basiert - wie die Origin-Linie - auf der Architektur SGI®NUMAflex™. Sie integriert 100e von Intel®-Itanium®2-Prozessoren in eine Systemumgebung, in der diese alle auf ein bis zu 4 TB (TeraByte) großes Globales Shared-Memory zuarbeiten können. Das ist einzigartig in der Welt des Linux-basierten Hochleistungsrechnens.
Die den Altix-Systemen zugrunde liegende NUMAflex-Architektur befindet sich bereits in 3ter Generation und stellt eine echte Supercomputer-Architektur dar, mit besten Skalierbarkeits- und Bandbreiten-Eigenschaften. Es lassen sich selbst die größten Datensätze mit beispielhafter Einfachheit und in Rekordzeiten analysieren. Altix erschließt für den High-Performance-Computing-Workflow unter 64-Bit-Linux ein Höchstmaß an Stabilität und Produktivität. Aufgrund der einzigartigen NUMAflex-Architektur eignet sich Altix indessen nicht nur ideal für komplexe Applikationen, die nach dem Shared-Memory-Programmiermodell erstellt sind. Altix unterstützt ebenso effizient auch kommunikations-intensive Anwendungen, die nach dem Message-Passing-Programmiermodell arbeiten, für Cluster-Konfigurationen optimiert sind und in Umgebungen eingesetzt werden, die primär auf den Durchsatz-Workflow ausgerichtet sind.