Auf Hochleistungsrechnern simulierte Prozesse spielen in Forschung und Entwicklung eine immer größere Rolle. Wirklichkeitsnähe und Praxisrelevanz sind dabei nur über eine enge Zusammenarbeit von Ingenieur- und Naturwissenschaftlern, Mathematikern und Informatikern zu erreichen.
Interdisziplinarität ist in unserer Wissenschaftslandschaft in aller Munde. Wenn auch die Vokabel noch nicht ganz so strapaziert ist wie etwa der Begriff des Technologietransfers, so löst doch die Feststellung, daß auf vielen Gebieten der Wissenschaft entscheidende Fortschritte heute oftmals nur aus der Zusammenarbeit von Experten unterschiedlicher Disziplinen resultieren können, nurmehr selten Verwunderung aus. Um so erstaunlicher ist da der immer wieder zu beobachtende (und zu erleidende) Umstand, daß Anspruch und Wirklichkeit im interdisziplinären Denken und Tun weit auseinanderklaffen. Eine kleine Anekdote (so geschehen im Januar 1997 in München anläßlich der Begutachtung eines Sonderforschungsbereichs) mag dies veranschaulichen, wobei wir mit Nachdruck versichern, nicht das Geringste gegen Limnologen zu haben!
Sprach der Limnologe zum Informatiker: "Also, ich empfehle Ihnen dringend, einen Limnologen einzustellen. Meiner Erfahrung nach können sich Limnologen blitzschnell das erforderliche Wissen aus Mathematik und Informatik aneignen, wohingegen andersherum Mathematiker und Informatiker über Jahre hinweg große Probleme haben, sich in die Biologie und Limnologie einzuarbeiten, weil ihnen einfach das Prozeßverständnis fehlt." War der Informatiker sprachlos.
Abb. 1: Verbesserte Arbeitsbedingungen in Laborräumen durch numerische Simulation der Raumdurchlüftung
Nun ist die Aufforderung zu einer disziplinären Durchmischung von Arbeitsgruppen an den Hochschulen ganz im Sinne der Autoren, sind sie doch selbst in einer aus Mathematikern, Informatikern, Ingenieuren und Physikern zusammengesetzten Gruppe tätig. Die in obiger Äußerung zutage tretende Geisteshaltung gibt allerdings zu denken. So möchten wir mit diesem Beitrag den Versuch eines Plädoyers für die Überwindung fakultärer Grenzen unternehmen und am Beispiel des wissenschaftlichen Rechnens aufzeigen, wie notwendig gerade heutzutage eine konstruktive interdisziplinäre Zusammenarbeit frei von Vorurteilen und Berührungsängsten ist und wie fruchtbar deren Resultate sein können. Noch ein Gnadengesuch vorneweg: Für die logische Merkwürdigkeit im Titel bitten wir um Nachsicht!
Abb. 2: Ob Abwasserausbreitung im Gangesdelta oder Versickerung von Schadstoffen im Erdreich: Strömung und Stofftransport in komplizierten Geometrien sind (leider) ein aktuelles Thema
Auch wenn es uns anders lieber wäre - noch ist das wissenschaftliche Rechnen als Disziplin wohl nicht hinreichend etabliert, als daß sich eine Begriffsklärung erübrigen würde. Dies zeigt etwa die vor nicht allzu langer Zeit von einem Chemiker unserer Hochschule vorgebrachte Frage, ob es denn ein unwissenschaftliches Rechnen gebe. (An dieser Stelle muß zumindest der hierbei angesprochene Verfasser zugeben, daß es schon einiges an Überwindung gekostet hat, sich nicht wieder auf das Schlachtfeld der Fakultäten zu begeben und mit einem forschen "Aber sicher, das stöchiometrische!" zu parieren.) Wir wollen hier jedoch diese Frage offen lassen. Unter dem wissenschaftlichen Rechnen oder - ausführlicher - dem technisch-wissenschaftlichen Hochleistungsrechnen versteht man jedenfalls gemeinhin das in den vergangenen Jahren zur eigenständigen Disziplin herangewachsene Gebiet, das sich mit der Supercomputer-gestützten numerischen Simulation von Prozessen beschäftigt, wie sie in den Ingenieur-, Natur- oder - in jüngerer Zeit auch - Wirtschafts- und Sozialwissenschaften untersucht werden. Die numerische Simulation tritt dabei in zunehmendem Maße als gleichberechtigter Partner neben die beiden klassischen Säulen des Erkenntniserwerbs in den betreffenden Anwendungswissenschaften, die theoretische Untersuchung und das Experiment. Ausgehend von einem im jeweiligen Anwendungsgebiet entwickelten Modell zur formalen Beschreibung der interessierenden Zusammenhänge wird die numerische Simulation dann quasi als Experiment am Modell durchgeführt.
Abb. 3: Vernetzung von Rechnern - ein Weg zum Supercomputer und ein wichtiger Beitrag der Informatik
Bereits in dieser Definition tritt der interdisziplinäre Ansatz des wissenschaftlichen Rechnens im Spannungsfeld von konkreter Anwendung, angewandter Mathematik und Informatik zutage. Nur durch das Zusammenwirken aktueller Methoden und Forschungsergebnisse aus allen drei Disziplinen sind realitätsnahe und für den industriellen Einsatz taugliche Resultate durch numerische Simulation zu erzielen. Die jeweilige Anwendungswissenschaft bringt ihr wissenschaftliches und technologisches Know-how sowie die Möglichkeiten und Fertigkeiten zur Verifikation der Simulationsergebnisse mittels experimenteller Techniken ein. Die Mathematik leistet wichtige Beiträge sowohl bei der Modellbildung als auch bei der Entwicklung effizienter numerischer Verfahren zur rechnergestützten Lösung der Modelle. Die zentrale Rolle der Informatik schließlich besteht in der Entwicklung, Nutzbarmachung und Programmierung moderner Hochleistungsrechner - also Vektor-, Vektor-Parallel- und Parallelrechner, aber auch Netzen von Arbeitsplatzrechnern. Die Vergangenheit hat gezeigt, daß keine der genannten Disziplinen im Alleingang in der Lage ist, die numerische Simulation entscheidend voranzubringen, geschweige denn, die in den USA im "High Performance Computing und Communication"- Programm formulierten und zur nationalen Aufgabe erklärten "Grand Challenges" (numerische Simulation etwa in den Bereichen Wettervorhersage, Klimamodellierung, Aerodynamik, Gentechnologie ...) erfolgreich anzugehen. Auch wenn immer wieder Vereinnahmungsversuche von seiten einzelner Fakultäten oder einiger ihrer Protagonisten unternommen werden, die das wissenschaftliche Rechnen gerne als bloßes Teilgebiet der eigenen Disziplin verstanden wüßten - zu komplex sind die zu simulierenden Systeme, als daß Mathematikern oder Informatikern alleine eine realitätsnahe Modellierung gelingen könnte, zu groß sind die Anforderungen an Rechenzeit und Speicherplatz, als daß mit den etwa in Ingenieurlehrbücher vorgedrungenen numerischen Methoden auf klassischen Monoprozessorarchitekturen bzw. mittels einer Hau-Ruck-Parallelisierung zufriedenstellende Resultate vor Ablauf eines Wissenschaftlerlebens zu erzielen wären.
Abb. 4: Ohne Mathematik geht's nicht: mathematisches Modell zur Simulation von Gefrierprozessen (links) und simulierte Ausbreitung eines gefrorenen Kerns in der Flüssigkeit (rechts)
Woher rührt überhaupt das immer stärker werdende Interesse am Einsatz simulativer Techniken? Oder, besser (und im eigenen Interesse) gefragt: Welche Argumente sollten auch die hartnäckigsten Simulations-Zweifler zum Einlenken bringen? Nun, zum einen ist festzuhalten, daß das klassische Instrumentarium - also theoretische Analyse und Experiment - auf sich alleine gestellt immer öfter an seine Grenzen stößt. So führt die Erfordernis einer möglichst realitätsnahen Beschreibung der jeweiligen Prozesse oder Systeme i.d.R. zu Modellen, die sich aufgrund ihres Komplexitätsgrades einer analytischen Behandlung entziehen. Wenn überhaupt, dann sind allenfalls noch Aussagen zur Existenz und Eindeutigkeit von Lösungen zu erwarten, nicht jedoch explizite Formeln zu deren geschlossener Darstellung. Andererseits sind die Experimentiermöglichkeiten in vielen Fällen begrenzt. Der Treibhauseffekt oder Vorgänge aus der Astrophysik wie beispielsweise die Entstehung von Galaxien laufen bei weitem zu langsam ab (und das ist offensichtlich nur eine der auftretenden Schwierigkeiten), als daß sie im Sinne eines reproduzierbaren Laborexperiments faßbar wären. Chemische Reaktionen weisen häufig die umgekehrte Problematik einer zu hohen Geschwindigkeit auf. Trotz der unbestreitbaren Fortschritte der Meßtechnik stellt ferner auch die räumliche Auflösung in vielen Fällen ein Problem dar: Wer wollte etwa die Strömungsverhältnisse im gesamten Atlantik per Messung ermitteln, bzw. was ist mit Vorgängen zu tun, die sich auf so kleinen Skalen abspielen, daß sie durch mikroskopische Techniken nicht mehr erfaßt werden können? In vielen Bereichen verbieten sich Experimente auch aufgrund unerwünschter (und irreversibler) Begleiterscheinungen - man denke nur etwa an Tests von Kernwaffen. Oftmals weist aber ein ganz pragmatischer und stets hervorragend vermittelbarer Grund in Richtung Simulation: die Kostenfrage. So können etwa durch simulierte Crashtests bei der Automobilentwicklung beträchtliche Summen eingespart werden, ja der ganze Prototyp könnte bei konsequentem Einsatz simulativer Methoden in der Automobilindustrie bald der Vergangenheit angehören.
Abb. 5: Kármánsche Wirbelstraße in Natur und Simulation: Satellitenaufnahme der Wolkenverwirbelung hinter der Insel Jan Mayen im Nordatlantik (oben) und simulierte turbulente Umströmung eines Kreiszylinders (unten)
Zum besseren Verständnis der Arbeit der numerischen Simulanten (leider läßt sich die nicht unbedingt ruhmreiche Herkunft des Worts "Simulation" nicht leugnen) sowie zur Verdeutlichung, wann und wie sich die beteiligten Fachrichtungen in eine erfolgreiche numerische Simulation einbringen, ist es zweckmäßig, die einzelnen Phasen eines Simulationsvorganges zu betrachten. Wir wollen hier sechs wesentliche Schritte unterscheiden.
Abb. 6: Untersuchung der Seitenwindempfindlichkeit moderner Hochgeschwindigkeitszüge durch numerische Simulation des turbulenten Strömungsfeldes
Abb. 7: Neuartige Simulationstechniken erlauben den Einblick in bisher verborgene Phänomene: Lattice-Boltzmann-Verfahren zur besseren Vorhersage des Betriebsverhaltens von Katalysatoren
Abb. 8: Aufwendige Fahrzeugsimulationen für die moderne Automobiltechnik: Noch vor der Fertigung eines Prototypen können virtuelle Testfahrten im fahrdynamischen Grenzbereich auf Hochleistungsrechnern durchgeführt werden
Was ist nun zu tun, um der Interdisziplinarität im wissenschaftlichen Rechnen, aber auch ganz allgemein, zu mehr Schwung zu verhelfen? Etliche Schritte in die richtige Richtung wurden sicher schon getan, und die sollen an dieser Stelle auch nicht verschwiegen werden. Das Konzept der inzwischen 23 bayerischen Forschungsverbünde etwa, die die Forschungsaktivitäten an den Hochschulen und in der Industrie in ganz Bayern zu je einem bestimmten Thema bündeln und somit fakultäts- und hochschulübergreifend einen flexiblen organisatorischen Rahmen für (auch) marktorientierte Forschung und Entwicklung bereitstellen, hat sich als äußerst segensreich erwiesen. Gerade das wissenschaftliche Rechnen erhielt und erhält aus den Arbeiten des Bayerischen Forschungsverbunds für technisch-wissenschaftliches Hochleistungsrechnen (FORTWIHR) entscheidende Impulse. Des weiteren sei die seit nunmehr vierzehn Jahren stattfindende gemeinsame Ferienakademie der Friedrich-Alexander-Universität Erlangen-Nürnberg und der Technischen Universität München erwähnt, bei der stets auch interdisziplinäre Kurse angeboten werden (natürlich auch zum wissenschaftlichen Rechnen). Schließlich weist an der Fakultät für Informatik der TU München auch die wachsende Zahl von Doppelmitgliedschaften in Fakultäten in die fächerübergreifende Richtung.
Abb. 9: Zeitminimale (gelb) und energieminimale (blau) Steuerung von Industrierobotern zur Reduktion von Taktzeiten in der automatischen Fertigung von Kraftfahrzeugen (die Formeln beschreiben das Bewegungsverhalten des Roboters)
Einige Wünsche bleiben jedoch noch offen, zum Beispiel im Ausbildungsbereich, wo Studiengänge wie das Fach "Technomathematik" oder Lehrveranstaltungen für Studierende verschiedener Fachbereiche wie etwa das Praktikum "Wissenschaftliches Rechnen und Visualisierung" (beide an der TU München) bislang eher die Ausnahme sind. Nach dem Studium sind dann fächerübergreifende Aktivitäten oder ein Fachwechsel für Doktoranden oftmals mit erheblichen Schwierigkeiten verbunden, weil die eine Fakultät den Abschluß der anderen nicht als Zulassung zur Promotion akzeptiert. Um schließlich den Bogen zu spannen zum Anfang dieses Beitrags, so zeigt neben vielen anderen Beispielen das Zitat unseres limnologischen Gutachters, daß auch die Geldgeber in unserer Wissenschaftslandschaft z.T. noch ihre Probleme mit der Interdisziplinarität haben. Schließlich gibt es noch kaum zwischen den traditionellen Fachbereichen angesiedelte "Töpfe" oder Referate, und so nimmt die Begeisterung für eine sonst durchaus angestrebte Zuständigkeit angesichts des dann auch daraus resultierenden Finanzierungsbedarfs oftmals spürbar ab.
Abb. 10: Optimal berechnete Oszillatoren zur Erzeugung hochfrequenter Ströme mit minimalem Rauschanteil finden Verwendung in Satelliten und Mobiltelefonen
Last, but not least: Die numerische Simulation ist auf moderne Computer angewiesen. Damit sind zunächst die Rechner am Arbeitsplatz des Wissenschaftlers gemeint. Diese sind inzwischen so leistungsfähig geworden, daß auf ihnen neben der Programmentwicklung auch einfachere Simulationen in angemessener Zeit durchgeführt werden können. Für kompliziertere (und realitätsnähere) Fälle sind aber Höchstleistungsrechner oder Supercomputer unabdingbar. Im Vergleich zu Arbeitsplatzrechnern waren sie in den vergangenen Jahren stets um einen Faktor 100 bis 1000 leistungsfähiger. Für die Forschung an den bayerischen Hochschulen stehen solche Rechner zum einen an den Universitätsrechenzentren zur Verfügung, zum anderen betreibt das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften zentral den landesweit leistungsfähigsten Rechner. Ein Vertreter der neuesten Generation - ein von der Firma Siemens Nixdorf gelieferter Vektor-Parallelrechner - wurde Anfang 1997 installiert. Die Bayerische Staatsregierung hat darüber hinaus aus den Privatisierungserlösen bereits einen Betrag von 60 Millionen DM für die Beschaffung eines auch im internationalen Vergleich der Spitzenklasse zuzuordnenden Höchstleistungsrechners reserviert. Damit soll der Rückstand aufgeholt werden, der in den letzten Jahren in Deutschland und auch in Europa insgesamt gegenüber den USA und Japan entstanden ist. Die Simulanten stehen allerorts schon in den Startlöchern und bereiten ehrgeizige Projekte vor, die dann auf einem solchen Rechner bearbeitet werden können. Der Nutzen hieraus wird indes nicht auf die Wissenschaft begrenzt bleiben, denn auch die Industrie braucht für Innovationen und technologischen Fortschritt Technik (d.h. hier Rechnertechnik) auf höchstem Niveau.
Abb. 11: Computergenerierte 3D Geländedarstellung mit integrierten Flugführungsanzeigen zur Verbesserung der Flugführung bei schlechter Außensicht unter Verwendung speichereffizienter Darstellungstechniken: alle Höhenpunkte (oben), Höhendarstellung mit vorgegebener Fehlerschranke (Mitte) und Geländedarstellung mit integrierten Flugführungsanzeigen (unten)
Uns bleibt die Hoffnung, ein wenig zu einem besseren Verständnis des Faches "Wissenschaftliches Rechnen" und seines interdisziplinären Charakters beigetragen zu haben - die Frage nach dem unwissenschaftlichen Rechnen können wir jetzt getrost dem Leser überlassen!
Hans-Joachim Bungartz, Christoph Zenger
FORTWIHR: Bayerischer Forschungsverbund für
technisch-wissenschaftliches Hochleistungsrechnen
Lehrstuhl für Ingenieuranwendungen in der Informatik und
numerische Programmierung
Institut für Informatik der
Technischen Universität München
Quellennachweis:
Die Abbildungen wurden von verschiedenen Arbeitsgruppen des FORTWIHR an der Technischen Universität München (TUM) sowie an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) erstellt: