Computersimulation
Die Anfänge der Computersimulation in der Teilchenphysik
reichen bis in die Nachkriegsjahre des zweiten Weltkrieges zurück.
In dieser Zeit wurde zum ersten Mal der Versuch unternommen, Reaktionen
von Teilchen mit Atomkernen durch ein intranukleares Simulationsmodell
zu beschreiben. In diesem Modell wird vorausgesetzt, daß der Kern
aus Neutronen und Protonen besteht, so daß die Reaktion mit dem Kern
durch eine Vielzahl von Reaktionen mit den Protonen und Neutronen des Kerns
ersetzt werden kann. Die analytische Behandlung derartiger Transportprobleme
gehörte zwar seit langem zum Standardrepertoire der Mathematiker,
jedoch gestalteten sich die Gleichungen als derart komplex, daß lediglich
grobe Näherungen berechnet werden konnten.
Die ersten Simulationsrechnungen, sehr ähnlich
den heutigen Random Walk Verfahren, wurden im Jahre 1948 von Goldberger
durchgeführt, allerdings nicht mit dem Computer, sondern mit Bleistift
und Papier. Überlieferungen zufolge benötigte ein Physiker ungefähr
zwei Wochen, um 100 Reaktionen zu simulieren. Erst im Jahre 1958 kam es
zum Einsatz von Rechenanlagen. Metropolis und Mitarbeiter berichten über
ein Computerprogramm, mit dem sie eine Vielzahl von Reaktionen unter den
verschiedensten Bedingungen berechnen konnten. Ein in der Altsprache FORTRAN
IV geschriebenes Programm von Bertini aus dem Jahre 1969 wird auch heute
noch vielfach benutzt, sofern ein entsprechender Compiler zur Verfügung
steht. Bild 1 zeigt grafische Darstellungen von intranuklearen Kaskaden.
Bild 1: Die Anfänge - Grafische Darstellung internuklearer Kaskaden, berechnet
mit Hilfe eines Random Walk Verfahrens (aus einer Diplomarbeit von Martin
Wegner, Aachen 1996)
Die Anwendungen dieser Simulationen beschränkten
sich weitgehend auf Probleme des Strahlenschutzes in den Beschleunigern
und den Experimenten, wurden aber auch zur Planung von Kernkraftwerken
und zur Optimierung des allgemeinen Strahlenschutzes benutzt.
Der eigentliche Großeinsatz der Computersimulation
in den Experimenten der Teilchenphysik begann in den siebziger Jahren und
ist eng verbunden mit der Etablierung der großen, internationalen
Forschungskollaborationen. Insbesondere die Experimente am Hamburger Beschleuninger
PETRA bestanden zum ersten Mal aus einem vielfältigen und heterogenen
Aufbau von verschiedensten Materialien und Zählertechnologien, so
daß die gemessenen Signale ohne eine vergleichende Simulation nicht
mehr analysiert und interpretiert werden konnten. Das Grundprinzip dieser
Rechnungen bestand darin, daß alle am primären Wechselwirkungspunkt
entstandenen Teilchen mit einem Random Walk Verfahren durch den experimentellen
Aufbau verfolgt werden, einschließlich aller weiteren Reaktionsprodukte.
Die Signale in den Detektoren werden nachgebildet und in einem Datenformat
aufgezeichnet, das exakt dem Format der experimentellen Daten entspricht.
Ein einzelnes Bit sorgt dafür, daß experimentelle und simulierte
Daten noch zu unterscheiden sind. Das in den Jahren von 1978 bis 1985 am
III. Physikalischen Institut der RWTH Aachen entwickelte Programm GHEISHA
galt über mehrere Jahre als Prototyp eines solchen Simulationsprogramms.
Man erkannte schnell den außerordentlichen
Nutzen dieser Simulationen, und zwar nicht nur für die Analyse der
Daten, sondern in verstärktem Maße auch für die Planung
und Entwicklung der Großexperimente bei LEP, HERA, LHC sowie an weiteren
ausländischen Forschungszentren in den USA und in Japan. Testaufbauten
zur Optimierung der Experimente konnten auf ein Mindestmaß eingeschränkt
werden, was zu einer beträchtlichen Kostenersparnis führte. Die
genaue Zahl in Mark und Pfennig ist schwer abschätzbar. Das Risiko
von Fehlplanungen wurde auf jeden Fall auf ein Minimum gesenkt.
Aus dem GHEISHA Programm und anderen ähnlichen
Programmen entwickelte man dann unter Federführung des CERN das GEANT,
das im Jahre 1985 zum ersten Mal vorgestellt wurde und bis heute als Standard-Programm
der Experiment-Simulation gilt. Neu an diesem Programm waren weniger die
Algorithmen und die konzeptionellen Strategien, sondern die Entwicklung
des Programms als solches. Während früher die Programmierung
in der Verantwortung von Einzelpersonen oder kleinen Gruppen lag, beteiligten
sich im GEANT- Projekt eine Vielzahl von Wissenschaftlern und Programmierern
aus fast allen Mitgliedsstaaten der großen Forschungszentren. Beachtet
man, daß bei derartigen Projekten ein Großteil der Arbeitskraft
des Einzelnen in Kommunikation verloren geht, so ist verständlich,
daß völlig neue Strategien des Software-Engineerings entwickelt
werden mußten, um die Produktivität des Einzelnen nicht auf
Null sinken zu lassen. Folgerichtig stand diese Thematik für einige
Jahre an oberster Stelle der jährlich stattfindenden Konferenzen und
Schulen über "Computing in High Energy Physics". Einige
hundertausend Zeilen Programmcode und die beachtlichen Erfolge des GEANT-Programms
bei LEP und HERA zeugen davon, daß dieses Projekt erfolgreich abgeschlossen
wurde (siehe Bild 2). Das III. Physikalische Institut der RWTH Aachen beteiligte
sich nicht nur an der Entwicklung dieses Programms, sondern in starkem
Maße auch an vielfältigen Anwendungen in Industrie und anderen
Forschungsgebieten.
Bild 2: Realität oder Simulation? Grafische Darstellung einer e+e- Wechselwirkung
im L3 Experiment am CERN.
Parallel hierzu fand der Computer auch
einen rasanten Einstieg in die theoretische Teilchenphysik. Im allgemeinen
steht der theoretische Physiker dem Computer eher skeptisch gegenüber
und arbeitet lieber mit Bleistift und Papier. Die notwendigen Störungsrechnungen
für die außerordentlich präzisen Vorhersagen des Standardmodells
ließen aber auch dem Theoretiker keine andere Wahl als den Schritt
zum Computer und die Arbeit an Simulationsprogrammen. Insbesondere die
Rechnungen der Gittereichtheorie erforderten die Entwicklung völlig
neuer Rechnertechnologien und hat einen wesentlichen Impuls zum Bau von
Parallelrechnern gegeben.
Zentimertergenau senkt sich, am Haken eines Lastkrans
hängend, ein riesiges und tonnenschweres Element einer großen
Magnetspule in einen schmalen Schacht. Ein Hilfskran rotiert das Magnetelement
bis es senkrecht im Schacht verschwindet. In der Halle am unteren Schachtende
führt ein weiterer Kran das Element langsam wieder in eine horizontale
Lage, ohne daß Schachtwand, Hallenboden oder -decke berührt
werden, und ohne daß eine Beschädigung des zerbrechlichen und
wertvollen Spulenelementes auftritt.
Was sich nach einer Meisterleistung der Kranführer
anhört, findet tatsächlich auf dem Bildschirm eines Grafikcomputers
statt. Mit dieser Simulation kann der Operateur sich und die Bauingenieure
davon überzeugen, daß für das Absenken des riesigen Spulenelementes
der Schacht erheblich schmaler sein kann und somit die dafür zu veranschlagenden
Kosten spürbar niedriger anzusetzen sind als ursprünglich geplant.
Das eingangs beschriebene Beispiel macht klar, welche
Rolle Simulationen in der Zukunft spielen können. Genau unter diesen
Vorzeichen wird in der VENUS Arbeitsgruppe des CERN die Zukunft des Forschungslabors
schon simuliert. Aufgabe der Venusgruppe ist die Entwicklung eines detaillierten
virtuellen Prototyps des Large Hadron Colliders (LHC), des wahrscheinlich
komplexesten von Menschen erdachten Gerätes. Ziel dabei ist eine realistische
Darstellung der Experimentalzonen und Experimente auf Bildschirm, Leinwand
oder im Videohelm mit der Möglichkeit der freien virtuellen Bewegung
durch Hallen und Tunnel, über, unter oder neben experimentellen Einrichtungen
vorbei. Bild 3 zeigt die Experimentierzone eines der zwei geplanten Detektoren
in der virtuellen Realität.
Bild 3: Die CMS-Experimentierhalle in der virtuellen Realität.
Der Bau des LHC ist unzweifelhaft die
bisher größte Herausforderung, die CERN angenommen hat. Enorme
Investitionen in Arbeitskraft und Ressourcen während der kommenden
zehn Jahre sind damit verbunden. In einem Projekt dieser Größe
spielt die Designphase eine entscheidende Rolle, denn hierbei sind kritische
Entscheidungen zu treffen, die das Endresultat, dessen Zeitplanung und
Kosten empfindlich beeinflussen. Und die Chance der Verbesserung in einer
zweiten Generation ist hier - anders als bei vielen kommerziellen Produkten
- nicht gegeben. Jedes Instrument ist und bleibt ein Prototyp mit einem
nur winzigen Spielraum für Modifikationen.
Eine der schwierigsten Aufgaben beim Entwurf von
Anlagen dieser Komplexität ist die Visualisierung, die bildliche Darstellung.
Schon die räumliche Darstellung eines Modells ist zum Verständnis
des Zusammenspiels aller Teile von besonderer Bedeutung. Und genau an diesem
Punkt führt virtuelles Prototyping fort, womit CAD Systeme enden.
Mit letzteren entwerfen Ingenieure die Teile des Gesamtobjektes, die vom
virtuellen Prototyping übernommen, mit realen Eigenschaften wie Farbe,
Transparenz, Material-, Oberflächenbeschaffenheit, versehen und in
einer "virtuellen Welt" angeordnet werden. In dieser "Welt"
kann sich der Betrachter frei bewegen und sie so von "innen"
erkunden.
Der große Vorteil ist die ungemeine Flexibilität
dieser virtuellen Realität. Anders als bei einem 1:20 Holzmodell können
erkannte Fehler und Schwächen eines Entwurfs sofort binnen Minuten
korrigiert und das neue Modell weiter untersucht werden. - Aber die Anwendungsmöglichkeiten
gehen noch viel weiter, indem beispielsweise auch Gebäude der Experimentierzonen,
ihre Infrastruktur sowie ihre Einfügung in das Landschaftsbild simuliert
werden. So kann schon bevor ein Stein bewegt wird, die günstigste
Integration von Hallen und Gebäuden ins Landschaftspanorma gefunden
werden. Aber auch verschiedene Phasen während des Aufbaus von Beschleuniger
und Detektoren können simuliert werden. Gerade das eingangs geschilderte
Beispiel macht klar, wie durch Computersimulation und virtuelle Realität
Details der Montage untersucht, Ablaufpläne erstellt, Kraftwirkungen
und Belastungen auf die Transportlast gemessen, ja sogar Programme zur
automatischen Steuerung von Kränen und Transportfahrzeugen erstellt
werden können.
LHC wird entworfen und gebaut werden von etwa 300
Instituten und vielen Vertragspartnern, die rund um die Welt verstreut
sind. Jeder überninmmt Verantwortung für ein spezifisches Teil
von Beschleuniger oder Detektor. Erst zu Beginn des kommenden Jahrtausends
werden diese Teile aus den Instituten zum CERN gebracht und dort zusammengefügt.
Um das Zusammenpassen sicherzustellen, muß jedes Teil im Hinblick
darauf entworfen und gebaut werden. Hier wird das World Wide Web als Vermittlermedium
zwischen allen Beteiligten fungieren, indem es nicht nur die Kommunikation
und den Wissensaustausch ermöglicht, sondern indem es auch jedem der
Beteiligten die virtuellen Welten zur Verfügung stellt. So kann der
Ingenieur im viele tausend Kilometer entfernten Institut die Paßgenauigkeit
seines Entwurf mit eigenen Augen am virtuell realen Objekt kontrollieren,
Planablesefehler erkennen und vermeiden, ohne daß ein materielles
Modell erforderlich und eine Dienstreise zum Ort des Zusammenfügens
aller Komponenten notwendig werden.
Als eine letzte Option von virtueller Realität,
die derzeit an verschiedenen amerikanischen Universitäten sowie der
NASA studiert wird, sei hier die Möglichkeit genannt, daß auch
Sicherheitsaspekte untersucht werden können. Katastrophenszenarios
sind detailliert analysierbar. Gerade in den unterirdischen Experimentierhallen,
wo vielfach brennbare oder giftige Gase eingesetzt werden, ist die Entwicklung
eines Feuers eine große Gefahr. Computersimulationen der Dynamik
von Flüssigkeiten und Gasen, der Wirkung von Löschmitteln und
Belüftungskanälen, der Entwicklung von Feuer und Rauch können
mittels virtueller Realität veranschaulicht werden. So kann beispielsweise
auch die Lage von Notausgängen und -beleuchtung sowie die Beschilderung
für die möglichen Notfälle optimal gewählt werden.
Virtuelle Realität ist damit sicherlich eine
der größten zukünftigen Herausforderungen für die
Computersimulation. Vieles wird damit möglich, wenn auch nicht alles.
Dennoch ist die große Bedeutung der virtuellen Realität bereits
beim derzeitigen anfänglichen Entwicklungsstand absehbar. Unter der
virtuellen Realität werden viele Detailsimulationen wie Mosaiksteine
zu einem großen, vollständigen Bild zusammengefügt: einem
(Ab)-Bild der Realität im Computer. Einem Bild, an dem Auswirkungen
und Folgen menschlichen Tuns untersucht und hoffentlich die ungewollten
Nachwirkungen erkannt und vermieden werden können.
Autoren:
Dr.rer.nat. Otmar Biebel und Dr.rer.nat. Harm Fesefeldt
sind Wissenschaftliche Mitarbeiter am Lehr- und Forschungsgebiet Physik.