Publications





Otmar Biebel, Harm Fesefeldt

Realität aus dem Bildschirm - Computersimulation

Die Anfänge der Computersimulation in der Teilchenphysik reichen bis in die Nachkriegsjahre des zweiten Weltkrieges zurück. In dieser Zeit wurde zum ersten Mal der Versuch unternommen, Reaktionen von Teilchen mit Atomkernen durch ein intranukleares Simulationsmodell zu beschreiben. In diesem Modell wird vorausgesetzt, daß der Kern aus Neutronen und Protonen besteht, so daß die Reaktion mit dem Kern durch eine Vielzahl von Reaktionen mit den Protonen und Neutronen des Kerns ersetzt werden kann. Die analytische Behandlung derartiger Transportprobleme gehörte zwar seit langem zum Standardrepertoire der Mathematiker, jedoch gestalteten sich die Gleichungen als derart komplex, daß lediglich grobe Näherungen berechnet werden konnten.

Die ersten Simulationsrechnungen, sehr ähnlich den heutigen Random Walk Verfahren, wurden im Jahre 1948 von Goldberger durchgeführt, allerdings nicht mit dem Computer, sondern mit Bleistift und Papier. Überlieferungen zufolge benötigte ein Physiker ungefähr zwei Wochen, um 100 Reaktionen zu simulieren. Erst im Jahre 1958 kam es zum Einsatz von Rechenanlagen. Metropolis und Mitarbeiter berichten über ein Computerprogramm, mit dem sie eine Vielzahl von Reaktionen unter den verschiedensten Bedingungen berechnen konnten. Ein in der Altsprache FORTRAN IV geschriebenes Programm von Bertini aus dem Jahre 1969 wird auch heute noch vielfach benutzt, sofern ein entsprechender Compiler zur Verfügung steht. Bild 1 zeigt grafische Darstellungen von intranuklearen Kaskaden.

Bild 1: Die Anfänge - Grafische Darstellung internuklearer Kaskaden, berechnet mit Hilfe eines Random Walk Verfahrens (aus einer Diplomarbeit von Martin Wegner, Aachen 1996)

Die Anwendungen dieser Simulationen beschränkten sich weitgehend auf Probleme des Strahlenschutzes in den Beschleunigern und den Experimenten, wurden aber auch zur Planung von Kernkraftwerken und zur Optimierung des allgemeinen Strahlenschutzes benutzt. Der eigentliche Großeinsatz der Computersimulation in den Experimenten der Teilchenphysik begann in den siebziger Jahren und ist eng verbunden mit der Etablierung der großen, internationalen Forschungskollaborationen. Insbesondere die Experimente am Hamburger Beschleuninger PETRA bestanden zum ersten Mal aus einem vielfältigen und heterogenen Aufbau von verschiedensten Materialien und Zählertechnologien, so daß die gemessenen Signale ohne eine vergleichende Simulation nicht mehr analysiert und interpretiert werden konnten. Das Grundprinzip dieser Rechnungen bestand darin, daß alle am primären Wechselwirkungspunkt entstandenen Teilchen mit einem Random Walk Verfahren durch den experimentellen Aufbau verfolgt werden, einschließlich aller weiteren Reaktionsprodukte. Die Signale in den Detektoren werden nachgebildet und in einem Datenformat aufgezeichnet, das exakt dem Format der experimentellen Daten entspricht. Ein einzelnes Bit sorgt dafür, daß experimentelle und simulierte Daten noch zu unterscheiden sind. Das in den Jahren von 1978 bis 1985 am III. Physikalischen Institut der RWTH Aachen entwickelte Programm GHEISHA galt über mehrere Jahre als Prototyp eines solchen Simulationsprogramms.

Man erkannte schnell den außerordentlichen Nutzen dieser Simulationen, und zwar nicht nur für die Analyse der Daten, sondern in verstärktem Maße auch für die Planung und Entwicklung der Großexperimente bei LEP, HERA, LHC sowie an weiteren ausländischen Forschungszentren in den USA und in Japan. Testaufbauten zur Optimierung der Experimente konnten auf ein Mindestmaß eingeschränkt werden, was zu einer beträchtlichen Kostenersparnis führte. Die genaue Zahl in Mark und Pfennig ist schwer abschätzbar. Das Risiko von Fehlplanungen wurde auf jeden Fall auf ein Minimum gesenkt.

Aus dem GHEISHA Programm und anderen ähnlichen Programmen entwickelte man dann unter Federführung des CERN das GEANT, das im Jahre 1985 zum ersten Mal vorgestellt wurde und bis heute als Standard-Programm der Experiment-Simulation gilt. Neu an diesem Programm waren weniger die Algorithmen und die konzeptionellen Strategien, sondern die Entwicklung des Programms als solches. Während früher die Programmierung in der Verantwortung von Einzelpersonen oder kleinen Gruppen lag, beteiligten sich im GEANT- Projekt eine Vielzahl von Wissenschaftlern und Programmierern aus fast allen Mitgliedsstaaten der großen Forschungszentren. Beachtet man, daß bei derartigen Projekten ein Großteil der Arbeitskraft des Einzelnen in Kommunikation verloren geht, so ist verständlich, daß völlig neue Strategien des Software-Engineerings entwickelt werden mußten, um die Produktivität des Einzelnen nicht auf Null sinken zu lassen. Folgerichtig stand diese Thematik für einige Jahre an oberster Stelle der jährlich stattfindenden Konferenzen und Schulen über "Computing in High Energy Physics". Einige hundertausend Zeilen Programmcode und die beachtlichen Erfolge des GEANT-Programms bei LEP und HERA zeugen davon, daß dieses Projekt erfolgreich abgeschlossen wurde (siehe Bild 2). Das III. Physikalische Institut der RWTH Aachen beteiligte sich nicht nur an der Entwicklung dieses Programms, sondern in starkem Maße auch an vielfältigen Anwendungen in Industrie und anderen Forschungsgebieten.

Bild 2: Realität oder Simulation? Grafische Darstellung einer e+e- Wechselwirkung im L3 Experiment am CERN.

Parallel hierzu fand der Computer auch einen rasanten Einstieg in die theoretische Teilchenphysik. Im allgemeinen steht der theoretische Physiker dem Computer eher skeptisch gegenüber und arbeitet lieber mit Bleistift und Papier. Die notwendigen Störungsrechnungen für die außerordentlich präzisen Vorhersagen des Standardmodells ließen aber auch dem Theoretiker keine andere Wahl als den Schritt zum Computer und die Arbeit an Simulationsprogrammen. Insbesondere die Rechnungen der Gittereichtheorie erforderten die Entwicklung völlig neuer Rechnertechnologien und hat einen wesentlichen Impuls zum Bau von Parallelrechnern gegeben.

Zentimertergenau senkt sich, am Haken eines Lastkrans hängend, ein riesiges und tonnenschweres Element einer großen Magnetspule in einen schmalen Schacht. Ein Hilfskran rotiert das Magnetelement bis es senkrecht im Schacht verschwindet. In der Halle am unteren Schachtende führt ein weiterer Kran das Element langsam wieder in eine horizontale Lage, ohne daß Schachtwand, Hallenboden oder -decke berührt werden, und ohne daß eine Beschädigung des zerbrechlichen und wertvollen Spulenelementes auftritt.

Was sich nach einer Meisterleistung der Kranführer anhört, findet tatsächlich auf dem Bildschirm eines Grafikcomputers statt. Mit dieser Simulation kann der Operateur sich und die Bauingenieure davon überzeugen, daß für das Absenken des riesigen Spulenelementes der Schacht erheblich schmaler sein kann und somit die dafür zu veranschlagenden Kosten spürbar niedriger anzusetzen sind als ursprünglich geplant.

Das eingangs beschriebene Beispiel macht klar, welche Rolle Simulationen in der Zukunft spielen können. Genau unter diesen Vorzeichen wird in der VENUS Arbeitsgruppe des CERN die Zukunft des Forschungslabors schon simuliert. Aufgabe der Venusgruppe ist die Entwicklung eines detaillierten virtuellen Prototyps des Large Hadron Colliders (LHC), des wahrscheinlich komplexesten von Menschen erdachten Gerätes. Ziel dabei ist eine realistische Darstellung der Experimentalzonen und Experimente auf Bildschirm, Leinwand oder im Videohelm mit der Möglichkeit der freien virtuellen Bewegung durch Hallen und Tunnel, über, unter oder neben experimentellen Einrichtungen vorbei. Bild 3 zeigt die Experimentierzone eines der zwei geplanten Detektoren in der virtuellen Realität.

Bild 3: Die CMS-Experimentierhalle in der virtuellen Realität.

Der Bau des LHC ist unzweifelhaft die bisher größte Herausforderung, die CERN angenommen hat. Enorme Investitionen in Arbeitskraft und Ressourcen während der kommenden zehn Jahre sind damit verbunden. In einem Projekt dieser Größe spielt die Designphase eine entscheidende Rolle, denn hierbei sind kritische Entscheidungen zu treffen, die das Endresultat, dessen Zeitplanung und Kosten empfindlich beeinflussen. Und die Chance der Verbesserung in einer zweiten Generation ist hier - anders als bei vielen kommerziellen Produkten - nicht gegeben. Jedes Instrument ist und bleibt ein Prototyp mit einem nur winzigen Spielraum für Modifikationen.

Eine der schwierigsten Aufgaben beim Entwurf von Anlagen dieser Komplexität ist die Visualisierung, die bildliche Darstellung. Schon die räumliche Darstellung eines Modells ist zum Verständnis des Zusammenspiels aller Teile von besonderer Bedeutung. Und genau an diesem Punkt führt virtuelles Prototyping fort, womit CAD Systeme enden. Mit letzteren entwerfen Ingenieure die Teile des Gesamtobjektes, die vom virtuellen Prototyping übernommen, mit realen Eigenschaften wie Farbe, Transparenz, Material-, Oberflächenbeschaffenheit, versehen und in einer "virtuellen Welt" angeordnet werden. In dieser "Welt" kann sich der Betrachter frei bewegen und sie so von "innen" erkunden.

Der große Vorteil ist die ungemeine Flexibilität dieser virtuellen Realität. Anders als bei einem 1:20 Holzmodell können erkannte Fehler und Schwächen eines Entwurfs sofort binnen Minuten korrigiert und das neue Modell weiter untersucht werden. - Aber die Anwendungsmöglichkeiten gehen noch viel weiter, indem beispielsweise auch Gebäude der Experimentierzonen, ihre Infrastruktur sowie ihre Einfügung in das Landschaftsbild simuliert werden. So kann schon bevor ein Stein bewegt wird, die günstigste Integration von Hallen und Gebäuden ins Landschaftspanorma gefunden werden. Aber auch verschiedene Phasen während des Aufbaus von Beschleuniger und Detektoren können simuliert werden. Gerade das eingangs geschilderte Beispiel macht klar, wie durch Computersimulation und virtuelle Realität Details der Montage untersucht, Ablaufpläne erstellt, Kraftwirkungen und Belastungen auf die Transportlast gemessen, ja sogar Programme zur automatischen Steuerung von Kränen und Transportfahrzeugen erstellt werden können.

LHC wird entworfen und gebaut werden von etwa 300 Instituten und vielen Vertragspartnern, die rund um die Welt verstreut sind. Jeder überninmmt Verantwortung für ein spezifisches Teil von Beschleuniger oder Detektor. Erst zu Beginn des kommenden Jahrtausends werden diese Teile aus den Instituten zum CERN gebracht und dort zusammengefügt. Um das Zusammenpassen sicherzustellen, muß jedes Teil im Hinblick darauf entworfen und gebaut werden. Hier wird das World Wide Web als Vermittlermedium zwischen allen Beteiligten fungieren, indem es nicht nur die Kommunikation und den Wissensaustausch ermöglicht, sondern indem es auch jedem der Beteiligten die virtuellen Welten zur Verfügung stellt. So kann der Ingenieur im viele tausend Kilometer entfernten Institut die Paßgenauigkeit seines Entwurf mit eigenen Augen am virtuell realen Objekt kontrollieren, Planablesefehler erkennen und vermeiden, ohne daß ein materielles Modell erforderlich und eine Dienstreise zum Ort des Zusammenfügens aller Komponenten notwendig werden.

Als eine letzte Option von virtueller Realität, die derzeit an verschiedenen amerikanischen Universitäten sowie der NASA studiert wird, sei hier die Möglichkeit genannt, daß auch Sicherheitsaspekte untersucht werden können. Katastrophenszenarios sind detailliert analysierbar. Gerade in den unterirdischen Experimentierhallen, wo vielfach brennbare oder giftige Gase eingesetzt werden, ist die Entwicklung eines Feuers eine große Gefahr. Computersimulationen der Dynamik von Flüssigkeiten und Gasen, der Wirkung von Löschmitteln und Belüftungskanälen, der Entwicklung von Feuer und Rauch können mittels virtueller Realität veranschaulicht werden. So kann beispielsweise auch die Lage von Notausgängen und -beleuchtung sowie die Beschilderung für die möglichen Notfälle optimal gewählt werden.

Virtuelle Realität ist damit sicherlich eine der größten zukünftigen Herausforderungen für die Computersimulation. Vieles wird damit möglich, wenn auch nicht alles. Dennoch ist die große Bedeutung der virtuellen Realität bereits beim derzeitigen anfänglichen Entwicklungsstand absehbar. Unter der virtuellen Realität werden viele Detailsimulationen wie Mosaiksteine zu einem großen, vollständigen Bild zusammengefügt: einem (Ab)-Bild der Realität im Computer. Einem Bild, an dem Auswirkungen und Folgen menschlichen Tuns untersucht und hoffentlich die ungewollten Nachwirkungen erkannt und vermieden werden können.

Autoren:
Dr.rer.nat. Otmar Biebel und Dr.rer.nat. Harm Fesefeldt sind Wissenschaftliche Mitarbeiter am Lehr- und Forschungsgebiet Physik.