Vom gläsernen Menschen zum berechneten Täter  - Teil 1

Von Manfred Kloiber und Peter Welchering[1], Rechercheverbund-T

 

Vortrag auf dem 11. OSE-Symposium am 29. Januar 2016 im Haus der bayerischen Wirtschaft zu München

 



[1] Den Vortrag hat Manfred Kloiber gehalten. Peter Welchering war krankheitsbedingt verhindert. Der Vortrag beruht auf Recherchen, die für Beiträge des Deutschlandfunks und der ARD von Kloiber und Welchering gemacht wurden.

 

Was beim Urknall eigentlich genau passiert ist, wollen die Wissenschaftler am europäischen Kernforschungszentrum herausbekommen. Dafür entwickeln sie Software. Mit dieser Software können aber auch politische und wirtschaftliche Entwicklungen mit großer Genauigkeit prognostiziert werden.

Ziemlich genau 100 Meter unter der Erde soll im Kernforschungszentrum Cern bei Genf eine der spannendsten Menschheitsfragen beantwortet werden: Wie ist unser Universum eigentlich genau entstanden?

Der Ort an dem das geklärt werden soll, ist ein 27 Kilometer langer kreisrunder Tunnel, Large Hadron Collider genannt. In diesem Teilchenbeschleuniger werden Protonen aufeinander geschossen. 11.245 mal sausen die Protonen pro Sekunde durch den kreisrunden Tunnel, bis sie dann kontrolliert aufeinander prallen.

Wenn diese Protonen miteinander kollidieren, zerfallen sie. Ihre Partikel werden in alle Richtungen geschleudert. Dabei werden sie ganz genau gemessen. Und bei diesen Messungen entstehen enorme Datenmengen.

Bei der Suche nach Anti-Materie mussten zum Beispiel mehr als 20 Billiarden Bytes gleichzeitig ausgewertet werden. Damit erst fanden die Teilchenphysiker 300 Atome-Anti-Wasserstoff. Die Bilder von der gewonnenen Anti-Materie gingen sofort um die ganze Welt.

Das war auch bei den Bildern vom Higgs-Boson so, mit dem das Standardmodell der Elementarteilchenphysik bestätigt wurde. Denn mit diesen Teilchen kann endlich erklärt werden, wie die Elementarteilchen in unserem Universum ihre Masse erhalten haben.

Beim Higgs-Boson haben die Forscher nach einem ganz seltenen Effekt gesucht, denn es galt ja als nicht auffindbar- Die Analysesoftware dafür hat u.a. der Kernphysiker Professor Michael Feindt geschrieben. Mit dieser Analysesoftware können solche seltenen Effekte genau vorhergesagt und damit auch gefunden werden.

Die Forscher müssen dafür genau beschreiben, nach welchen Effekten sie suchen. Und ihre Analysesoftware muss wissen, welche Effekte den Forschern schon bekannt sind, wonach sie also nicht mehr suchen. Nur so können sie die riesige Datenmenge von Aber-Milliarden Bytes pro Sekunde eines Experiments reduzieren, bis nur noch die wirklich wichtigen Daten übrig bleiben. Einer der Pioniere auf diesem Gebiet ist Jean-Michel Jouanigot, Leiter des Cern-Datenzentrums die Vorgehensweise.

Bei der Suche nach dem Higgs-Boson musste die Datenmenge sogar auf weniger als ein Millionstel reduziert werden. Dafür muss die Analysesoftware alle Muster eines bestimmten Teilchens in diesen Daten erkennen können.

Von der physikalischen Theorie her wussten die Forscher ungefähr, was sie erwarten konnten. Deshalb simulierten die Wissenschaftler zunächst mit Supercomputern, was gemäß der physikalischen Theorie in den Detektoren des Teilchenbeschleunigers passieren muss.

Der Teilchenbeschleuniger am Cern sind mit mehreren solcher Detektoren ausgestattet. Für die Suche nach dem Higgs-Boson wurden insbesondere die Detektoren CMS und Atlas eingesetzt. Sie messen die Flugbahnen von Kernteilchen.

Dafür baut der Atlas-Detektor ein Magnetfeld auf, das 40.000 so stark ist wie das Magnetfeld der Erde. Bei einer Betriebstemperatur von minus 20 Grad Celsius vermisst der CMS-Detektor einzelne Teilchen mit einer unglaublichen Präzision.  

Detektoren sind quasi riesige Digitalkameras, die dreidimensionale Fotos machen können. Sie erstellen die Bilder mit einer hohen Auflösung und vor allen Dingen sehr schnell. Eine solche Detektoren-Digitalkamera hat mehr als 100 Millionen Sensorpunkte und schießt mehr als 600 Bilder pro Sekunde. So können 600 Millionen Kollisionen von Protonen pro Sekunde erfasst werden.

Diese Bilder werden dann mit den Mustern eines bestimmten Teilchens verglichen. Dafür simulieren die Physiker, wo sich diese Muster befinden, wenn zwei Protonenstrahlen aufeinander treffen und kollidieren. Sie machen nichts anderes als eine Wahrscheinlichkeitsrechnung, was sich genau bei dieser Kollision ereignen wird.

Für Quantenphysiker ist Wahrscheinlichkeit ja ein ganz grundlegendes Prinzip. Das Einzige, was sie wirklich vorhersagen können, ist die Wahrscheinlichkeit, mit der sich ein Teilchen gerade an welchem Ort aufhält.

Und mit diesen Wahrscheinlichkeitsrechnungen haben Professor Feindt und seine Kollegen die Muster berechnet, mit denen dann Teilchen wie das Higgs-Boson gefunden wurden. Die Big-Data-Analyse prognostiziert dabei, wo diese Muster in den Detektoren-Daten gefunden werden können. Simulationsrechnungen, Mustererkennung und die Berechnung statistischer Wahrscheinlichkeiten spielen dabei eng zusammen.

Damit kann man aber nicht nur das Verhalten von hochbeschleunigten Protonen prognostizieren, die aufeinander geschossen werden. Genauso gut kann damit auch das Verhalten von Menschen oder die Entwicklung von Aktienkursen vorhergesagt werden.

Mit den am Cern entwickelten Prognose-Algorithmen kann zum Beispiel berechnet werden, wie ein bestimmtes Medikament bei einem bestimmten Patienten wirkt. Es kann damit prognostiziert werden, welche Straßenzüge morgen wann wieviel Strom brauchen. Es lässt sich damit vorhersagen, welche Supermarktfiliale am Montag nächster Woche wieviel Blattsalat oder Hackfleich verkaufen wird – und das mit einer unglaublichen Genauigkeit.

Die Datenbeschaffung und die Messung sehen bei diesen Anwendungsfällen natürlich etwas anders aus. In der Teilchenphysik wird nach der Simulationsrechnung ein Experiment am Teilchenbeschleuniger gefahren. Die dort gewonnenen Daten werden dann ausgewertet.

 

 

 

Kommentar schreiben

Kommentare: 0

Was kann ein Comiccast?