Physik  |  Technik

 

Lamiah Hammam, 2004 | Ebnat-Kappel, SG

 

Die Auswirkungen der in der Allgemeinen Relativitätstheorie beschriebenen Krümmung der Raumzeit auf Licht werden durch Gravitationslinsen sichtbar. Microlensing-Events (ML-Events) sind eine Art von Gravitationslinse, deren mathematische Beschreibung ohne Herleitung der relativistischen Formeln für Gymnasiasten verständlich ist. Hierbei handelt es sich um ein Ereignis, bei dem die Bahn des Lichts einer näherungsweise (wegen jeweils vergleichsweise grossen Distanzen) punktförmigen Quelle von einer punktförmigen Linse durch ihre Masse beeinflusst wird. Bewegt sich nun die Linse genau zwischen der Lichtquelle und einem Beobachter hindurch, so führt dies zu einer scheinbaren, temporären Verstärkung des Lichts. Um ein solches Ereignis zu detektieren, muss man die Helligkeit einer Lichtquelle über Zeit messen, um Veränderungen zu erkennen. Da Microlensing-Events sehr selten sind, wird hier also ein grosser Datensatz mit Helligkeitswerten vieler Lichtquellen des Nachthimmels benötigt. Ein solcher stammt vom Samuel Oschin Teleskop in Kalifornien, wird von der Zwicky Transient Facility im Internet zur Verfügung gestellt, regelmässig erneuert und enthält mittlerweile etwa 6 Terabyte an Daten. Für die Durchsuchung eines so grossen Datensatzes musste ein effizientes Programm geschrieben werden, welches Microlensing-Lichtkurven findet.

Fragestellung

(l) Ist es möglich, mit den Kenntnissen eines Gymnasiasten einen Datensatz mit selbst geschriebenen Filterprogrammen erfolgreich nach Microlensing-Events durchzufiltern? (II) Was kann aufgrund der Resultate über die Filtermethode ausgesagt werden?

Methodik

Um die grosse Datenmenge vor dem Tätigen von Berechnungen zu reduzieren, wurde hier nur die rote Wellenlänge betrachtet. Weiterhin werden nur Lichtkurven mit einer Mindestanzahl an Messpunkten zugelassen. Der darauffolgende Filter berechnet statistische Eigenschaften der betrachteten Lichtkurven und enthält eine Bedingung bezüglich dieser Eigenschaften, die ML-Events im besten Fall grösstenteils erkennen sollte. Dies muss wegen der grossen Datenmenge effizient sein. Ein Grossteil der Arbeit bestand aus der Optimierung dieses Programms, beispielsweise mithilfe von Grid Search zum Finden der besten Filterparameter mithilfe von synthetischen und realen Testdatensätzen. Beschleunigt wurde das Programm mit NumPy-vektorisierten Operationen und der Masking-Methode. Nach der Evaluierung der statistischen Eigenschaften wurde ein Fitting-Programm von SciPy laufengelassen.

Ergebnisse

Zu den Ergebnissen gehören nicht nur die herausgefilterten Lichtkurven, sondern auch die mit Grid Search optimierte Filterbedingung. Diese ergab eine Funktion, welche eine Anhängigkeit der maximal akzeptierten Von-Neumann-Statistik von der Skewness beschreibt. Je negativer die Skewness, desto grösser darf dafür die Von-Neumann-Statistik sein (und umgekehrt). Ein Teil des Datensatzes wurde mehrmals von verschiedenen Filterversionen (einerseits vom optimierten Filter und andererseits von einigen strengeren Filtern) durchgefiltert und danach auf bereits bekannte MLs geprüft, wobei die strengeren Bedingungen Probleme mit dem Finden von ML-Events aufwiesen, die optimierte Funktion aber ML-Events hindurchlässt.

Diskussion

Der optimierte Filter findet grundsätzlich Microlensing-Events. Dass das Filterprogramm eine geringe Präzision hat und deshalb viele Daten durchkommen, liegt daran, dass die zur Optimierung verwendeten Datensätze entweder MLs oder konstante Lichtkurven enthalten, der tatsächliche Datensatz aber viele anderen Ereignisse mit negativer Skewness beinhaltet, welche alle auch vom Filter akzeptiert werden.

Schlussfolgerungen

Würde die Filterbedingung mit einem Datensatz optimiert werden, welcher auch andere Ereignisse enthält, würde dies automatisch zu einem geeigneteren Filter führen. Die Arbeit ist nicht abgeschlossen, da es neben dieser Hauptverbesserung noch viele anderen Aspekte gibt, die für eine bessere Durchfilterung zu erledigen sind, so z.B. ein eigenes Fitting-Programm (Nelder-Mead-Methode), statistische Auswertung gefundener ML-Parameter, zusätzliche Bedingungen wie minimale Fittingqualität oder Mindestanzahl an verstärkten Helligkeitswerten, etc.

 

 

Würdigung durch den Experten

Silvan Fischbacher

Wie findet man aus einem mehreren Terabyte schweren Datensatz die interessanten Datenpunkte? Lamiah Hammam zeigt in ihrer Arbeit, dass die Durchsuchung grosser Datensätze nicht unbedingt den Zugang zu Computerclustern erfordert. Ihre Pipeline besteht aus drei Filtern mit steigender Komplexität, die Microlensing Events aus Lichtkurven der Zwicky Transient Facility herausfiltert. Die Arbeit überzeugt im Umgang mit den komplexen Datenstrukturen und mit einem beeindruckenden Engagement, die Pipeline immer weiter zu optimieren und zu verbessern.

Prädikat:

hervorragend

Sonderpreis «Regeneron International Science and Engineering Fair (ISEF)» gestiftet von der Gebauer Stiftung

 

 

 

Kantonsschule Wattwil
Lehrer: Dr. Rolf Heeb