Mit Deep Learning-Algorithmen Weltraumschrott vom Himmel holen

Die Forschenden der EPFL sind an vorderster Front bei der Entwicklung von Spitzentechnologien für die erste Mission der Europäischen Weltraumorganisation zur Entfernung von Weltraummüll aus der Erdumlaufbahn.
© 2020 EPFL

Wie misst man die Pose – d.h. die 3D-Rotation und 3D-Translation – eines Stücks Weltraummüll, so dass ein Greifsatellit es in Echtzeit erfassen kann, um es erfolgreich aus der Erdumlaufbahn zu entfernen? Welche Rolle spielen Deep-Learning-Algorithmen spielen? Und was ist Echtzeit im Weltraum? Dies sind einige der Fragen, mit denen sich ein bahnbrechendes Projekt unter Leitung des EPFL-Spin-offs ClearSpace befasst, um Technologien zum Einfangen von Weltraummüll und dessen Entfernung aus der Erdumlaufbahn zu entwickeln.

Die Beseitigung der mehr als 34 000 Schrottstücke, die die Erde umkreisen, wird aus Sicherheitgründen notwendig. Anfang dieses Monats waren ein alter sowjetischer Parus-Navigationssatellit und eine chinesische ChangZheng-4c-Rakete in einen Beinahezusammenstoss verwickelt, und im September führte die Internationale Raumstation ein Manöver durch, um eine mögliche Kollision mit einem unbekannten Weltraummüllstück zu vermeiden, während sich die Besatzung der ISS-Expedition 63 ihrem Sojus MS-16-Raumschiff näherte, um sich auf eine mögliche Evakuierung vorzubereiten. Da sich ständig mehr Gerümpel ansammelt, könnten Satellitenkollisionen alltäglich werden, was den Zugang zum Weltraum gefährlich machen würde.

ClearSpace-1, die erste Mission des Unternehmens, die für das Jahr 2025 geplant ist, wird die Bergung der inzwischen überflüssige Vespa-Oberstufe beinhalten, eines Nutzlastadapters, der 660 Kilometer über der Erde kreist und einst Teil der Vega-Rakete der Europäischen Weltraumorganisation (ESA) war. Das Ziel ist es, sicherzustellen, dass die Oberstufe wieder in die Atmosphäre eintritt und kontrolliert verglüht.

Eine der ersten Herausforderungen wird darin bestehen, die Roboterarme einer Fangrakete in die Lage zu versetzen, sich der Vespa aus dem richtigen Winkel zu nähern. Dafür wird sie mit Hilfe einer angebrachten Kamera – ihren «Augen» – herausfinden, wo sich der Weltraumschrott befindet, damit sie die Vespa greifen und sie dann wieder in die Atmosphäre zurückziehen kann. «Ein zentraler Schwerpunkt ist die Entwicklung von Deep-Learning-Algorithmen, um die 6D-Position (3 Rotationen und 3 Übersetzungen) des Ziels aus Videosequenzen zuverlässig abzuschätzen, auch wenn im Weltraum aufgenommene Bilder schwierig sind. Sie können mit vielen spiegelartigen Oberflächen über- oder unterbelichtet sein», sagt Mathieu Salzmann, leitender Wissenschaftler des Projekts im Computer Vision Laboratory der EPFL unter Leitung von Professor Pascal Fua in der Fakultät für Informatik und Kommunikationswissenschaften.

Allerdings gibt es einen Haken. Niemand hat die Vespa seit sieben Jahren wirklich gesehen, da sie sich in einem Vakuum im Weltraum dreht. Es ist bekannt, dass sie einen Durchmesser von etwa 2 Metern hat, mit Kohlenstofffasern, die dunkel und ein wenig glänzend sind, aber sieht sie immer noch so aus?

«Aber der vielleicht interessanteste Aspekt des Projekts ist, dass wir einen Algorithmus entwickeln, der schliesslich im Weltraum funktioniert. Ich finde das absolut erstaunlich, und das motiviert mich jeden Tag!»      Mathieu Salzmann

Das Realistic Graphics Lab der EPFL simuliert als «Trainingsmaterial», wie dieses Stück Weltraumschrott aussieht, um Salzmanns Deep-Learning-Algorithmen mit der Zeit zu verbessern. «Wir erstellen eine Datenbank mit computergenerierten Bildern des Zielobjekts, mit einem rekonstruierten Hintergrund der Erde aus hyperspektralen Satellitenbildern und einem detaillierten 3D-Modell der Vespa-Oberstufe. Diese Synthese-Bilder basieren auf Messungen an realen Materialproben von Aluminium- und Kohlefaserplatten, die mit dem Goniophotometer unseres Labors aufgenommen wurden. Dabei handelt es sich um eine grosse Robotervorrichtung, die sich um eine Testmusterprobe dreht, um sie gleichzeitig zu beleuchten und aus vielen verschiedenen Richtungen zu beobachten, was uns eine Fülle von Informationen über das Aussehen des Materials liefert», sagt Assistenzprofessor Wenzel Jakob, der Leiter des Labors. Sobald die Mission beginnt, werden die Forschenden in der Lage sein, einige reale Bilder von jenseits unserer Atmosphäre aufzunehmen und die Algorithmen fein abzustimmen, um sicherzustellen, dass sie vor Ort funktionieren.

Eine dritte Herausforderung wird es sein, im Weltraum, in Echtzeit und mit begrenzter Rechenleistung an Bord des ClearSpace-Erfassungssatelliten zu arbeiten. Dr. Miguel Peón, ein Senior Post-Doctoral Collaborator des Labors für eingebettete Systeme der EPFL, leitet die Arbeiten zur Übertragung der Deep-Learning-Algorithmen auf eine spezielle Hardware-Plattform. «Da die Bewegung im Weltraum gut funktioniert, können die Algorithmen zur Posenschätzung die Lücken zwischen Erkennungen im Abstand von einer Sekunde füllen und so den Berechnungsdruck mindern. Um jedoch sicherzustellen, dass sie autonom mit allen Unsicherheiten in der Mission umgehen können, sind die Algorithmen so komplex, dass ihr Einsatz die höchste Auslastung der gesamten Ressourcen der Plattform erfordert», sagt Professor David Atienza, Leiter der ESL.

Es liegt auf der Hand, dass es eine enorme Herausforderung ist, Algorithmen so zu entwerfen, dass sie unter solch rauen und relativ unbekannten Bedingungen 100 % zuverlässig sind und mit begrenzten Rechenressourcen in Echtzeit funktionieren. Für Salzmann ist dies eine der spannenden Seiten des Projekts: «Wir müssen absolut zuverlässig und robust sein. Aus der Forschungsperspektive ist man normalerweise mit 90 % Erfolg zufrieden, aber das können wir uns bei einer echten Mission nicht wirklich leisten. Aber der vielleicht interessanteste Aspekt des Projekts ist, dass wir einen Algorithmus entwickeln, der schliesslich im Weltraum funktioniert. Ich finde das absolut erstaunlich, und das motiviert mich jeden Tag!»