Mondroboter

© BMWi / Ole Spata

Unwegsam ist das Gelände am Rand des Kraters, bis zu 45 Grad steil der Abhang. Doch Meter für Meter bahnt sich „Coyote III“ mit seinen fünfbeinigen Sternrädern im gleißend-kalten Sonnenlicht den Weg durch das Geröll. Dabei beobachtet und analysiert der sogenannte Micro-Rover permanent seine Umgebung und sich selbst mit Kamera, Laserscanner und einer Vielzahl von Sensoren. Eine Szenerie wie im Weltraum, wäre da nicht auch noch ein Mensch ohne Raumanzug, der den Roboter nicht aus den Augen lässt: Dr. Sebastian Bartsch leitet das Team Verhaltenssteuerung und Simulation im Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz in Bremen. Hier arbeiten interdisziplinäre Forscherteams an den autonom agierenden Robotersystemen der Zukunft. Bartsch und sein „Coyote III“ sind nicht allein in der Weltraumexplorationshalle, in der die Bremer Forscher einen Teil des Mondkraters „Shackleton“ nachgebaut haben. Zum „Forscherteam“ gehören auch der deutlich größere und gut zwei Zentner schwere, vierbeinige Mond-Rover „Sherpa TT“ und eine Basisstation, an der verschiedene Module für wissenschaftliche Untersuchungen und zur Entnahme von Bodenproben angedockt werden können. „Coyote III“ kann dem „großen Bruder“ als Assistent dienen, beispielsweise um Wege zu finden, vorgeplante Routen zu überprüfen oder Module zwischen Micro-Rover und Basisstation zu transportieren.

Mondroboter

© BMWi / Ole Spata

Aber wie intelligent sind die Roboter eigentlich? „Der Mensch und sein Denken kann nicht unser Maßstab sein. Denn wir beginnen sofort, wenn wir uns einer Situation gegenübersehen, diese zu erkennen und gegebenenfalls Lösungen zu erarbeiten.“ Bartsch illustriert dies mit einem einfachen Beispiel: „Denken Sie einfach an eine ganz gewöhnliche Kaffeetasse. Die könnte ich einem Roboter mit immenser Rechenleistung vor seine Sensoren stellen, aber ohne entsprechende Anweisung käme der nicht darauf, die Tasse am Henkel zu greifen.“ Auch in Optik und Sensorik sei die Technik dem Menschen noch weit unterlegen: „Betrachten Sie beispielsweise einmal Struktur und Größe der Netzhaut in unserem Auge; wenn es besser und kleiner ginge, hätte die Evolution das gemacht.“ Dem Robotiker geht es mehr um etwas, was er „mechanische Intelligenz“ nennt: „Ein gutes Beispiel ist die Ameise. Da ist vermutlich hinsichtlich dessen, was man gemeinhin ‚Denken‘ oder ‚Bewusstsein‘ nennt, nicht allzu viel los. Aber Ameisen passen ihre Aktionen und Fortbewegung immer wieder neu ihrer Umgebung an. Das ist etwas, was unsere Roboter auch können müssen.“

Auch wenn er dem Besucher komplexe technische Zusammenhänge erklärt, hat Bartsch immer ein Lächeln im Gesicht. Ihm ist anzumerken, dass er liebt, was er Tag für Tag in den Werkstätten, Büros und Laboren seines Instituts tut. „Ich bin mit Computern aufgewachsen, habe schon früh auf dem C 64 meine ersten kleinen Programme geschrieben“, erinnert er sich. So war es folgerichtig, dass er nach dem Abitur begann, Informatik zu studieren. Doch so richtig wohl fühlte und fühlt er sich nicht in einer rein digitalen Welt: „Ich brauche immer auch bewegliche Teile, den Bezug zu physikalischen Systemen“, erklärt Bartsch, „auch das wurde mir quasi in die Wiege gelegt. Mein Vater war ein begeisterter Techniktüftler und mit ihm habe ich schon früh jede Menge Zeug gelötet und gebastelt.“

Doch vor dem Bauen, Löten und Basteln steht erst einmal viel Arbeit am Computer: Lange bevor das erste Bauteil für „Coyote III“ und „Sherpa TT“ gefertigt wurde, stand ein Prozess, in dem der große und der kleine Rover im Rechner virtuell nach und nach Gestalt annahmen: „Zwischen der ersten Idee und dem tatsächlichen Baubeginn liegen tausende und abertausende Simulationszyklen“, erläutert Dr. Bartsch. Die virtuelle Entwicklung und Erprobung von einzelnen Teilen und ganzen Systemen erspart eine Menge Zeit und Aufwand und damit auch Geld. Aber die Simulation im Rechner kann die praktische Erprobung nicht ersetzen. Getestet werden die Roboter und Rover nicht nur in der knapp 300 Quadratmeter großen Halle in Bremen: Um den Gerätschaften Hitze und Staub zuzumuten, wurden sie unlängst zur Erprobung in die Wüste des US-Bundesstaates Utah geschafft. Die Steuerung hingegen verblieb - auch dies eine Analogie zum tatsächlichen Einsatz im Weltall -, tausende Kilometer entfernt in der Norddeutschen Tiefebene.

Mondroboter

© BMWi / Ole Spata

Entwickelt und gebaut wurde das High-Tech-Trio im Rahmen des aus Mitteln des BMWi finanzierten Projektes Forschungsprojektes „Trans TerrA“. Der Grundgedanke hinter dem Projekt: KI-basierte Weltraumtechnik kann auch auf der Erde sinnvoll und nutzbringend angewandt und eingesetzt werden. „Sicherlich sind die Rahmenbedingungen für einen Mond- oder Mars-Rover einerseits und ein selbstfahrendes Auto andererseits auf den ersten Blick höchst verschieden – außerhalb der Erde gibt es keine Straßen und Wege, außerdem reden wir von ganz anderen Geschwindigkeiten“, erklärt Dr. Bartsch, „aber die Sensorik und die steuernden Algorithmen unterscheiden sich im Grunde nicht.“ Und auch die Hardware kann, wie der Robotiker anfügt, nicht nur im All eingesetzt werden: „Für so einen Rover gibt es auch auf der Erde durchaus Verwendung. Mögliche Einsatzszenarien wären beispielsweise Erkundungs- oder Reparaturmissionen in Umgebungen, die für Menschen gefährlich oder gar tödlich wären, beispielsweise weil sie chemisch oder radioaktiv verseucht sind. Und auch auf dem Meeresgrund könnten unsere Roboter gut eingesetzt werden, beispielsweise bei der Kontrolle und Wartung von Unterwassereinrichtungen wie Kabeln oder Pipelines.“