Die chaotische Lagerung gilt immer noch als Vorbild für den, der zu faul zum Suchen ist. An der TU München wurde jetzt ein Robot entwickelt, bei dem sogar die Hauptaufgabe darin besteht, Verschwundenes aufzuspüren. Laut TUM einer der ersten Blechkameraden, der Bildverständnis nicht nur integriert, sondern sinnvoll verknüpft.

Einen Tracker mit RFID, WLAN und einem Barcode an allen möglichen, in Frage kommenden Gegenständen und Artikeln zu befestigen, ist also hier offenbar nicht die auf der Hand liegende Lösung. Der Robot aus dem TUM Learning Systems and Robotics Lab von Professor Angela Schoellig, an dessen oberem Ende eine Kamera montiert ist, verknüpft stattdessen Wissen aus dem Internet mit einer räumlichen Umgebungskarte.
Um etwas zu finden, muss sich der Roboter umsehen und ein dreidimensionales Bild des Raumes aufbauen. Die Kamera liefert zunächst zweidimensionale Bilder, deren Bildpunkte jedoch zusätzlich Tiefeninformationen enthalten.
Pixel mit Tiefeninformation
So entsteht ein zentimetergenaues räumliches Bild der Umgebung, das ständig aktualisiert wird. Ein Laptop versorgt den Roboter zusätzlich mit Informationen dazu, welche Gegenstände auf dem Bild zu sehen sind und welche Bedeutung sie für den Menschen haben.
«Wir haben dem Roboter beigebracht, die Umgebung zu verstehen», sagt Angela Schoellig. Die Vision der Leiterin des Robotik-Labs im TUM-Lehrstuhl für Sicherheit, Performanz und Zuverlässigkeit für lernende Systeme ist, Roboter zu entwickeln, die sich selbständig in beliebigen Umgebungen zurechtfinden. Humanoide Roboter, die in Fabriken arbeiten, oder Roboter in der Pflege, die sich in unterschiedlichen Wohnungen aufhalten, erfordern dieses neu entwickelte Grundverständnis, das «für alle Roboter wichtig ist, die sich in Räumen bewegen, die sich ständig verändern», wie Schoellig sagt – also in dynamischen Umgebungen.
Fotos: TUM
Aus Internet-Informationen sei dem Roboter klar, dass etwa ein Tisch oder eine Fensterbank dafür genutzt werden könnten, einen bestimmten Artikel kurz abzulegen, während eine Herdplatte oder ein Spülbecken dafür eher nicht in Frage kämen. «Das Sprachmodell spielt die Beziehungen zwischen den Objekten ein und wir wandeln diese Informationen in die Sprache des Roboters um», erläutert Schoellig. Auf der dreidimensionalen Karte der Umgebung erscheinen kleine zweistellige Zahlen, die ständig neu beziffern, wie wahrscheinlich es ist, dass sich der gesuchte Gegenstand dort befindet.
In dynamischem Umfeld
Daraufhin fährt der Roboter die wahrscheinlichen Orte um fast 30 Prozent effizienter ab, als wahllos im Raum zu suchen, so die Forschungsergebnisse. Künstliche Intelligenz kommt also gleich doppelt zum Einsatz, einerseits in der Bilderkennung, andererseits durch den Einsatz eines Sprachmodells.Eine Demo des Suchroboter war bis Freitag auf dem German Robotics Congress in Köln zu sehen.

















