Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Roboter lernen sehen

Roboterarm mit optischen Sensorsystem
Die auf dem beweglichen Arm eines Roboters montierte Kamera nimmt dieselbe Szene aus drei unterschiedlichen Perspektiven auf. (Quelle: Dorian Rohner)

Damit Roboter in Unternehmen und Privathaushalten als zuverlässige Helfer eingesetzt werden können, müssen sie ihre Umgebung präziser wahrnehmen und interpretieren, als dies bisher geschieht. Hierfür werden an der Universität Bayreuth innovative Techniken auf der Basis möglichst sparsamer Rechenkapazitäten entwickelt. Mit Kameras ausgestattete Roboter sollen Objekte eindeutig identifizieren und verschiedene räumliche Ansichten aufeinander beziehen können. Zugleich sollen sie lernen, Sinnzusammenhänge in ihrem Arbeitsumfeld zu erkennen und mit den jeweils gewünschten Serviceleistungen darauf zu reagieren.

 

Im Projekt „SeLaVi“, das von Prof. Dr. Dominik Henrich am Lehrstuhl für Robotik und Eingebettete Systeme geleitet wird, werden Roboter in die Lage versetzt, auf der Basis von wenigen charakteristischen Bildern zu erkennen, was sich in ihrer Umgebung abspielt. Eine zentrale Rolle spielen dabei Kameras, die wie Augen an den Armen der Roboter befestigt sind. Von den Objekten in ihrer Arbeitsumgebung erzeugen die Kameras Bilder, die in geometrische Modelle übersetzt werden. Für diese Modelle ist es charakteristisch, dass sie nur wenige, aber repräsentative Oberflächenstücke der Objekte abbilden. Sie heißen daher Boundary Representations (BReps) und beanspruchen geringere Speicher- und Rechenkapazitäten als die Punktwolken oder Dreiecksnetze, die bisher üblicherweise zur Objekterkennung verwendet werden. Die neuartigen Modelle werden mit zusätzlichen, in den Kamerabildern enthaltenen Farbinformationen zusammengeführt und in einer Datenbank gespeichert.

 

Indem die Roboter neu hinzukommende Kamerabilder mit der Datenbank abgleichen, können sie Objekte in ihrer Umgebung fehlerfrei wiedererkennen. Dabei lassen sie sich nicht durch Bewegungen benachbarter Objekte irritieren.

 

Diese Fähigkeit der Roboter bildet die Grundlage für weitere Lernschritte, welche die Sinnzusammenhänge zwischen den statischen oder bewegten Objekten in ihrem Arbeitsumfeld betreffen. Roboter sollen diese „semantischen Relationen“ verstehen lernen, um dann mit ihren Armen auf zweckmäßige Weise in die jeweiligen Szenarien eingreifen zu können. Alle diese Fähigkeiten, wie sie derzeit in Bayreuth entwickelt und optimiert werden, können auf vielen Gebieten eingesetzt werden – angefangen von autonomen Servicerobotern bis hin zu Kooperationen zwischen Menschen und Robotern. „Diese Entwicklungen zeigen beispielhaft, wie sich nicht nur die industrielle Arbeitswelt, sondern auch unser Lebensalltag im Zuge der Digitalisierung verändert. Mit unseren Forschungsarbeiten wollen wir nicht zuletzt dazu beitragen, dass automatisierte Serviceleistungen die Menschen auch in ihren privaten Haushalten entlasten und die tägliche Lebensqualität erhöhen“, sagt Henrich.

 

Das Projekt „SeLaVi“ knüpft an ein thematisch verwandtes Bayreuther Forschungsvorhaben an, das ebenfalls von Henrich koordiniert wird. Hier geht es darum, Objekte mittels handgehaltener Tiefenkameras sensorisch zu erfassen und die erzeugten Bilder in CAD-Modelle zu übersetzen. Dies soll ebenfalls automatisch geschehen, ohne dass der Benutzer der Kamera ein spezielles Fachwissen benötigt. Um die anfallenden Rechenleistungen gering zu halten, wird getestet, inwieweit niedrige Auflösungen der Bilder schon ausreichen, um anhand der daraus generierten CAD-Modelle Objekte identifizieren zu können. Ziel ist es, mit einer vergleichsweise leistungsschwachen Rechen-Hardware räumliche Szenarien zu interpretieren, in denen Objekte mit unterschiedlichen Eigenschaften, Formen und Funktionen sinnvoll einander zugeordnet sind. „Die Ergebnisse dieser Forschungsarbeiten sind sehr hilfreich für unsere Weiterentwicklung von Robotern, die zuverlässige Serviceleistungen erbringen sollen, ohne vom Benutzer vertieftes Fachwissen oder hohe Rechnerkapazitäten zu verlangen. Wenn die Tiefenkameras vom Arm eines Roboters gehalten werden, können sie wie Augen fungieren, die ihm eine zuverlässige Orientierung in seiner Arbeitsumgebung ermöglichen“, erklärt Projektleiter Henrich.

 

Siehe auch:

http://www.ai3.uni-bayreuth.de/projects/selavi/

Zurück