Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Roboterarm malt Bild per Augensteuerung

Wissenschaftler des Imperial College London (http://imperial.ac.uk) haben ein neuartiges Steuersystem für einen Roboterarm entwickelt, das sich rein über die Augen des Users bedienen lässt. Möglich wird das mithilfe spezieller Software, die die jeweilige Blickrichtung und den Wimpernschlag einer Person genau analysiert und zu vordefinierten Kontrollbefehlen uminterpretiert. Bei einer ersten Demonstration gelang es einer Testperson auf diese Weise ohne jegliches Training, den Roboter ein einfaches Bild malen zu lassen.

 

„Unser System ist der erste Schritt in Richtung einer menschlichen Augmentation mit zusätzlichen Gliedmaßen“, erklärt Projektleiter Aldo Faisal vom Department of Computing and Bioengineering des Imperial College London. Das Malen eines Bildes sei dabei natürlich nicht das eigentliche Ziel. „Wir wollten mit dieser Demonstration zeigen, wie es Menschen eines Tages möglich sein wird, die Palette ihrer Fähigkeiten zu erweitern und mithilfe von Robotern gleich mehrere Aufgaben zur selben Zeit erledigen zu können“, betont der Forscher. „Diese neue Form des Multitaskings könnte die Produktivität am Arbeitsplatz oder zuhause beträchtlich steigern“, ist Faisal überzeugt.

 

Um die erweiterten Einsatzmöglichkeiten der eigenen Entwicklung in der Praxis unter Beweis zu stellen, haben Faisal und sein Team im hauseigenen „Behaviour Lab“ kurzerhand eine Postgraduate-Studentin als Testkandidatin eingespannt. In einigem Abstand vor einer leeren weißen Leinwand sitzend, gelang es ihr problemlos, den Roboterarm lediglich mittels ihrer Augen zu bedienen und ein einfaches Landschaftsbild malen zu lassen. „Ich brauchte hierfür keinerlei Training. Um etwa eine horizontale Linie zu malen, musste ich nur ihren Start- und Endpunkt mit meinem Blick fixieren“, schildert die Studentin.

 

Das technische Prinzip hinter dem System ist recht einfach: Eine handelsübliche Kamera verfolgt kontinuierlich die Augenbewegungen des Nutzers und interpretiert diese im Zusammenspiel mit einer speziellen Software zu spezifischen Bewegungskommandos, die anschließend an den mechanischen Roboterarm weitergegeben werden. Damit die Kommandos richtig erkannt werden, wurde vorab eine Reihe von Augenbewegungen definiert, die jeweils bestimmte Aktionen des Roboters auslösen sollen.

 

Das Malen von Bildern dient den Forschern nur zur Demonstration der praktischen Umsetzbarkeit ihres technologischen Ansatzes. Geht es nach den Plänen von Faisal, soll der Pinsel in der Roboterhand bald durch andere Objekte oder eine voll funktionsfähige Hand mit fünf flexiblen Fingern ersetzt werden. „Auf diese Weise wären viele verschiedene Einsatzbereiche denkbar. Das System könnte etwa adaptiert werden, um gelähmten Menschen oder Personen mit fehlenden Gliedmaßen im Alltag zu helfen“, meint der Wissenschaftler.

(Quelle: www.pressetext.de)

Zurück