Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene
Redaktion: Heinz Schmitz
Vertrauen Kinder Robotern?
Soziale Roboter, die mit Menschen kommunizieren und interagieren, werden vermehrt in der schulischen Bildung erprobt. (Quelle: StockSnap/Pixabay)
Sie sollen Lehrer nicht ersetzen, sondern sie unterstützen – etwa durch personalisierte Lernaufgaben, die auf die Bedürfnisse jedes einzelnen Kindes zugeschnitten sind. Soziale Roboter, die mit Menschen kommunizieren, interagieren und zu ihnen eine Beziehung aufbauen, werden vermehrt in der schulischen Bildung erprobt. Welche Faktoren beeinflussen, ob Kinder einem Roboter als Lehrenden vertrauen? Das haben Wissenschaftler der Jacobs University und der Uppsala University in einer gemeinsamen Metaanalyse untersucht. „Da die Rolle von Robotern in der Bildung zur Realität wird, müssen wir genauer verstehen, wie diese Maschinen besser lehren können, wie sie von den Kindern wahrgenommen werden und wie sich Kinder ihnen gegenüber verhalten“, sagt Dr. Arvid Kappas, Dekan und Psychologieprofessor an der Jacobs University.
Um zu einem besseren Verständnis dieser zukunftsweisenden Thematik beizutragen, haben er und Rebecca Stower, wissenschaftliche Mitarbeiterin an der Jacobs University, mit Natalia Calvo-Barajas und Professorin Ginevra Castellano von der Uppsala University in Schweden zusammengearbeitet. In einer Metanalyse haben sie gemeinsam das Vertrauen von Kindern in soziale Roboter untersucht.
Eine Metaanalyse wertet systematisch vorhandene wissenschaftliche Publikationen aus. Es wurden 414 Studien, die bislang zum Thema Vertrauen in Kind-Roboter-Interaktionen erschienen sind, untersucht. Unterschieden wurde zwischen zwei Arten vom Vertrauen: Zum einen soziales Vertrauen in den Roboter als eine Art Freund, zu dem eine emotionale Bindung aufgebaut wird. Und zum anderen Vertrauen in seine Kompetenzen: Kann der Roboter die ihm zugewiesenen Aufgaben erfolgreich bewältigen?
Des Weiteren fragten die Wissenschaftler nach den Auswirkungen des Roboterdesigns und seines sozialen Verhaltens auf die Vertrauensbildung. Manche Roboter ähneln Menschen, sie nehmen Augenkontakt auf, imitieren Gesten und Sprache. Andere wiederum sind eher funktionell. Berücksichtig wurde auch, wie Fehler des Roboters wahrgenommen werden und ob diese Rückwirkungen auf das Vertrauensverhältnis haben. „Unsere Metaanalyse zeigt, dass die Annahme, Roboter sollten möglichst dem menschlichen Ebenbild gleichen, nicht unbedingt zutreffend ist“, erläutert Rebecca Stower. „Roboter sind Roboter, mehr menschenähnliche Attribute führen eher zu einem geringeren Kompetenzvertrauen.“ Bei der Entwicklung künftiger Roboter sollte deshalb weniger die Frage im Mittelpunkt stehen, wie man einen perfekten Roboter designt, sondern wie er die zugeschriebene Aufgabe am besten bewältigt. „Roboter machen Fehler, manchmal versagt ihre Spracherkennung oder sie fallen auch mal um. Meine Beobachtung ist, dass Kinder sehr tolerant gegenüber Fehlern von Robotern sind“, sagt Stower, die über das Vertrauen von Kindern in soziale Roboter an der Jacobs University promoviert und kurz vor Abschluss ihrer Doktorarbeit steht.
Die Metaanalyse wurde im Rahmen des Forschungsprogramms „ANIMATAS“ durchgeführt, das die intuitive Mensch- Maschine-Interaktion mit menschenähnlichen sozialen Fähigkeiten für die Schulbildung fördert. Als deutsche Universität ist die Jacobs University Teil des internationalen Forscher-Konsortiums.
Originalveröffentlichung:
https://link.springer.com/article/10.1007/s12369-020-00736-8
Siehe auch:
https://www.jacobs-university.de/