Menschen bevorzugen gelangweilte Roboter

Wenn es um ein möglichst gutes Zusammenarbeiten von Menschen und Robotern geht, dürfen Letztere offensichtlich keineswegs zu perfekt programmiert sein. Wie aus einer aktuellen Untersuchung von Computerwissenschaftlern der University of Lincoln hervorgeht, fällt es Menschen nämlich eher schwer, sich mit künstlichen Gehilfen anzufreunden, wenn diese ihre Aufgaben erledigen, ohne dabei jemals einen Fehler zu begehen. Die Forscher raten deshalb dazu, in Zukunft mehr Roboter zu entwickeln, die auch menschliche Schwächen zeigen, Fehler machen und hin und wieder Emotionen wie Langeweile oder Müdigkeit ausdrücken. [...]

„Die menschliche Wahrnehmung von Robotern ist sehr oft durch Science-Fiction geprägt. Es gibt aber einen realen Konflikt zwischen derartigen Vorstellungen von überlegenen und distanzierten Maschinen und dem Ziel einer bestmöglichen Mensch-Roboter-Interaktion“, erklärt PhD-Student Mriganka Biswas von der School of Computer Science der University of Lincoln gegenüber „BBC News“. Schon vorangegangene Tests hätten gezeigt, dass es Menschen schwer falle, eine Beziehung zu zu perfekt agierenden Maschinen aufzubauen. „Wie sollen wir erfolgreich mit etwas zusammenarbeiten, das perfekter ist als wir selbst?“, bringt Biswas die zentrale Frage auf den Punkt.

Um diesen Zusammenhang genauer unter die Lupe zu nehmen, haben der Computerwissenschaftler und seine Kollegen im Labor ausführliche Testreihen mit drei unterschiedlichen Robotertypen durchgeführt. Der erste Roboter hört auf den Namen „Erwin“ (Emotional Robot With Intelligent Network) und kann fünf verschiedene Emotionen ausdrücken. Der zweite namens „Keepon“ ist eine kleine gelbe Maschine, die ursprünglich für soziale Interaktionen mit Kindern entwickelt worden ist. Der dritte Roboter ist der per 3D-Druck hergestellte humanoide Roboter „Marc“ (Multi-Actuated Robotic Companion).

Bei allen drei Robotern wurde die Programmierung durch sogenannte „kognitive Neigungen“ ergänzt, die dazu führten, dass diese Fehler machen und menschenähnliche Emotionen wie Müdigkeit, Langeweile oder Aufregung ausdrücken können. „Unsere Tests haben gezeigt, dass gewisse Makel und Charakterschwächen hilfreich sein können, damit Menschen ihr künstliches Gegenüber besser verstehen lernen, sich stärker damit verbunden fühlen und leichter mit ihm interagieren können“, fasst Biswas die Ergebnisse zusammen. Diese Schwächen könnten das zukünftige Roboterdesign grundlegend verändern, so der Forscher.

Dass es unter Umständen von Vorteil sein kann, wenn Technologien, die auf Künstlicher Intelligenz basieren, mit einigen eingebauten Schwächen daherkommen, hat erst unlängst der Internetkonzern Google gezeigt. Dort musste sich der Entwicklungsleiter im Bereich selbstfahrender Autos unlängst eingestehen, dass es besser wäre, wenn diese nicht so streng auf die Straßenverkehrsordnung achten und – ganz wie das menschliche Vorbild – hin und wieder auch Kurven schneiden und Sperrlinien überfahren. Dadurch soll letztendlich die Zahl der Unfälle deutlich reduziert werden, so die Hoffnung der Google-Experten. (pte)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*