KI-Lehrer reagiert auf Emotionen seiner Schüler

Computerwissenschaftler der North Carolina State University (NCSU) haben ein neuartiges System entwickelt, das Lehrer und Professoren bald ihren Platz im Klassenzimmer beziehungsweise Hörsaal kosten könnte. [...]

Die Lösung kommt aus dem Bereich des sogenannten „Affective Computing“, das darauf abzielt, Computer mithilfe von künstlicher Intelligenz (KI) Emotionen erkennen, verarbeiten und ausdrücken zu lassen. Die neue Methode nutzt verschiedene Sensoren und Gesichtserkennungs-Tools, um den emotionalen Zustand von Studenten zu erfassen und den Unterricht automatisch entsprechend anzupassen.

„Um KI-Systeme entwickeln zu können, die Gefühle haben, müssen die Maschinen in der Lage sein, die drei grundlegenden Säulen der affektbezogenen Schleife zu erfüllen: Sie müssen Emotionen erkennen, richtig im Kontext interpretieren und auf natürliche Weise ausdrücken können“, zitiert „LiveScience“ den Projektmitarbeiter Joseph Grafsgaard, der auch Mitglied der intelliMedia Group an der NCSU ist. „Unser Ansatz setzt auf nicht-verbale Hinweise, um verschiedene Gefühlslagen zu unterscheiden“, so der Experte. „Im Grunde genommen sind wir damit sehr nahe an dem, was Psychologen tun.“

Grafsgaard und sein Team haben ihre Technologie für einen Einsatz in einem ganz speziellen Umfeld konstruiert, nämlich als möglichen Ersatz für einen menschlichen Lehrer im Klassenzimmer oder Uni-Hörsaal. Das präsentierte automatische Tutor-System ist im Moment zwar technisch noch nicht so weit, um die echten Vorbilder zu ersetzen. „Das Potenzial ist aber vielversprechend“, ist der NCSU-Forscher überzeugt.

Obwohl noch viel Entwicklungsarbeit nötig sein wird, kann der KI-gesteuerte „Professorenersatz“ bereits in seiner Prototyp-Version die Emotionen der anwesenden Studenten sehr gut erkennen und ansprechend darauf reagieren. Möglich wird das über eine Reihe von unterschiedlichen Sensoren, die in Kombination mit einer Gesichtserkennungs-Software jede Regung der Gesichtsmuskeln ihres Gegenübers erfassen und auswerten. „So lässt sich feststellen, ob ein Student gerade eine bestimmte Emotion wie etwa Langeweile zeigt“, erläutert Grafsgaard.

Die technologische Entwicklung der KI-Forschung hat in den vergangenen Jahren deutlich an Schwung gewonnen. Anerkannte Experten wie der US-Autor, Erfinder und Futurist Ray Kurzweil gehen sogar davon aus, dass der Fortschritt in diesem Bereich in weiterer Folge unweigerlich auch das Entstehen von Maschinen mit Gefühlen mit sich bringen wird. Kurzweil schätzt, dass dies bereits bis zum Jahr 2029 Realität werden könnte.

„Auch ein Computer, der alle drei Säulen der affektbezogenen Schleife erfüllt, kann noch nicht als ‚fühlend‘ bezeichnet werden“, dämpft NCSU-Forscher Grafsgaard die optimistischen Prognosen. Im Moment gäbe es jedenfalls noch keine Technologie, die den Maschinen klarmachen könnte, sich selbst zu begreifen. „Die gängigen Methoden erlauben kein Selbstbewusstsein“, so der Wissenschaftler abschließend. (pte)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*