Forschung: Gibt es rassistische KI?

Im Frühjahr sorgte die die rassistischen Entgleisungen des Chatbots "Tay" von Microsoft für Negativschlagzeilen. Jetzt testet Google gemeinsam mit Forschern der Universitäten Chicago, Sheffield und der University of the West of England derzeit, ob Künstliche Intelligenz (KI) auch zu einseitigen und diskriminierenden Entscheidungen führen kann. [...]

„Entscheidungen, die auf maschinellem Lernen basieren, können sowohl nützlich sein als auch einen sehr großen Einfluss auf unser Leben haben“, so Google-Forscher Moritz Hardt. Aus diesem Grund sei es immer wichtiger zu wissen, ob manche Maschinen womöglich diskriminierende Entscheidungen treffen und ob KI überhaupt feinfühlige Eigenschaften gegeben sind. Der Test soll mit KIs durchgeführt werden, die Vorhersagen über die Zukunft machen sollen, indem sie eine breite Masse von existierenden Daten analysieren.
„Auch wenn wir Zugang zu den Details von Algorithmen haben, sind diese so kompliziert, dass es fast aussichtslos ist, diese zu durchforsten“, erklärt Nathan Sebro von der University of Chicago. Im März hatte Microsoft Probleme mit Tay, der aus der Vielzahl seiner erhaltenen und von ihm analysierten Nachrichten zum Rassisten wurde. Die Menge der rassistischen Nachrichten führten dazu, dass er einer Überarbeitung unterzogen werden musste.
Begründete Sorgen 
„Maschinelles Lernen ist hervorragend, wenn wir es nutzen, um die beste Route für eine neue Öl-Pipeline zusammenzustellen. Bis wir jedoch genau wissen, wie einseitige Neigungen in der KI wirken, wäre ich sehr besorgt darüber, sie Entscheidungen treffen zu lassen, die direkte Auswirkungen auf das Leben von Menschen haben“, betont Noel Sharkey von der University of Sheffield abschließend die Wichtigkeit nötiger Tests.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*