Deshalb mag KI keine Gender-Sternchen

Wenn Künstliche Intelligenz "Doctor" übersetzt, wird meist ein "Arzt" daraus, während "Nurse" eine Krankenschwester ist. Auch darüber hinaus haben ChatGPT und Co. ihre Probleme mit gendergerechter und fairer Sprache. [...]

(Quelle: PCtipp.ch)

Künstliche Intelligenz kann viel – doch mit gendergerechter und fairer Sprache hat sie ihre Probleme. Wer versucht, ChatGPT davon zu überzeugen, inklusiv mit Gendersternchen zu schreiben, stößt schnell an Grenzen. Denn die KI neigt dazu, diese Vorgabe immer wieder zu vergessen.

Die österreichische Wissenschaftlerin Sabrina Burtscher sowie ihr Kollege und Landsmann Lukas Daniel Klausner erklären in der Futurezone aus Wien jetzt, woran das liegt.

KI hat Probleme mit der deutschen Sprache

Beim Trainingsmaterial für ChatGPT, so Burtscher, „handelt es sich um eine Unmenge an Daten, vor allem Texte aus dem Internet. Wenn es dabei um deutschsprachige Texte geht, ist der überwiegende Teil im Netz in nicht inklusiver Sprache geschrieben. Hinzu kommt, dass es nicht nur die eine Art gibt, inklusiv zu schreiben.“

Ergebnis, so die beiden Fachleute für genderfaire Sprache: Die KI ist regelrecht verwirrt von den Optionen. ChatGPT schreibt daher von Haus aus in dem Stil, den die Mehrheit der deutschsprachigen Nutzerinnen und Nutzer im Netz verwendet. Und dabei ist genderinklusive Sprache in der Minderheit.

„Doctor“ ist traditionell ein Arzt – und keine Ärztin

Einer Künstlichen Intelligenz gendergerechte Sprache beizubringen, ist daher eine überaus anspruchsvolle Aufgabe, so Klausner: „Es muss schon wirklich sehr hart daran gearbeitet werden, wenn jemand versucht, ChatGPT dazu zu bringen, ‚Doctor‘ mit Ärztin und ‚Nurse‘ mit Krankenpfleger zu übersetzen.“ Denn solche Begriffe sind in Übersetzungen traditionell männlich und weiblich geprägt.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*