45 Prozent fürchten, gefälschte Videos nicht erkennen zu können

Die Mehrheit der von nextMedia.Hamburg befragten Personen fordert eine Kennzeichnungspflicht von manipulierten Inhalten. [...]

Fast jeder Zweite hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. (c) Unsplash
Fast jeder Zweite hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. (c) Unsplash

Ein kurzes Tippen auf das Smartphone – und schon lächelt das eigene Gesicht von Supermans Körper oder aus dem neuen Beyoncé-Musikvideo. Möglich machen dies sogenannte Deepfake-Anwendungen wie „Reface“ oder „Faceswap“, die mit Hilfe Künstlicher Intelligenz (KI) authentisch wirkende Video-Illusionen erzeugen und vor allem in sozialen Netzwerken beliebt sind. Eine neue repräsentative Umfrage von nextMedia.Hamburg zeigt jedoch: Vielen Menschen in Deutschland bereiten die automatisierten Manipulations-Möglichkeiten von Video, Bild oder Ton durch KI Sorgen. Knapp drei Viertel (71,5 Prozent) der Befragten sehen in Deepfakes eine Gefahr für die Glaubwürdigkeit der Medien. 58,8 Prozent der Umfrage-Teilnehmer fürchten, dass sie für kriminelle Zwecke missbraucht werden.

Denn was bei den lustigen Deepfake-Apps ein großer Spaß ist, kann bei bewussten Täuschungen und manipulierten Nachrichten schnell zum Problem werden: Etwa wenn Identitäten gestohlen oder Politikerinnen und Politikern Worte in den Mund gelegt werden, die sie nie gesagt haben. Fast jeder Zweite hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. 39,1 Prozent der Befragten zweifeln bereits an der Echtheit mancher Inhalte.

„Bis vor einigen Jahren galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Durch KI-generierte Deepfake-Videos ist es für Konsumentinnen und Konsumenten schwieriger geworden, die grundsätzliche Echtheit von Informationen zu bewerten“, so Nina Klaß, Leiterin von nextMedia.Hamburg. „Viele der Deepfakes, die uns heute in den sozialen Medien begegnen, werden kreativ und für Unterhaltungszwecke entwickelt, aber natürlich gibt es da auch negative Ausnahmen, die vor allem der Täuschung der Öffentlichkeit und der bewussten Verzerrung von Fakten dienen. Deswegen gilt es, Aufklärung darüber zu betreiben, was technisch bereits alles möglich ist und im zweiten Schritt eine Kennzeichnungspflicht von Deepfake-Inhalten einzuführen.“

In der Umfrage von nextMedia.Hamburg gaben rund zwei von drei Teilnehmern zu, nicht genug über Deepfakes zu wissen, um sie einem Freund oder Bekannten erklären zu können. Von denjenigen, die die Technologie verstanden haben, sprach sich eine klare Mehrheit (58,1 Prozent) für eine Deepfake-Kennzeichnungspflicht aus.

Künstliche Intelligenz: Eine Technologie – viele Hoffnungen

Unabhängig vom Thema Deepfakes knüpfen die Menschen in Deutschland überwiegend Hoffnungen an Künstliche Intelligenz als Zukunftstechnologie. Viele glauben, dass KI ihr Leben einfacher (39,4 Prozent) und sicherer (25,3 Prozent) macht. Und jeweils rund jeder Dritte hofft, dass sich dank KI die Effizienz der eigenen Arbeit erhöht (34,7 Prozent) und Zeit gespart wird (32,2 Prozent). Aber auch Skeptiker gibt es: 34,6 Prozent der Befragten versprechen sich durch KI nichts von alledem.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*