«Clickbait»-Titel bringen nicht mehr Leser

Reißerische Titel, die im Web als «Clickbait» (Klickköder) bezeichnet werden, bringen nicht mehr Leser. Zu dieser Erkenntnis kommen US-Wissenschaftler. [...]

Nachrichten im Netz: «Clickbaiting» wird oftmals überschätzt (c) Pexels/Pixabay

Besonders reisserische Titel, auch „Clickbait“ genannt, kommen bei Lesern nicht so gut an wie gedacht, wie Forscher der Pennsylvania State University (Penn State) und der Michigan State University in mehreren Studien zeigen. In manchen Fällen reduzieren sich dadurch sogar die Zugriffe, heisst es. Eine weitere Erkenntnis: Künstliche Intelligenz (KI) tut sich extrem schwer, Clickbait-Artikel von normalen Beiträgen zu unterscheiden.

«Viel komplizierter als wir dachten»

«Weil Fake News in den sozialen Medien ein riesiges Problem sind, bemüht sich die Forschung sehr darum, Wege zu finden, um mittels KI systematisch Clickbait zu identifizieren und zu blockieren», so Shyman Sundar, Leiter des Media Effects Research Laboratory an der Penn State. Die neuesten Studien würden allerdings die Vermutung nahelegen, dass es gar nicht so leicht ist, Falschnachrichten auf diese Weise auf die Spur zu kommen. «Einige glauben, dass man nur das Clickbait-Problem lösen muss, um auch das Fake-News-Problem zu lösen. Unsere Studien zeigen aber, dass Clickbait viel komplizierter ist als wir dachten.»

«Eine unserer Ausgangsfragen war, ob bestimmte Clickbait-Eigenschaften mehr Klicks generieren können als andere», erklärt Maria Molina, Assistant Professor am Department of Advertising and Public Relations der Michigan State University. Dazu gehören etwa Überschriften mit Fragezeichen am Ende oder mit überzogenen negativen oder positiven Superlativen. Das Ergebnis habe die Experten selbst überrascht. «Als wir das genauer analysiert hatten, mussten wir feststellen, dass es keine signifikanten Unterschiede gibt. Die Leute finden anscheinend sogar normale Überschriften anziehender als Clickbait», so Molina.

Drei Untersuchungen durchgeführt

Das Team beider Hochschulen hat drei Studien durchgeführt. Bei der ersten wurden 150 Personen eine von acht zufällig ausgewählten Überschriften zu verschiedenen Themen vorgesetzt und kontrolliert, ob sie anschliessend die dazugehörigen Artikel auch weitergelesen oder geteilt haben. Bei der zweiten wurden 249 Teilnehmer rekrutiert, die acht Überschriften zum selben Thema zu sehen bekamen – nur eine davon war Clickbait. «Bei beiden Studien konnten die Clickbait-Beiträge nicht mehr Zugriffe erzielen als die normalen Texte», sagt Molina.

Im Zuge einer dritten Studie sollte geklärt werden, ob KI helfen kann, Clickbait automatisch aufzuspüren, um so der Verbreitung von Fake News den Kampf anzusagen. Hierzu wurden unterschiedliche Systeme und Modelle des maschinellen Lernens getestet. «Diese Systeme waren sich nur in 47 Prozent der Fälle darüber einig, was als Clickbait klassifizierbar ist und was nicht. Die Leute, die also Clickbait-Überschriften als ein Element zum Aufspüren von Fake News sehen, sollten ihre Einschätzung noch einmal überdenken», meint Sundar.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*