„Bild‘ dir deine Meinung“: Gar nicht so einfach in Zeiten von KI-generierten Inhalten, diversen Internetquellen und vollen Social-Media-Kanälen. Weshalb Nutzende dabei eine ganz besondere Verantwortung haben – und wie wir es schaffen, trotz Nachrichtenflut den Überblick zu behalten.
Forschung
Mit KI gegen Desinformationen

Im Projekt DeFaktS des Forschungszentrums Informatik (FZI) trainieren Expert:innen die KI so, dass sie Desinformation in verdächtigen Social-Media- und Messenger-Gruppen anhand charakteristischer Faktoren und Stilmittel erkennt und davor warnt. Anschließend wird die trainierte KI für eine sogenannte XAI (Explainable Artificial Intelligence) genutzt. Nutzer:innen können damit transparent über mögliche Fake News informiert werden.

Der erste Blick am Morgen fällt aufs Handy, aufblinkende Push-News begleiten uns durch den Tag, abends auf dem Sofa wird durch die Sozialen Medien gescrollt: Die Nachrichtenwelt von heute ist schnell, digital und mobil. Wo einst noch in fast jedem Briefkasten die lokale Tageszeitung steckte, bieten nun zahlreiche Portale, Online-Foren, Datenbanken, Blogs und Plattformen im Sekundentakt einen Überblick über die neuesten Ereignisse und Entwicklungen vor Ort und in der Welt. Sie ordnen ein, bewerten und haben damit Einfluss auf unser Weltbild.

Ganz vorne: Social Media 

Ein Drittel der Deutschen ab 14 Jahren nimmt an einem durchschnittlichen Tag Informationen zum aktuellen Zeitgeschehen (auch) in Sozialen Medien wahr, so das Ergebnis einer Studie der Medienanstalten. Rund 30 Prozent der 14- bis 29-Jährigen sehen Soziale Medien dabei sogar als ihre wichtigste Quelle für Nachrichten und Informationen. Die klaren Gewinner: YouTube, Instagram und die Kurzvideo-Plattform Tiktok – auf der laut dem aktuellen Digital-Bericht „Digital 23“ der Unternehmen We are social und Meltwater Nutzer:innen durchschnittlich fast einen Tag pro Monat verbringen.

 

Viele Autor:innen, viele Quellen, viele Möglichkeiten zum Austausch: All das sorgt dafür, dass wir uns als Nutzer:innen umfänglich und unkompliziert informieren können – nicht selten aber auch von der Nachrichtenflut überrollt werden. Und uns dann die Frage stellen müssen: Was ist wichtig und was nicht? Was ist subjektive Berichterstattung und was objektive Überzeugung? Was ist Fakt und was Fake? Und vor allem: Wie stehe ich selbst zu dem Thema?

Keine Demokratie ohne freie Meinungsbildung

Hier kommt die freie und individuelle Meinungsbildung ins Spiel. Die bestimmt nämlich nicht nur unser eigenes Leben, sondern ist auch entscheidend für eine funktionierende Demokratie. Wie und was wir über bestimmte Themen denken, hängt dabei von zahlreichen Faktoren ab – darunter soziale und kulturelle Einflüsse, persönliche Erfahrungen und eben auch die Informationen, die uns tagtäglich über das Internet erreichen. Dass Künstliche Intelligenz hierbei eine immer wichtigere Rolle spielt, hat in den vergangenen Monaten nicht zuletzt ChatGPT gezeigt. 

 

Dem weltbekannten Chatbot war es im letzten Jahr gelungen, innerhalb von fünf Tagen eine Millionen Nutzer zu erreichen. Seitdem wird die KI-Software intensiv verwendet. Als Impulsgeber, Texteschreiber, Programmierer, Datenmanager oder Sparringpartner. ChatGPT hat auf fast alle Fragen eine Antwort – und das in nur wenigen Augenblicken. Das Ergebnis? Auf den Punkt gebrachte Antworten (wenn auch aktuell noch auf dem Stand von 2021). Sowie ein rascher Durchblick inmitten der Informationsflut. Was die Künstliche Intelligenz nicht leisten kann? Kontextverständnis und natürlich: menschliche Intuition. Und manchmal kann die KI-Anwendung auch echte Falschaussagen liefern. So erhielt das Unternehmen hinter ChatGPT, OpenAI, im vergangenen April die Mahnung eines australischen Bürgermeisters. Dieser war vom Chatbot als Krimineller bezeichnet worden. Tatsächlich hatte er aber einen Bestechungs- und Korruptionsskandal mit aufgedeckt.
 

Forschung
Mit KI gegen Desinformationen

Im Projekt DeFaktS des Forschungszentrums Informatik (FZI) trainieren Expert:innen die KI so, dass sie Desinformation in verdächtigen Social-Media- und Messenger-Gruppen anhand charakteristischer Faktoren und Stilmittel erkennt und davor warnt. Anschließend wird die trainierte KI für eine sogenannte XAI (Explainable Artificial Intelligence) genutzt. Nutzer:innen können damit transparent über mögliche Fake News informiert werden.

„Rund 30 Prozent der 14- bis 29-Jährigen sehen soziale Medien als ihre wichtigste Quelle für Nachrichten und Informationen zum aktuellen Zeitgeschehen.“
Ergebnis einer Studie der Medienanstalten
Projekt
Gemeinsam mit Mensch und KI

„noFake“ heißt das Projekt des Recherchezentrums Correctiv, der Ruhr-Universität Bochum und der TU Dortmund. Das Ziel: Nutzer:innen unterstützen, Falschinformationen zu erkennen. Dazu werden KI-gestützte Assistenzsysteme erstellt, die mögliche Fake News erkennen und bei der Text- und Bildanalyse helfen. Bürger:innen können als Crowdworker über die Plattform „Correktiv.Faktenforum“ selbst Informationen checken.

Gefangen in der News-Bubble

In den Sozialen Medien analysieren KI-Algorithmen das Verhalten und die Interessen der Nutzer:innen, um personalisierte und damit relevante Inhalte bereitzustellen. Das ist im täglichen Gebrauch durchaus praktisch, birgt aber auch die Gefahr sogenannter Filterblasen. Einmal drin in der eigenen Newsfeed-Bubble, werden Social-Media-User zunehmend von anderen – politischen, kulturellen oder gesellschaftlichen – Inhalten und Ansichten abgeschottet und auf diese Weise immer mehr in ihrem eigenen Weltbild bestärkt. Der Dialog wird schwieriger.

 

Und dann ist da noch das Thema Fake News – bewusst falsche oder irreführende Informationen, die verbreitet werden, um Meinungen zu beeinflussen oder Verwirrung und Angst zu verbreiten. Ob es nun ein Text, Kommentar oder ein künstlich generiertes Bild oder Video ist, ob es um Entwicklungen in der Corona-Krise oder im Ukraine-Krieg geht oder um einen von Polizist:innen abgeführten Donald Trump: Oft landen Fake News in den Sozialen Medien, werden geliked, geteilt und verbreiten sich dadurch rasant. Mittel der künstlichen Intelligenz machen Fälschungen einfacher und schwieriger zu erkennen, bieten aber auch Möglichkeiten, Desinformationen gezielt aufzudecken – wie verschiedene Projekte bereits erfolgreich zeigen (siehe Infokasten).

Alles fake? Natürlich nicht.

Darf man jetzt also gar nichts mehr glauben, was man im Internet liest? Auf keinen Fall. Schließlich bieten sowohl KI-Tools als auch Soziale Medien als Informationsquellen viele Chancen. Als Nutzer:innen sollten wir uns dabei jedoch stets unserer eigenen Verantwortung bewusst sein. Kritisch, aufmerksam und immer reflektierend. Wie das ganz einfach geht, zeigen diese fünf Tipps:

 

1. Quellen finden

Sind Quelle und Autor:in glaubwürdig? Suchen Sie nach Hinweisen.

 

2. Inhalte kritisch betrachten

Ist die Schlagzeile besonders sensationell, die Ansicht besonders extrem? Analysieren Sie den Inhalt kritisch und überlegen Sie, ob er logisch und gut begründet ist.

 

3. Falschinformationen überprüfen

Checken Sie die Fakten und verifizieren Sie die Informationen – besonders wenn sie kontrovers erscheinen.

 

4. Filterblasen erkennen

Verstehen Sie, wie KI arbeitet. Suchen Sie aktiv nach unterschiedlichen Meinungen, um ein ausgewogenes Bild zu erhalten.

 

5. Vielfalt der Informationsquellen

Soziale Medien, Nachrichtenportale, Expertenmeinungen: Kombinieren Sie verschiedene Quellen. Das Ergebnis: ein breites Spektrum an Meinungen und Fakten. 
 

Projekt
Gemeinsam mit Mensch und KI

„noFake“ heißt das Projekt des Recherchezentrums Correctiv, der Ruhr-Universität Bochum und der TU Dortmund. Das Ziel: Nutzer:innen unterstützen, Falschinformationen zu erkennen. Dazu werden KI-gestützte Assistenzsysteme erstellt, die mögliche Fake News erkennen und bei der Text- und Bildanalyse helfen. Bürger:innen können als Crowdworker über die Plattform „Correktiv.Faktenforum“ selbst Informationen checken.

Hat Ihnen der Artikel gefallen?