Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Gemeinsam gegen Desinformationen im Netz

Forscher wollen KI zu nutzen, um die Menschen selbst in ihrer Fähigkeit zur Erkennung von Falschinformationen zu stärken. So soll die Mündigkeit und Medienkompetenz von Nutzern gefördert werden. (Quelle: hiz)

Forscher wollen KI zu nutzen, um die Menschen selbst in ihrer Fähigkeit zur Erkennung von Falschinformationen zu stärken. So soll die Mündigkeit und Medienkompetenz von Nutzern gefördert werden. (Quelle: hiz)

 

Falschinformationen, Desinformationen und Hetze nehmen im Internet durch die rapide Entwicklung Künstlicher Intelligenz stark zu und werden immer mehr zu einer Gefahr für die Demokratie. Die Hoffnung, dass Methoden der Künstlichen Intelligenz dem allein Abhilfe schaffen könnten, indem sie automatisiert Falschinformationen zu identifizieren lernen, hat sich jedoch als trügerisch erwiesen: Maschinell gelernte Modelle können auch heute nicht ausreichend von ihren Trainingsdaten – die notwendigerweise die Vergangenheit abbilden – auf die immer neuen Sachverhalte und Begriffe der sich schnell entwickelnden Medienwelt verallgemeinern. Daher lässt sich Desinformation allein mithilfe Künstlicher Intelligenz auch weiter nicht verlässlich genug von wahren Aussagen unterscheiden. So hat das Fakten-Checken ein fundamentales Problem: Weder steht die journalistische Arbeitsleistung zur Verfügung, die für ein gründliches Fakten-Checken der zunehmenden Masse an Desinformation erforderlich wäre, noch sind maschinelle Systeme vorhanden oder stehen in Aussicht, mit denen sich das Problem grundsätzlich lösen ließe.

 

Mensch-Maschine-Kollaboration

Das vom Bundesministerium für Bildung und Forschung geförderte Projekt „KI-unterstütztes Assistenzsystem für die Crowdsourcing-basierte Erkennung von über digitale Plattformen verbreiteter Desinformation (noFake)" reagiert auf diese Herausforderungen, indem es die Kompetenzen von Mensch und Maschine miteinander verknüpft. In der neuen Faktencheck-Community „CORRECTIV.Faktenforum“ des gemeinnützigen Medienhauses CORRECTIV, die seit Jahresbeginn schrittweise für die Beteiligung durch interessierte Nutzer geöffnet wird, soll die Idee des Bürgerjournalismus im Netz hierfür ein Zuhause finden. Hier werden Bürger in die Lage versetzt, sich an der Überprüfung von Tatsachenbehauptungen zu beteiligen, und sollen dabei durch die KI-Tools der noFake-Projektpartner aktiv unterstützt werden.

 

Stärken von KI nutzen

Unter der Leitung von Prof. Dr. Dorothea Kolossa von der TU Berlin werden hierzu innovative maschinelle Lernverfahren zur Mensch-Maschine- Kollaboration entwickelt. Ihr Forscherteam konzentriert sich dabei auf multi-modale Inhalte, unter anderem durch die Erkennung von künstlich generierten Bildern und Texten, oder die Suche nach existierenden Faktenchecks zu neuen Meldungen. Das Team hat unter anderem ein System entwickelt, das nicht nur mit einer Genauigkeit von 99,5% erkennen kann, welche Bilder durch die aktuellen Diffusionsmodelle wie Stable Diffusion oder Midjourney computergeneriert und welche authentisch sind, sondern auch zwischen verschiedenen Bildgenerierungsmodellen klar unterscheiden kann. Diese Tools werden nun schrittweise im CORRECTIV.Faktenforum implementiert und sollen dort, zusammen mit Erklärungen über die jeweiligen Entscheidungsgrundlagen, den Bürgerjournalisten für deren Checks zur Verfügung stehen. So lernen sie, mögliche Falschinformationen mit Hilfe von KI und eigener Recherche zu überprüfen. Das ist laut Dorothea Kolossa dringend nötig, denn mit den aktuellen Entwicklungen in der Künstlichen Intelligenz drohe gerade mit generativen Modellen wie ChatGPT für Text und Stable Diffusion für Bilder eine Flut von Falschinformationen. Das Projekt noFake möchte hingegen die Stärken von KI nutzen, um das Ungleichgewicht zwischen der einfachen und schnellen Generierung von Desinformation und dem Aufwand in der Erstellung zuverlässiger Informationen wieder auszugleichen.

 

Medienkompetenz von Bürgern fördern

„Besonders wichtig finde ich dabei unsere Idee, KI zu nutzen, um die Menschen selbst in ihrer Fähigkeit zur Erkennung von Falschinformationen zu stärken. Wir möchten so die Mündigkeit und Medienkompetenz von Bürgern und Bürgerjournalisten fördern, ganz im Gegensatz zu vielen aktuellen Ansätzen, menschliche Fähigkeiten durch automatisierte Tools zu ersetzen. Die KI als ein Werkzeug zum Erkenntnisgewinn ist nicht nur hier, sondern auch in vielen anderen Anwendungen, wie beispielsweise in der Medizin, der aus meiner Sicht richtige und verantwortungsvolle Weg in eine Zukunft mit immer stärkeren Werkzeugen des Maschinellen Lernens“, so Dorothea Kolossa, deren Expertise im Bereich des Natural Language Processing in den vergangenen Jahren mehrfach ausgezeichnet wurde. Für das noFake-Projekt kooperiert sie mit Prof. Dr. Tatjana Scheffler und ihrem Team der forensischen Linguistik der Ruhr-Universität Bochum sowie mit einem interdisziplinären Konsortium aus Journalisten, Fact- Checkern und Softwareentwicklern der CORRECTIV gGmbH. Experten des Medien- und Internetrechts der TU Dortmund unter der Leitung von Prof. Dr. Tobias Gostomzyk gehören ebenfalls zum Projektverbund.

 

Debattenkultur in der Gesellschaft stärken

Das noFake-Team entwickelt zudem Lehrmaterialien und Lerntools, die Bürger in die Lage versetzen, kollaborativ mit Journalisten, mit anderen Laien, und mit den entwickelten KI-gestützten Assistenztools zusammenzuarbeiten. So werden die Bürge mit den Mechanismen journalistischer Arbeit vertraut, um die Medienkompetenz und Debattenkultur in der Gesellschaft zu stärken. „Verantwortungsbewussten und engagierten Bürgern die Möglichkeit zu geben, sich an der Überprüfung von Fakten zu beteiligen und zu lernen, wie man es richtig macht, ist meiner Meinung nach ein großartiges Rezept, um die Zukunft der Demokratie zu bewahren“, sagt Veronika Solopova, wissenschaftliche Mitarbeiterin im noFake-Projekt der TU Berlin. „Es ist an der Zeit, dass wir alle verstehen, dass die Qualität unserer Informations-Ökosphäre in unserer Verantwortung liegt. Zu akzeptieren, dass ´alternative Fakten` und ´Halbwahrheiten` die Medien und die politische Rhetorik zunehmend prägen, ist ein direkter Weg, alles zu verlieren, was uns lieb ist.“

 

Siehe auch

https://www.faktenforum.org/

 

Zurück