Aktif
AKTIF: Automatische Klassifikation toxischer Inhalte und Fakenews
Über das Projekt AKTIF
Die ursprüngliche Idee der soziale Medien war es, einen offenen Informations- und Meinungsaustausch zu ermöglichen und die Kommunikation zu fördern. Allerdings sieht die Realität heute anders aus: Soziale Medienplattformen sind immer häufiger von Hass und Gewaltdrohungen überschwemmt. Falsche Tatsachenbehauptungen werden automatisch verbreitet, wobei Texte, Bilder und Videos miteinander verknüpft werden. Besonders für Kinder und Jugendliche wird es immer schwieriger, Informationen richtig einzuordnen.
Toxische Inhalte zu erkennen, kann auf zwei Arten geschehen: intrinsisch, durch die Analyse und Bewertung der veröffentlichten Inhalte oder extrinsisch, durch die Bewertung im Kontext anderer Informationen. Wir müssen zwischen harmloser Neckerei und bedrohlicher Kommunikation unterscheiden können und auch zwischen privaten Falschbehauptungen, gesellschaftlich relevanten Falschbehauptungen und strafrechtlich relevanten Akten der Desinformation.
Automatische Verfahren, wie schon das DeTox Projekt gezeigt hat, können bei dieser Einordnung helfen. Allerdings unterliegen Themen und Sprache toxischer Inhalte einem stetigen Wandel, weshalb es erforderlich ist, dass automatisierte Verfahren kontinuierlich dazulernen müssen.
Falschmeldungen bestehen nicht nur aus Text, sondern oft werden Bilder und Texte aus ihrem ursprünglichen Kontext gerissen und in einen neuen, irreführenden Zusammenhang gesetzt. Dies macht sowohl die menschliche als auch die automatische Erkennung äußerst komplex. Die Erkennung solcher Manipulationen erfordert innovative Ansätze, die Text und Bild in ihrem Zusammenhang analysieren können.
Unsere Lösung vereint semantische Bildanalyse, Bildforensik und Textklassifikation, um toxische Inhalte zu identifizieren, zu klassifizieren und zu bewerten. Besonders wichtig ist, dass diese Ergebnisse gezielt für Kinder und Jugendliche zugänglich gemacht werden. Im Vergleich zu den heute vorherrschenden manuellen Recherche- und Bewertungsmethoden bedeutet dies eine erhebliche Automatisierung, die dringend benötigt wird, da die gezielte Verbreitung von Desinformationen rapide zunimmt. In einer von Medien durchdrungenen Gesellschaft ist die Förderung von Medienkompetenz und insbesondere die Stärkung der Fähigkeit zur Medienkritik von großer Bedeutung. Dies ist entscheidend, um die damit verbundenen Gefahren, wie Cybermobbing, sexuellen Missbrauch, Cyberstalking und Radikalisierung, zu bewältigen. Unsere KI-Methoden bieten wertvolle Hintergrundinformationen zur Beurteilung der Toxizität von Nachrichten und anderen Inhalten. Dies ermöglicht Jugendlichen einerseits, Informationen besser zu bewerten, und andererseits gewinnen sie praktische Einblicke in die Möglichkeiten und Grenzen moderner KI-Methoden.
Geplante Maßnahmen
In diesem Projekt betreffen die technischen Entwicklungen das kontinuierliche maschinelle Lernen, die Verarbeitung multimodaler Inhalte und die Verbindung der Klassifikation von Hate Speech und Fake News. Diese Entwicklungen haben direkten Nutzen für verschiedene Anwendergruppen, darunter Hessen3C und Moderator*innen von Onlineforen. Gleichzeitig wird ein pädagogisches Konzept für die Entwicklung der Informationskompetenz auf Basis der Erkenntnisse aus der technischen Entwicklung skizziert. Dieses Konzept wird nach Abschluss des Projekts in Zusammenarbeit mit dem Leibniz-Institut für Bildungsforschung und Bildungsinformation umgesetzt und dem hessischen Kultusministerium zur Verfügung gestellt.
Laufzeit
März 2023 – Dezember 2023
Förderung
Das Projekt wird gefördert durch „The Hessian Center for Artificial Intelligence“ (hessian.AI).