Description

Die Projektidee defalsif-AI adressiert im Kontext der Künstlichen Intelligenz (KI) in der zivilen Sicherheitsforschung insbesondere politisch motivierte Desinformation, welche politische sowie staatlichen Institutionen unserer Demokratie – z.B. Wahlbeeinflussung – und somit letztlich das Vertrauen in politische und staatliche Institutionen schwächen bzw. bedrohen. Das Projekt ist daher auch im Bereich des „Schutz kritischer Infrastrukturen“ – folglich Demokratie als kritische Infrastruktur – angesiedelt. Die inhaltlichen Forschungsschwerpunkte liegen dabei auf audiovisueller Medienforensik, Textanalyse und deren multi-modaler Fusion unter Zuhilfenahme von Methoden der Künstlichen Intelligenz (KI). Ein für das defalsif-AI Projekt vorgeschlagenes Beispielszenario ist die Verifizierung von Inhalten einzelner Webpages – wie z.B. die Inhalte eines “Nachrichtenartikels”. Dieses Szenario ist – in abgewandelter Form – auch repräsentativ für andere Anwendungsfälle (z.B. Auswertung von Social Media Feeds). Unser Ziel ist dem Benutzer – sowohl staatliche Endanwender (Behörden, Ministerien) als auch Vertreter von Nachrichten-/Medienorganisationen – ein Werkzeug für die Analyse von digitalen Inhalten im Internet zu geben. Diese Analyse ermöglicht eine erste Beurteilung der Inhalte (Text, Bild, Video, Audio) auf Glaubwürdigkeit/Authentizität und liefert so Grundlagen für weitere Handlungsempfehlungen. Insbesondere die automatisierte Analyse der Inhalte auf Authentizität – in Bezug auf das Erkennen gefälschter bzw. manipulierter Medien-Artefakte (breite, öffentliche Desinformation) – stellt hier eine große Herausforderung dar und wird daher besonders behandelt. Dabei werden die Analyseverfahren anhand Ihrer Komplexität von niedrig bis hoch unterteilt. Mit diesem Ansatz ist sichergestellt, dass Analyseergebnisse erklärbar sind und somit für den Nutzer richtig eingeordnet werden können. Ein Beispiel für ein Verifikationswerkzeug niedriger Komplexität wäre die Metadatenanalyse eines Bildes (Aufnahme-/Änderungsdatum, Geräteinformation, Geo-Information, …), oder die Auswertung der Header-Information eines HTML-Dokuments (z.B. Länderinformation). Im mittleren Komplexitätsbereich wäre die Qualitäts-Analyse erster charakteristischer Eigenschaften des Inhalts angesiedelt – z.B. passt Speicherverfahren zur Geräteinformation, Sensorrauschen einer Bild oder Ton Aufzeichnung, etc. Im höchsten Komplexitätsbereich wären KI-gestützte Analyseverfahren angesiedelt, welche im besonderen Maß auf inhaltsspezifische Merkmale der unterschiedlichen digitalen Artefakte eingehen. Beispiele sind u.a. die Erkennung von sogenannten “Deep Fake” Videos (welche selbst mittels Methoden der KI erzeugt werden), sich wiederholende Bildsequenzen, Analyse der geschürten Emotionen welche mit einem Text transportiert werden, ... etc. Alle der obig beschriebenen Verfahren unterschiedlicher Komplexität liefern hierbei – für sich – nachvollziehbare Ergebnisse welche nicht (!) nur die Authentizität des untersuchten Mediums in der Kategorie „verdächtig” oder „unverdächtig” einordnen. Die Einzelergebnisse aller Analyseverfahren – aller obig genannten Komplexitätsstufen – werden schlussendlich in einer eigenen Fusionskomponente zusammengeführt. Insbesondere diese Komponente besteht zum Teil aus einem durch den Endanwender konfigurierbaren Regelwerk, und zum anderen Teil aus adaptierbaren und zuschaltbaren KI-Fusionierungslogiken. Im Projekt wird auf die jeweiligen Arbeitsprozesse der Endanwender und die Einsetzbarkeit im täglichen Arbeitsumfeld Rücksicht genommen. Abgerundet wird das Projekt defalsif-AI mit einer begleitenden Studie zu ethischen und gesellschaftlichen Auswirkungen von Desinformation und Betrachtung der diesbezüglichen rechtlichen Situation (z.B. welche rechtlichen Maßnahmen eröffnen sich aus den Analyseergebnissen der unterschiedlichen Verfahren zur Entfernung der Inhalte aus dem Internet).

Details

Publications

Seboeck, W., Biron, B., Scheichenbauer, H., Boyer, M., Lampoltshammer, T.J. (2023). Fake News in the Tension Arc of Artificial Intelligence. In: Filibeli, Tirse Erbaysal/Özbek, Melis Öneren, Mapping Lies in the Global Media Sphere: Chapter 11, Routledge/Taylor & Francis, London

Seböck, W.; Biron, B.; Lampoltshammer, T.J. (2023). Barriers to the Introduction of Artificial Intelligence to Support Communication Experts in Media and the Public Sector to Combat Fake News and Misinformation. In: Edelmann, N., Danneels, L., Novak, AS., Panagiotopoulos, P., Susha, I., Electronic Participation - 15th IFIP WG 8.5 International Conference, ePart 2023, Budapest, Hungary, September 5–7, 2023, Proceedings: 67-81, Springer, Cham

Seboeck, W.; Biron, B.; Lampoltshammer, T.J.; Scheichenbauer, H.; Tschohl, C.; Seidl, L. (2022). Disinformation and Fake News. In: Masys, A.J., Handbook of Security Science: 1-22, Springer, Cham

Lectures

Barriers to the Introduction of Artificial Intelligence to Support Communication Experts in Media and the Public Sector to Combat Fake News and Misinformation

15th IFIP WG 8.5 International Conference - EGOV2023 – IFIP EGOV-CeDEM-EPART 2023, 05/09/2023

Set a Fox to Keep the Geese? State Authorities Using Artificial Intelligence to Fight Fake News

The 9th GIS Annual Conference 2022 Surveillance, Security and State Institutions, 24/11/2022

SDG 16 and Transformational Governance: Fighting Climate Change Fake News using AI and Big Data

CloudEARTH Conference series, 19/05/2022

Back to top