OpenAI wehrt sich gegen politische Manipulation seiner Modelle
OpenAI hat immer wieder gegen politische Einflussnahme zu kämpfen. Allein in den letzten drei Monaten hat das Unternehmen fünf Operationen gestoppt.
In den letzten drei Monaten hat OpenAI fünf Operationen zur politischen Beeinflussung aufgedeckt und gestoppt. Darin verwickelt waren, neben der eigenen Technologie, Akteure aus Russland, China und Israel.
Ob propagandistische Bots, «Säuberung» beziehungsweise Zensur in sozialen Medien oder das Generieren gefälschter Artikel: die Bandbreite der Missbräuche ist gross. OpenAI, bekannt für seine fortschrittlichen Technologien, positioniert sich nun.
Gefakte Unterstützung für Israels Besatzungspolitik
Das Unternehmen OpenAI engagiert sich für Richtlinien gegen Missbrauch und arbeitet an mehr Transparenz bezüglich KI-generierter Inhalte.
Besonders im Fokus stehen verdeckte Einflussoperationen, die öffentliche Meinungen manipulieren oder politische Ergebnisse beeinflussen wollen, ohne die wahre Identität oder Absichten ihrer Urheber zu offenbaren.
Zu den geschlossenen Konten gehören jene hinter einer russischen Telegram-Operation namens «Bad Grammar». Und solche, die eine israelische Firma Stoic unterstützen: Hier wurden mithilfe der Modelle von OpenAI's Artikel und Kommentare erstellt, die Israels aktueller militärischer Belagerungspolitik Rückhalt geben: anschliessend wurden sieauf anderen Platftformen wie Meta oder X verbreitet.
Mithilfe von KI Cyberattacken vorbereiten
Die genannten Akteure verwendeten eine Vielzahl von Tools: Diese generierten zum Beispiel kurze Kommentare oder auch längere Artikel in verschiedenen Sprachen.
Sie erfanden ausserdem Namen und Biografien für Social-Media-Konten oder funktionierten als Übersetzungs- und Korrekturlesedienste. Schon an nur diesen Beispielen lässt sich deutlich ablesen, wie breit die künstliche Intelligenz zur Manipulation bereits eingesetzt wird.
Bereits im Februar hatte OpenAI mehrere Konten «ausländischer böser Akteure» identifiziert und gesperrt. Diese waren unter anderem in verdächtige Aktivitäten involviert, darunter potenzielle Cyberangriffe mithilfe von OpenAIs Übersetzungs- und Codierungsdiensten – ein Vorhaben in Zusammenarbeit mit Microsoft Threat Intelligence.
Vorbeugen ist alles!
Mit Blick auf bevorstehende globale Wahlen rückt insbesondere die Verbreitung von Desinformation durch KI-verstärkte Kampagnen ins Zentrum des Interesses.
In den USA führten beispielsweise Deepfake-KI-Videos und Audioaufnahmen prominenter Persönlichkeiten zu einem föderalen Aufruf an Tech-Führungskräfte hinsichtlich deren Eindämmung.
Trotz Zusicherungen vieler KI-Leader bezüglich Wahlintegrität bestätigen Berichte über KI-Stimmklonungen und deren Folgen, dass Sorgen durchaus berechtigt sind. Im Kampf gegen digitale Desinformation steckt unser aller Engagement wohl erst noch in den Kinderschuhen – aber immerhin ein Anfang!