Im Schatten des Fortschritts: Deepfakes und Verschwörungstheorien
Wir leben in einer Ära, in der künstliche Intelligenz uns nicht nur hilft, sondern auch verwirrt.
Im Jahr 2022 tauchte ein Video auf, das angeblich den ukrainischen Präsidenten Wolodymyr Selenskyj zeigt. Der Inhalt: Selenskyj forderte offensichtlich seine Soldaten zur Kapitulation vor dem russischen Militär auf.
Die Absicht dahinter war klar – Demoralisierung und Verbreitung von Misstrauen. Denn: Solche Videos tragen dazu bei, das Vertrauen in Medien insgesamt zu untergraben.
Eine Studie über Tweets bezüglich KI-generierter Deepfake-Videos im Zusammenhang mit dem russisch-ukrainischen Krieg bringt Einzelheiten ans Licht. Sie belegt, dass auch nicht überzeugende Deepfakes ausreichen, um Zweifel und Verschwörungstheorien im Internet zu verbreiten.
Deepfakes: Ein neues Instrument für Skeptiker
John Twomey ist Doktorand an der University College Cork in Irland und Hauptautor dieser Studie. Er definiert gegenüber Spectrum IEEE «Deepfake» als ein Video, welches mithilfe von Tiefenlern-Technologie generiert wurde.
Twomey analysierte 1392 Tweets aus den ersten sieben Monaten des Jahres 2022, welche sich alle auf solche Deepfakes bezogen. Mittels reflexiver thematischer Analyse konnte er feststellen, wie viele dieser Tweets Skepsis gegenüber Deepfakes zum Ausdruck brachten.
Und die Ergebnisse waren alarmierend! Die Anzahl der Tweets, welche echte Deepfakes korrekt identifizierten, wurde mehr als fünffach von Tweets übertroffen, die echte Videos fälschlicherweise als Deepfakes bezeichneten.
Die Lüge zahlt sich aus
Einige Forscher sprechen vom «Liar's Dividend» – dem Nutzen, den einige Personen aus einer durch Fehlinformationen vergifteten Umgebung ziehen können. In solch einem Umfeld kann ein Politiker Kritik einfach abweisen, indem er sie als Fake News bezeichnet.
Es scheint so, als ob sogar harmlos wirkende Deepfakes zu diesem Phänomen beitragen können.
Zum Beispiel postete das offizielle X-Konto der ukrainischen Regierung (früher bekannt als Twitter) ein Video von Wladimir Putin in der kriegszerstörten Stadt Mariupol und kennzeichnete es klar als nicht echt. Solche Aktionen könnten nach hinten losgehen und Zweifel an diesen Quellen selbst schüren.
Es braucht mehr als De-facto-Analyse
Wie geht man also klug mit Deepfakes um? Twomey meint dazu, dass der aktuelle Ansatz zur Bekämpfung von Deepfake-Interventionen anscheinend nur darauf basiert, festzustellen, ob ein Video ein Deepfake ist oder eben nicht.
Aber wie genau man das angeht, bleibt unklar. Nicht alle Deepfakes sind gleich erstellt. Deepfakes, die für politische Fehlinformationen erstellt wurden, erfordern einen anderen Ansatz als solche, die es zum Spass oder zur Belästigung gibt.
Weltweites Phänomen mit multiplem Konfliktpotenzial
Zudem ist die Technologie zur Erstellung von Deepfakes neu und ständig im Wandel. Deepfake-Videos sind kein lokales Problem.
Sie werden weltweit eingesetzt und beeinflussen Konflikte auf der ganzen Welt. Die Arbeit von Twomey und seinen Kollegen hat nur Deepfakes aus einem Teil der Welt und auf einer Social-Media-Plattform untersucht.
Twomey zufolge muss noch viel mehr empirische Arbeit in diesem Bereich geleistet werden, um dem Phänomen Deepfakes auf die Spur zu kommen und sinnvoll bekämpfen zu können.