Im Schatten des Fortschritts: Deepfakes und Verschwörungstheorien

Christian Stede
Christian Stede

Am

Wir leben in einer Ära, in der künstliche Intelligenz uns nicht nur hilft, sondern auch verwirrt.

Deepfake von ehemaligem US-Präsident Obama
Achtung Deepfake: Ein falscher Obama spricht im Video. - https://www.youtube.com/@BuzzFeedVideo

Im Jahr 2022 tauchte ein Video auf, das angeblich den ukrainischen Präsidenten Wolodymyr Selenskyj zeigt. Der Inhalt: Selenskyj forderte offensichtlich seine Soldaten zur Kapitulation vor dem russischen Militär auf.

Die Absicht dahinter war klar – Demoralisierung und Verbreitung von Misstrauen. Denn: Solche Videos tragen dazu bei, das Vertrauen in Medien insgesamt zu untergraben.

Eine Studie über Tweets bezüglich KI-generierter Deepfake-Videos im Zusammenhang mit dem russisch-ukrainischen Krieg bringt Einzelheiten ans Licht. Sie belegt, dass auch nicht überzeugende Deepfakes ausreichen, um Zweifel und Verschwörungstheorien im Internet zu verbreiten.

Deepfakes: Ein neues Instrument für Skeptiker

John Twomey ist Doktorand an der University College Cork in Irland und Hauptautor dieser Studie. Er definiert gegenüber Spectrum IEEE «Deepfake» als ein Video, welches mithilfe von Tiefenlern-Technologie generiert wurde.

Schreibtisch mit Laptop
Links ein Fake-Video mit Kokain, rechts das Original. - Twitter/@EliotHiggins

Twomey analysierte 1392 Tweets aus den ersten sieben Monaten des Jahres 2022, welche sich alle auf solche Deepfakes bezogen. Mittels reflexiver thematischer Analyse konnte er feststellen, wie viele dieser Tweets Skepsis gegenüber Deepfakes zum Ausdruck brachten.

Und die Ergebnisse waren alarmierend! Die Anzahl der Tweets, welche echte Deepfakes korrekt identifizierten, wurde mehr als fünffach von Tweets übertroffen, die echte Videos fälschlicherweise als Deepfakes bezeichneten.

Die Lüge zahlt sich aus

Einige Forscher sprechen vom «Liar's Dividend» – dem Nutzen, den einige Personen aus einer durch Fehlinformationen vergifteten Umgebung ziehen können. In solch einem Umfeld kann ein Politiker Kritik einfach abweisen, indem er sie als Fake News bezeichnet.

Es scheint so, als ob sogar harmlos wirkende Deepfakes zu diesem Phänomen beitragen können.

Zum Beispiel postete das offizielle X-Konto der ukrainischen Regierung (früher bekannt als Twitter) ein Video von Wladimir Putin in der kriegszerstörten Stadt Mariupol und kennzeichnete es klar als nicht echt. Solche Aktionen könnten nach hinten losgehen und Zweifel an diesen Quellen selbst schüren.

Es braucht mehr als De-facto-Analyse

Wie geht man also klug mit Deepfakes um? Twomey meint dazu, dass der aktuelle Ansatz zur Bekämpfung von Deepfake-Interventionen anscheinend nur darauf basiert, festzustellen, ob ein Video ein Deepfake ist oder eben nicht.

Gesicht zeigen? Das können dank KI auch andere für uns übernehmen ...
Gesicht zeigen? Das können dank KI auch andere für uns übernehmen ... - Depositphotos

Aber wie genau man das angeht, bleibt unklar. Nicht alle Deepfakes sind gleich erstellt. Deepfakes, die für politische Fehlinformationen erstellt wurden, erfordern einen anderen Ansatz als solche, die es zum Spass oder zur Belästigung gibt.

Weltweites Phänomen mit multiplem Konfliktpotenzial

Zudem ist die Technologie zur Erstellung von Deepfakes neu und ständig im Wandel. Deepfake-Videos sind kein lokales Problem.

Sie werden weltweit eingesetzt und beeinflussen Konflikte auf der ganzen Welt. Die Arbeit von Twomey und seinen Kollegen hat nur Deepfakes aus einem Teil der Welt und auf einer Social-Media-Plattform untersucht.

Twomey zufolge muss noch viel mehr empirische Arbeit in diesem Bereich geleistet werden, um dem Phänomen Deepfakes auf die Spur zu kommen und sinnvoll bekämpfen zu können.

Mehr zum Thema:

Weiterlesen

Kommentare