Skandal im Hause TikTok: Digitale Avatare verbreiten Hatespeech

Juli Rutsch
Juli Rutsch

Am 02.07.2024 - 11:35

TikTok hat aus Versehen eine KI-Testversion veröffentlicht, die beliebige Skripte vorlesen kann – ohne moralische Schranken. Auch Hitlers «Mein Kampf».

Icon TikTok Smartphone
TikToks KI-Avatare konnten ohne Leitplanken genutzt werden. Das ist nicht der einzige Fail, den KI jüngst hingelegt hat. - Depositphotos

Ein grosser KI-Fail erschüttert den Social-Media-Giganten TikTok. Dessen neueste Technologie, der KI-Videogenerator «Symphony Digital Avatars», wurde dazu verwendet, um Texte wie Adolf Hitlers «Mein Kampf» und Osama bin Ladens «Brief an Amerika» durch digitale Avatare vorlesen zu lassen.

Dieser Vorfall wirft ernste Fragen bezüglich der Sicherheitsmassnahmen und ethischen Richtlinien im Umgang mit KI-Technologien auf.

Der «Fehler»: «freies» KI-Modell

Der Skandal kam ans Licht, nachdem CNN entdeckt hatte, dass eine interne Testversion des Tools versehentlich öffentlich zugänglich gemacht wurde.

Diese Version hatte keinerlei Sicherheitsvorkehrungen oder Einschränkungen in Bezug darauf, was die KI-Avatare sagen konnten.

TikTok Icon Smartphone Tastatur
Erst kürzlich kündigte TikTok sein neues Tool «Symphony Digital Avatars an, mit dem Marken KI-generierte Versionen echter Menschen in Anzeigen verwenden können. - Depositphotos

TikToks Absicht war es eigentlich, Marken durch diese Technologie zu ermöglichen, Werbekampagnen menschlicher zu gestalten.

Beliebige Skripte zitiert – wo waren die Schranken?

Stattdessen fand man heraus, dass Nutzer der Plattform das Tool missbrauchen konnten, indem sie ihm beliebige Skripte zum Vorlesen gaben. Darunter auch Inhalte mit gefährlichem Gedankengut.

Dieses Versäumnis ermöglichte es jedem Nutzer von TikTok, unmoderierte Videos zu erstellen.

Die produzierten Clips zeigten fröhliche «Stock AI»-Avatare dabei, wie sie alles Mögliche rezitierten – von neonazistischen Slogans bis hin zur expliziten Aufforderung, gefährliche Substanzen zu konsumieren. Wie etwa Bleiche zu trinken.

Auch Wasserzeichen fehlten

Nachdem CNN TikTok bezüglich dieser brisanten Entdeckung kontaktierte, erklärte ein Unternehmenssprecher diesen schwerwiegenden Fehler als «technisches Versehen». Der Fehler habe nur wenigen Benutzern Zugriff auf eine interne Testversion gegeben, das Problem sei schnell in den Griff bekommen worden.

Allerdings bleibt Skepsis bestehen hinsichtlich der Massnahmen des Unternehmens zur Vermeidung zukünftiger Vorfälle dieser Art.

Besonders bedenklich ist hierbei die Tatsache, dass keine Wasserzeichen auf den Clips sichtbar waren – solche, die eigentlich erkennbar machen sollen, diese Videos mittels KI generiert wurden. Eine Falle nicht nur für ahnungslose Zuschauer.

Das Unternehmen nimmt Stellung

In einer Stellungnahme hob TikTok seine Rolle als führendes Unternehmen beim verantwortungsbewussten Einsatz von künstlicher Intelligenz in Generativer Inhaltserstellung (AIGC) hervor.

Das Unternehmen versprach, sorgfältige Tests und die Implementierung notwendiger Sicherheitsvorkehrungen vor jeglicher öffentlichen Einführung seiner Produkte durchzuführen.

Eine Frau hält ein Smartphone, auf dem die App TikTok geöffnet ist.
Symphony Digital Avatars ermöglichte es Werbetreibenden, KI-gestützte Synchronisation zu verwenden. - Depositphotos

Nichtsdestotrotz hat dieses Ereignis bereits einen Schatten über die Praktiken von TikTok geworfen.

KI-Fails werden weiter zunehmen

Nicht nur TikTok muss mit KI-Fails umgehen. Wo in diesem Fall offenbar die Leitplanken fehlten, haben andere Unternehmen mit Problemen zu kämpfen, deren Wurzel in den KI-Modellen selbst liegt.

Beispiel gefällt? Googles Gemini hat bereits reguläre deutsche Soldaten aus dem Zweiten Weltkrieg als Menschen mit afroamerikanischer und asiatischer Herkunft dargestellt.

Je mehr die KI kann, desto breiter sollten die Kontrollmechanismen werden, die sie beobachten und Ausschläge anzeigen können. Die Arbeit fängt gefühlt gerade erst an ...

Mehr zum Thema:

Weiterlesen