Drei berühmte KI-Fails der jüngeren Vergangenheit

Björn Schneider
Björn Schneider

Am 12.09.2024 - 15:56

Künstliche Intelligenz ist alles andere als tadellos und fehlerfrei. Das beweisen diese drei KI-Pannen, die in den vergangenen Jahren für Schlagzeilen sorgten.

Mann zeigt mit Daumen nach unten
KI-Pannen und -Fails können peinlich, witzig oder gar rufschädigend sein. - Depositphotos

Sprachmodelle und KI-Technologien gelten für manche als besonders fortschrittlich und wenig fehleranfällig. Immerhin werkeln bei den grossen Tech-Konzernen die besten ITler und schlausten Köpfe an ihnen.

Die KI-Anwendungen werden mit Unmengen an Daten trainiert und täglich mit Informationen gefüttert. Doch wenn diese hoch technisierten Systeme ungenau arbeiten oder Fehler machen, sind diese oft unumkehrbar.

Mal laden KI-Fails zum Fremdschämen ein, mal zerstören sie den Ruf renommierter Unternehmen unwiderruflich. Werfen wir einen Blick auf einige spektakuläre Fälle von KI-Versagen in jüngster Vergangenheit.

Air Canada zahlt für Chatbot-Fake-Info

In einem bemerkenswerten Fall wurde Air Canada im Februar 2024 dazu verdonnert, einem Passagier Schadenersatz zu zahlen. Zuvor hatte ihm der virtuelle Assistent von Air Canada falsche Informationen zu einer angeblichen Rückerstattung gegeben.

Frau schlägt Hand über dem Kopf zusammen
Nicht nur finanziell, sondern auch mit Blick auf das Image eines Konzerns sind die Folgen mancher KI-Pannen verheerend. - Depositphotos

Die KI des Unternehmens versprach dem Kunden nach dem Kauf eines Vollpreistickets einen Rabatt. Der Mann hörte auf den Chatbot und erwarb das Ticket.

Air Canada wollte ihm die – von der KI versprochene – Erstattung später allerdings nicht gewähren. Peinlich für die Fluggesellschaft: Ein Gericht gab dem Mann recht und verurteilte Air Canada zur nachträglichen Zahlung.

«Sports Illustrated» setzt auf gefälschte KI-Journalisten

Im November 2023 behauptete das Online-Magazin «Futurism», die Traditionszeitschrift «Sports Illustrated» hätte Artikel von erfundenen KI-Journalisten veröffentlicht. Die Vorwürfe bestätigten sich.

Es stellte sich heraus, dass die seit den 50er-Jahren erscheinende Sportzeitschrift nicht nur Autoren frei erfunden und für deren Profile KI-Porträtfotos verwendet hatte. «Sports Illustrated» publizierte zudem etliche Fake-Texte, für die ausschliesslich KI-Tools zum Einsatz kamen.

Die Story ging um die Welt und verdeutlichte die Risiken massenhaft erzeugter, KI-generierter Inhalte. Ein Beispiel für eine KI-Panne, die das Image eines Traditionsunternehmens innerhalb kurzer Zeit für immer beschädigt.

KI patzt bei High-School-Sportartikeln

Und noch ein bekanntes Beispiel aus der Medien- und Verlagswelt. Die Zeitungskette Gannett nutzte 2023 für einige Publikationen ebenfalls KI – leider erweisen sich die Inhalte als falsch und fehlerhaft.

ChatGPT-Menü
Die Antworten virtueller Assistenten und die Texte von KI-Generatoren sind anfällig für Wiederholungen, Worthülsen und Falschinformationen. - Unsplash

Es ging dabei unter anderem um Berichte zu lokalen High-School-Sportevents. In einem Artikel über ein Footballmatch waren sinnlose Formulierungen wie «Nahbegegnung der sportlichen Art» enthalten, in anderen fehlten wichtige Details.

Gannett kündigte nach Bekanntwerden der Fehler an, auf das KI-Tool zu verzichten.

Mehr zum Thema:

Weiterlesen