Drei berühmte KI-Fails der jüngeren Vergangenheit
Künstliche Intelligenz ist alles andere als tadellos und fehlerfrei. Das beweisen diese drei KI-Pannen, die in den vergangenen Jahren für Schlagzeilen sorgten.
Sprachmodelle und KI-Technologien gelten für manche als besonders fortschrittlich und wenig fehleranfällig. Immerhin werkeln bei den grossen Tech-Konzernen die besten ITler und schlausten Köpfe an ihnen.
Die KI-Anwendungen werden mit Unmengen an Daten trainiert und täglich mit Informationen gefüttert. Doch wenn diese hoch technisierten Systeme ungenau arbeiten oder Fehler machen, sind diese oft unumkehrbar.
Mal laden KI-Fails zum Fremdschämen ein, mal zerstören sie den Ruf renommierter Unternehmen unwiderruflich. Werfen wir einen Blick auf einige spektakuläre Fälle von KI-Versagen in jüngster Vergangenheit.
Air Canada zahlt für Chatbot-Fake-Info
In einem bemerkenswerten Fall wurde Air Canada im Februar 2024 dazu verdonnert, einem Passagier Schadenersatz zu zahlen. Zuvor hatte ihm der virtuelle Assistent von Air Canada falsche Informationen zu einer angeblichen Rückerstattung gegeben.
Die KI des Unternehmens versprach dem Kunden nach dem Kauf eines Vollpreistickets einen Rabatt. Der Mann hörte auf den Chatbot und erwarb das Ticket.
Air Canada wollte ihm die – von der KI versprochene – Erstattung später allerdings nicht gewähren. Peinlich für die Fluggesellschaft: Ein Gericht gab dem Mann recht und verurteilte Air Canada zur nachträglichen Zahlung.
«Sports Illustrated» setzt auf gefälschte KI-Journalisten
Im November 2023 behauptete das Online-Magazin «Futurism», die Traditionszeitschrift «Sports Illustrated» hätte Artikel von erfundenen KI-Journalisten veröffentlicht. Die Vorwürfe bestätigten sich.
Es stellte sich heraus, dass die seit den 50er-Jahren erscheinende Sportzeitschrift nicht nur Autoren frei erfunden und für deren Profile KI-Porträtfotos verwendet hatte. «Sports Illustrated» publizierte zudem etliche Fake-Texte, für die ausschliesslich KI-Tools zum Einsatz kamen.
Die Story ging um die Welt und verdeutlichte die Risiken massenhaft erzeugter, KI-generierter Inhalte. Ein Beispiel für eine KI-Panne, die das Image eines Traditionsunternehmens innerhalb kurzer Zeit für immer beschädigt.
KI patzt bei High-School-Sportartikeln
Und noch ein bekanntes Beispiel aus der Medien- und Verlagswelt. Die Zeitungskette Gannett nutzte 2023 für einige Publikationen ebenfalls KI – leider erweisen sich die Inhalte als falsch und fehlerhaft.
Es ging dabei unter anderem um Berichte zu lokalen High-School-Sportevents. In einem Artikel über ein Footballmatch waren sinnlose Formulierungen wie «Nahbegegnung der sportlichen Art» enthalten, in anderen fehlten wichtige Details.
Gannett kündigte nach Bekanntwerden der Fehler an, auf das KI-Tool zu verzichten.