KI: Der unheimliche Nebeneffekt des neuen Sprachmodus
ChatGPT entwickelt sich weiter. Jetzt wird der Sprachmodus erprobt. Allerdings zeigt sich gerade ein von den Entwicklern nicht gewollter Nebeneffekt.
Die künstliche Intelligenz (KI) ChatGPT von OpenAI hat in ihrer Alpha-Version des Sprachmodus einen beunruhigenden «Trick» auf Lager.
Das zeigt der Bericht des Unternehmens, welcher zu GPT-4o veröffentlicht worden ist.
Imitationsspiel: Wie die KI plötzlich Stimmen nachahmt
In internen Tests zeigte sich eine überraschende Fähigkeit des «Advanced Voice Mode» von ChatGPT: Die KI konnte die Stimme eines Anwenders imitieren.
Dies ist bemerkenswert, da diese Funktion bisher als technisch unmöglich galt. In einem speziellen Fall antwortete der Bot demnach mit einem «Nein!» und setzte dann die Konversation mit der exakten Tonlage des menschlichen Gesprächspartners fort.
Laut OpenAI sollte auch der erweiterte Sprachmodus keine Imitation von Nutzerstimmen ermöglichen. Es gibt lediglich vier vorprogrammierte Stimmoptionen, die in Zusammenarbeit mit professionellen Synchronsprechern entwickelt worden seien.
Sicherheitsrisiko oder harmlose Spielerei?
OpenAI hat nach eigenen Angaben Sicherheitsmassnahmen implementiert, um genau solche Fälle zu verhindern. Doch wie es scheint, greifen diese nicht immer.
Zwar handelt es sich bisher nur um Einzelfälle, und das Risiko eines Auftretens ist minimal. Dennoch besteht die Möglichkeit dazu.
Das erklärt auch, warum der Sprachmodus bislang nicht breit ausgerollt wurde: Das Risiko ist bei anderen Sprachen als Englisch höher und muss daher noch genauer untersucht werden.
Störgeräusche als Auslöser? Die Suche nach einer Erklärung
Eine konkrete Ursache für die Stimmenimitation konnte OpenAI bisher nicht nennen. Es wird jedoch vermutet, dass Hintergrund- oder Störgeräusche eine Rolle spielen könnten.
Da die KI neben menschlichen Stimmen auch andere Geräuschquellen wahrnimmt, etwa Vogelgezwitscher oder Strassenlärm, könnte dies zu unerwarteten Reaktionen führen.
Diese Theorie erinnert an sogenannte «Prompt Injections», also Angriffe auf sprachgesteuerte Software durch gezieltes Einspielen von Audio-Signalen zur Manipulation des Systems.
Ob ein ähnlicher Mechanismus hier involviert sein könnte, bleibt vorerst offen.