Neues Tool von OpenAI erkennt, wenn Texte von ChatGPT stammen

Juli Rutsch
Juli Rutsch

Am 14.08.2024 - 15:51

OpenAI hat ein Tool in der Schublade, das direkt erkennt, wenn ein Text mit ChatGPT geschrieben wurde. Noch hält OpenAI es aber noch zurück – aus diesem Grund.

Silhouette Mann Smartphone Icon ChatGPT Hintergrund Leinwand
Werden Texte bald als von ChatGPT erstellte Texte geoutet? - Depositphotos

OpenAI, das Unternehmen hinter dem Chatbot ChatGPT, hat ein Ass im Ärmel, um Betrug durch Textmaterial aufzudecken. Dank einer ausgeklügelten Technik soll es möglich sein, solche Fälle aufzudecken, wo ChatGPT eingesetzt wurde, um Essays oder Forschungspaper zu erstellen.

Damit antwortet OpenAI auf die besorgniserregende Tatsache, dass gerade Studierende immer häufiger bei Prüfungen und Hausarbeiten per Nutzung von KI betrügen.

Allerdings: Obwohl es lediglich eines Knopfdrucks bedürfte, um das Tool zu aktivieren, hält OpenAI seine Erfindung bereits seit über einem Jahr zurück. Grund dafür sind Bedenken bezüglich möglicher Auswirkungen auf bestimmte Nutzergruppen, beispielsweise Nicht-Muttersprachler (Englisch).

Schlagabtausch hinter verschlossenen Türen

Die Mitarbeiterschaft von OpenAI ist in dieser Angelegenheit gespalten. Im Konflikt stehen der Unternehmensanspruch auf Transparenz und der Wunsch, die Nutzerbasis zu erhalten und optimalerweise weiter auszubauen.

Laptop Bildschirm ChatGPT Hände Tastatur Eingabe
Das neue Tool von OpenAi entlarvt, wenn Texte mittels ChatGPT generiert wurden. - Depositphotos

Eine Umfrage unter treuen ChatGPT-Nutzern ergab jedoch bedenkliche Zahlen: Fast ein Drittel würde sich von dieser Anti-Betrugs-Technologie abschrecken lassen.

Das Unternehmen sei sich potenzieller Risiken und ungewollter Konsequenzen deutlich bewusst, so eine Sprecherin von OpenAI. Einzelne unternehmensinterne Stimmen argumentieren, dass ein gezielter Einsatz dieser Technologie dem wissenschaftlichen Betrug Einhalt bieten und die Integrität von Bildungsstandards bewahren könnte.

So funktioniert das neue Tool

Bei dem umstrittenen Tool von OpenAI handelt es sich um eine Technologie, die mit Wasserzeichen arbeitet. Auf kaum nachvollziehbare Art und Weise verändert sie, wie ChatGPT Wörter oder Textfragmente (sogenannte Token) auswählt, und prägt dem Text so eine Art Muster ein.

Dieses Muster ist für das blosse Auge unsichtbar, kann aber vom Erkennungssystem von OpenAI identifiziert werden. Es weist eine Wahrscheinlichkeit zu, ob ein bestimmter Text von ChatGPT generiert wurde oder nicht.

Internen Dokumenten zufolge ist die Methode zu 99,9 Prozent wirksam, wenn genügend neuer Text generiert wird.

Leichte Hürde für (fast) jedermann?!

Allerdings gibt es schon jetzt Bedenken bezüglich der Leichtigkeit, mit der diese Wasserzeichen wieder aus einem Text entfernt werden könnten.

Schon simple Methoden wie die Nutzung von Übersetzungsdiensten oder das Hinzufügen und anschliessende Entfernen von Emojis könnten diese Wasserzeichen potenziell aus Texten löschen. Eine hundertprozentige Zuverlässigkeit dieser Sicherheitstechnologie wäre also keinesfalls gewährt.

Auch andere KI-Player ziehen nach

Schliesslich stellt sich die Frage, wer überhaupt Zugriff zu diesem Erkennungs-Tool haben sollte: Ein eingeschränkter Zugriff könnte die Wirksamkeit des Tools deutlich einschränken. Stünde es dagegen der Allgemeinheit zur Verfügung, könnte es potenzielle Übeltäter auf den Plan rufen.

OpenAI steht mit seiner technischen Weiterentwicklung nicht alleine da. Ein ähnliches Wasserzeichen-Tool hat Google für sein Gemini AI entwickelt, das derzeit in der Beta-Testphase läuft.

Übersicht Browser Opera mit KI Gemini Funktion
Auch Gemini AI von Google arbeitet derzeit an einem Wasserzeichen. - Opera

OpenAI priorisiert gegenwärtig zudem die Wasserzeichenbildung bei Audio- und visuellen Inhalten. Fehlinformationen in diesen Medien stellen gerade in besonderen Konjunkturen – Stichwort: Wahlen in den USA – ein nicht zu unterschätzendes Risiko dar.

Der Ruf nach einer Regulierung wird lauter

Die interne Diskussion bei OpenAI spiegelt die allgemeine gesellschaftliche Besorgnis bezüglich KI-generierten Textmaterials wider. Der Ruf nach einem Tool, das aufzeigt, wo KI im Einsatz war, wird insbesondere im Bildungssektor zunehmend lauter.

OpenAI ist es ein dezidiertes Anliegen, seine Handlungen mit seinen Werten wie Transparenz und Verantwortungsbewusstsein in Einklang zu bringen. Das Ergebnis dieser internen Debatten wird die zukünftige Nutzung von KI federführend prägen – im Bildungsbereich und weit darüber hinaus.

Mehr zum Thema:

Weiterlesen