OpenAI lockert Vorgaben: Auch Militär darf ChatGPT nun verwenden
Das Pentagon hat ein Auge auf das KI-Unternehmen OpenAI geworfen, das nun sein Verbot militärischer Nutzung gelockert hat.
Die führende KI-Firma OpenAI hat die hauseigenen Richtlinien zur Nutzung ihrer Technologie diskret geändert. Bisher war der Einsatz zu militärischen Zwecken ausdrücklich untersagt, doch dieser Passus wurde nun stillschweigend entfernt.
Kriegsspiele mit künstlicher Intelligenz
Bisher enthielt die Nutzungsrichtlinie von OpenAI ein klares Verbot gegen «Aktivitäten mit hohem Risiko physischer Schäden», einschliesslich «Waffenentwicklung» und «militärische und kriegerische Aktionen».
Diese Formulierung schloss eine offizielle und äusserst lukrative Nutzung durch beispielsweise das US-Verteidigungsministerium oder andere staatliche Militäreinheiten aus.
Die neue Richtlinie behält nun zwar den Grundsatz bei, den Service nicht dazu zu verwenden, sich selbst oder anderen zu schaden, aber das allgemeine Verbot des Einsatzes im Bereich «Militär und Kriegsführung» ist verschwunden.
Sprachliche Neuausrichtung oder politischer Wandel?
Die unangekündigte Streichung ist Teil einer umfassenden Überarbeitung der Richtlinienseite.
Unternehmensangaben zufolge soll das Dokument dadurch klarer und lesbarer werden.
Doch Experten sehen darin mehr als nur sprachliche Anpassungen. Ihrer Meinung nach betont die neue Richtlinie eher Legalität statt Sicherheit.
Unpräzise Militär-OPs: eine Horrorvorstellung
Erhebliche Auswirkungen auf die KI-Sicherheit sind zu befürchten, sofern beispielsweise Waffen entwickelt und militärische Aktivitäten durchgeführt werden dürfen. Denn das wäre in gewissem Umfang durchaus legal.
Die bekannten Probleme von Voreingenommenheit und Irrtümern bei Grosssprachmodellen (LLMs) sowie ihre allgemeine Ungenauigkeit könnten jedoch zu unpräzisen und voreingenommenen Operationen führen.
Das Risiko von Schaden und zivilen Opfern würde dadurch bedenklich erhöht.
Offenes Interesse bereits geäussert
Trotz dieser Warnungen scheint OpenAI bereit zu sein, seine Haltung gegenüber Geschäften mit dem Militär stillschweigend zu lockern.
Auch die National Geospatial-Intelligence Agency (NGA), die direkt an US-Kampfhandlungen beteiligt sei, habe bereits offen über den Einsatz von ChatGPT zur Unterstützung ihrer menschlichen Analysten spekuliert.
Das Interesse militärischer Einrichtungen, KI-Tools wie jene von OpenAI zu nutzen, ist also offenkundig vorhanden.