OpenAI lockert Vorgaben: Auch Militär darf ChatGPT nun verwenden

Juli Rutsch
Juli Rutsch

Am

Das Pentagon hat ein Auge auf das KI-Unternehmen OpenAI geworfen, das nun sein Verbot militärischer Nutzung gelockert hat.

Bisher hatte OpenAI die Verwendung seiner Sprachmodelle für «Militär und Kriegsführung» explizit untersagt. Das ist nun nicht mehr der Fall.
Bisher hatte OpenAI die Verwendung seiner Sprachmodelle für «Militär und Kriegsführung» explizit untersagt. Das ist nun nicht mehr der Fall. - Depositphotos

Die führende KI-Firma OpenAI hat die hauseigenen Richtlinien zur Nutzung ihrer Technologie diskret geändert. Bisher war der Einsatz zu militärischen Zwecken ausdrücklich untersagt, doch dieser Passus wurde nun stillschweigend entfernt.

Kriegsspiele mit künstlicher Intelligenz

Bisher enthielt die Nutzungsrichtlinie von OpenAI ein klares Verbot gegen «Aktivitäten mit hohem Risiko physischer Schäden», einschliesslich «Waffenentwicklung» und «militärische und kriegerische Aktionen».

OpenAI hat das bisherige Verbot, seine Sprachmodelle für militärische Zwecke einzusetzen, offenbar unangekündigt aufgehoben.
OpenAI hat das bisherige Verbot, seine Sprachmodelle für militärische Zwecke einzusetzen, offenbar unangekündigt aufgehoben. - Depositphotos

Diese Formulierung schloss eine offizielle und äusserst lukrative Nutzung durch beispielsweise das US-Verteidigungsministerium oder andere staatliche Militäreinheiten aus.

Die neue Richtlinie behält nun zwar den Grundsatz bei, den Service nicht dazu zu verwenden, sich selbst oder anderen zu schaden, aber das allgemeine Verbot des Einsatzes im Bereich «Militär und Kriegsführung» ist verschwunden.

Sprachliche Neuausrichtung oder politischer Wandel?

Die unangekündigte Streichung ist Teil einer umfassenden Überarbeitung der Richtlinienseite.

Unternehmensangaben zufolge soll das Dokument dadurch klarer und lesbarer werden.

Doch Experten sehen darin mehr als nur sprachliche Anpassungen. Ihrer Meinung nach betont die neue Richtlinie eher Legalität statt Sicherheit.

Unpräzise Militär-OPs: eine Horrorvorstellung

Erhebliche Auswirkungen auf die KI-Sicherheit sind zu befürchten, sofern beispielsweise Waffen entwickelt und militärische Aktivitäten durchgeführt werden dürfen. Denn das wäre in gewissem Umfang durchaus legal.

Eine Überprüfung der von OpenAI angebotenen benutzerdefinierten ChatGPT-basierten Bots legt nahe, dass US-Militärangehörige bereits die Technologie verwenden, um den Papierkram zu beschleunigen.
Eine Überprüfung der von OpenAI angebotenen benutzerdefinierten ChatGPT-basierten Bots legt nahe, dass US-Militärangehörige bereits die Technologie verwenden, um den Papierkram zu beschleunigen. - Depositphotos

Die bekannten Probleme von Voreingenommenheit und Irrtümern bei Grosssprachmodellen (LLMs) sowie ihre allgemeine Ungenauigkeit könnten jedoch zu unpräzisen und voreingenommenen Operationen führen.

Das Risiko von Schaden und zivilen Opfern würde dadurch bedenklich erhöht.

Offenes Interesse bereits geäussert

Trotz dieser Warnungen scheint OpenAI bereit zu sein, seine Haltung gegenüber Geschäften mit dem Militär stillschweigend zu lockern.

Auch die National Geospatial-Intelligence Agency (NGA), die direkt an US-Kampfhandlungen beteiligt sei, habe bereits offen über den Einsatz von ChatGPT zur Unterstützung ihrer menschlichen Analysten spekuliert.

Das Interesse militärischer Einrichtungen, KI-Tools wie jene von OpenAI zu nutzen, ist also offenkundig vorhanden.

Mehr zum Thema:

Weiterlesen