Muss KI nett sein? Forscher setzen jetzt auf «Antagonismus»

Juli Rutsch
Juli Rutsch

Am 04.05.2024 - 06:57

Erwarten Sie bei der Interaktion mit den heutigen Large Language Models, also: KI, dass diese mürrisch, abweisend oder sogar beleidigend sind? Tun Sie's jetzt.

Roboter Armee
Forscher wollen antagonistische KI einführen, die absichtlich kämpferisch, kritisch oder unhöflich sind und Benutzer sogar mitten im Denken unterbrechen. - Depositphotos

Stellen Sie sich vor, Ihr digitaler Assistent antwortet Ihnen frech und widerspricht Ihnen ständig. Klingt befremdlich?

Forscher des MIT und der Universität Montréal sind anderer Meinung. Sie haben den Begriff «Antagonistische KI» ins Leben gerufen.

Eine Form von künstlicher Intelligenz, die absichtlich streitlustig, kritisch und unhöflich ist.

Kampfansage an gesäuberte Sprachmodelle

Ihr Konzept stellt das aktuelle Paradigma der kommerziell erfolgreichen, aber übermässig gereinigten Sprachmodelle infrage. Forscher des MIT Center for Collective Intelligence finden, dass in diesen Modellen etwas nicht stimmt: sie wirken unecht und weltfremd.

Roboter Gehirn Hand Betrachtung
KI sollte uns mehr herausfordern, meinen Forscher u.a. des MIT. - Depositphotos

Sie glauben, dass antagonistische Interaktionen mit Technologie tatsächlich positive Auswirkungen auf Menschen haben könnten. Durch Herausforderungen, Resilienztraining oder Katharsis.

Immer recht haben ist langweilig

Die heutigen grossen Sprachmodelle neigen dazu, uns zu umgarnen. Sie sind zustimmend, ermutigend, positiv und nehmen oft keine starken Positionen ein.

Das führt bei vielen Nutzern zur Unzufriedenheit. Diese Modelle charakterisieren harmlose Anfragen oft als gefährlich oder unmoralisch.

Sie stimmen falschen Informationen zu und sind anfällig für Manipulation durch ihre ethischen Sicherheitsvorkehrungen. Schliesslich erweist es sich als schwierig, mit ihnen über sensible Themen wie Religion, Politik oder psychische Gesundheit zu sprechen.

Wer hat Angst vor Antagonismus?

Forscher von der Universität Montréal beschreiben die Modelle als «weitgehend kriecherisch, unterwürfig, passiv und durchdrungen von westlichen Kulturstandards». Dies liegt zum Teil an ihren Trainingsverfahren und den Anreizen der Entwickler.

Aber auch daran, dass wir Menschen Unbehagen, Feindseligkeit und Konflikte meiden. Doch Antagonismus ist entscheidend für unser Welterleben als Mensch.

Forscher bezeichnen ihn sogar als «Naturgewalt». Die Frage lautet also nicht «Warum Antagonismus?», sondern eher «Warum fürchten wir uns vor Antagonismus und streben stattdessen nach oberflächlicher sozialer Harmonie?».

Wachsen an Herausforderung

In ihren Studien konnten die Wissenschaftler feststellen, dass antagonistische KI in vielen Bereichen nützlich sein kann: Sie kann Resilienz aufbauen oder Katharsis bieten.

Persönliches oder kollektives Wachstum fördern. Zur Selbstreflexion anregen.

Mann Faust Roboter Faust
Wenn KI uns kritisch gegenübertritt, setzen wir uns stärker mit uns selbst auseinander, anstatt einfach das hinzunehmen, was sie ausspuckt. So lautet, zusammengefasst, die Idee der Forscher. - Depositphotos

Ideen stärken und diversifizieren sowie soziale Bindungen fördern.

Was gehört zu einer frechen KI?

Die Forscher haben drei Arten von Antagonismus identifiziert: gegnerisch, argumentativ und persönlich. Auf dieser Grundlage bieten sie verschiedene Techniken zur Implementierung antagonistischer Funktionen in KI an:

Diese reichen von der Debatte über Nutzerüberzeugungen, Werte und Ideen bis hin zum klaren Äussern von Kritik, Beleidigungen und Schuldzuweisungen.

Stellen Sie sich also vor, die KI unterbricht Sie, spricht tabuisierte Themen an oder verhält sich auf einmal politisch inkorrekt. Machen Sie den PC aus oder wehren Sie sich: Hier wird Ihre Interaktion spannend!

Mehr zum Thema:

Weiterlesen