Start-up zeigt: So diskriminiert uns die KI

Juli Rutsch
Juli Rutsch

Am

Während wir uns immer mehr auf KI verlassen, fühlen Forscher vom Start-up Anthropic ihr bei Vorurteilen auf den Zahn. Denn: Es gibt sie.

Menschenhand Zeigefinger Roboterhand
Mit den Methoden des Start-up Anthropic lassen sich Diskriminierungen in der Anwendung von KI minimieren. - Depositphotos

In einer im Dezember 2023 veröffentlichen Studie enthüllt das Team von Anthropic seine neuesten Erkenntnisse über Voreingenommenheit vonseiten der KI.

Noch spannender aber ist: Anthropic stellt auch gleich eine umfassende Strategie zur Schaffung fairerer KI-Anwendungen vor.

Neue Methodik zur Bewertung von KI-Diskriminierung

Die Forscher von Anthropic konzentrierten sich in ihrem proaktiven Ansatz zur Bewertung der diskriminierenden Auswirkungen grosser Sprachmodelle (LLMs) auf hochriskante Szenarien wie Finanzen und Wohnen.

Es sei prioritär, negative Konsequenzen antizipieren zu können, so Anthropic. Ihr neuer Ansatz ermögliche es Entwicklern und politischen Entscheidungsträgern, Diskriminierung vorauszusehen, zu messen und anzugehen.

Und das ginge mit verschiedenen Interventionen: Man könne Aussagen ergänzen («Diskrimination ist illegal») oder Modelle so einrichten, dass sie zwar ihre Argumentationen formulieren, dabei aber Vorurteile unterlassen. Mithilfe dieses Vorgehens konnte die zunächst gemessene Diskriminierung deutlich reduziert werden.

Steuerkurs für Ethik in der künstlichen Intelligenz

Die aktuelle Studie orientiert sich stark an einem Vorgänger, die Anthropic zum Thema «Grundlagen der KI» ( «Constitutional KI» ) veröffentlicht hatte. Diese Publikation zeigte Werte und Prinzipien auf, die KI-Systeme bei der Interaktion mit Benutzern befolgen sollten.

Das neu veröffentlichte Papier bringt die subtilen Vorurteile ans Licht, die in Entscheidungen künstlicher Intelligenzsysteme verankert sind.
Das neu veröffentlichte Papier bringt die subtilen Vorurteile ans Licht, die in Entscheidungen künstlicher Intelligenzsysteme verankert sind. - Depositphotos

Die jetzt vorgelegte Studie des Unternehmens kommt genau zum richtigen Zeitpunkt, da die KI-Branche weiterhin die ethischen Auswirkungen des schnellen technologischen Wachstums hinterfragt.

Insbesondere im Zuge der internen Umwälzungen bei OpenAI nach der Entlassung und Wiederernennung von CEO Sam Altman.

Positive Diskriminierung von Frauen

Für seine der Studie setzte Anthropic auf sein eigenes Sprachmodell Claude 2.0. Das Start-up generierte einen vielfältigen Satz von 70 hypothetischen Entscheidungsszenarien, die in dieses Modell eingegeben werden konnten.

Dazu gehörten hochriskante gesellschaftliche Entscheidungen wie die Ausstellung von Krediten, die Zusage medizinischer Behandlung oder die Zugangsgewährung zu Wohnraum. Demografische Faktoren wie Alter, Geschlecht und Rasse wurden dabei systematisch variiert, um so allenfalls auftretende Diskriminierung erkennen zu können.

Ein Roboter liegt vor einem Laptop auf dem Boden und verschränkt die Beine. Dabei zeigt er mit dem Zeigefinger auf den Bildschirm.
Die Forschungsmethode zielt darauf ab, Diskriminierung in der KI proaktiv zu bewerten. - Depositphotos

Das Ergebnis: Ihr Modell wiese eine positive Diskriminierung zugunsten von Frauen und nicht-weissen Personen auf, so die Forscher. Personen über 60 dagegen wurden diskriminiert.

Effizienz und Gerechtigkeit gehen Hand in Hand

Mit ihrer Offenlegung der Forschungsdaten setzt sich Anthropic klar für Transparenz und offene Diskussion mit Bezug auf Diskriminierung ein. Die breite Forschungs-Community ist eingeladen, sich auf die Verfeinerung ethischer Systeme einzulassen, die bereits in ersten Ansätzen vorhanden sind.

Und auch technische Entscheidungsträger sind gefordert: Dank Anthropics Forschungsergebnissen liegt ihnen ein Rahmen vor, mit dem sie ihre KI-Modelle auf ethische Standards durchleuchten können.

Ein Miteinander von Effizienz und Gerechtigkeit ist zumindest hier kein Ding der Unmöglichkeit mehr.

Mehr zum Thema:

Weiterlesen