Start-up zeigt: So diskriminiert uns die KI
Während wir uns immer mehr auf KI verlassen, fühlen Forscher vom Start-up Anthropic ihr bei Vorurteilen auf den Zahn. Denn: Es gibt sie.
In einer im Dezember 2023 veröffentlichen Studie enthüllt das Team von Anthropic seine neuesten Erkenntnisse über Voreingenommenheit vonseiten der KI.
Noch spannender aber ist: Anthropic stellt auch gleich eine umfassende Strategie zur Schaffung fairerer KI-Anwendungen vor.
Neue Methodik zur Bewertung von KI-Diskriminierung
Die Forscher von Anthropic konzentrierten sich in ihrem proaktiven Ansatz zur Bewertung der diskriminierenden Auswirkungen grosser Sprachmodelle (LLMs) auf hochriskante Szenarien wie Finanzen und Wohnen.
Es sei prioritär, negative Konsequenzen antizipieren zu können, so Anthropic. Ihr neuer Ansatz ermögliche es Entwicklern und politischen Entscheidungsträgern, Diskriminierung vorauszusehen, zu messen und anzugehen.
Und das ginge mit verschiedenen Interventionen: Man könne Aussagen ergänzen («Diskrimination ist illegal») oder Modelle so einrichten, dass sie zwar ihre Argumentationen formulieren, dabei aber Vorurteile unterlassen. Mithilfe dieses Vorgehens konnte die zunächst gemessene Diskriminierung deutlich reduziert werden.
Steuerkurs für Ethik in der künstlichen Intelligenz
Die aktuelle Studie orientiert sich stark an einem Vorgänger, die Anthropic zum Thema «Grundlagen der KI» ( «Constitutional KI» ) veröffentlicht hatte. Diese Publikation zeigte Werte und Prinzipien auf, die KI-Systeme bei der Interaktion mit Benutzern befolgen sollten.
Die jetzt vorgelegte Studie des Unternehmens kommt genau zum richtigen Zeitpunkt, da die KI-Branche weiterhin die ethischen Auswirkungen des schnellen technologischen Wachstums hinterfragt.
Insbesondere im Zuge der internen Umwälzungen bei OpenAI nach der Entlassung und Wiederernennung von CEO Sam Altman.
Positive Diskriminierung von Frauen
Für seine der Studie setzte Anthropic auf sein eigenes Sprachmodell Claude 2.0. Das Start-up generierte einen vielfältigen Satz von 70 hypothetischen Entscheidungsszenarien, die in dieses Modell eingegeben werden konnten.
Dazu gehörten hochriskante gesellschaftliche Entscheidungen wie die Ausstellung von Krediten, die Zusage medizinischer Behandlung oder die Zugangsgewährung zu Wohnraum. Demografische Faktoren wie Alter, Geschlecht und Rasse wurden dabei systematisch variiert, um so allenfalls auftretende Diskriminierung erkennen zu können.
Das Ergebnis: Ihr Modell wiese eine positive Diskriminierung zugunsten von Frauen und nicht-weissen Personen auf, so die Forscher. Personen über 60 dagegen wurden diskriminiert.
Effizienz und Gerechtigkeit gehen Hand in Hand
Mit ihrer Offenlegung der Forschungsdaten setzt sich Anthropic klar für Transparenz und offene Diskussion mit Bezug auf Diskriminierung ein. Die breite Forschungs-Community ist eingeladen, sich auf die Verfeinerung ethischer Systeme einzulassen, die bereits in ersten Ansätzen vorhanden sind.
Und auch technische Entscheidungsträger sind gefordert: Dank Anthropics Forschungsergebnissen liegt ihnen ein Rahmen vor, mit dem sie ihre KI-Modelle auf ethische Standards durchleuchten können.
Ein Miteinander von Effizienz und Gerechtigkeit ist zumindest hier kein Ding der Unmöglichkeit mehr.