Künstliche Intelligenz und ihre Voreingenommenheit

Christian Stede
Christian Stede

Am

Inwieweit behandelt KI Menschen unterschiedlicher Herkunft ungerecht? Das haben Forscher untersucht.

Behandelt die KI diese drei Personen wirklich gleich?
Behandelt die KI diese drei Personen wirklich gleich? - Depositphotos

Die Künstliche Intelligenz (KI) hat sich in den letzten Jahren rasant entwickelt und ist mittlerweile ein fester Bestandteil unseres Alltags. Doch Forscher der University of Michigan einen kritischen Blick auf die verborgenen Mängel dieser Technologie.

OpenAI's CLIP, ein Modell das Text und Bilder paart, zeigt eine auffällige Diskrepanz bei der Darstellung von Lebensstilen aus niedrigeren Einkommensschichten oder nicht-westlichen Ländern. Dieser sogenannte «Bias» könnte dazu führen, dass digitale Technologien eine ungleiche Repräsentation praktizieren.

Wie verzerrt ist das Bild, das uns die KI liefert?
Wie verzerrt ist das Bild, das uns die KI liefert? - Depositphotos

Rada Mihalcea, Professorin für Informatik und Ingenieurwesen an der Universität von Michigan warnt laut EurekAlert! vor einer möglichen Vergrösserung sozialer Ungleichheiten durch diese unausgewogene Darstellung.

Der Dominoeffekt eines eingeschränkten Weltbilds

KI-Modelle wie CLIP sind als Grundmodelle konzipiert – sie werden mit grossen Mengen unbeschrifteter Daten trainiert und können dann für viele Anwendungen angepasst werden. Wenn diese Modelle jedoch mit Daten trainiert werden, die nur eine Seite der Welt widerspiegeln, wird dieser Bias oftmals weitergegeben.

Dies könnte dazu führen, dass Bilder aus niedrigeren Einkommens- oder Minderheitengruppen von Softwareprogrammen fälschlicherweise als fehlerhaft markiert und aussortiert werden.

Die Forscher nutzten Dollar Street, einen global diversifizierten Bilddatensatz der Gapminder Foundation, um CLIP's Leistung zu bewerten. Sie entdeckten dabei eine klare Korrelation zwischen den Bewertungen des Modells und dem Haushaltseinkommen.

Der Weg zu einer inklusiveren KI

Bilder aus höheren Einkommensschichten erhielten konstant bessere Bewertungen als solche aus niedrigeren Einkommensschichten. Auch geografische Vorurteile wurden identifiziert.

Die Algorithmen betrachten nicht alles auf der Welt gleich genau.
Die Algorithmen betrachten nicht alles auf der Welt gleich genau. - Depositphotos

Länder mit geringem Einkommen in Afrika erhielten überwiegend niedrigere Punktzahlen. Dies könnte zur weiteren Marginalisierung dieser Gruppen in Anwendungen führen, die auf CLIP basieren.

Die Forscher schlagen mehrere Massnahmen vor, um fairere KI-Modelle zu entwickeln: Investitionen in geografisch diverse Datensätze, Definition von Evaluationsmetriken unter Berücksichtigung von Standort und Einkommen, Dokumentation der Demografie der Trainingsdaten für KI-Modelle.

Damit soll gewährleistet werden, dass jeder Nutzer informierte Entscheidungen treffen kann. Ihr Ziel ist es letztlich eine Brücke über diese digitale Spaltung hinweg zu bauen.

Mehr zum Thema:

Weiterlesen