Künstliche Intelligenz und ihre Voreingenommenheit
Inwieweit behandelt KI Menschen unterschiedlicher Herkunft ungerecht? Das haben Forscher untersucht.
Die Künstliche Intelligenz (KI) hat sich in den letzten Jahren rasant entwickelt und ist mittlerweile ein fester Bestandteil unseres Alltags. Doch Forscher der University of Michigan einen kritischen Blick auf die verborgenen Mängel dieser Technologie.
OpenAI's CLIP, ein Modell das Text und Bilder paart, zeigt eine auffällige Diskrepanz bei der Darstellung von Lebensstilen aus niedrigeren Einkommensschichten oder nicht-westlichen Ländern. Dieser sogenannte «Bias» könnte dazu führen, dass digitale Technologien eine ungleiche Repräsentation praktizieren.
Rada Mihalcea, Professorin für Informatik und Ingenieurwesen an der Universität von Michigan warnt laut EurekAlert! vor einer möglichen Vergrösserung sozialer Ungleichheiten durch diese unausgewogene Darstellung.
Der Dominoeffekt eines eingeschränkten Weltbilds
KI-Modelle wie CLIP sind als Grundmodelle konzipiert – sie werden mit grossen Mengen unbeschrifteter Daten trainiert und können dann für viele Anwendungen angepasst werden. Wenn diese Modelle jedoch mit Daten trainiert werden, die nur eine Seite der Welt widerspiegeln, wird dieser Bias oftmals weitergegeben.
Dies könnte dazu führen, dass Bilder aus niedrigeren Einkommens- oder Minderheitengruppen von Softwareprogrammen fälschlicherweise als fehlerhaft markiert und aussortiert werden.
Die Forscher nutzten Dollar Street, einen global diversifizierten Bilddatensatz der Gapminder Foundation, um CLIP's Leistung zu bewerten. Sie entdeckten dabei eine klare Korrelation zwischen den Bewertungen des Modells und dem Haushaltseinkommen.
Der Weg zu einer inklusiveren KI
Bilder aus höheren Einkommensschichten erhielten konstant bessere Bewertungen als solche aus niedrigeren Einkommensschichten. Auch geografische Vorurteile wurden identifiziert.
Länder mit geringem Einkommen in Afrika erhielten überwiegend niedrigere Punktzahlen. Dies könnte zur weiteren Marginalisierung dieser Gruppen in Anwendungen führen, die auf CLIP basieren.
Die Forscher schlagen mehrere Massnahmen vor, um fairere KI-Modelle zu entwickeln: Investitionen in geografisch diverse Datensätze, Definition von Evaluationsmetriken unter Berücksichtigung von Standort und Einkommen, Dokumentation der Demografie der Trainingsdaten für KI-Modelle.
Damit soll gewährleistet werden, dass jeder Nutzer informierte Entscheidungen treffen kann. Ihr Ziel ist es letztlich eine Brücke über diese digitale Spaltung hinweg zu bauen.