Unser Schicksal in den Händen von Algorithmen? Besser nicht!
Wenn KI-Systeme mit fehlerhaften Daten trainiert werden, können die Auswirkungen laut vielen Experten nahezu katastrophal sein.
KI-Modelle sind bereits tief in unserem Alltag verwurzelt – Alexa erinnert uns an Termine, Gesundheitsbots diagnostizieren unsere Müdigkeit und KI-Werkzeuge screenen Finanzkredite. Aber was passiert, wenn diese Modelle schlecht trainiert wurden?
Stellen Sie sich vor, Sie bewerben sich für eine Wohnung oder einen Job und erhalten immer wieder Ablehnungen. Das könnte kein Zufall sein, sondern mit einem «falsch» trainierten Algorithmus zusammenhängen.
Dies hat laut zdnet eine Studie von Wissenschaftlern der Universität Toronto und des Massachusetts Institute of Technology herausgefunden. Insbesondere machen KI-Systeme, die mit beschreibenden Daten trainiert wurden, oft viel härtere Entscheidungen als Menschen es tun würden.
Interessante Experimente
In einem Experiment erstellten die Forscher vier verschiedene Datensätze um verschiedene Richtlinien zu testen. Eine Gruppe wurde gebeten bestimmte Fakten zu bewerten, wie zum Beispiel ob ein Hund aggressiv ist.
Eine andere Gruppe wurde über eine Regel informiert, die aggressive Hunde verbietet und dann gebeten, jedes Bild zu beurteilen. Es stellte sich heraus, dass Menschen weit weniger wahrscheinlich ein Objekt als Verstoss kennzeichnen würden, wenn sie von einer Regel wüssten.
Die Ergebnisse dieses Experiments haben ernsthafte Auswirkungen auf fast jeden Aspekt unseres Lebens. Und die Folgen können verheerend sein.
Die Gefahren schlecht trainierter KI
Nehmen wir zum Beispiel einen Algorithmus zur Bewertung von Doktoranden: Der Algorithmus wird mit tausenden vorherigen Bewerbungen gefüttert und lernt daraus wer erfolgreich war und wer nicht.
Doch was passiert, wenn diese Daten bereits voreingenommen sind und zum Beispiel Frauen anders bewerten als Männer? Es besteht die Gefahr eines «Maschinenlernkreislaufs», der bestehende gesellschaftliche Vorurteile weiter verstärkt.
Ein Algorithmus könnte beispielsweise lernen, dass erfolgreiche Kandidaten hohe Noten haben oder weiss sind. Das ist zwar ursprünglich nicht rassistisch gemeint, hat aber de facto derartige Auswirkungen.
KI-Systeme reproduzieren menschliche Urteilskraft nicht
Laut Marzyeh Ghassemi vom MIT reproduzieren diese Modelle nicht einmal bereits voreingenommene menschliche Urteile. Sie liefern in der Tat noch härtere Entscheidungen ab.
Das macht den Prozess des Trainings von KI-Datensätzen zu einer tickenden Zeitbombe.