Unser Schicksal in den Händen von Algorithmen? Besser nicht!

Christian Stede
Christian Stede

Am

Wenn KI-Systeme mit fehlerhaften Daten trainiert werden, können die Auswirkungen laut vielen Experten nahezu katastrophal sein.

Algorithmen werden vor allem für generative KI-Modelle eingesetzt.
Algorithmen werden vor allem für generative KI-Modelle eingesetzt. - Depositphotos

KI-Modelle sind bereits tief in unserem Alltag verwurzelt – Alexa erinnert uns an Termine, Gesundheitsbots diagnostizieren unsere Müdigkeit und KI-Werkzeuge screenen Finanzkredite. Aber was passiert, wenn diese Modelle schlecht trainiert wurden?

Stellen Sie sich vor, Sie bewerben sich für eine Wohnung oder einen Job und erhalten immer wieder Ablehnungen. Das könnte kein Zufall sein, sondern mit einem «falsch» trainierten Algorithmus zusammenhängen.

Dies hat laut zdnet eine Studie von Wissenschaftlern der Universität Toronto und des Massachusetts Institute of Technology herausgefunden. Insbesondere machen KI-Systeme, die mit beschreibenden Daten trainiert wurden, oft viel härtere Entscheidungen als Menschen es tun würden.

Interessante Experimente

In einem Experiment erstellten die Forscher vier verschiedene Datensätze um verschiedene Richtlinien zu testen. Eine Gruppe wurde gebeten bestimmte Fakten zu bewerten, wie zum Beispiel ob ein Hund aggressiv ist.

Hund gähnt
Weiss die KI, ob der Hund gleich zubeisst oder nur spielen will? - Depositphotos

Eine andere Gruppe wurde über eine Regel informiert, die aggressive Hunde verbietet und dann gebeten, jedes Bild zu beurteilen. Es stellte sich heraus, dass Menschen weit weniger wahrscheinlich ein Objekt als Verstoss kennzeichnen würden, wenn sie von einer Regel wüssten.

Die Ergebnisse dieses Experiments haben ernsthafte Auswirkungen auf fast jeden Aspekt unseres Lebens. Und die Folgen können verheerend sein.

Die Gefahren schlecht trainierter KI

Nehmen wir zum Beispiel einen Algorithmus zur Bewertung von Doktoranden: Der Algorithmus wird mit tausenden vorherigen Bewerbungen gefüttert und lernt daraus wer erfolgreich war und wer nicht.

Frau am Schreibtisch
Mittlerweile werden Entscheidungen im Bewerbungsverfahren oftmals automatisiert getroffen. - Pexels

Doch was passiert, wenn diese Daten bereits voreingenommen sind und zum Beispiel Frauen anders bewerten als Männer? Es besteht die Gefahr eines «Maschinenlernkreislaufs», der bestehende gesellschaftliche Vorurteile weiter verstärkt.

Ein Algorithmus könnte beispielsweise lernen, dass erfolgreiche Kandidaten hohe Noten haben oder weiss sind. Das ist zwar ursprünglich nicht rassistisch gemeint, hat aber de facto derartige Auswirkungen.

KI-Systeme reproduzieren menschliche Urteilskraft nicht

Laut Marzyeh Ghassemi vom MIT reproduzieren diese Modelle nicht einmal bereits voreingenommene menschliche Urteile. Sie liefern in der Tat noch härtere Entscheidungen ab.

Das macht den Prozess des Trainings von KI-Datensätzen zu einer tickenden Zeitbombe.

Mehr zum Thema:

Weiterlesen