Deshalb ist ein reflektierter Umgang mit KI so wichtig

Björn Schneider
Björn Schneider

Am

Fluch oder Segen? Die Vorteile von KI sind offensichtlich, doch sollte man gleichzeitig die Gefahren kennen. Ein reflektierter Umgang ist gefragt.

Careless-Handaufschrift
Chance oder Gefahr? Der Einsatz von KI verändert die Gesellschaft und das Zusammenleben. Doch wer sie acht- und sorglos nutzt, riskiert negative Folgen. - Unsplash

Mit der rasanten Entwicklung der künstlichen Intelligenz (KI) wächst gleichzeitig unsere (mit-)menschliche Verantwortung. Es ist an uns, diese mächtige Technologie ethisch und rechtlich einwandfrei zu nutzen.

Doch wie kann das gelingen, und wie schützen wir uns vor den KI-Risiken? Hier sind einige Lösungsansätze.

KI-Regulierung: Grauzone oder klar definiert?

Trotz beeindruckender Fortschritte in der KI-Forschung bleibt die rechtliche Regulierung oft im Dunkeln. Gleichzeitig häufen sich Klagen gegen OpenAI und andere Akteure wegen unethischer Anwendung von generativer KI.

Die KI-Regulierung bleibt oft im Dunkeln. Kritiker fordern daher schon lange verbindliche, transparente Regeln und Vorgaben.
Die KI-Regulierung bleibt oft im Dunkeln. Kritiker fordern daher schon lange verbindliche, transparente Regeln und Vorgaben. - Depositphotos

Während neue Modelle immer ausgefeiltere Fähigkeiten besitzen, müssen wir uns bislang selbst über die Herausforderungen informieren, die damit verbunden sind. Dabei ist es so wichtig, die Schutzmassnahmen gegen den Missbrauch einer Technologie zu kennen, deren Potenzial enorm ist.

KI-Manipulation: Mit den eigenen Waffen schlagen

Von falschen Gerichtsfällen bis hin zu von KIs verfassten Universitätsarbeiten. Es wird zunehmend schwieriger, zwischen echtem Inhalt und durch generative KI erstellten Content zu unterscheiden.

Wie also stellen wir sicher, dass wir zum Beispiel bei Tests mit künstlicher Intelligenz verantwortlich handeln? Forscher arbeiten in jedem Fall schon eifrig daran, den Missbrauch von generativer KI zur Aufdeckung solcher Manipulationen zu verhindern.

Die neuronalen Netze, die bestimmte Ergebnisse erzeugen, dürfen sich bei der Aufdeckung nicht selber im Wege stehen oder diese blockieren. Eine Lösung könnte sein: das digitale Wasserzeichen.

Wasserzeichen: Der digitale Fingerabdruck

Eine Methode zur Identifikation solcher Fälschungen oder Signaturen ist das sogenannte «Watermarking». Dabei wird eine Art Stempel auf Ergebnisse gesetzt, die von generativer KI wie ChatGPT erstellt wurden.

So lässt sich feststellen, welcher Inhalt durch KI beeinflusst wurde und welcher nicht. Dies könnte bei der Unterscheidbarkeit zwischen manipuliertem KI-Content und geistigem Eigentum eines Nutzers helfen.

Digitale Bildung: Ein Muss in Zeiten von KI

Als Computer an Schulen immer häufiger zum Einsatz kamen, war es üblich, Unterrichtsstunden im Computerraum zu nehmen. Es ging darum, den Umgang mit dem Internet zu erlernen.

Ähnliches sollte für den Umgang mit KI gelten. Der Gebrauch dieser Werkzeuge (etwa ChatGPT) ist mittlerweile ja alltäglich geworden.

Vor allem Kinder brauchen Anleitung und Informationen über einen überlegten, reflektierten Umgang mit KI im schulischen Kontext.
Vor allem Kinder brauchen Anleitung und Informationen über einen überlegten, reflektierten Umgang mit KI im schulischen Kontext. - Depositphotos

Bis weitere Regulierungen kommen, sind wir alle dazu angehalten, uns aktiv über Risiken bei der Nutzung dieser KI-Tools zu informieren. Dazu zählen insbesondere Manipulation und Täuschung.

Vorsicht vor Vorurteilen

Künstliche Intelligenz kann Bilder basierend auf Benutzereingaben erzeugen – und dabei klare Geschlechter- und Rassenvorurteile offenbaren. Dies ist unter anderem problematisch für KI-Kunstgeneratoren wie Stable Diffusion, Midjourney und DALL-E.

Die von diesen Generatoren erstellten stereotypen Bilder zeigen, wie bestimmte Berufe mit bestimmten Adjektiven (und damit Vorurteilen) codiert sind. So generiert der Befehl «CEO» immer noch überwiegend Bilder von weissen Männern in Anzügen, egal welche weiteren Beschreibungen hinzugefügt wurden.

Mehr zum Thema:

Weiterlesen