Heutzutage muss man schon sehr genau hinsehen, um zu erkennen, dass ein Artikel oder Social-Media-Post nicht mit einem realen Foto, sondern mit einem KI-generierten Bild illustriert ist. Dabei fällt eines besonders auf: Die von der KI ohne weitere Vorgaben erstellten Menschen sind meist weiß und beeindruckend schön, zumindest nach westlichen Standards. Und genau da liegt das Problem: Kulturelle Vielfalt ist kaum vorhanden. Große Teile der Weltbevölkerung finden in diesen Bildern kaum Repräsentation – oder werden sogar durch die Darstellungen diskriminiert.
„Die Entwickler von LLM-Modellen wie ChatGPT haben zwar mittlerweile einige Vorkehrungen getroffen, durch die Vorurteile vermieden werden sollen. Beispielsweise soll ChatGPT keine religiösen oder ethnischen Stereotype bedienen, wenn die KI den Auftrag bekommt, ein Bild zu erstellen“, erklärt Götz Schartner vom Verein Sicherheit im Internet e.V., einem der Mitveranstalter von SpardaSurfSafe. „Trotzdem sind die Darstellungen oft noch sehr einseitig, denn das Problem liegt viel tiefer, nämlich in der Art und Weise, wie KIs trainiert werden.“
KI-Bildgeneratoren (wie DALL·E, Midjourney usw.) erfinden die erstellten Bilder nicht einfach. Sie lernen anhand von Milliarden realen Bildern, Texten und Videos aus dem Internet. Wenn dort bestimmte Gruppen immer in denselben Kontexten oder mit bestimmten Merkmalen gezeigt werden, dann lernt die KI diese Muster – selbst wenn sie Vorurteile widerspiegeln. Auch die Tatsache, dass die westliche Kultur und ihre Schönheitsideale im Netz dominieren, schlägt sich dadurch in den KI-Bildern nieder. Die KI verwendet aus der Gesamtheit der Darstellung lediglich die wahrscheinlichsten, also die am meisten vertretenen Eigenschaften zur Generierung ihrer Ergebnisse – und die spiegeln meist nur ganz spezielle Personengruppen wider. „Das Ergebnis ist ein sehr einseitiges Bild, das bestimmte Bevölkerungsschichten nur selten zeigt oder sogar diskriminiert“, fasst Schartner zusammen.
So tragen KI-generierte Bilder dazu bei, unrealistische Schönheitsideale und Erwartungen weiter zu zementieren. Noch problematischer ist es jedoch, wenn die Möglichkeiten der KI dazu missbraucht werden, bestimmte Botschaften zu vermitteln. Hasskampagnen nutzen die Technik, um „perfekte“ Bilder von Menschen zu erschaffen, die nur ihrem Idealbild entsprechen. Wer nicht in dieses Raster passt, wird unsichtbar gemacht, ausgegrenzt oder gar in belastenden Situationen gezeigt.
Doch wie lassen sich solche stereotypen Darstellungen vermeiden? „Hier sind zum einen die Nutzer der KI gefragt, denn über die Aufgabenstellung lassen sich viele Probleme bereits im Ansatz lösen. Je präziser die Anweisungen erfolgen, auf desto weniger allgemeine Daten muss die KI zugreifen, um die Lücken zu füllen. Diversität kann man dabei explizit einfordern“, erklärt der Experte. Eine weitere Möglichkeit ist es, selbst Vielfalt sichtbar zu machen, indem man Bilder und Inhalte mit entsprechendem Inhalt teilt und so der KI für ihren Lernprozess zur Verfügung stellt. „Dabei sollte man jedoch darauf achten, dass man nicht selbst unbewusst Vorurteile oder Stereotype verbreitet, denn dann haben diese Inhalte den gegenteiligen Effekt“, warnt Schartner.
Grundsätzlich ist es auch immer eine gute Idee, Inhalte – egal, ob Bilder, Videos oder Texte – die von einer KI erstellt wurden, kritisch zu überprüfen, ob sie den eigenen Ansprüchen und ethischen Grundsätzen entsprechen. Dabei wird man nicht selten auch weitere Fehler finden, denn Dinge wie Hände oder Füße machen den LLMs noch oft Probleme, wie die KI-Künstlerin Gabi Finck in einem Blogbeitrag eindrücklich zeigt.
Zusammenfassend lässt sich sagen, dass KI-Bilder durchaus spannend und beeindruckend sein können. Aber objektiv sind sie aufgrund der Lernweise von KI nicht. So verstärken sie oft Ungleichheiten und Vorurteile, die bereits im Netz existieren und sollten daher durchaus kritisch betrachtet werden.
Weitere Informationen zum Thema gibt es auf der Webseite von SpardaSurfSafe unter https://www.spardasurfsafe-bw.de/trends-phenomenons/2aa1d552-b9e9-4339-bc28-9624648130aa Hier finden sich auch viele weitere spannende Beiträge rund um das Thema Sicherheit im Internet.
Über SpardaSurfSafe – eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg
Veranstalter und Träger von SpardaSurfSafe ist die Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg, die gemeinsam mit dem Kultusministerium Baden-Württemberg und dem Verein Sicherheit im Internet e. V. das Großprojekt im 14. Jahr durchführt. In Kooperation mit den IT-Sicherheitsexperten der 8com GmbH & Co. KG wurde ein Konzept entwickelt, das die Schüler im Rahmen des Unterrichts im Umgang mit den Neuen Medien aufklärt. „SpardaSurfSafe ist für uns ein Herzensprojekt, das wir mittlerweile in 35 verschiedenen Städten in Baden-Württemberg durchgeführt haben. Über 500.000 Teilnehmer konnten seit dem Start von dem Programm profitieren. Dafür bekommen wir durchweg positives Feedback von den Teilnehmern, ob Schüler, Eltern oder Lehrer“, erklärt Patrick Löffler vom Verein Sicherheit im Internet e. V.
8com GmbH & Co. KG
Europastraße 32
67433 Neustadt an der Weinstraße
Telefon: +49 (6321) 48446-0
Telefax: +49 (6321) 48446-29
http://www.8com.de
Pressereferentin
Telefon: +49 (30) 30308089-14
E-Mail: kraus@quadriga-communication.de
Head of Communications
Telefon: +49 6321 484460
E-Mail: redaktion@8com.de