Ziel dieser Regelungen ist es, Irreführungen zu vermeiden und einem Missbrauch der Technologie vorzubeugen. Im Mittelpunkt des Beitrags steht die Frage, unter welchen Voraussetzungen durch KI veränderte oder generierte Inhalte künftig kenntlich zu machen sind. Dabei werden insbesondere Anforderungen aus Artikel 50 der KI-VO untersucht sowie bestehende Auslegungs- und Abgrenzungsprobleme.
Gesetzliche Regelungen
Bislang gibt es auf europäischer Ebene keine einheitlichen Vorschriften, wie Inhalte kenntlich zu machen sind, die durch Künstliche Intelligenz erzeugt oder bearbeitet wurden. Stattdessen existieren lediglich vereinzelte nationale Bestimmungen oder freiwillige Standards einzelner Branchen. Diese unvollständige Rechtslage führt dazu, dass die notwendige Transparenz häufig nicht erreicht wird.
Das ist ein Problem, das insbesondere bei realistisch wirkenden KI-Erzeugnissen wie Deepfakes erhebliche Risiken birgt. Nach aktuellen Schätzungen waren allein im Jahr 2023 mehr als 95.000 Deepfake-Videos im Internet abrufbar, von denen viele gezielt zur Verbreitung manipulativer oder schädlicher Inhalte verwendet wurden. Die einfache Verfügbarkeit entsprechender Technologien verschärft diese Entwicklung zusätzlich.
Die neue KI-Verordnung
Mit dem Inkrafttreten der KI-VO ab 2026 werden weitreichende Transparenzpflichten bindend. Nach Artikel 13 der KI-VO müssen Hochrisiko-KI-Systeme so ausgestaltet sein, dass ihre Funktionsweise für Nutzer nachvollziehbar ist und die Ergebnisse verständlich genutzt werden können. Damit soll die sogenannte „Blackbox-Problematik“ abgemildert werden, die bislang durch die fehlende Nachvollziehbarkeit komplexer Modelle geprägt ist. Während man weiß, welche Daten in das System eingegeben werden und welches Ergebnis es liefert, bleibt der Weg dazwischen meist unklar. Dieses Phänomen wird sinnbildlich als „Blackbox“ bezeichnet.
Transparenzpflichten nach Art. 50 der KI-Verordnung
Artikel 50 der KI-VO enthält grundlegende Transparenzvorgaben für bestimmte KI-Systeme. Er verpflichtet Anbieter und Betreiber dazu, Nutzer über die Nutzung der Systeme zu informieren.
Dies gilt etwa bei KI-Anwendungen
- mit direktem Personenkontakt,
- der Erzeugung synthetischer Inhalte,
- Emotionserkennung oder
- biometrischer Kategorisierung.
- Auch Deepfakes und Inhalte mit öffentlichem Bezug unterliegen speziellen Hinweispflichten.
Der Artikel 50 richtet sich sowohl an Anbieter als auch an Betreiber bestimmter KI-Anwendungen. Er erfasst insbesondere Systeme, die zwar nicht als Hochrisiko-KI eingestuft sind, aber ein erhöhtes Potenzial für Manipulationen bergen. Dazu zählen nach Art. 50 Abs. 2 S. 1 auch Anbieter von KI-Systemen, die synthetische Video, Text-, Bild- oder Audioinhalte erzeugen. Ziel ist es, einer Irreführung der Öffentlichkeit vorzubeugen und die Herkunft digitaler Inhalte transparent zu machen.
Die Kennzeichnungspflicht nach Art. 50 Abs. 5 KI-VO verlangt, dass Hinweise auf KI-generierte Inhalte in klarer und eindeutiger Weise bereitgestellt werden. Bei Bildern und Videos bedeutet das, dass der Hinweis direkt im Bildmaterial sichtbar sein muss. Bei Audioinhalten ist der Hinweis zu Beginn zu geben und bei längeren Beiträgen in regelmäßigen Abständen zu wiederholen, damit auch weniger erfahrene Nutzer den künstlichen Ursprung klar erkennen können. Trotz dieser Vorgaben wird fraglich bleiben, ob die Sichtbarkeit und Wiederholbarkeit der Kennzeichnung in der Praxis durchgängig sichergestellt werden können.
KI-gestützte Manipulation und Erzeugung
Nach Artikel 50 Absatz 4 Satz 1 KI-VO sind Betreiber von KI-Systemen zudem verpflichtet offenzulegen, wenn Inhalte künstlich erzeugt oder verändert wurden. Besonders im Fokus stehen hier sogenannte Deepfakes im Sinne von Artikel 3 Nummer 60 KI-VO. Eine zentrale Frage in der Diskussion um die Transparenzpflichten ist, ab wann eine Bearbeitung als KI-gestützte Manipulation anzusehen ist.
- Von Manipulation spricht man, wenn ursprünglich authentisches Material nachträglich gezielt verändert wird, etwa durch den Einsatz audiovisueller Techniken wie den „Gesichtertausch“ bzw. „Face-Swap“.
- Eine Erzeugung liegt hingegen vor, wenn Inhalte vollständig künstlich generiert werden, zum Beispiel mithilfe von Bild- oder Videogeneratoren.
Vor diesem Hintergrund kann man sich u.a. die Frage stellen, ob schon das Ausschneiden einer Person aus einem Bild mittels eines KI-gestützten Lasso-Werkzeugs oder das automatisierte Entfernen von Personen oder Objekten aus einem Bild durch sogenannte Reparatur- oder Inpainting-Funktionen als Manipulation i.S.v. Art. 50 Abs. 4 S. 1 KI-VO einzustufen ist. Orientiert man sich an der vorgenannten Abgrenzung, spricht vieles dafür. Denn hier wird ein ursprünglich unverändertes Medium gezielt bearbeitet. Da der Eingriff nicht zu einer vollständigen Neugenerierung führt, sondern eine gezielte Veränderung des Bildmaterials darstellt, handelt es sich um eine Bearbeitung und damit um eine Manipulation im Sinne der Definition. Somit könnte eine entsprechende Kennzeichnung erforderlich sein.
Voraussetzung: Definition der KI-Systeme
Maßgeblich für die Anwendbarkeit der Transparenzvorgaben ist, ob das eingesetzte System die Voraussetzungen des Art. 3 Nr. 1 KI-VO erfüllt, also als maschinengestütztes, autonom agierendes und lernfähiges System einzuordnen ist. Klassische Bildbearbeitungsprogramme, die lediglich manuelle Eingriffe ermöglichen, unterfallen dieser Definition regelmäßig nicht und sind daher grundsätzlich von den Offenlegungs- und Kennzeichnungspflichten des Art. 50 KI-VO nicht erfasst.
Diese dogmatisch saubere Abgrenzung überzeugt auf den ersten Blick, lässt jedoch in der praktischen Anwendung relevante Wertungsfragen offen. Denn auch mit vergleichsweise einfachen Tools lassen sich Bildinhalte so verändern, dass die Grenze zwischen bloßer Bearbeitung und täuschend echt wirkender Verfälschung zunehmend verschwimmt. Die damit einhergehenden Risiken für die öffentliche Meinungsbildung und die digitale Informationsintegrität sind nicht zu unterschätzen.
Eine stärker inhaltsbezogene Betrachtung, die die Intensität der Veränderung und ihre potenzielle Wirkung auf die Rezipienten in den Mittelpunkt stellt, hätte zu einer ausgewogeneren Regelung führen können. Auf diese Weise ließe sich verhindern, dass technisch schlicht ausgestaltete, inhaltlich aber hochwirksame Manipulationen außerhalb des Anwendungsbereichs verbleiben.
Fazit: Konkrete Leitlinien zur Kennzeichnung wünschenswert
Die bislang erkennbaren Schwierigkeiten in der praktischen Anwendung verdeutlichen die Notwendigkeit klarer und verbindlicher Handreichungen. Es erscheint sachgerecht, wenn das KI-Büro der Europäischen Kommission hierzu konkretisierende Leitlinien entwickelt, die den Begriff der kennzeichnungspflichtigen Bearbeitung im Sinne des Art. 50 weiter abgrenzen.
Flankierend könnten standardisierte technische Verfahren etabliert werden, mit denen sich Veränderungen nachvollziehbar dokumentieren und automatisiert prüfen lassen. Nur so wird sich der mit der Norm verfolgte Zweck, nämlich der Schutz vor Irreführung und Sicherung der Vertrauenswürdigkeit digitaler Inhalte, effektiv verwirklichen lassen.
Die KI-Beratung der actago GmbH
Sie möchten Unterstützung, um den hohen Anforderungen der europäischen KI-Verordnung (KI-VO) sowie der DSGVO an einen rechtssicheren, menschenzentrierten Einsatz von KI gerecht zu werden?
Mit der actago KI-Beratung begleiten wir Sie strukturiert und schlüsselfertig – von der Potenzialanalyse bis zur offiziellen Bestellung Ihres KI-Beauftragten. Unser Anspruch: KI mit Sicherheit und Mehrwert.
Unsere KI-Beratung erfüllt insbesondere:
- die Pflicht zur Risikoanalyse (Art. 27 KI-VO),
- die Anforderung an ein internes Kontrollsystem (Art. 9 KI-VO analog),
- die Dokumentationspflichten der Betreiber (Art. 21 KI-VO),
- die Stärkung der KI-Kompetenz Ihrer Organisation (Art. 4 KI-VO).
Hier erfahren Sie mehr: https://actago.de/ai-act/
Die actago GmbH ist einer der führenden Dienstleister für die Themen Datenschutz und Informationssicherheit. Als ausgewiesener Spezialist bieten wir Kommunen und Unternehmen zudem umfangreiche Beratungsleistungen und schlüsselfertige Lösungen in der KI-Beratung und im Hinweisgeberschutz an. Präventionsmaßnahmen gegen Cyberkriminalität wie die Phishing-Simulation, Social Engineering-Kampagnen oder die Security Suite als Schwachstellenmanagement runden das Portfolio ab. Umfassende Projektbegleitung und individueller Service zeichnen uns dabei aus.
actago GmbH
Weidenstr. 66
94405 Landau an der Isar
Telefon: +49 (9951) 99990-20
http://www.actago.de
Geschäftsführer
Telefon: +49 (9951) 99990-20
E-Mail: info@actago.de