KI-Bilder erkennen: Kennzeichnung via „Content Credentials“

Woran erkennt man, ob ein Bild KI-generiert ist – oder ob es ein echtes Foto ist?

Als Laie, auf den ersten Blick? Fast gar nicht. Aber: Es gibt eine Technologie, die für Transparenz sorgt – auf freiwilliger Basis.

Siehst du oben im Bild das Signet mit „cr“? Was bedeutet das „cr“ Symbol in Bildern? Dahinter verbirgt sich eine Info, ob das Bild von Menschen, von KI, oder von beidem erstellt bzw. bearbeitet wurde. So eine Kennzeichnung ist im Sinne des EU AI Acts durchaus sinnvoll, und ehrlich gesagt aus Fairness gegenüber den Usern auch. Als User freut man sich zusätzlich, wenn ein Foto garantiert echt ist.

Das ist cr

„cr“ ist eine Kennzeichnung für visuellen Content. contentcredentials.org der Organisation „Content Authenticity Initiative“ bietet das an, und u.a. das KI-Bildgenerierungs-Tool Bria nutzt es, OpenAI (ChatGPT) auch, oder Adobe Firefly (und sogar wenn du innerhalb von Photoshop „Bild generieren“ mittels Firefly nutzt).
Google (Nano Banana) ist nicht dabei.
Adobe macht mit allen Tools mit, bei den Kameraherstellern sind Leica (M11-P) und Nikon (Z9) am Start.

Die Technik hinter cr

Mit cr werden kryptographisch gehashte / signierte Informationen bzw. Meta-Daten in die Bilddatei eingebettet (oder in die [Adobe-]Cloud hochgeladen [inklusive URL – diese wird in die Datei integriert] oder als .c2pa Zusatzdatei „beigelegt“):
Mit diesen Informationen kann man erkennen, ob das Bild von einer KI kommt (oder mit KI bearbeitet wurde), oder ob es ein echtes Foto ist, mit einem (oder mehreren) zu nennenden Urheber(n) – oder beides.

In der Welt der Content Authenticity Initiative nennen sich diese Meta-Daten „Manifest“, die in der Mediendatei gesammelt in einem „Manifest Store“ abgelegt werden. Wenn dich interessiert, was in den Daten drinstecken kann: Hier klicken.

Das Konzept ähnelt ein wenig den bekannten EXIF-Daten, die in Digitalfotos stecken, allerdings massiv aufgebohrt. EXIF-Daten sind jedoch einfach manipulierbar – Content Credentials nicht. Zudem ersetzt cr die guten alten EXIF-Daten nicht; cr sind zusätzliche Daten mit wenig Daten-Überschneidungen.

Mit cr Bilder überprüfen

Die Verifikation eines Bildes ist einfach, entweder über die Website oder über ein Anhängsel an die URL, wie in diesem Beispiel – hinter source= kommt die URL des prüfenden Mediums.

https://contentcredentials.org/verify?source=https://www.testwebsite.com/test.jpg

Von Adobe gibt es ein (Chromium-)Plugin für den Chrome-Browser: Adobe Content Authenticity

So sieht ein cr-Prüfergebnis aus:

So funktioniert’s:

  • Der KI-Bild-Generator (bzw. die Kamera oder die Bildbearbeitungssoftware) baut
    a) ein signiertes Code-Snippet in die Bilddatei ein (oder lädt es in eine Cloud hoch) (oder beides) (oder legt es bei). Im Sonderfall Video werden zusätzlich Anfangs- und Endframe definiert.
    b) einen – wenn es das Anzeigeprogramm unterstützt – klickbaren Button ins Bild ein, den siehst du oben (und hast ihn vielleicht schon mal bei LinkedIn-Posts gesehen): Das ist das „cr“ Signet („Content Credentials pin“). Es „gehört“ der Coalition for Content Provenance and Authenticity (C2PA) .
  • Das Bildformat ist „relativ“ egal: Bria und ChatGPT bauen das cr in PNG-Dateien ein, Adobe Lightroom kann es nur in JPGs integrieren. Photoshop beherrscht PNG und JPG. Adobe Premiere Pro bietet cr für Audio- und Videodateien an (u.a. MP3, MP4, MOV, AVI), und zusätzlich für TIFFs. Das Dateiformat ist also erstmal kein Indikator.
  • Beim Klick auf den Pin öffnet sich die Website contentcredentials.org. Allerdings muss die Website die Anzeige des Pins unterstützen (da wird es dünn; bspw. LinkedIn – da hab ich es selbst schon gesehen – und Behance können es schon; es werden sicher noch viele Websites dazukommmen).
  • Auch wenn du das Original-Bild bei contentcredentials.org hochlädst, werden die Daten ausgelesen.
  • Dort werden die weiteren Informationen zum KI-Bild aufgerufen:
    • „Dieses Bild wurde mit einem KI-Tool generiert“
    • Verwendete Applikation: Bria Ai
    • Verwendetes KI-Tool: Bria AI
    • Aktion: „Erstellt“ (also nicht bearbeitet)
    • Eine Bearbeitungs-History wird ebenfalls angelegt
    • In diesen Daten können auch Urheber drinstehen, was zum Tracking der Urheberschaft natürlich genial ist
  • Wenn du Fotograf oder Digital Artist bist, kannst du bspw. mit Lightroom natürlich für dich relevante Infos ins Bild einbetten, bspw.:
    • „Producer“, also dein Name.
    • Social-Media-Accounts verlinken: bspw. Behance, Instagram, LinkedIn, X
    • Welche Software(s) daran beteiligt waren
    • GGf. Herkunft von Bildbestandteilen
    • GGf. Bearbeitungsschritte
    • GGf. Kameramodell
    • KI-Opt-out: „Dieses Foto darf nicht zum Training von KIs verwendet werden“
  • Allerdings gehen die Credentials verloren, wenn:
    • Du die Datei mit einem anderen Programmm umspeicherst / neu abspeicherst
    • Dein Content Management System hochgeladene Bilder (bspw. PNGs) in bspw. WebP umwandelt, bspw. wie hier WordPress
    • Wer möchte, dass Credentials „unverlierbar“ in der Datei gespeichert werden, als „Durable Content Credentials“, muss zusätzlich digitale Wasserzeichen (bspw. von Anbietern wie Digimarc, ATSC, Adobe Trustmark etc.) oder Fingerprinting (bspw. von Adobe pder Digicaps) nutzen. Hier klicken für mehr Infos.
  • Und die Credentials werden auch für banale Bearbeitungen hinzugefügt. Beispiel: Du lässt dir ein Bild von der KI freistellen. Der KI-Anbieter kann dann ein CR-Snippet ins Bild einfügen. Dein Bild gilt damit als KI-bearbeitet. Über Sinn und Unsinn kann man streiten.

Achtung: Ganz robust funktioniert das alles nicht

Beispiel: Ich habe ein mit ChatGPT generiertes Bild bei Bria hochgeladen und dort bearbeitet. Das ChatGPT-Bild hatte Credentials. Bria hat bei der Bearbeitung – Inpainting, also das zusätzliche hinzufügen von Bildinhalten – die Credentials gelöscht und mit eigenen Bria-Credentials überschrieben. Die Credential-Implementierungen bei den Anbietern sind also nicht kompatibel.

Beim umgekehrten Weg – ein Bild von Bria mit ChatGPT bearbeiten – werden die Credentials ebenfalls überschrieben.

Bild 1: Die Credentials von OpenAI – sieht gut aus (OpenAI legt sogar 2 Credentials an, für die Erstellung und fürs Editing)

Bild 2, nach der Bearbeitung mit Bria (oben im Bild hängt ein zusätzliches Bild an der Wand) – nur das Bria-Credential ist da

Fazit: Steht noch am Anfang

Rückverfolgbarkeit bzw. Herkunftsnachweise von Bildern sind eine super Sache. Man wird sich hier eventuell langfristig umstellen müssen:

  • Zertifizierte Bilder können vom User (oder von Software, Browsern…) als „echt“ oder „KI-lastig“ verifiziert werden.
  • Bilder ohne Zertifikat könnten automatisch Misstrauen wecken (oder von Software bzw. Browsern abgelehnt werden)

In jedem Fall ist das Thema derzeit de facto unbekannt und spielt erstmal keine Rolle. Man wird die weitere Entwicklung abwarten müssen. Grundsätzlich sind Kennzeichnungen eine sehr gute Idee.

Kontakt

Welche Dateiformate versteht Content Credentials?

cr lässt sich in die gängigen „für Endanwender sichtbaren“ Medien-Dateiformate für Bilder, Videos und Audio einbauen, die man im digitalen Alltag braucht. Nicht in die Liste reingeschafft haben es Traditionsformate wie GIF und BMP.

  • Austauschformate:
    • PDF
  • Bildformate:
    • JPEG (= .JPG)
    • PNG
    • WebP
    • TIFF
    • DNG
    • HEIC
    • HEIF
    • SVG
    • AVIF (AV1)
  • Videoformate:
    • M4A (= .MP4)
    • MOV
    • AVI
  • Audioformate:
    • MP3
    • WAV

Artikel zu ähnlichen Themen

Gern 5 Sterne vergeben
Teilen / Share
Zu Hause » KI » KI-Bilder erkennen: Kennzeichnung via „Content Credentials“

Erstellt am:

Zuletzt aktualisiert: