4 Lesezeit Minuten

KI vs. Authentizität: Der wachsende Bedarf an Provenienz bei digitalen Inhalten

Der Aufstieg von KI-generierten Inhalten hat die digitale Authentizität verändert und macht es immer schwieriger, zwischen echten und gefälschten Medien zu unterscheiden. Fälle wie der "Balenciaga-Papst" und gefälschte Pentagon-Explosionen haben diesen Trend ans Licht gebracht und gezeigt, wie schlimm es werden kann, wenn KI-generierte Bilder mit echten Bildern verwechselt werden. Deepfakes sind im Jahr 2024 um 400 % gestiegen und machen nun 7 % aller Betrugsfälle aus, einschließlich Imitationen und Social-Engineering-Angriffe

Dieser Artikel wurde für Sie von artificial intelligence übersetzt
KI vs. Authentizität: Der wachsende Bedarf an Provenienz bei digitalen Inhalten
Quelle: Depositphotos

Wie Unternehmen auf das Aufkommen von KI-Inhalten reagieren

Aufgrund dieser Probleme arbeiten große Technologieunternehmen an Möglichkeiten, die Authentizität und Herkunft von Medien zu verbessern. Im Rahmen seiner jährlichen Build-Konferenz kündigte Microsoft an, dass seine Bing Image Creator- und Designer-Tools nun über neue Funktionen zur Überprüfung der Herkunft von Medien verfügen.

Benutzer können damit überprüfen, ob Bilder oder Videos von KI erstellt wurden, indem sie kryptografische Methoden verwenden, die Informationen darüber enthalten, woher die Inhalte stammen.

Damit dieses System funktioniert, müssen die verschiedenen Plattformen jedoch der Spezifikation der Coalition for Content Provenance and Authenticity(C2PA) zustimmen.

Auch Meta hat ein Tool namens Meta Video Seal veröffentlicht, mit dem von KI erstellte Videoclips mit unsichtbaren Wasserzeichen versehen werden können. Dieses Open-Source-Tool soll problemlos mit vorhandener Software zusammenarbeiten und das Auffinden von KI-Inhalten erleichtern. Video Seal verspricht, im Gegensatz zu älteren Wasserzeichentechnologien, die Probleme mit der Videokomprimierung und -manipulation hatten, gegen gängige Bearbeitungen wie Unschärfe und Beschneidung resistent zu sein.

Probleme und Beschränkungen

Trotz dieser Verbesserungen gibt es immer noch Probleme, viele Menschen dazu zu bringen, diese Technologien zu nutzen. Viele Entwickler zögern möglicherweise, von bestehenden proprietären Lösungen zu Open-Source-Optionen wie Video Seal zu wechseln.

Meta plant, auf großen KI-Konferenzen Workshops abzuhalten und eine öffentliche Rangliste zu erstellen, in der verschiedene Wasserzeichen-Methoden verglichen werden, um mehr Menschen zur Zusammenarbeit zu bewegen.

Außerdem sind die derzeit verfügbaren Wasserzeichenmethoden nicht immer stark oder effektiv genug, wenn es um Videoinhalte geht.

Video Seal_: Meta

Source: aidemos.meta.com

Zwei Hauptansätze zur Bekämpfung von KI-generierten Inhalten

Im Kampf gegen KI-generierte Inhalte haben sich zwei unterschiedliche Strategien herauskristallisiert:

  1. Wasserzeichen (präventiver Ansatz):
  • Funktioniert durch Hinzufügen von unsichtbaren Signaturen zu den Inhalten im Moment der Erstellung
  • Wirkt wie ein digitales Zertifikat, das zeigt, dass dies von KI erstellt wurde.
  • Tools wie Meta Video Seal und Microsofts Provenance-Funktionen repräsentieren diesen Ansatz
  • Hauptvorteil ist die sofortige Identifizierung von KI-Inhalten
  1. Erkennungstools (analytischer Ansatz):
  • Analysiert vorhandene Inhalte, um festzustellen, ob sie KI-generiert wurden
  • Sucht nach Mustern und Merkmalen, die typisch für KI-Inhalte sind
  • Besonders nützlich für Inhalte, die bei der Erstellung nicht gekennzeichnet wurden
  • Diese Tools bilden unsere zweite Verteidigungslinie

Beide Ansätze sind notwendig, da sie sich gegenseitig ergänzen: Wasserzeichen verhindern Missbrauch, während Erkennungstools helfen, nicht gekennzeichnete Inhalte zu identifizieren.

Erkennungstools und Technologien

KI-generierte Inhalte lassen sich nicht nur mit Hilfe von Wasserzeichen-Technologien aufspüren. Neue Erkennungstools verwenden komplexe Algorithmen, um sowohl Text- als auch Bildinhalte zu untersuchen.

Powered by AI

Source: Depositphotos

  • Ursprünglich werden Deep-Learning-Algorithmen von der KI verwendet, um Muster in Texten zu finden, die von der KI erstellt wurden.
  • GPTZero untersucht sprachliche Strukturen und Worthäufigkeiten, um zwischen Inhalten zu unterscheiden, die von Menschen geschrieben wurden, und solchen, die von Maschinen erstellt wurden.
  • CopyLeaks verwendet N-Gramme und Syntaxvergleiche, um kleine Veränderungen in der Sprache zu finden, die auf eine KI-Autorenschaft hindeuten könnten.

Diese Tools sollen den Nutzern genaue Einschätzungen über die Echtheit von Inhalten liefern, aber wie gut sie funktionieren, ist sehr unterschiedlich.

Schlussfolgerung

Mit den Fortschritten der generativen KI wird der Schutz der digitalen Authentizität immer wichtiger. Microsoft und Meta sind mit ihren bahnbrechenden Standards für die Authentizität von Inhalten und die Überprüfung der Herkunft von Medien führend in diesem Bereich.

Um Deepfakes wirksam zu bekämpfen, brauchen wir sowohl die branchenweite Einführung dieser Tools als auch eine stärkere Zusammenarbeit zwischen Technologieunternehmen. Die künftige Integrität digitaler Inhalte hängt davon ab, dass sich die Erkennungstechnologien schneller weiterentwickeln als die KI-generierte Täuschung.

Vor kurzem haben wir darüber berichtet, wie YouTube ähnliche Schritte unternimmt und neue KI-Erkennungstools für Urheber und Marken einführt. Der Ansatz umfasst synthetische Stimmerkennung und KI-generierte Gesichtserkennungstechnologien und zeigt, wie große Plattformen daran arbeiten, die Authentizität von Inhalten in der KI-Ära zu schützen.

Artikel teilen
Ähnliche Artikel
Google Sheets führt AI-Formel ein
4 Lesezeit Minuten

Google Sheets führt AI-Formel ein

Schluss mit dem endlosen Lesen von Tabellenkalkulationszeilen und dem Kopieren von Daten zwischen Tabs. Google hat eine Funktion eingeführt, die 30-minütige Datenaufgaben in 30-Sekunden-Eingaben verwandelt.

Katarína Šimčíková Katarína Šimčíková
Freelance I Digital Marketing Specialist, Ecommerce Bridge EU
Cloudflare testet System, mit dem Verleger AI-Crawler bezahlen können
4 Lesezeit Minuten

Cloudflare testet System, mit dem Verleger AI-Crawler bezahlen können

Die Tage der KI-Unternehmen, die Inhalte kostenlos auslesen, könnten gezählt sein. Cloudflare hat gerade etwas eingeführt, das sich«Pay per Crawl» nennt und mit dem Website-Besitzer tatsächlich Geld verdienen können, wenn KI-Bots auftauchen und ihre Inhalte abgreifen. Das ist eine ziemlich große Sache für jeden, der Inhalte online erstellt.

Katarína Šimčíková Katarína Šimčíková
Freelance I Digital Marketing Specialist, Ecommerce Bridge EU