- AI
- Medienbranche
Von Martin Haase
Share
Foto: Neuraforge AI
Wie können Medienschaffende KI-generiertes oder -verändertes Material erkennen? Anika Gruner und Anatol Maier kennen die Antwort. Sie entwickeln mit ihrem Start-up Neuraforge AI eine Software, die prüfen kann, ob bei der Erstellung von Inhalten künstliche Intelligenz zum Einsatz kam. Seit April 2024 sind sie Teil des Start-up-Förderprogramms des Media Lab Bayern. Im Gespräch verraten sie, was ihr Konzept zukunftsfähig macht und wie ihre Software Medienschaffende unterstützen soll.
Anika, Anatol, vor welchen Herausforderungen steht die Medienbranche durch die Flut von KI-generiertem Material?
Anika: Wir sehen eine wachsende Diskrepanz bei der Wahrnehmung der Authentizität von Medien bei User:innen. Sie können die Inhalte etablierter Medien nicht mehr so gut von Fake-Inhalten abgrenzen. Das gilt besonders in Social-Media-Feeds, wo die Masse an Informationen überfordert. Für User:innen ist es zu aufwendig, alle Inhalte zu prüfen. Ich sehe darin auch eine Gefahr für den demokratischen Auftrag von Medien.
KI-generierte Bilder können Emotionen verstärken
Anatol: KI-Bilder können zum Beispiel bestimmte Emotionen verstärken, die den Text unterstützen. Da geht es nicht um die objektive Widerspiegelung der Wahrheit, sondern darum, eine Geschichte zu erzählen. Selbst, wenn KI-generierte Bilder nicht mutwillig bestimmte Gefühle vermitteln sollen, können sie diese erzeugen und einem Text eine andere Stoßrichtung geben. Wenn zum Beispiel ein Fotograf in einem Kriegsgebiet ein Bild von einem weinenden Kind schießt, kann er den optischen Abstand des Kindes zu Soldaten im Hintergrund ohne Weiteres reduzieren. Das kann bei der Rezeption des Lesenden emotional einen riesigen Unterschied machen. Dafür braucht es kein technisches Verständnis von Bildbearbeitung, das geht mit aktuellen Smartphones mit KI-Integration.
Anika: Beim Quellencheck in Medienhäusern sind ganze Investigativ-Teams im Einsatz, um den Wahrheitsgehalt von Inhalten zu prüfen, die ihnen zugespielt werden. Eine technische Gegenprüfung gibt es aber noch nicht. Wenn trotz aller Prüfverfahren etablierte Medien einem Fake aufsitzen und diesen veröffentlichen, ist der Schaden durch Reputationsverlust groß. Selbst bei einer Korrektur kommen Aufschreie von Leuten, die mit Kampfbegriffen wie „Fake News“ etablierten Medien schaden wollen, bei User:innen oft stärker an als die Richtigstellung.
» Es ist kaum mehr möglich, KI-generierte Inhalte mit bloßem Auge zu erkennen.«
Anika Gruner
Foto: Neuraforge AI
Wie erkennt man Deepfakes und verändertes Bild- und Videomaterial?
Anatol: Rein visuell ist das oft schwierig: Je öfter diese Inhalte verschickt oder via Social Media geteilt werden, desto größer ist die Kompression der Datei und desto geringer die Qualität. Bei sehr niedrig aufgelösten Bildern und Videos fallen Merkmale viel weniger stark ins Gewicht, die bei hoher Qualität einen Fake sichtbar machen würden.
Außerdem muss man unterscheiden. Erstens: Handelt es sich um einen Fake, bei dem ein bestehender Inhalt manipuliert wurde? Bei Manipulationen gibt es oft im Gesichtsbereich viele digital bearbeitete Bewegungen, die visuell erkennbar sind, zum Beispiel Mundbewegungen. Oder zweitens: Handelt es sich um komplett KI-generiertes Material? Hier hat die Software bei der Erstellung von Menschen immer noch Probleme. Besonders Symmetrien an verschiedenen Stellen im Bild führen zu Unstimmigkeiten, zum Beispiel lassen sich kaum zwei gleich große Ohrringe generieren. Eine klassische Spur ist auch der Lichteinfall, wenn beispielsweise eine einzelne Lichtquelle bei mehreren Personen unnatürliche Schattenwürfe erzeugt. Ein weiterer Indikator sind Ausfransungen an Pupillen, die in der Natur einen nahezu perfekten Kreis bilden. Entwickler:innen von KI-Systemen kennen diese Probleme und trainieren ihre Software gezielt, deswegen nehmen diese sogenannten semantischen oder physikalischen Spuren mit der Zeit stetig ab.
Anika: Wir befinden uns in einer Übergangsphase. Nach einer Nachbearbeitung per Hand – wie es zum Beispiel bei virtuellen Influencer:innen schon passiert – ist eskaum mehr möglich, KI-generierte Inhalte mit bloßem Auge zu erkennen. Deswegen ist unserer Ansicht nach jetzt das Momentum für eine technologische Lösung gegeben, die bei der Prüfung hilft.
»Künstliche Intelligenz hinterlässt eine Art Fingerabdruck im Hintergrundrauschen eines Bildes.«
Anatol Maier
Foto: Neuraforge
Wie geht eure Software, die ihr als Neuraforge AI entwickelt, bei der Analyse vor?
Anatol: Bei KI-Detektoren gibt es grundsätzlich zwei Ansätze. Der eine ist die Prüfung auf semantische Spuren, also visuell erkennbare Veränderungen. Da lassen sich Algorithmen entwickeln, die Widersprüchlichkeiten prüfen. Der zweite ist der Fokus auf statistische Merkmale, darauf legen wir unseren Schwerpunkt. Künstliche Intelligenz hinterlässt eine Art Fingerabdruck im Hintergrundrauschen eines Bildes. Diese Spur lässt sich aus den KI-Modellen schwer heraustrainieren, ohne das gewünschte Bild komplett zu degenerieren. Wenn Hersteller das wünschen, können sie diesen Fingerabdruck, den sie sowieso hinterlassen, um ein zusätzliches Element gezielt ergänzen. Dann hinterlassen sie eine Art unsichtbares Wasserzeichen.
Unsere Software erkennt diesen Fingerabdruck und erklärt, wie und warum er entstanden ist. Wir möchten möglichst viele Informationen ohne Wertung liefern. Was eine Person mit dieser Analyse macht, entscheidet sie selbst. Denn KI-generierte Inhalte sind nicht per se schlecht. KI-generierte Mood-Bilder etwa können für die Arbeit von Journalist:innen sinnvoll sein.
Wie ist euer Stand bei der Entwicklung des Tools?
Anatol: Wir arbeiten aktuell an einem Forschungsprototypen, für den wir eine Software für Anwender:innen entwickeln. Die größte Herausforderung für KI-Detektoren, die mit semantischen Spuren arbeiten, ist Bereiche abzudecken, die man selbst während des Trainings noch nie gesehen hat. KI sagt nie „Ich weiß es nicht“ – deswegen entstehen Halluzinationen. Bei unserem Ansatz haben wir eine Trefferquote von über 98 Prozent und können diese auch in unbekannten Bereichen halten. Wir ergänzen Metriken, die angeben, wenn das System keine zuverlässige Aussage treffen kann. Damit versuchen wir zu verhindern, dass unsere eigene Software halluziniert. Das ist zum Beispiel wichtig, wenn ganz neue KI-Modelle auf den Markt kommen. Dann müssen wir unsere Algorithmen prüfen und optimieren. Eine „One size fits all“-Lösung wird es nicht geben, im Zuge des technologischen Fortschritts werden wir immer Anpassungsbedarf haben.
Vielfältiger Einsatz: System für Redaktionssoftware und als Web-Solution
Wie lässt sich euer System in die Praxis von Medienschaffenden integrieren?
Anika: Da gibt es zwei Optionen. Einerseits sprechen wir mit Herstellern jeglicher Art von Archiv- oder Redaktionssoftware, um zum Beispiel eine Art automatisiertes Schlagwort-System für diese Systeme zu erstellen. Wir müssen wissen, wie die Daten verarbeitet werden, um eine Lösung zu liefern, die die Daten schon bei der Ankunft im System scannt. Andererseits arbeiten wir an einer Web-Solution, mit deren Hilfe Journalist:innen einzelne Bilder analysieren können. Das heißt: Man loggt sich online ein, lädt ein Bild hoch und erhält einen Prüfbericht.
Wie hilft euch das Media Lab Bayern dabei?
Anika: Wir haben selbst die Expertise bei der Software-Entwicklung, kennen uns aber im Start-up-Geschäft nur wenig aus. Hier ist die Unterstützung des Media Lab extrem wertvoll. Wir profitieren von dem Umfeld sowie den Kontakten und erhalten Inspiration. Dass wir unsere Idee erfolgreich pitchen konnten und jetzt die Förderung erhalten, gibt uns zusätzliche Motivation, ins Risiko zu gehen und in Vollzeit dieses neue Unternehmen voranzutreiben.
KI-Experte Jacques Alomo: „Man kann sich nicht entziehen“
Wie sehr bestimmt künstliche Intelligenz jetzt und in Zukunft unser Leben? Im Interview verrät KI-Experte Jacques Alomo, wo Mensch und Technologie an ihre Grenzen kommen.
Artikel lesen
Summ AI und Wortliga: So erreicht Sprache mehr Menschen
Komplexe Sprache vereinfachen: Das ist die Mission von Flora Geseke und Gidon Wagner, die mit ihren Unternehmen Summ AI und Wortliga Sprache für alle zugänglich machen wollen.
Artikel lesen
Mehr von XPLR: MEDIA in deinem E-Mail-Postfach
Der Newsletter von XPLR: MEDIA in Bavaria zeigt dir, wie innovativ der Medienstandort Bayern ist. Join the innovators!
Newsletter abonnieren