11/04/2025 | News release | Distributed by Public on 11/04/2025 04:13
Im Interview spricht Lennart Grunau, Lead Consultant Cyber Security bei JAMORIE, über die wachsende Gefahr durch Deep Fakes, die Rolle von Künstlicher Intelligenz als Beschleuniger von Desinformation und die gesellschaftlichen wie wirtschaftlichen Folgen manipulierter Medieninhalte. Er erklärt, warum Unternehmen besonders wachsam sein müssen, welche kulturellen Veränderungen nötig sind, um Angriffen vorzubeugen, und weshalb Regulierung allein nicht ausreicht, um der Entwicklung zu begegnen.
Herr Grunau, Fakes gab es schon vor der KI - etwa Fotomontagen oder manipulierte Audioaufnahmen. Was unterscheidet moderne Deepfakes von früheren Formen gefälschter Medieninhalte, und inwiefern wirkt Künstliche Intelligenz hier als Beschleuniger oder gar als Katalysator dieser Entwicklung?
Manipulation von Medien gibt es, solange es Medien gibt. Die erste bekannte Fotoretusche stammt aus dem Jahr 1846, damals noch sehr analog und ohne kriminelle Energie.
Der Hauptunterschied zwischen modernen Deep Fakes und früheren Formen zeigt sich im mit der Erstellung verbundenen Aufwand. Während Fotoretuschen und Videobearbeitungen viel Können und jahrelange Erfahrung erfordern, gibt es für Deep Fakes erschreckend wenig Voraussetzungen: das Bildmaterial, ein wenig Vorstellungskraft und eine Kreditkarte.
Wie bei jeder Technologie wird auch die Häufigkeit von Deep Fakes zunehmen, je einfacher sie zu erstellen sind. Die einfache Zugänglichkeit und Erstellung werden auf jeden Fall dazu führen, dass Deep Fakes präsenter werden.
Manipulierte Medieninhalte können das Vertrauen in öffentliche Informationen massiv untergraben. Welche gesellschaftlichen Gefahren sehen Sie durch die Verbreitung von Deepfakes - insbesondere im Hinblick auf politische Einflussnahme und Fake News Kampagnen?
Fake News, falsche Berichterstattung oder die gute alte "Zeitungsente" gab es schon immer. Falsche Zitate und gefälschtes Audio- oder Videomaterial konnte man weit vor dem aktuellen Hype um Deep Fakes erstellen und veröffentlichen. Nichtsdestotrotz ist die oben beschriebene Zugänglichkeit moderner Deep Fakes natürlich erschreckend.
Die Medienlandschaft, aber vor allem die Gesellschaft, wird zwangsläufig lernen müssen, welche Medien und Berichterstattungen vertrauenswürdig sind - und welche nicht. Plattformen wie Mimikama zeigen deutlich, dass die Gesellschaft in der Lage ist, Fakes zu erkennen und andere zu warnen.
Außenpolitische Akteure nehmen seit vielen Jahren Einfluss auf politische und soziale Berichterstattung, mit teilweise beeindruckendem Erfolg. Durch realistisches wirkendes Bild- und Tonmaterial rechne ich damit, dass dies weiter zunehmen wird.
Neben der Zivilgesellschaft sind auch Unternehmen direkte Zielscheiben. Welche Formen von Schäden erleben Unternehmen aktuell durch Deepfake-Angriffe, und welche Branchen sind Ihrer Erfahrung nach besonders gefährdet?
Aktuell sind Deep Fakes hauptsächlich eine Weiterentwicklung des klassischen "Phishings". Anstelle einer E-Mail, die angeblich vom Chef kommt und in der dazu aufgefordert wird, einen Geldbetrag an ein ominöses Konto zu überweisen, gibt es nun ein täuschend echtes Telefonat, teilweise sogar mit Video. Die Ziele bleiben aber dieselben: Informationen, Zugangsdaten und finanzielle Mittel.
Hier sind natürlich besonders Unternehmen aus dem Finanzsektor interessant, allerdings würde ich keine Branche als "besonders ungefährdet" bezeichnen. Wie auch bei allen anderen Angriffen: Je niedriger die Hürden, desto höher die Chance, zum Ziel zu werden oder anders formuliert, "es kann jeden treffen".
Welche Kombination aus Technologien, Prozessen und Mitarbeitersensibilisierung halten Sie für am effektivsten, um Deepfake-Angriffe frühzeitig zu erkennen und abzuwehren?
Langfristig halte ich nur kulturelle und prozessuale Änderungen für effektiv. Ein Unternehmen, das schon immer autoritär und auf Befehl ("Der Chef sagt, der Mitarbeiter führt aus") geführt wurde, wird signifikant anfälliger sein als eines, in dem Kommunikation, selbstständiges Handeln und das Hinterfragen von Anweisungen nicht nur toleriert, sondern gewünscht sind.
Ebenfalls ist eine offene "Frage- und Fehlerkultur" ein Muss: Bei welchem Unternehmen wird ein Mitarbeiter bei einer Unsicherheit eher um Hilfe bitten: Bei einem, das sich über Nachfragen lustig macht ("Das sieht doch jeder, dass das ein Fake ist…") - oder dort, wo dem Mitarbeiter schnell und wertungsfrei eine Einschätzung und Hilfestellung gegeben wird?
Mehrstufige Verifizierung wird es nicht nur für Passwörter und Logins geben müssen, sondern auch für Entscheidungen. Codewörter oder "nie nur im Call"-Prozesse können in der Umsetzung helfen. Zusätzlich wird jeder Einzelne lernen müssen, mit den eigenen Daten sensibler umzugehen.
Regulatorik entwickelt sich meist langsamer als die Technik. Wie sehen Sie die zukünftige Rolle von Regulierung, Kennzeichnungspflichten und "Verified Source"-Labels im Umgang mit Deepfakes - und welche Lücken bestehen aktuell noch?
Regulatorik ist natürlich notwendig, jedoch verhindert sie keine Straftaten. Mit genug krimineller Energie können sämtliche Kennzeichnungspflichten, Labels, Wasserzeichen, etc. einfach umgangen oder entfernt werden. Die Tagesschau mag man verpflichten können, AI-generierte Inhalte zu markieren - einen Angreifer, der ein Unternehmen infiltrieren möchte, eher nicht.
Völlig unabhängig vom potenziellen Missbrauch von Deep Fakes halte ich es jedoch für extrem sinnvoll, AI-generierte Inhalte jedweder Art zu kennzeichnen. Dies führt nicht nur dazu, dass in der Zivilgesellschaft ein Bewusstsein über Deep Fakes geschaffen wird, sondern schult gleichzeitig auch.
Generell sehe ich die größten Risiken nicht in der (fehlenden) Regulatorik, sondern in der (nicht-technischen) Erkennung und dem Umgang mit Deep Fakes.