Deepfake for Future? Eine Stippvisite.

Von

Elisa Su

Allgemein-Legal Tech-MLTech Updates

[vc_row][vc_column][vc_column_text]verfasst von Nicolas Bodenschatz

„Hände hoch, wir haben Deepfake!“

Am 16.03.2022 und damit einen knappen Monat nach dem russischen Überfall auf die Ukraine verbreitet sich eine Videobotschaft des ukrainischen Präsidenten Selenskyj: Die Verteidigung sei gescheitert und ein Morgen existiere nicht. Von seinem Amt trete er zurück und allen Ukrainern rate er, die Waffen niederzulegen und zu ihren Familien zurückzukehren.[1] Dass Wolodymyr Selenskyjs Stimme in der Botschaft auffallend hölzern klingt und sein Gesicht fast wie auf den Hals geklebt aussieht, könnte einer kriegserschütterten Bevölkerung und verzweifelten Soldaten nur allzu leicht entgehen.

Fake-Videos wie dieses sind kein Einzelfall, sondern eine KI-gestützte Methode digitaler Kommunikation, die zunehmend Anwendung findet und Forschung wie Gesetzgeber herausfordert. Die Rede ist von „Deepfakes“. Deepfake, wie das Pseudonym des Reddit-Nutzers, der 2017 erstmals einen Programmcode teilte, der es dem Nutzer erlaubte, die Gesichter bekannter Schauspielerinnen mit teils realistischer Mimik in den Lieblings-Pornofilm einzufügen. „Deep“, wie die zugrunde liegende Technologie Deep Learning und „fake“, wie Fälschung.

Neuer Wein in alten Schläuchen?

Freilich ist die Manipulation von Bild- und Audioinhalten zunächst nichts Neues. Drei technische Durchbrüche der letzten Jahre verhalfen diesen Techniken allerdings auf die nächste Stufe: Automatische Gesichtserkennung erlaubte ein systematisches Erfassen von Mimik, während das Internet immer größere Mengen an Audio- und Bildmaterial bereitstellt. Kombiniert mit Software, welche die automatische Erkennung von Bild-Manipulation ermöglicht, erhalten Deepfake-Programme während ihres Trainings Feedback, um aus bisherigen Mängeln zu lernen und so eine Qualitätssteigerung zu erreichen. Und wo es zur glaubhaften Manipulation früher noch einiger Erfahrung und eines geschulten Blicks bedurfte, reicht heute eine frei verfügbare App und ein wenig Ausgangs-Bildmaterial.[2]

Deepfakes sind somit besonders wirkmächtige Fälschungen, da Personen Aussagen schlechthin in den Mund gelegt werden oder ihnen kriminelle Handlungen durch vermeintlich kompromittierende Videos angedichtet werden können. Wie effektiv ein solches Video zur Einflussnahme auf eine Wahl oder zur Diskreditierung einer unliebsamen Journalistin[3] sein kann, liegt auf der Hand. Auch wurde bereits durch eine Deepfake-Audiodatei versucht, in einem Sorgerechtsstreit vor britischen Gerichten die Gewalttätigkeit eines Vaters zu beweisen – ein Umstand, welcher nur durch die technische Finesse der Gegenanwälte aufgedeckt wurde.[4]

Es ist nicht alles schlecht.

Zwar könnte man durch eine schlichte Google-Suche, die obige Aufzählung noch lange (und recht unterhaltsam) fortsetzen. Ein einseitiger Fokus auf unerwünschte Deepfake-Anwendung verstellt einem jedoch die Sicht auf zahlreiche sinnvolle Einsätze: So kann etwa auch im Wege des „Dubbings“ bei der Synchronisation von Filmen die Mimik der Schauspieler angepasst werden, um authentischere Versionen abseits der Original-Sprache zu schaffen. Auch im Bereich der (politischen) Satire eröffnet die Technik neue Möglichkeiten wie öffentlichkeitswirksame Auftritte von Barack Obama[5] und Queen Elisabeth II[6] – jeweils in Fake-Versionen – bereits eindrucksvoll zeigten. Und da die Sinnhaftigkeit neuer Technologien zuletzt immer mit Vorteilen für die menschlichen Gesundheit gerechtfertigt wird, so möchte ich auch hier – der Tradition halber – auf die künstliche Rekonstruktion der Stimme von Patienten hinweisen, die sich in Sprachtherapie befinden oder ihre Stimme bereits ganz verloren haben.

Dass diese sinnvollen Potenziale gegenüber den neuen Gestaltungsräumen für Fake News und Verleumdung in der öffentlichen Debatte häufig übersehen werden, dürfte nicht zuletzt an der negativen Konnotation des Überbegriffs Deepfake liegen. Vor dem Hintergrund der zahlreichen Anwendungsbereiche muss jedoch festgestellt werden: Deepfake eröffnet primär neue Kanäle für Meinung, Kunst, Bildung und Kommunikation und ist damit aus einer technikneutralen Perspektive zu beurteilen.

Wohin mit Deepfake?

Dass der Einsatz von Deepfake zwar vielfältig von nationalen wie europäischen Grundrechten geschützt ist, seine missbräuchlichen Anwendungen allerdings eine Regulierung rechtfertigen, erkannte auch die EU: Bereits der Entwurf für ein Gesetz über Künstliche Intelligenz aus dem April 2021 stufte Deepfake zwar als wenig riskant ein, legte seinen Nutzern jedoch in Art. 52 Abs. 3 UAbs. 1 zumindest grundsätzlich eine Transparenzpflicht auf. Diese Pflicht entfällt jedoch insbesondere da, wo der Einsatz von Deepfake zur Ausübung der Kommunikationsgrundrechte „erforderlich“ ist und Dritte durch „geeignete Schutzvorkehrungen“ anderweitig geschützt sind, Art. 52 Abs. 3 UAbs. 2 Alt. 2. Folglich bedarf es hiernach einer Einzelfallabwägung, ob ein konkreter Deepfake kenntlich zu machen ist.

Obwohl dieser Ansatz nachvollziehbar ist, so wird seine Wirksamkeit von der Auslegung (oder der Nachschärfung) des Entwurfs abhängen: Welche Anforderungen stellt der Entwurf an die Kenntlichmachung von Deepfakes? Wann sind Deepfakes zur Meinungskundgabe wirklich „erforderlich“? Ist der Nutzer von Deepfakes – daher regelmäßig ein Laie – tatsächlich ein sinnvoller Adressat der Transparenzpflicht oder sollte die Pflicht nicht jenen auferlegt werden, die Deepfake-Programme zur Verfügung stellen?

Dass diese Debatte aktuell in vollem Gange ist, zeigt auch der durch das Europäische Parlament im Januar 2022 nachträglich in den Gesetzesentwurf über Digitale Dienste aufgenommene Art. 30 a. Dieser würde nun auch sehr große Online-Plattformen verpflichten, authentisch scheinende Deepfakes als manipulierte Inhalte kenntlich zu machen. Ob auch diese Regelung Gegenstand der am 23.04.2022 zwischen dem Parlament und dem Rat erzielten Einigung ist und es damit mit in das Gesetz schaffen wird, ist allerdings noch nicht bekannt und bleibt damit abzuwarten.

Hype oder Fake New World?

Wer vor diesem Hintergrund das gefälschte Selenskyj-Video sieht, mag sich zurecht wundern, warum dieser Fake doch eher stümperhaft gemacht wurde und mit bloßem Auge als solcher zu erkennen ist. Deepfakes werden allerdings von Jahr zu Jahr authentischer und auch für Experten mit entsprechender Software immer schwerer zu identifizieren. Empirische Studien legen zudem nahe, dass auch schlechte Deepfakes (sogenannte Cheapfakes) von durchschnittlichen Betrachtern häufig nicht erkannt werden und damit meinungsbeeinflussend sind (Stichwort confirmation bias).

Mit Spannung ist daher abzuwarten, ob die EU jenseits der entworfenen Transparenzpflichten, weitere Maßnahmen ergreifen wird. Dies dürfte maßgeblich von der technischen Weiterentwicklung von Deepfake, der öffentlichen Debatte und einem gesellschaftlichen Bewusstsein für das Problem abhängen.


[1] https://www.youtube.com/watch?v=X17yrEV5sl4 [10.05.2022].

[2] Wer sich für die zahlreichen technischen Spielarten der letztendlichen Bearbeitung der Videos interessiert – von „Facial Expression Manipulation“ bis „Full Body Puppetry“ – sei auf den umfangreichen Bericht des Wissenschaftlichen Dienstes des Europäischen Parlaments verwiesen (https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf) [10.05.2022].

[3] https://www.huffingtonpost.co.uk/entry/deepfake-porn_uk_5bf2c126e4b0f32bd58ba316 [10.05.2022].

[4] https://www.brightonandhovelaw.co.uk/news/the-dangers-of-doctored-deep-fake-evidence-that-is-being-submitted-to-courts/ [10.05.2022].

[5] https://www.youtube.com/watch?v=cQ54GDm1eL0 [10.05.2022].

[6] https://www.youtube.com/watch?v=IvY-Abd2FfM [10.05.2022].


Ãœber den Autor

Nicolas studiert Jura an der Ludwig-Maximilians-Universität sowie Politics & Technology (M.Sc.) an der Technischen Universität München. Aktuell beschäftigt ihn seine Masterarbeit zur zukünftigen Regulierung von Deepfakes nach dem Artificial Intelligence Act der EU. Seine Freizeit enthält Bergtouren, russische Romane sowie Wassermelonen-Salat zu gleichen Teilen und wird in einem Tumbler serviert.

Tags:

No responses yet

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert