Fake News könnte eine neue Dimension einnehmen, nämlich die von Deepfakes. Mittels künstlicher Intelligenz können Gesichter in Videos verändert werden. Dieses Phänomen taucht bereits in der Pornografie auf, könnte aber bald den Informationsjournalismus treffen.
Von Clement Girardot
Stellen Sie sich ein kompromittierendes Video eines Bundesratskandidaten vor, das am Tag vor der Wahl veröffentlicht würde und das Ergebnis änderte. Dieses Szenario ist bereits möglich. «Ich denke, die Auswirkungen von Deepfakes werden erst richtig sichtbar sein, wenn bei einer politischen Wahl ein manipuliertes Video auftaucht», sagt Gérald Holubowicz, Digital Product Manager bei der Zeitung «Libération». Es werde nur ein einziges katastrophales Ereignis brauchen, damit alle aufwachen würden, genau wie bei den Fake News.
Deepfakes, ein Sammelbegriff, der «Deep-Learning» und das Adjektiv «fake» kombiniert, sind Videos, die mit automatischen Lernalgorithmen erstellt werden, womit man Gesichter austauschen oder den Ausdruck von Lippen, Gesicht und Körper verändern kann. Bekannt geworden sind diese Video-Manipulationen bereits durch das Einfügen von Gesichtern prominenter Hollywood-Schauspielerinnen in Porno-Videos. Es ist damit zu rechnen, dass die Technik in Zukunft noch deutlich ausgefeilter sein wird.
«Meine Schüler gehören zur digitalen Generation, aber auch sie sind verblüfft.», sagt Jean-Hugues Roy, Professor für Journalismus an der Université du Québec in Montreal. Er untersucht Deepfakes in seinen Kursen, einschliesslich des Videos, das von Buzzfeed letzten Februar erstellt wurde. In diesem Video spricht Barack Obama täuschend echt über Falschnachrichten und bezeichnet dabei den amtierenden Präsidenten Donald Trump als «totalen und kompletten Vollidioten». Gesprochen aber hat in Wirklichkeit Schauspieler Jordan Peele, dessen Mundbewegung und Mimik auf das Video mit Obama übertragen wurde.
«Glaubwürdige» Manipulationen. «Ich zeige den Schülern auch eine Technologie, die von einem kleinen kanadischen Startup namens Lyrebird entwickelt wurde», sagt der Professor. Sie lesen etwa dreissig Sätze auf Englisch, und das Tool ist in der Lage, ein Audio mit ihrer Stimme zu erzeugen, die jeden Text liest. «Die Ergebnisse scheinen sehr real, es ist nicht notwendig, ein Special-Effect-Spezialist zu sein oder ein Hollywood-Budget zu haben, um glaubwürdige Manipulationen durchzuführen.»
Die Erstellung von Deepfakes ist einfach. Das Gesicht des argentinischen Präsidenten, ersetzt durch das von Hitler, jenes von Angela Merkel durch das von Donald Trump, die aktuelle Praxis scheint vor allem parodistisch zu sein. Aber die Anforderungen an die Redaktoren sind hoch. Um Deepfakes zu identifizieren, könnte ein erster Reflex darin bestehen, die betreffende Person zu kontaktieren und die Quelle des Videos zu überprüfen. Ein zweiter Schritt wäre eine technische Analyse der verschiedenen Quellen, eine potenziell langwierige Aufgabe, die jedoch mithilfe der Technologie automatisiert werden könnte.
«Meine Schüler gehören zur digitalen Generation, aber auch sie sind verblüfft.»
Die Rolle der Journalisten wird sich nicht nur darauf beschränken, Lügen zu dekonstruieren: «Da es Deepfakes gibt und sie jetzt bekannt sind, könnten Persönlichkeiten, welche wegen einer Audio- oder Videoaufnahme belangt werden, behaupten, es handle sich um eine Fälschung, die erstellt worden sei, um ihnen zu schaden», sagt Jean-Hugues Roy.
Bekämpfung noch in den Anfängen. Ein weiterer Ansatz wäre daher, die Authentizität des Inhalts zu gewährleisten, sobald er erfasst wird: «Wir müssen einen Standard entwickeln, der auf der Blockchain basiert und es jedem ermöglicht, zu überprüfen, woher Informationen kommen, unabhängig davon, über welchen Kanal sie ihn erreichen – Social Media, Apps wie WhatsApp und so weiter», stellt sich der Professor aus Quebec vor. «Es müssen Partnerschaften zwischen Geräteherstellern, Inhaltsproduzenten und Sendern geschlossen werden, um die Zertifizierung zu gewährleisten», sagt Gérald Holubowicz.
Während in den französisch- und deutschsprachigen Medien die Strategien zur Identifizierung und Bekämpfung von Deepfakes noch in den Kinderschuhen stecken, mehren sich die Experimente in der angelsächsischen Welt. TruePic- und Serelay-Anwendungen ermöglichen bereits bei der Aufnahme des Bildes die Authentifizierung von Inhalten, so dass Veränderungen erkannt werden können. Forscher der New York State University haben einen Algorithmus entwickelt, um Passagen zu identifizieren, bei denen die Augen der Menschen nicht normal blinzeln.
Wettrüsten. «Wenn Sie einen Algorithmus haben, der Nichtblinzeln erkennt, wird jemand einen Algorithmus entwickeln, der dieses Blinzeln verursacht. Es ist ein wahres Wettrüsten», sagt Steven Meyer, Gründer der Genfer Firma ZENData. Der Cyber-Sicherheitsexperte verlässt sich bei der Beantwortung des Problems mehr auf das kritische Denken der Bürgerinnen und Bürger: «Wir haben gelernt, dass auf Facebook nicht alles wahr ist, jetzt muss man auch Videos gegenüber skeptisch sein und berücksichtigen, dass sie gefälscht sein können.»
3 Kommentare
Ihr Kommentar