KI faked the video star

Videos zu manipulieren war nie einfacher. Sogenannte Deepfakes sind auch für aufmerksame Augen oder Ohren nicht mehr als Fälschung zu erkennen. Wie gehen wir damit um?
/

Hat sie das wirklich so gesagt? Ja, denn es gibt ein Video davon. Es ist noch gar nicht so lange her, da dachte kaum jemand daran, dass ein echt ausschauendes Bild manipuliert sein könnte. Heute ist auch jenen klar, was «photoshopped» bedeutet, die die Bildbearbeitungssoftware nie benutzt haben. Bei Video und Audio sieht das heute noch anders aus. Bis vor kurzem war die realistische Manipulation von Filmmaterial enorm aufwändig und deshalb vor allem Film- und Kunstproduktionen vorbehalten.

Beachtliche Qualität

Die Rezipienten gehen bei Videos meist davon aus, dass diese entweder Fiktion sind oder sich die Szenen tatsächlich so zugetragen haben. Künstliche Intelligenz (KI) ändert das gerade rasant. KI macht es heute möglich, Gegenstände, Gesichter und Stimmen in Videos und Audios auf einfache und schnelle Weise auszutauschen. Das Resultat, sogenannte Deepfakes, weisen eine beachtliche Qualität auf. Mit Apps und Websites wie Doublicat, Zao oder Deepfakes web β können auch wenig versierte Anwender*innen realistische Fälschungen von Videos erstellen. Mit den genannten Beispielen lässt sich vor allem harmloser Schabernack betreiben. Dass die Technologie aber weit mehr bewirken kann, haben Jan Böhmermann 2015 oder die Künstler Bill Posters und Daniel Howe 2019 eindrücklich bewiesen.

Bedeutung für Kommunikation

Deepfakes sind auch für Kommunikator*innen von Bedeutung. Ein überzeugendes Video des CEOs mit Aussagen, die er gar nie getätigt hat, kann ihn und sein Unternehmen in Verruf bringen. Mit Fake News, Bildbearbeitung und weiteren Faktoren schüren Deepfakes das Misstrauen gegenüber medialen Inhalten und Medien. Sie sorgen mitunter dafür, dass wir uns immer mehr Richtung Zero-Trust-Gesellschaft entwickeln. Wie sollen wir als Kommunikator*innen Deepfakes begegnen? Acht Vorschläge:

  • Fakten checken: Was für Medienschaffende und Rezipienten gilt, sollen auch Kommunikator*innen befolgen: Bewusstsein schärfen, hinterfragen, unterschiedliche Quellen beiziehen.
  • Verantwortung für Inhalte übernehmen: Was wir von Facebook, Twitter und Co. verlangen, müssen wir auch auf den von uns betreuten Plattformen und Kanälen durchsetzen. Wir müssen Fakes schnell erkennen und entsprechende Schritte einleiten.
  • Ein vertrauens- und respektvolles Verhältnis zu Journalisten pflegen: Dazu gehört auch, Fakten gründlich zu checken, bevor wir auf Geschichten aufspringen. Wo möglich sollten wir Redaktionen dabei unterstützen, Fakes zu erkennen.
  • Eigene Spielereien kennzeichnen: Verwenden wir selber Deepfakes, kennzeichnen wir sie klar als solche.
  • Technologien einsetzen (sobald sie vorhanden sind): Ironischerweise wird uns wohl KI dabei helfen, manipulierte Videos zu erkennen. Technologiefirmen arbeiten an KI-basierten Tools, die Inhalte überprüfen und Fälschungen erkennen. Ein anderer vielversprechender Ansatz setzt auf Blockchain, um die Herkunft und eventuelle Manipulationen von Videos, Bildern und Audio jederzeit nachvollziehen zu können.
  • Klare Prozesse in der Krisenkommunikation: Mit klaren Prozessen für Krisenfälle können wir kritische Inhalte schneller erkennen, auf ihre Echtheit prüfen und umgehend Massnahmen einleiten.
  • Über Ethik sprechen: Wir sehen technologischen Fortschritt als Möglichkeit, die Welt unter Kontrolle zu bringen und sie nach unserem Willen zu gestalten. Die Diskussion um Ethik und Regulierung in der Technik müssen wir zwingend um existentielle Fragen erweitern.Was sind die moralischen Kosten technologischer Entwicklung? Wie wollen wir in Zukunft auf die Versprechen der Technologie reagieren? Im Falle von Deepfakes müssen wir uns nicht nur fragen, wie wir mit ihnen umgehen wollen. Mindestens genauso wichtig ist der Aspekt, warum überhaupt jemand dachte, Deepfakes seien eine gute Idee.
  • Umfeld gestalten: Alleine Technologien die Schuld für unethische Fakes zu geben, greift zu kurz. Kommunikator*innen, Medienschaffende, -konsumenten, Politiker*innen – wir sind dafür verantwortlich, ein Umfeld zu schaffen, in dem Lügen nicht gedeihen können.

Alles schlecht?

Nach so viel Angst und Pessimismus gilt es festzuhalten, dass sich die Deepfake-KI nicht ausschliesslich für niedere und alberne Zwecke einsetzen lassen. Neben allerhand Möglichkeiten in der Kunst, kann die Technologie auch Leben verbessern. So kann man mit künstlicher Intelligenz beispielsweise Stimmen von Menschen wiederherstellen, die diese durch Krankheit verloren haben.

Weiterführend

Blockchain und Kommunikation: Kommt bald die Revolution?

Generation Smartphone ist Online-Journalismus etwas wert

European Communication Monitor: den Puls der Branche fühlen

Titelbild by Defri Enkasyarif on Unsplash

  • Kategorien
  • Tags

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* Pflichtfelder