In diesem Leitfaden werden wir besprechen, was Deepfakes sind, wie sie Einzelpersonen und Institutionen ernsthaft schädigen können und wie Sie sich schützen und ihnen aus dem Weg gehen können.
Seit ihrem Erscheinen haben gefälschte Medien, bekannt als Deepfakes, Einzelpersonen, Unternehmen und Regierungen ins Visier genommen, was zu finanziellen Einbußen und Rufschädigungen führte. Angesichts der Tatsache, dass heute praktisch jeder mithilfe verfügbarer Softwareanwendungen ein Deepfake erstellen kann, ist potenziell jeder ein mögliches Ziel.
Es ist daher von Vorteil, ein Deepfake bereits auf den ersten Blick identifizieren zu können. Zusätzlich arbeiten Forscher daran, präzisere Methoden zur Erkennung von Deepfakes zu entwickeln, angesichts der weitreichenden Risiken, die Deepfakes in zahlreichen Bereichen darstellen können.
Deepfakes sind gefälschte Medieninhalte, die durch Manipulation einer Person in einem vorhandenen Bild oder Video mit Hilfe leistungsfähiger maschineller Lernmethoden erstellt werden.
Zum Beispiel zeigte ein gefälschtes Video aus dem Jahr 2018 Barack Obama, der Donald Trump zurechtwies, und wurde viral. Der Hauptzweck des Videos war es, die Folgen von Deepfakes und deren Macht aufzuzeigen. 2019 tauchte Mark Zuckerberg in einem gefälschten Video auf, in dem es um die Kontrolle von Milliarden von Benutzerdaten durch Facebook ging.
Der Begriff „Deepfake“ wurde durch die Kombination der Wörter „Deep Learning“ und „Fake“ gebildet, da er sich auf Deep-Learning-Architekturen stützt, einem Zweig des maschinellen Lernens und der künstlichen Intelligenz.
Sie werden durch Training mit Autoencodern oder GANs erstellt, um täuschend echte Medien zu erzeugen. Jeder kann ein Deepfake erstellen und die Menschen glauben lassen, dass es echt ist, wenn es das nicht ist, was der wirklich gefährliche Teil solcher gefälschter Medien ist.
Erstmals tauchten sie 2017 in einem pornografischen Video mit einer Berühmtheit auf und breiteten sich schnell in Bereichen wie Politik, Finanzen, Nachrichten usw. aus.
Viele Prominente haben sich im Internet in pornografischen Videos wiedergefunden, und politische Führungspersönlichkeiten wurden in den Nachrichten dabei beobachtet, wie sie Worte sagten, die sie nie zuvor gesprochen hatten.
Deepfake-Generierungstechniken erfordern normalerweise viele Bilder und Videos der Ziele. Personen des öffentlichen Lebens werden häufiger ins Visier genommen, weil im Internet große Datenmengen zur Verfügung stehen. Daher können Deepfakes den Ruf einer bekannten Person ernsthaft schädigen.
Heutzutage sind beliebte Deepfake-Softwareanwendungen wie FakeApp, DeepFaceLab, FaceSwap und ZAO für jeden leicht verfügbar, um ein Deepfake zu erstellen.
Deepfakes lassen sich hauptsächlich in verschiedene Kategorien einteilen:
Autoencoder und GANs sind die beiden Deep-Learning-Technologien hinter den bisher entwickelten Deepfake-Anwendungen.
Autoencoder werden hauptsächlich für Deepfakes mit Gesichtertausch verwendet. Um ein Deepfake-Video von jemandem zu erstellen, müssen Sie zunächst einen Autoencoder mit zwei Teilen trainieren: einem Encoder und einem Decoder.
Diese Technik verwendet normalerweise zwei Encoder- und Decoder-Paare. Sie müssen viele Bilder der beiden Personen, die Sie tauschen möchten, mit dem Encoder ausführen. Um diese Bilder realistischer zu gestalten, sollten sie aus Gesichtsaufnahmen aus verschiedenen Blickwinkeln und bei unterschiedlichen Lichtverhältnissen bestehen.
Während dieses Trainings extrahiert der Encoder die latenten Merkmale der Bilder oder reduziert sie auf eine latente Darstellung, die die Bilder komprimiert. Dann wird der Decoder die Bilder aus dieser latenten Bildrepräsentation rekonstruieren und wiederherstellen.
Angenommen, Sie haben das Bild einer Person Nummer 1 mit Decoder A trainiert. Decoder A rekonstruiert dann das Bild von Person Nummer zwei unter Verwendung der Merkmale von Person Nummer 1. Anschließend können Sie Decoder B verwenden, um dieses Bild wiederherzustellen.
Wenn Sie das Training abgeschlossen haben, tauschen Sie die beiden Decoder aus, um zwei verschiedene Bilder wiederherzustellen und letztendlich die Bilder auszutauschen. Die ZAO- und FakeApp-Software sind beliebte Swap-basierte Anwendungen, die bei der realistischen Bildgenerierung sehr effektiv sind.
GANs bestehen auch aus zwei Algorithmen: dem Generator und dem Diskriminator, die gegeneinander arbeiten. Zuerst erstellt der Generator neue Bilder aus der latenten Repräsentation des Ausgangsmaterials.
Der Diskriminator-Algorithmus versucht dann herauszufinden, ob das richtige Bild erzeugt wurde, um Fehler zu erkennen. Aus diesem Grund erstellt der Generator so realistische Bilder wie möglich.
Viele Deepfake-Dienste sind im Darknet zu finden.
Deepfakes können ernsthafte Bedrohungen für Einzelpersonen, Unternehmen und öffentliche Institutionen darstellen.
Es gibt Bereiche, in denen Menschen Deepfakes einsetzen, um ihre Produktivität zu steigern. Zum Beispiel haben Filmemacher und 3D-Videokünstler die Produktionszeit mit Deepfake-Techniken verkürzt. Sie können auch rein zur Unterhaltung eines größeren Publikums verwendet werden.
Aber das Hauptziel hinter der Mehrheit der Deepfakes besteht darin, das Publikum zu manipulieren und sie glauben zu machen, dass etwas passiert ist oder von jemandem gesagt wurde, das nie geschehen ist oder gesagt wurde.
Der Schöpfer fälscht die Daten und verbreitet falsche Informationen an viele Benutzer zu verschiedenen böswilligen Zwecken. Zum Beispiel:
Unter all diesen Beispielen können Deepfakes eine ernsthafte Bedrohung für die Persönlichkeit und den Ruf von Einzelpersonen, sensible Daten wie Finanzinformationen, Cybersicherheit, politische Wahlen und vieles mehr darstellen.
Dieser Missbrauch kann sich in Betrügereien gegen Einzelpersonen und Unternehmen äußern, auch in sozialen Medien.
Im Jahr 2019 berichtete das Wall Street Journal, dass der CEO eines britischen Energieunternehmens von einem Betrüger dazu gebracht wurde, 220.000 € telefonisch an einen ungarischen Lieferanten zu überweisen.
Der Betrüger soll Audio-Deepfake-Technologie verwendet haben, um die Stimme des CEO des Mutterunternehmens des Unternehmens zu imitieren und die Zahlung anzuordnen.
Audio-Deepfakes sind die am häufigsten verwendeten Arten von Deepfakes für Betrug, die die Menschen glauben lassen, sie sprechen mit einer vertrauenswürdigen Person. In den meisten Fällen gibt sich das Deepfake-Audio als ranghöhere Persönlichkeit eines Mitarbeiters aus, wie zum Beispiel ein CEO oder CTO.
Da aufgrund der COVID-19-Pandemie die Arbeit im Homeoffice zunimmt, steigt auch die Anzahl der Geschäftsaktivitäten über Videokonferenzen oder telefonisch, wodurch sie anfälliger für derartige Betrügereien werden.
Unternehmen sind aufgrund von Deepfakes einem hohen finanziellen Risiko ausgesetzt und gefährden ihr Image. Sie helfen unwissentlich Betrügern, Betrug zu begehen, der sie sogar in ungewollte Rechtsstreitigkeiten verwickeln kann.
Die biometrische Technologie wird in vielen Organisationen als sichere Zugangsmethode weit verbreitet eingesetzt. Deepfakes haben das Potenzial, erhebliche Auswirkungen auf diese Technologie zu haben, wenn sie kompromittiert werden.
Da Biometrie Zugang zu eingeschränkten Bereichen gewährt, ermöglicht die Kompromittierung von Gesichtsscannern unbefugten Zugang zu diesen Bereichen.
Deepfakes sind auf sozialen Medienplattformen beliebt und darauf ausgelegt, Reaktionen bei Menschen auszulösen und die Reichweite von Seiten zu maximieren. Angenommen, es gibt eine Facebook-Seite, die Deepfakes von politischen Persönlichkeiten oder Prominenten veröffentlicht und andere dazu bringt, empörte Kommentare abzugeben und Chaos zu stiften.
Außerdem, können Sie garantieren, dass jedes Profil mit einer echten Person verbunden ist? Vielleicht nicht. Das Profilbild, das Sie auf diesem Facebook-Konto sehen, könnte ein Deepfake sein. Wenn ja, ist wahrscheinlich auch das, was sie in ihrem Profil teilen, nicht echt.
Ein weiterer Bereich, der durch die Verwendung von Deepfakes bedroht ist, sind Manipulationen innerhalb der Politik. Die frei verfügbare Deepfake-Erstellungssoftware erleichtert das Erstellen und Verteilen unter einem breiteren Publikum.
Aufgrund dieses Vorteils kann jeder Deepfakes verwenden, um der Öffentlichkeit falsche Informationen zukommen zu lassen, um politische Vorteile zu erlangen, insbesondere während der Wahlzeiten.
Ein prominentes Beispiel ist die Verbreitung eines gefälschten Videos der amerikanischen Politikerin Nancy Pelosi in sozialen Medien. Sie schien zu sprechen, als wäre sie betrunken.
Auch der ehemalige amerikanische Präsident Donald J. Trump teilte das Video auf seinen Social-Media-Konten und hoffte, das öffentliche Image von Nancy Pelosi, seiner politischen Gegnerin, zu verändern. Das Video wurde in den sozialen Medien mehr als 2 Millionen Mal geteilt und angesehen.
Die Bedrohungen durch Deepfakes beschränken sich nicht nur auf politische Beziehungen zwischen Menschen eines Landes. Sie könnten sogar über nationale Grenzen hinausgehen und die Beziehung zwischen Ländern trüben.
For example, in 2020, the Australian Prime Minister, Scott Morrison, demanded an apology from China because of a fake tweet that showed an Australian soldier threatening to kill an Afghan child by holding a knife to his throat.
Zum Beispiel forderte der australische Premierminister Scott Morrison im Jahr 2020 eine Entschuldigung von China wegen eines gefälschten Tweets, der einen australischen Soldaten zeigte, der drohte, ein afghanisches Kind zu töten, indem er ein Messer an dessen Kehle hielt.
Das Bild löste im Internet Wut aus und beeinträchtigte vorübergehend die bilateralen Beziehungen zwischen der australischen und chinesischen Regierung. Daher haben viele Behörden die Notwendigkeit gezeigt, Deepfakes auf Social-Media-Plattformen zu kontrollieren, die politische Vorteile anstreben.
Mehrere Methoden können helfen, Deepfakes zu erkennen.
Wenn Sie jemanden in einem Video etwas Ungewöhnliches tun sehen, überprüfen Sie immer selbst die folgenden Merkmale. Denn Deepfake-Videos befinden sich noch in einer Phase, in der Sie den Unterschied erkennen können, indem Sie genau auf die folgenden Anzeichen achten:
Deepfakes sind zu einer der größten Bedrohungen für viele Menschen weltweit geworden. Mit der zunehmenden Nutzung von Social-Media-Inhalten werden Deepfake-Ersteller weiterhin qualitativ hochwertige Deepfakes entwickeln, die schwer zu erkennen sind.
Daher müssen Deepfake-Erkennungstechnologien ständig weiterentwickelt werden und Regierungen müssen den Einsatz von Deepfakes in sozialen Medien regulieren. Um solchen Fallen zu entkommen, stellen Sie sicher, dass Sie die in diesem Artikel aufgeführten Tipps befolgen.
Einige Leute fanden Antworten auf diese Fragen hilfreich
Wie viele Bilder benötigt man für ein Deepfake?
Die Genauigkeit und Qualität eines Deepfake-Bildes hängen stark von der Anzahl der Zielbilder ab, die zur Schulung des Deep-Learning-Modells verwendet werden. Die Bilder sollten auch eine breite Palette von Gesichtsmerkmalen aufweisen. Es ist besser, 300 bis 2000 Bilder des Gesichts zu verwenden, um die Bilder ordnungsgemäß zu rekonstruieren.
Sind Deepfakes legal?
Es gibt viele Gesetze in den USA, die die Verwendung von Deepfakes regulieren und überwachen. Zum Beispiel hat Kalifornien mit dem Verbot von Deepfakes experimentiert und ein Gesetz verabschiedet, das verhindert, dass sie Wahlen beeinflussen.
Wann wurde das erste Deepfake erstellt?
Das erste Deepfake wurde 2017 von einem Reddit-Benutzer erstellt, der sich selbst Deepfakes nannte, aber Forscher haben es erstmals 1990 erfunden.
Sind Deepfakes einfach zu erstellen?
Ja. Deepfake-Videos sind so einfach zu erstellen, dass jeder eines erstellen kann. Es gibt mehrere Deepfake-Erstellungssoftware wie FakeApp, DeepFaceLab und FaceSwap, und Sie finden eine Fülle von Tutorials, die Ihnen zeigen, wie Sie sie mit wenigen einfachen Schritten erstellen können.