Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Wenn prominente für dubiose Investments werben

Beim Face-Swapping wird das Gesicht einer Zielperson in das eines Angreifers eingefügt, wobei der Gesichtsausdruck des Angreifers beibehalten werden soll. (Quelle: brgfx/Freepik Zusammenstellung: BSI)

Beim Face-Swapping wird das Gesicht einer Zielperson in das eines Angreifers eingefügt, wobei der Gesichtsausdruck des Angreifers beibehalten werden soll. (Quelle: brgfx/Freepik Zusammenstellung: BSI)

 

Der europäische IT-Sicherheitsanbieter ESET warnt vor einer aktuellen Deepfake-Betrugskampagne, die arglose Internetnutzer um ihr Geld bringen soll. Deutsche Nutzer gehören zu den Hauptzielen. Die mutmaßlich aus Russland oder der Ukraine stammenden Kriminellen verbreiten seit Mai 2024 verstärkt Online-Werbung, die mit Hilfe von Deepfakes zu Investments auffordert.

 

Die Hacker erstellen Videos, in denen bekannte Persönlichkeiten und Unternehmer wie der Vorsitzende der CDU, Friedrich Merz, der Mitbegründer von SAP, Dietmar Hopp oder Experten der ARD revolutionäre Investment-Produkte mit sagenhaften Gewinnmöglichkeiten bewerben. Ihr Versprechen: hohe Gewinne bei minimalem Einsatz. Die Kriminellen gehen dabei sogar so weit, dass diese Fake-Videos den Eindruck erwecken, in seriösen Nachrichtensendungen eingebettet zu sein wie zum Beispiel der Tagesschau. Die Kampagne spricht in ähnlicher Form Nutzer in anderen Staaten an, darunter Kanada, Japan, Südafrika und den Niederlanden. "Politiker und andere Personen des öffentlichen Lebens sind eine wahre Goldgrube für KI-Betrüger", sagt ESET-Forscher Ondrej Novotny, der bei der Entdeckung der Kampagne beteiligt war. "Von ihnen existiert eine Fülle an Bildern, Videos und Audioaufnahmen, mit denen sie ihre KI-Werkzeuge füttern können. Das Ergebnis: Eine bekannte Persönlichkeit gibt eine scheinbar seriöse Empfehlung, wie man sein Geld am besten anlegt."

 

Fake-Videos von Friedrich Merz, der Lufthansa und SAP-Gründer Dietmar Hopp im Umlauf

Als Grundlage für ihre Fake-Videos nutzten die Hacker echte Nachrichtenbeiträge. Mit diesen Daten trainierten sie die KI-Software, um einen neuen Beitrag zu erstellen. Die Sprecher in den neuen Videos bewerben nun eine dubiose Investment-Plattform namens Immediate Matrix. Ihr Versprechen: Selbst Nutzer ohne Vorkenntnisse können Gewinne in Höhe von mehreren tausend Euro erzielen, wenn sie nur wenige hundert Euro investieren.

 

Die Hacker haben ihre zu fälschenden Beiträge sorgfältig ausgewählt:

 

* Friedrich Merz, der in der Vergangenheit auch bei Investmentgesellschaften tätig war, kann als seriöser Ratgeber in Finanzfragen gesehen werden. Zudem vertritt er wirtschaftsliberale Standpunkte. Durch seine Expertise in Wirtschaftsfragen haben ihn die Kriminellen gezielt für ihre Betrugskampagne ausgewählt.

 

* Der Nachrichtenbeitrag über die Lufthansa klingt zunächst plausibel: Nach einer Verdopplung der Gewinne im Vergleich zum Vorjahr raten ein ARD-Nachrichtensprecher und ein Wirtschaftsexperte zu Investments. Echte Einspieler aus dem Originalbeitrag sollen für zusätzliche Glaubwürdigkeit sorgen.

 

* SAP-Gründer Dietmar Hopp gilt als einer der reichsten Deutschen und erfolgreicher Unternehmer. In seinem Deepfake-Video preist er die Effizienz der Investment-Plattform an und erklärt, aus Überzeugung selbst in das Unternehmen hinter der Plattform investiert zu haben.

 

Fallen Nutzer darauf herein und investieren, ist ihr Geld weg. In anderen Ländern, in denen die Kampagne aktiv war, folgten zudem Anrufe an Kunden, die sie einschüchtern und zu höheren Investments drängen sollten.

 

Wie man Deepfakes erkennt

"Die Deepfakes in dieser Kampagne sind oft von schlechter Qualität und weisen keine korrekte Lippensynchronisation auf. Dies schreckt Betrüger aber nicht vom Einsatz ab, weil sie nur einen winzigen Bruchteil der Empfänger benötigen, die auf die Masche hereinfallen und die geforderte Summe überweisen. Das ist leicht verdientes Geld und erfordert nur geringe Investitionen auf Seiten der Kriminellen", erklärt Novotny weiter.

 

Dazu gehören:

* Sprache: Sprecher in Deepfake-Videos klingen oft monoton. Echte Menschen betonen bestimmte Worte in Sätzen, wohingegen ihre gefakten Imitate oft die gleiche Stimmlage und Betonung nutzen. Zudem sprechen sie manche Worte falsch aus, insbesondere bei Fremdwörtern und englischen Begriffen machen KI-Werkzeuge noch Fehler. Auch bei der persönlichen Anrede ("Du" oder "Sie") kommen KI-Lösungen oft durcheinander.

 

* Mimik/Gestik: Menschen unterlegen das Gesprochene mit einer passen Mimik und Gestik. Wird eine neue Aussage über ein bestehendes Video gelegt, passt diese nicht mehr zu den Bewegungen des Sprechers – die Aufnahme wirkt unnatürlich.

* Bildstörungen: Fehlerhafte Schattenwürfe im Gesicht oder andere Bildfehler sind ein guter Hinweis, dass es sich um einen Fake handelt.

 

Weitere Informationen dazu, wie man Deepfakes erkennt, stellt das Bundesamt für Sicherheit in der Informationstechnik bereit.

 

Siehe auch:

https://www.tagesschau.de/wirtschaft/unternehmen/lufthansa-milliarden-gewinn-reiselust-ticketpreise-aktie-100.html

https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html

 

Zurück