Deepfakes in der Finanzwelt: Eine wachsende Bedrohung für Vertrauen und Sicherheit – Erkenntnisse aus dem FS-ISAC-Bericht

Die zunehmende Verbreitung und Entwicklung von Deepfake-Technologien stellt eine wachsende Bedrohung für die Finanzbranche dar. Diese fortschrittliche Form der digitalen Manipulation kann reale Szenen und Stimmen nachahmen und ist damit ein mächtiges Werkzeug für Betrüger und Kriminelle. Ein aktueller Bericht des FS-ISAC mit dem Titel „Deepfakes im Finanzsektor: Die Bedrohungen verstehen, die Risiken managen“ beleuchtet diese Gefahren und gibt wertvolle Ratschläge, wie sich der Finanzsektor gegen diese Bedrohungen wappnen kann. Gleichzeitig gibt eine Studie von Regula Einblick in die finanziellen Auswirkungen von Deepfake-Betrug.

Laut der neuesten Studie von Regula belaufen sich die durchschnittlichen Verluste durch Deepfake-Betrug im Finanzsektor auf über 600.000 USD pro Unternehmen. Fintech-Unternehmen meldeten durchschnittliche Verluste von 637.000 USD, während traditionelle Banken Verluste von rund 570.000 USD meldeten. Besonders alarmierend ist, dass 23% der befragten Finanzorganisationen aufgrund von KI-generiertem Betrug Verluste von mehr als $1 Million erlitten – das Doppelte des weltweiten Durchschnitts.

Auch diese finanziellen Belastungen variieren je nach Region. Die höchsten durchschnittlichen Schäden verzeichnete Mexiko mit 627.000 USD, gefolgt von Singapur mit 577.000 USD und den USA mit 438.000 USD. In Deutschland betrugen die Schäden durchschnittlich 394.000 USD, was die globale Dringlichkeit robuster Sicherheitsstrategien unterstreicht.

Diskrepanz zwischen Vertrauen und Realität

Zwar gaben 561 Prozent der befragten Unternehmen an, dass sie sich in ihrer Fähigkeit, Deepfakes zu erkennen, sicher fühlten, doch nur 61 Prozent konnten tatsächlich finanzielle Verluste durch derartige Angriffe vermeiden. Diese Diskrepanz zeigt, dass viele Unternehmen ihre Fähigkeit, sich gegen komplexe Deepfake-Angriffe zu schützen, überschätzen. Der Bedarf an effektiven Schutzmaßnahmen ist also groß.

Deepfake-Betrug im Finanzsektor: Szenarien und Risiken im Detail

Die Verbreitung von Deepfakes im Finanzsektor erschwert zunehmend die Absicherung digitaler Identitäten und Transaktionen. Diese oft täuschend echt wirkenden technologischen Fälschungen bieten Kriminellen vielfältige Angriffsmöglichkeiten. Der Bericht „Deepfakes im Finanzsektor: Die Bedrohungen verstehen, die Risiken managen“ des FS-ISAC gibt detaillierte Einblicke in die spezifischen Bedrohungen und die Anfälligkeit der Branche für derartige Manipulationen. Im Folgenden beleuchten wir die verschiedenen Deepfake-Szenarien und analysieren die potenziellen Risiken für Finanzinstitute.

1. Identitätsbetrug und Angriffe auf Führungskräfte

Die Nachahmung hochrangiger Führungskräfte wie CEOs oder CFOs, die in vielen Unternehmen weitreichende Entscheidungs- und Zugriffsrechte haben, ist derzeit die gängigste Methode. Angreifer verwenden Deepfakes, um Audio- oder Videodateien zu erstellen, in denen diese Führungskräfte scheinbar Anweisungen erteilen oder Finanztransaktionen genehmigen. Ein Beispiel aus dem FS-ISAC-Bericht zeigt, wie ein Angreifer in einer Zoom-Konferenz einen falschen CFO verwendete, um eine Überweisung von 25 Millionen Dollar auszulösen.

Da immer mehr öffentlich zugängliches Material über Führungskräfte verfügbar wird, wird es für Angreifer einfacher, Deepfakes zu erstellen, die für Mitarbeiter echt aussehen. Finanzinstitute sollten daher bei Anfragen von C-Level-Führungskräften besonders auf ungewöhnliche Kommunikationskanäle achten und mehrstufige Verifizierungsprozesse einführen, um solche Angriffe abzufangen.

2. Betrug am Endkunden durch Manipulation biometrischer Daten

Viele Finanzinstitute verlassen sich heute auf biometrische Verifizierungsmethoden wie Stimm- oder Gesichtserkennung, um Kundenkonten zu sichern. Die Deepfake-Technologie eröffnet jedoch neue Möglichkeiten, diese biometrischen Systeme zu umgehen. Betrüger können synthetische Stimmen oder Gesichtsdaten verwenden, um sich erfolgreich als legitime Kunden auszugeben und Finanztransaktionen durchzuführen. Der Bericht beschreibt, wie Deepfake-Stimmen verwendet werden können, um Stimmverifizierungssysteme auszutricksen und Geld von Bankkonten abzubuchen.

Das Risiko für Finanzdienstleister ist hier besonders hoch, da die Manipulation biometrischer Merkmale bislang als sehr sicheres Mittel zur Verifizierung galt. Deepfake-Technologien untergraben diese Sicherheit jedoch und gefährden daher das Vertrauen der Kunden. Um diesem Risiko entgegenzuwirken, empfehlen Experten, neben biometrischer Authentifizierung auch Verhaltensanalysemechanismen und Multi-Faktor-Authentifizierung einzusetzen, wie es im FS-ISAC-Bericht beschrieben wird.

3. Marktmanipulation durch Fake News und Events

Ein weiteres Risiko für den Finanzsektor liegt in der Verwendung von Deepfakes zur gezielten Marktmanipulation. Deepfake-Videos, die marktbeeinflussende Ereignisse simulieren, stellen eine reale Bedrohung dar. Ein Beispiel aus dem Jahr 2023 zeigt, wie ein gefälschtes Video einer Explosion im Pentagon über soziale Medien verbreitet wurde und den Dow Jones innerhalb von Minuten um 85 Punkte fallen ließ. Solche Fake News können gezielt eingesetzt werden, um Panikverkäufe oder künstliche Kursanstiege hervorzurufen, wodurch Angreifer erhebliche finanzielle Gewinne erzielen können.

Diese Art der Bedrohung zielt darauf ab, das Vertrauen der Öffentlichkeit und der Anleger zu untergraben und Marktbewegungen zu beeinflussen. Finanzinstitute sollten sich daher auf schnelle und wirksame Maßnahmen zur Erkennung von Fake News konzentrieren und eng mit sozialen Netzwerken und Nachrichtendiensten zusammenarbeiten, um die Verbreitung von Deepfakes zu verhindern oder zu verlangsamen.

4. Social Engineering durch Deepfake-basierte Phishing-Angriffe

Auch Voice-Phishing- oder Vishing-Angriffe stellen ein zunehmendes Risiko dar. Dabei werden per Deepfake generierte Stimmen verwendet, um vertraute Personen zu imitieren und Opfer dazu zu bringen, sensible Daten herauszugeben oder bestimmte Aktionen auszuführen. Der Bericht beschreibt, wie Deepfake-Stimmen in gezielten Telefonanrufen eingesetzt wurden, um Mitarbeiter dazu zu bringen, vertrauliche Informationen preiszugeben oder Transaktionen zu autorisieren. Besonders gefährdet sind Mitarbeiter im Kundenservice und IT-Support, da diese Positionen regelmäßig mit Anfragen und Identitätsprüfungen zu tun haben.

Das Risiko solcher Deepfake-Angriffe wird durch die zunehmende Professionalität und Realitätsnähe der Fake-Stimmen noch weiter verschärft. Da derartige Angriffe gezielt auf das menschliche Vertrauen abzielen, sollte sich der Finanzsektor stärker auf die Schulung seiner Mitarbeiter und spezifische Schulungsmaßnahmen konzentrieren, um das Bewusstsein für derartige Bedrohungen zu schärfen.

5. Gefälschte Ausweisdokumente und Anwerbungsbetrug

Ein weiteres Szenario betrifft die Erstellung gefälschter Ausweisdokumente mithilfe der Deepfake-Technologie, was zu Schwachstellen bei Einstellungs- und Authentifizierungsprozessen führen kann. Der Bericht beschreibt, wie ein Deepfake als Identitätsnachweis verwendet wurde, um Zugang zu finanziellen Mitteln zu erhalten oder sich auf betrügerische Weise eine Anstellung zu verschaffen. Unternehmen berichten zudem von Fällen, in denen Deepfakes eingesetzt wurden, um Compliance-Anforderungen zu umgehen, etwa um Personen unbemerkt in Schlüsselpositionen zu integrieren.

Besonders betroffen sind Bereiche wie die Kundenauthentifizierung und der Antragsprozess, bei denen zunehmend auf digitale Identitätsprüfung zurückgegriffen wird. Das FS-ISAC empfiehlt Finanzinstituten daher, strenge Kontrollen durchzuführen und auf zusätzliche Identifizierungsebenen zu setzen, um solche Betrugsversuche zu verhindern.

Fazit: Ein umfassender Sicherheitsansatz ist notwendig

Die beschriebenen Szenarien zeigen, wie vielfältig die Bedrohungen durch Deepfakes im Finanzsektor sind. Jede Angriffsart – von der Nachahmung von C-Suite-Mitgliedern über biometrische Manipulation bis hin zu gezielten Phishing-Angriffen – nutzt menschliches Vertrauen und technische Schwachstellen aus, um Organisationen zu schaden. Die Finanzbranche steht vor der Herausforderung, diesen Bedrohungen durch innovative Technologien und umfassende Sicherheitsstrategien entgegenzuwirken.

Wie der FS-ISAC-Bericht und die Regula-Studie deutlich machen, reicht ein reaktiver Ansatz nicht aus. Finanzinstitute sollten proaktive Maßnahmen ergreifen, darunter:

  • Implementierung fortschrittlicher Deepfake-Erkennungssysteme: Der Einsatz von Technologien wie DeepDetectAI, die Bild-, Audio- und Verhaltensanalysen kombinieren, kann dazu beitragen, auf Deepfakes basierende Betrugsversuche frühzeitig zu erkennen und zu stoppen.
  • Multifaktorielle Authentifizierungsverfahren: Um mehr Sicherheit zu gewährleisten, sollten neben biometrischen Merkmalen weitere Authentifizierungsfaktoren eingeführt werden.
  • Umfassende Schulung der Mitarbeiter: Die Sensibilisierung der Mitarbeiter für die Bedrohung durch Deepfakes ist unerlässlich, insbesondere in Hochrisikopositionen wie dem Kundenservice und dem Finanzmanagement.

Die Bedrohung durch Deepfakes ist dynamisch und erfordert kontinuierliche Anpassung und Innovation im Sicherheitssektor. Durch die Kombination von Technologielösungen, Schulungen und strategischen Partnerschaften kann der Finanzsektor seine Widerstandsfähigkeit gegenüber dieser neuen Art von Cyberbedrohung nachhaltig stärken und das Vertrauen seiner Kunden schützen.

Quellen:

https://www.businesswire.com/news/home/20241031956820/de

https://www.fsisac.com/knowledge/ai-risk

Teilen Sie den Beitrag:

Verwandte Artikel

DE