Rund um die Bundestagswahl 2026 haben KI-Deepfakes eine Qualität erreicht, die für Laien kaum noch erkennbar ist. 47 Prozent der Deutschen halten Deepfakes laut aktuellen Umfragen für eine konkrete Wahlkampf-Gefahr. Für dich als KMU-Geschäftsführer ist die politische Dimension nur eine Seite. Die andere, oft unterschätzte, ist die direkte Betroffenheit deines Unternehmens, weil dieselben Tools für Phishing, Bewerbungsbetrug und Fake-Anrufe an deine Buchhaltung eingesetzt werden.
Das Wichtigste in Kürze
- 47 Prozent der Deutschen sehen Deepfakes als konkrete Wahlkampf-Gefahr
- EU AI Act stuft KI zur Wahlbeeinflussung als Hochrisiko-System ein
- Transparenz- und Sicherheitspflichten für Hochrisiko-KI greifen ab August 2026
- Die Taskforce Desinformation Baden-Württemberg und das Landesamt für Verfassungsschutz stellen Aufklärungsmaterial bereit
- Praxisrelevanz für KMU: Bewerber-Fakes, CEO-Fraud per Stimmklon, Phishing mit Video-Avatar
- Konkrete Schutzmassnahmen sind günstig und in Tagen umsetzbar
Warum das Thema jeden Unternehmer angeht
Die öffentliche Diskussion fokussiert sich auf Wahlkampf und politische Desinformation. Das ist verständlich, greift aber zu kurz. Die Technologie, mit der politische Deepfakes produziert werden, ist dieselbe, die derzeit bei Betrugsfällen im Mittelstand verwendet wird.
Drei Angriffsmuster haben sich in den letzten zwölf Monaten verfestigt. Stimmklone im CEO-Fraud: Ein Anruf bei der Buchhaltung, die Stimme des Geschäftsführers klingt täuschend echt, die Aufforderung zur "dringenden Überweisung" kommt mit Druck und Zeitknappheit. Video-Deepfakes in Bewerbungsgesprächen, bei denen ein vermeintlicher Kandidat auf dem Bildschirm erscheint, in Wirklichkeit aber ein Avatar einer anderen Person ist. Und Bild-Deepfakes bei Kundenkommunikation, etwa gefälschte Rechnungen mit echt wirkenden Unterschriften oder Logos.
Der Bundesverband der Deutschen Industrie berichtet von signifikant steigenden Fallzahlen bei CEO-Fraud mit KI-Stimmen. Einzelschäden im sechsstelligen Bereich sind keine Seltenheit mehr.
Was du bei Bewerbungen prüfen solltest
Gerade im Recruiting sind KMU angreifbar. Ein Bewerber auf eine Remote-Position schickt Lebenslauf, Zeugnisse und macht ein Video-Interview. Alles passt. Der Kandidat fängt an, arbeitet einige Wochen remote, übernimmt sensible Daten, und dann wird klar: Die Person im Video war ein Deepfake, der echte Bewerber existiert so nicht.
Das Muster ist selten, aber dokumentiert. Drei Schutzmechanismen kosten wenig.
Nimm bei Remote-Interviews einmal die Anweisung auf, die Hand kurz vors Gesicht zu halten. Deepfake-Systeme haben bei schnellen Bewegungen vor dem Gesicht oft sichtbare Artefakte. Ein kurzer Seitblick, ein Anschneiden der Kamera mit der Hand, ein Ohr berühren, das sind einfache Tests.
Frag nach spontanen Reaktionen auf unerwartete Inhalte. Zeig ein Bild auf dem Bildschirm, frag nach der Reaktion. Deepfake-Avatare kämpfen oft mit Mimik-Wechseln.
Zweiter Kanal zur Verifikation. Ein Anruf auf die im Lebenslauf angegebene Festnetznummer des früheren Arbeitgebers bestätigt in 30 Sekunden, ob die Person dort gearbeitet hat. Das dauert weniger als ein Kaffee.
CEO-Fraud mit Stimmklon
Dieses Angriffsmuster ist für KMU besonders gefährlich. Angreifer sammeln Audio-Material ihres Ziels aus Podcasts, YouTube-Interviews, Telefonkonferenzen oder sogar Anrufbeantworter-Ansagen. Mit wenigen Minuten Material lässt sich eine Stimme klonen, die im Telefongespräch für Vertraute nicht mehr unterscheidbar ist.
Der Anruf kommt typischerweise an die Buchhaltung oder Assistenz, selten an den CFO selbst. Inhalt: dringende Überweisung, Vertraulichkeit, Zeitdruck. "Ich bin gerade in einem wichtigen Termin, ruf mich nicht zurück, die Überweisung muss bis 15 Uhr raus."
Die Verteidigung ist einfach, aber nur wenn sie schriftlich im Unternehmen steht. Kein Zahlungsauftrag über 5.000 Euro ohne schriftliche Bestätigung über einen zweiten Kanal. Das kann eine Bestätigungsmail an die geschäftliche Mail-Adresse des Anrufers sein, ein Rückruf über die hinterlegte Nummer, eine Freigabe über das ERP-System. Wer das als Prozess hat, ist weitgehend immun.
In der Praxis sehen wir, dass 9 von 10 KMU diesen Prozess nicht schriftlich haben. Ein Blatt Papier mit der Regel und eine Einweisung der Buchhaltung dauert 30 Minuten und ist einer der besten ROI-Schritte in der KI-Sicherheit.
Die politische Dimension
Für dich als Unternehmer hat die politische Dimension vor allem Auswirkungen auf Mitarbeiter, Kunden und öffentliche Meinung. Die Bundesregierung und Landesbehörden haben reagiert. Die Taskforce Desinformation Baden-Württemberg und das Cyberabwehrzentrum beim Landesamt für Verfassungsschutz stellen kostenloses Aufklärungsmaterial bereit. Die Bundeszentrale für politische Bildung hat einen Leitfaden zur Deepfake-Erkennung veröffentlicht.
Wenn dein Unternehmen Nachrichten für Kunden verfasst oder Stellung zu politischen Themen nimmt, bedenke das Risiko, selbst Opfer einer Fälschung zu werden. Es ist 2026 möglich, ein Video zu produzieren, in dem ein Geschäftsführer Aussagen trifft, die er nie gemacht hat. Ein vorbereitetes Dementi-Statement, das zeigt wie dein Unternehmen echte Kommunikationskanäle verifiziert, ist kein Paranoia-Akt, sondern Reputations-Management.
Was der EU AI Act regelt
Der EU AI Act stuft KI-Systeme zur Wahlbeeinflussung als Hochrisiko-Systeme ein. Dazu gehören umfassende Transparenz- und Sicherheitspflichten. Diese Regelungen greifen ab August 2026, aktuell läuft die Umsetzungsphase.
Für dich als KMU bedeutet das: Wenn du KI-Inhalte produzierst, die Mitarbeiter oder Kunden täuschen könnten, zum Beispiel synthetische Stimmen im Callcenter ohne Kennzeichnung, gerätst du in Reichweite des Gesetzes. Artikel 50 EU AI Act schreibt eine klare Kennzeichnungspflicht für KI-generierte Audio-, Bild- und Videoinhalte vor.
Die gute Nachricht: Die Pflicht zur KI-Kompetenz nach Artikel 4 EU AI Act gilt seit Februar 2025. Wer das im Team schult, deckt damit einen großen Teil der Deepfake-Aufklärung gleich mit ab. Der DigiMan-Kurs bei SkillSprinters behandelt diese Kombination in Modul 12.
Konkrete Schutzmassnahmen für KMU
Ein 30-minütiges Schulungsmodul für alle Mitarbeiter mit Telefon- oder E-Mail-Kontakt. Inhalt: Was sind Deepfakes, wie funktionieren Stimmklone, was sind die typischen Angriffsmuster, welche Verifikationsregeln gelten.
Eine schriftliche Regel zur Finanz-Freigabe: Zahlungen über einer definierten Schwelle nur mit schriftlicher Zweitkanal-Bestätigung.
Ein klarer Eskalationsweg bei Verdacht. Wer merkt, dass etwas seltsam ist, muss wissen, an wen er sich sofort wenden kann, ohne Angst vor Gesichtsverlust.
Technische Lösungen sind verfügbar, aber in KMU selten notwendig. Microsoft Defender bietet Deepfake-Erkennung im Premium-Tarif, es gibt Nischenprodukte wie Pindrop oder Reality Defender für Call-Center. Für die meisten KMU ist die prozessuale Lösung deutlich günstiger und wirksamer.
Mehr zu diesem Thema
FAQ
Woran erkenne ich ein Deepfake-Video?
Achte auf unnatürliche Augenbewegungen und Blinzelmuster, asymmetrische Gesichtsbewegungen, Probleme mit Haaransatz und Ohren, schlechte Lippensynchronisation bei längeren Sätzen und Inkonsistenzen bei schnellen Handbewegungen vor dem Gesicht. Bei hochwertigen Deepfakes sind diese Artefakte minimal, aber selten ganz verschwunden.
Wie gefährlich ist CEO-Fraud mit Stimmklon für mein KMU?
Gefährlich genug, um einen schriftlichen Zweitkanal-Prozess einzuführen. Die Angriffe sind günstig durchführbar (Audio-Material von YouTube reicht oft), die Schäden im Einzelfall liegen häufig im fünf- bis sechsstelligen Bereich. Die Verteidigung kostet eine halbe Stunde Prozessdefinition und eine Mitarbeitereinweisung.
Was verlangt der EU AI Act konkret bei KI-generierten Inhalten?
Artikel 50 EU AI Act schreibt eine Kennzeichnungspflicht für KI-generierte oder manipulierte Audio-, Bild- und Videoinhalte vor. Für Hochrisiko-KI-Systeme, etwa im Wahlkontext, gelten zusätzliche Transparenz- und Sicherheitspflichten ab August 2026. Auch die Pflicht zur KI-Kompetenz nach Artikel 4 seit Februar 2025 schliesst die Deepfake-Aufklärung implizit ein.
Reichen technische Tools zur Deepfake-Erkennung?
Für die meisten KMU nein. Technische Erkennung ist ein Katz-und-Maus-Spiel, bei dem Angreifer oft einen Schritt voraus sind. Die wirksamste Verteidigung ist eine Kombination aus Aufklärung der Mitarbeiter, einem klaren Prozess mit Zweitkanal-Verifikation bei sensiblen Handlungen und einer Unternehmenskultur, in der kritisches Nachfragen erwünscht ist. Wer eine Zahlung anhält, um Rücksprache zu halten, muss dafür belohnt werden, nicht sanktioniert.
Bereit für deinen nächsten Karriereschritt?
Lass dich kostenlos beraten. Wir finden die passende Weiterbildung und Förderung für dich.