Schmuckbild Phishing

„Ihr Bankkonto erfordert Ihre dringende Aufmerksamkeit.“ Solche Nachrichten landen regelmäßig in den Posteingängen vieler Menschen. Meist handelt es sich um Phishing-Mails. Betrügerische Nachrichten, die Nutzer dazu verleiten sollen, auf schädliche Links zu klicken oder sensible Daten preiszugeben. Während frühere Phishing-Versuche oft durch Rechtschreibfehler oder schlechte Gestaltung auffielen, sind moderne Angriffe heute kaum noch von echten Nachrichten zu unterscheiden. Diese „Social-Engineering“-Angriffe sind keine Randerscheinung. Schätzungen zufolge steckt diese Form der Manipulation hinter bis zu 98 Prozent aller Cyberangriffe. Besonders häufig sind Phishing-Angriffe, bei denen sich Angreifer als vertrauenswürdige Personen oder Institutionen ausgeben. Laut einer BSI-Studie aus dem Jahr 2023 waren 84 Prozent aller betrügerischen E-Mails in Deutschland Phishing-Mails. Heute dürfte der Anteil noch höher liegen. Über 70 Prozent aller Datenverstöße beginnen mit Social-Engineering-Angriffen.

KI erhöht die Bedrohung

Durch generative KI hat sich die Bedrohungslage weiter verschärft. Angreifer können Attacken schneller und in besserer Qualität erstellen, selbst groß angelegte und personalisierte Angriffe sind mit wenig Aufwand möglich. Die Barrieren für Cyberkriminelle sinken, während die Erfolgswahrscheinlichkeit steigt. Neben E-Mails werden auch soziale Netzwerke, Messaging und Sprachanrufe verstärkt für Angriffe genutzt. Die Folge: Es wird immer schwieriger, echte von gefälschten Nachrichten zu unterscheiden. Wer kann heute noch sicher sein, dass eine Nachricht wirklich von der Person stammt, die sie vorgibt zu sein?

Ausnutzen menschlicher Schwächen

Social Engineering bezeichnet die gezielte Manipulation von Menschen, um sie zu bestimmten Handlungen oder zur Preisgabe vertraulicher Informationen zu bewegen. Im Mittelpunkt steht dabei nicht das Überwinden technischer Hürden, sondern das Ausnutzen menschlicher Schwächen wie Hilfsbereitschaft, Neugier oder Unsicherheit. Angreifer bauen gezielt Vertrauen auf und nutzen psychologische Tricks, um ihre Opfer zu täuschen. Das Ziel ist stets der Zugang zu sensiblen Daten, finanziellen Mitteln oder geschützten IT-Systemen. Die Methoden sind vielfältig und werden ständig weiterentwickelt. Zu den häufigsten Angriffstechniken zählen:

  • Phishing: Massenhaft versendete Nachrichten, die scheinbar von bekannten Unternehmen stammen und dazu auffordern, auf einen schädlichen Link zu klicken oder persönliche Daten preiszugeben.
  • Spear-Phishing: Individuell zugeschnittene Angriffe auf einzelne Personen, bei denen sich Angreifer mithilfe persönlicher Informationen als vertrauenswürdige Kontaktperson ausgeben, um gezielt Vertrauen zu gewinnen.
  • Business-E-Mail-Compromise (BEC): Manipulierte E-Mails, die scheinbar von Führungskräften stammen und Mitarbeitende zu finanziellen Transaktionen oder sensiblen Aktionen veranlassen und ein reales Autoritätsverhältnis ausnutzen.
  • Pretexting: Angreifer erfinden überzeugende Vorwände oder Szenarien, um das Vertrauen des Opfers zu gewinnen und gezielt sensible Informationen zu erfragen. Häufig geben sie sich als Autoritätspersonen oder interessante Kontakte aus, um an Daten zu gelangen, die für weitere Angriffe genutzt werden können.

Social Engineering zählt damit zu den größten Bedrohungen der digitalen Welt und wird durch neue Technologien wie KI immer raffinierter und schwerer zu erkennen.

Phishing auf neuem Niveau

Während klassische Phishing-Angriffe oft auf Masse und Standardisierung setzen, eröffnet der Einsatz von KI völlig neue Möglichkeiten für Angreifer. Mit KI-gestützten Tools können Angreifer Phishing-Nachrichten individuell und dynamisch anpassen. Sie analysieren öffentlich verfügbare Informationen über Zielpersonen und reagieren sogar in Echtzeit auf das Verhalten der Opfer, etwa bei längerem Zögern. Diese dynamische Anpassungsfähigkeit macht Phishing-Kampagnen deutlich effektiver. Die Kommunikation wirkt persönlicher, glaubwürdiger und ist gezielt auf die jeweilige Situation zugeschnitten. Schätzungen zufolge können Angreifer mit KI-Attacken rund 40 Prozent schneller erstellen und gleichzeitig die Qualität deutlich steigern. Für Unternehmen bedeutet das: Klassische Warnsignale greifen immer seltener, die Gefahr erfolgreicher Angriffe steigt.

Automatisierte BEC-Angriffe

Bei sogenannten Business-E-Mail-Compromise-Angriffen geben sich Kriminelle per E-Mail als Führungskräfte oder Geschäftspartner aus, um Mitarbeitende zu betrügerischen Handlungen zu bewegen. Traditionell sind BEC-Angriffe sehr aufwändig. Die Angreifer müssen den individuellen Kommunikationsstil ihrer Zielperson genau recherchieren und überzeugend nachahmen, um nicht aufzufallen. Dazu analysieren sie öffentliche Quellen, Social-Media-Profile und frühere E-Mails, um Formulierungen, Grußformeln und typische Abläufe exakt zu kopieren. KI kann den Kommunikationsstil von Zielpersonen automatisiert aus großen Mengen an Textdaten nachbilden und täuschend echte, fehlerfreie E-Mails generieren – und das mit minimalem Aufwand. Was früher nur für besonders lukrative Ziele lohnend war, kann nun massenhaft und mit hoher Erfolgswahrscheinlichkeit durchgeführt werden. Dadurch werden BEC-Angriffe schwerer zu erkennen, sodass selbst erfahrene Empfänger gefälschte Nachrichten kaum noch von echten unterscheiden können.

Deepfakes & Voice-Cloning

Während BEC-Angriffe traditionell auf überzeugende E-Mails setzen, nutzen Cyberkriminelle zunehmend Deepfakes und Voice Cloning, um ihre Betrugsversuche noch glaubwürdiger zu machen. Mithilfe generativer KI lassen sich Stimmen und sogar ganze Videokonferenzen täuschend echt nachbilden. Schon wenige Sekunden Audiomaterial reichen aus, um die Stimme einer Führungskraft zu klonen und Mitarbeitende telefonisch zu Überweisungen oder anderen sensiblen Handlungen zu bewegen. Diese Technologien ergänzen klassische BEC-Attacken und erhöhen die Erfolgschancen deutlich. Ein Fall aus Hong Kong 2024 verdeutlicht die Gefahr: Ein Mitarbeiter erhielt eine E-Mail mit einer Zahlungsaufforderung und blieb zunächst misstrauisch. In einer anschließenden Videokonferenz traf er vermeintlich vertraute Kollegen – tatsächlich waren es KI-generierte Deepfakes. Die täuschend echten Stimmen und Gesichter überzeugten ihn, rund 25 Millionen Dollar zu überweisen. Der Vorfall zeigt, wie schwer es selbst für geschulte Mitarbeitende ist, echte von gefälschten Identitäten zu unterscheiden. Deepfakes und Voice Cloning heben Social Engineering auf ein neues, gefährliches Niveau.

Wie man sich gegen KI-basierte Angriffe wappnen kann

KI-gestützte Angriffe werden immer raffinierter – doch auch die Abwehrmechanismen entwickeln sich weiter. Moderne Cybersecurity-Lösungen setzen zunehmend selbst auf KI, um verdächtige Aktivitäten frühzeitig zu erkennen. Besonders wirksam sind Methoden wie Verhaltensanalyse und Anomalieerkennung, die ungewöhnliche Muster aufspüren und so betrügerische E-Mails oder Aktivitäten entlarven. Technische Lösungen allein reichen jedoch nicht aus. Entscheidend bleibt eine kontinuierliche Schulung der Mitarbeitenden. Regelmäßige Awareness-Trainings, praxisnahe Angriffssimulationen und klare Meldewege sind unerlässlich, um die Belegschaft für aktuelle Bedrohungen zu sensibilisieren und im Ernstfall handlungsfähig zu machen. Nur so lassen sich menschliche Fehler beziehungsweise Unachtsamkeiten wirksam minimieren. Neben klassischen Schutzmaßnahmen entstehen auch innovative KI-basierte Ansätze zur aktiven Betrugsabwehr. Ein Beispiel ist das Projekt „Daisy“ der britischen Telekommunikationsfirma Virgin Media O2. Die KI-basierte „Chatbot-Oma“ nimmt in Echtzeit Anrufe entgegen und hält Betrüger möglichst lange in der Leitung, um sie gezielt zu frustrieren – ganz so, wie es Betrüger sonst bei ihren Opfern tun. Während Daisy freundlich plaudert, verlieren die Angreifer wertvolle Zeit, in der sie keine echten Opfer erreichen können. Solche kreativen Lösungen zeigen, dass KI nicht nur zur Abwehr, sondern auch zur aktiven Störung von Angreifern eingesetzt werden kann.

Fazit

Social Engineering entwickelt sich durch den Einsatz von KI rasant weiter und wird immer schwerer zu erkennen. Unternehmen und Kanzleien müssen technische Schutzmaßnahmen und kontinuierliche Mitarbeiterschulungen kombinieren, um sich wirksam zu schützen. Nur wer Mensch und Maschine gemeinsam stärkt, kann der wachsenden Bedrohung durch KI-basierte Angriffe begegnen.

Dr. Tim Niesen

Senior Manager bei AdEx Partners | AI & Data Analytics sowie Keynote Speaker und erfahrener Dozent zur Künstlichen Intelligenz und Digitalen Transformation.