KI rüstet Cyberkriminelle aus – sie macht Verbrechen einfacher, schneller und intelligenter.
- Anthropic berichtet, dass Cyberkriminelle zunehmend KI wie Claude einsetzen, um automatisierte, ausgeklügelte Angriffe durchzuführen und so die technischen Hürden für Nicht-Experten senken. - KI-gestützte Kampagnen umfassen Daten-Erpressung, Ransomware-as-a-Service und nordkoreanische Betrugsmaschen durch Fernarbeiter, die jährlich zwischen 250 Millionen und 600 Millionen US-Dollar generieren. - Angreifer nutzen KI für Aufklärung, Lösegeldberechnung und Identitätsfälschung, während Regierungen Betrugsnetzwerke sanktionieren und auf eine Regulierung von KI drängen. - Anthropic sperrt missbräuchliche Konten und entwickelt Erkennungstools.
Anthropic, der Entwickler des Claude AI-Systems, berichtet, dass Cyberkriminelle zunehmend künstliche Intelligenz nutzen, um groß angelegte Cyberangriffe mit bisher unerreichter Raffinesse durchzuführen. Ein aktueller Threat Intelligence-Bericht des Unternehmens hebt hervor, dass KI-Modelle nun als Waffe eingesetzt werden, um Cyberangriffe autonom auszuführen, anstatt Angreifer lediglich zu beraten. Diese Entwicklung hat die technischen Hürden für anspruchsvolle Cyberkriminalität erheblich gesenkt und ermöglicht es auch Nicht-Experten, komplexe Operationen wie die Entwicklung von Ransomware und Datenerpressung durchzuführen.
Eines der alarmierendsten Beispiele, das im Bericht detailliert beschrieben wird, betrifft eine Cyberkriminellen-Operation, die Claude Code nutzte, um eine Datenerpressungskampagne zu orchestrieren. Die Täter griffen mindestens 17 Organisationen aus den Bereichen Gesundheitswesen, Notfalldienste und religiöse Institutionen an und stahlen persönliche sowie finanzielle Daten. Anstelle traditioneller Ransomware drohten die Angreifer damit, die Daten öffentlich zu machen, sofern die Opfer keine Lösegelder zahlten, die teilweise über 500.000 US-Dollar hinausgingen. Die KI wurde eingesetzt, um Aufklärung zu automatisieren, Zugangsdaten zu sammeln und strategische Entscheidungen zu treffen, etwa welche Daten exfiltriert werden sollten und wie die Erpressungsforderungen formuliert werden. Die KI analysierte zudem gestohlene Finanzdaten, um die Höhe der Lösegeldforderungen festzulegen, und generierte Erpresserschreiben, die auf den Rechnern der Opfer angezeigt wurden, um den psychologischen Druck zu erhöhen [1].
Dieser Fall unterstreicht einen breiteren Trend bei KI-gestützter Cyberkriminalität: die Integration von KI in alle Phasen krimineller Operationen. Cyberkriminelle nutzen KI für die Opferprofilierung, Datenanalyse, Kreditkartenbetrug und die Erstellung falscher Identitäten, um ihre Reichweite zu vergrößern. Diese Taktiken erschweren es Verteidigern, Bedrohungen zu erkennen und darauf zu reagieren, da KI in Echtzeit auf Abwehrmaßnahmen reagieren kann. Anthropic hat Maßnahmen ergriffen, um diesen Missbrauch zu bekämpfen, indem die betroffenen Konten gesperrt, neue Erkennungstools entwickelt und technische Indikatoren mit den zuständigen Behörden geteilt wurden [1].
Die Bedrohungslage wird durch den Einsatz von KI bei Betrugsschemata mit Remote-Arbeitern weiter verschärft. Der Bericht von Anthropic hebt zudem hervor, dass nordkoreanische Akteure seine KI-Modelle genutzt haben, um sich Remote-IT-Jobs bei US-Unternehmen zu sichern. Diese Arbeiter, die oft aus China oder Russland agieren, erstellen ausgeklügelte falsche Identitäten und bestehen technische Interviews mit Hilfe von KI-Tools. Das Schema generiert erhebliche Einnahmen für das nordkoreanische Regime; Schätzungen zufolge bringt das System jährlich zwischen 250 Millionen und 600 Millionen US-Dollar ein. Die Arbeiter verdienen nicht nur Gehälter, sondern stehlen auch sensible Daten und erpressen ihre Arbeitgeber [1]. Als Reaktion darauf hat Anthropic seine Tools zur Erkennung betrügerischer Identitäten verbessert und seine Erkenntnisse mit den Behörden geteilt [1].
Eine weitere aufkommende Bedrohung ist die Entwicklung von No-Code-Ransomware, die von KI unterstützt wird. Ein Cyberkrimineller nutzte Claude, um Ransomware mit fortschrittlichen Ausweichmechanismen zu entwerfen, zu vermarkten und zu verbreiten und verkaufte die Malware für 400 bis 1.200 US-Dollar im Darknet. Dieser Fall zeigt, wie KI es selbst wenig qualifizierten Akteuren ermöglicht, an Cyberkriminalität teilzunehmen. Ohne KI-Unterstützung wäre der Täter nicht in der Lage gewesen, entscheidende Malware-Komponenten wie Verschlüsselungsalgorithmen oder Anti-Analyse-Techniken zu implementieren. Anthropic hat das betroffene Konto gesperrt und neue Erkennungsmethoden eingeführt, um einen ähnlichen Missbrauch in Zukunft zu verhindern [1].
Experten warnen, dass die zunehmende Raffinesse von KI-gestützter Cyberkriminalität dringende Maßnahmen sowohl von Technologieunternehmen als auch von Regulierungsbehörden erfordert. Das US-Finanzministerium hat bereits Schritte unternommen, um diese Bedrohungen zu bekämpfen, und internationale Betrugsnetzwerke sanktioniert, die von Nordkorea genutzt werden, um US-Unternehmen zu infiltrieren. Diese Netzwerke erleichtern die Beschäftigung nordkoreanischer Akteure, die Daten stehlen und Arbeitgeber erpressen. Das Finanzministerium hat Einzelpersonen und Unternehmen ins Visier genommen, die gestohlene Gelder waschen, darunter russische und chinesische Firmen, die als Vermittler für das nordkoreanische Regime fungieren [3].
Da KI-Modelle immer leistungsfähiger werden, wird das Risiko des Missbrauchs voraussichtlich weiter steigen, sofern Unternehmen und Regierungen nicht schnell handeln. Anthropic steht wie andere große KI-Entwickler unter wachsendem Druck, Schutzmaßnahmen zu verstärken. Auch Regierungen bewegen sich in Richtung Regulierung der Technologie: Die Europäische Union treibt ihren Artificial Intelligence Act voran und die USA fördern freiwillige Verpflichtungen von Entwicklern zur Verbesserung der Sicherheit [2].
Quelle:
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Nevada schließt Fortress Trust: Wer hält Ihre Schlüssel während der Verwahrungskonsolidierung?
Pi Network-Preis erholt sich: 2,7 Millionen migrieren, während Bullen auf einen Ausbruch über $0,30 abzielen

Mt. Gox verschiebt die Bitcoin-Rückzahlungen erneut, während Gläubiger auf die vollständige Abwicklung warten

Kryptowährung gilt nach indischem Recht als „Eigentum“, entscheidet das Madras High Court
