Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnWeb3PlazaMehr
Traden
Spot
Krypto kaufen und verkaufen
Margin
Kapital verstärken und Fondseffizienz maximieren
Onchain
Onchain gehen, ohne auf Blockchain zuzugreifen
Convert & Block-Trade
Mit einem Klick und ganz ohne Gebühren Krypto tauschen.
Erkunden
Launchhub
Verschaffen Sie sich frühzeitig einen Vorteil und beginnen Sie zu gewinnen
Kopieren
Elite-Trader mit einem Klick kopieren
Bots
Einfacher, schneller und zuverlässiger KI-Trading-Bot
Traden
USDT-M Futures
Futures abgewickelt in USDT
USDC-M-Futures
Futures abgewickelt in USDC
Coin-M Futures
Futures abgewickelt in Kryptos
Erkunden
Futures-Leitfaden
Eine Reise ins Futures-Trading vom Anfänger bis Fortgeschrittenen
Futures-Aktionen
Großzügige Prämien erwarten Sie
Übersicht
Eine Vielzahl von Produkten zur Vermehrung Ihrer Assets
Simple Earn
Jederzeit ein- und auszahlen, um flexible Renditen ohne Risiko zu erzielen.
On-Chain Earn
Erzielen Sie täglich Gewinne, ohne Ihr Kapital zu riskieren
Strukturiert verdienen
Robuste Finanzinnovationen zur Bewältigung von Marktschwankungen
VIP & Wealth Management
Premium-Services für intelligente Vermögensverwaltung
Kredite
Flexible Kreditaufnahme mit hoher Vermögenssicherheit
Kriminelle betreiben „Vibe Hacking“ mit KI auf nie dagewesenem Niveau: Anthropic

Kriminelle betreiben „Vibe Hacking“ mit KI auf nie dagewesenem Niveau: Anthropic

CointimeCointime2025/08/29 19:56
Original anzeigen
Von:Cointime

Trotz „ausgeklügelter“ Schutzmechanismen stellt das KI-Infrastrukturunternehmen Anthropic fest, dass Cyberkriminelle weiterhin Wege finden, seinen KI-Chatbot Claude für groß angelegte Cyberangriffe zu missbrauchen. 

In einem am Mittwoch veröffentlichten „Threat Intelligence“-Bericht teilten Mitglieder des Threat Intelligence-Teams von Anthropic, darunter Alex Moix, Ken Lebedev und Jacob Klein, mehrere Fälle, in denen Kriminelle den Claude-Chatbot missbraucht hatten, wobei bei einigen Angriffen über 500.000 $ Lösegeld gefordert wurden.

Sie stellten fest, dass der Chatbot nicht nur technische Ratschläge für die Kriminellen lieferte, sondern auch direkt Hacks in ihrem Auftrag durch sogenanntes „Vibe Hacking“ ausführte, sodass Angriffe mit nur grundlegenden Kenntnissen in Programmierung und Verschlüsselung möglich wurden.

Im Februar prognostizierte das Blockchain-Sicherheitsunternehmen Chainalysis, dass Krypto-Betrügereien im Jahr 2025 ihr größtes Jahr haben könnten, da generative KI Angriffe skalierbarer und kostengünstiger gemacht hat. Anthropic fand einen Hacker, der „Vibe Hacking“ mit Claude betrieben hatte, um sensible Daten von mindestens 17 Organisationen zu stehlen – darunter Gesundheitswesen, Notfalldienste, Regierungs- und religiöse Institutionen – mit Lösegeldforderungen zwischen 75.000 $ und 500.000 $ in Bitcoin.

Kriminelle betreiben „Vibe Hacking“ mit KI auf nie dagewesenem Niveau: Anthropic image 0   Eine simulierte Lösegeldforderung zeigt, wie Cyberkriminelle Claude nutzen, um Drohungen auszusprechen. Quelle: Anthropic


Der Hacker trainierte Claude darauf, gestohlene Finanzdaten zu analysieren, angemessene Lösegeldbeträge zu berechnen und individuelle Lösegeldforderungen zu verfassen, um maximalen psychologischen Druck auszuüben.

Obwohl Anthropic den Angreifer später sperrte, zeigt der Vorfall, wie KI es selbst Anfängern im Programmieren ermöglicht, Cyberkriminalität in bisher ungekanntem Ausmaß zu begehen.

„Akteure, die nicht eigenständig grundlegende Verschlüsselung implementieren oder die Mechanik von Systemaufrufen verstehen können, erstellen nun erfolgreich Ransomware mit Umgehungsfähigkeiten [und] setzen Anti-Analyse-Techniken ein.“

Auch nordkoreanische IT-Mitarbeiter nutzten Claude von Anthropic

Anthropic fand außerdem heraus, dass nordkoreanische IT-Mitarbeiter Claude genutzt haben, um überzeugende Identitäten zu fälschen, technische Programmierprüfungen zu bestehen und sogar Remote-Stellen bei US-Fortune-500-Technologieunternehmen zu erhalten. Sie nutzten Claude auch, um Interviewantworten für diese Positionen vorzubereiten.

Claude wurde laut Anthropic auch für die technische Arbeit nach der Einstellung eingesetzt. Die Beschäftigungsmodelle waren darauf ausgelegt, trotz internationaler Sanktionen Gewinne an das nordkoreanische Regime weiterzuleiten.

Kriminelle betreiben „Vibe Hacking“ mit KI auf nie dagewesenem Niveau: Anthropic image 1   Aufschlüsselung der von nordkoreanischen IT-Mitarbeitern mit Claude durchgeführten Aufgaben. Quelle: Anthropic


Anfang dieses Monats wurde ein nordkoreanischer IT-Mitarbeiter gehackt, wobei festgestellt wurde, dass ein Team von sechs Personen mindestens 31 gefälschte Identitäten teilte und alles von government IDs und Telefonnummern bis hin zum Kauf von LinkedIn- und UpWork-Konten nutzte, um ihre wahre Identität zu verschleiern und Krypto-Jobs zu bekommen.

Einer der Mitarbeiter soll sich für eine Full-Stack-Engineer-Position bei Polygon Labs beworben haben, während andere Beweise auf geskriptete Interviewantworten hindeuteten, in denen sie behaupteten, Erfahrung beim NFT-Marktplatz OpenSea und beim Blockchain-Oracle-Anbieter Chainlink zu haben.

Anthropic erklärte, dass der neue Bericht darauf abzielt, Vorfälle von Missbrauch öffentlich zu diskutieren, um die breitere KI-Sicherheits- und Schutz-Community zu unterstützen und die Verteidigung der gesamten Branche gegen KI-Missbraucher zu stärken. 

Es hieß, dass trotz der Implementierung „ausgeklügelter Sicherheitsmaßnahmen“ zur Verhinderung des misuse of Claude böswillige Akteure weiterhin Wege finden, diese zu umgehen. 

0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!