Online-Kriminelle setzen Künstliche Intelligenz als mächtige neue Waffe ein. Der KI-Chatbot Claude der Firma Anthropic wurde bereits für Cyberangriffe missbraucht - um in Netzwerke einzudringen, Daten zu stehlen und auszuwerten.
Die Angreifer nutzten die Software laut Anthropic auch, um «psychologisch zielgerichtete» Erpressungsnachrichten zu verfassen. Dabei drohten sie, gestohlene Informationen zu veröffentlichen und verlangten teilweise mehr als 500.000 Dollar von den Opfern.
Allein im vergangenen Monat wurden 17 Unternehmen und Organisationen aus Bereichen wie Gesundheitswesen, Regierung und Religion angegriffen. Claude suchte nach Schwachstellen und half bei Entscheidungen, wie Netzwerke am besten angegriffen und welche Daten entwendet werden sollten.
KI ermöglicht Cyberangriffe im Alleingang
Früher hätte man für solche Aktionen ein Expertenteam gebraucht, sagte Anthropic-Manager Jacob Klein dem Tech-Blog «The Verge». Nun könne eine einzelne Person mit Hilfe Künstlicher Intelligenz komplexe Angriffe durchführen.
Neuere KI-Systeme können als «Agenten» im Auftrag von Nutzern agieren und weitgehend eigenständig Aufgaben erledigen. Diese Entwicklung verändert die Landschaft der Cyberkriminalität grundlegend.
Nordkoreaner erschlichen sich laut Anthropic Homeoffice-Jobs als Programmierer in US-Unternehmen, um Geld für ihre Regierung zu beschaffen. Sie verließen sich dabei auf Claude, um mit Arbeitgebern zu kommunizieren und ihre Aufgaben zu erledigen.
Betrugsmaschen aus dem Chatbot
Die Betrüger hatten offenbar nicht genug Software-Entwicklungskenntnisse, um die Jobs ohne KI-Hilfe auszuüben. Früher bildete Nordkorea jahrelang Experten dafür aus. «Aber durch KI fiel diese Einschränkung weg», stellte Anthropic fest.
Cyberkriminelle entwickelten mit Claude auch Betrugsmaschen, die sie online verkauften. Dazu gehörte ein Bot für die Plattform Telegram zum Beziehungsbetrug - dabei wird Opfern eine romantische Verbindung vorgegaukelt, um Geld zu erbeuten.
Der Bot könne Chats «mit hoher emotionaler Intelligenz» in verschiedenen Sprachen führen. Diese personalisierten Betrugsansätze machen es für Opfer schwieriger, die Manipulation zu erkennen.
Anthropic betonte, ausgeklügelte Schutzmaßnahmen gegen Missbrauch der KI-Software zu haben. Online-Angreifer versuchten jedoch immer wieder, diese zu umgehen. Mit den Erkenntnissen aus den analysierten Fällen soll der Schutz weiter verbessert werden.
(dpa) Hinweis: Dieser Artikel wurde mithilfe von Künstlicher Intelligenz überarbeitet.