MalTerminal: Frühestes Beispiel von Malware mit Funktionen eines Large Language Models

Längst ist Künstliche Intelligenz (KI) im Alltag angekommen. Immer häufiger werden sprachbasierte Large Language Models (LLM) wie ChatGPT zur Hilfe genommen, um sich Aufgaben im Job oder im Privatleben zu vereinfachen. Da war es nur eine Frage der Zeit, bis sich auch Cyberkriminelle die Technologie zunutze machen und LLMs in ihre Malware einbauen. Sicherheitsforscher von SentinelOne, dem Research-Team von SentinelLABS, haben nun eine derartige Malware entdeckt und ihre Ergebnisse auf der LABScon Sicherheitskonferenz vorgestellt.

Bei der Malware mit dem Codenamen MalTerminal handelt es sich um eine Windows-Ausführungsdatei, die OpenAI GPT-4 verwendet, um Ransomware-Code oder eine Reverse Shell dynamisch zu generieren. Es gibt keine Hinweise darauf, dass sie jemals in freier Wildbahn eingesetzt wurde, was die Möglichkeit nahelegt, dass es sich auch um eine Proof-of-Concept-Malware oder ein Red-Team-Tool handeln könnte. Laut den Sicherheitsforschern enthielt MalTerminal einen OpenAI-Chat-Completions-API-Endpunkt, der bereits Anfang November 2023 veraltet war, was darauf hindeutet, dass das Sample vor diesem Datum geschrieben wurde. Das würde die Malware zum frühesten Beispiel einer LLM-fähigen Malware machen.

Neben der Windows-Binärdatei gibt es verschiedene Python-Skripte, von denen einige in ihrer Funktion mit der ausführbaren Datei identisch sind, da sie den Benutzer auffordern, zwischen „Ransomware“ und „Reverse Shell“ zu wählen. Es gibt auch ein Verteidigungswerkzeug namens FalconShield, das eine Python-Zieldatei auf Muster überprüft und das GPT-Modell auffordert, festzustellen, ob sie bösartig ist, um gegebenenfalls einen „Malware-Analysebericht“ zu erstellen.

In ihrem Bericht gehen die Sicherheitsforscher auch allgemein auf die Nutzung von LLMs für kriminelle Zwecke ein. So erklären sie, dass KI-Modelle zunehmend von Angreifern zur operativen Unterstützung sowie zur Einbettung in ihre Tools verwendet werden, wodurch eine neue Kategorie namens LLM-embedded Malware entstanden ist. Als Beispiele werden LAMEHUG (auch bekannt als PROMPTSTEAL) und PromptLock aufgeführt.

Auch für Phishing-Kampagnen nutzen Cyberkriminelle inzwischen Künstliche Intelligenzen. Sicherheitsforscher von StrongestLayer haben herausgefunden, dass Angreifer versteckte Prompts in Phishing-E-Mails einbauen, um KI-gestützte Sicherheitsscanner dazu zu bringen, die Nachricht zu ignorieren, sodass sie im Posteingang der Benutzer landet. Phishing-Kampagnen setzen seit langem auf Social Engineering, um ahnungslose Benutzer zu täuschen. Der Einsatz von KI-Tools hat diese Angriffe allerdings auf ein vollkommen neues Niveau gehoben. Dadurch steigt die Wahrscheinlichkeit einer Interaktion und es wird für Angreifer einfacher, sich an die sich weiterentwickelnden E-Mail-Sicherheitsmaßnahmen anzupassen.

Diese Entwicklung stellt eine neue Herausforderung für Sicherheitsforscher und Administratoren dar. Denn durch die Fähigkeit, während der Laufzeit bösartige Logik und Befehle zu generieren, wird Malware nicht nur gefährlicher, sondern auch anpassungsfähiger – und sie entgeht häufiger der Entdeckung durch herkömmliche Sicherheitsmaßnahmen.

Das Security Operations Center von 8com schützt die digitalen Infrastrukturen seiner Kunden effektiv vor Cyberangriffen. Dazu vereint 8com zahlreiche Managed Security Services wie Security Information and Event Management (SIEM), eXtended Detection and Response (XDR), Endpoint Detection and Response (EDR) mit Incident Response und Vulnerability Management unter einem Dach.

8com gehört zu den führenden SOC-Anbietern in Europa. Seit 20 Jahren ist das Ziel von 8com, Kunden bestmöglich vor Cyberangriffen zu schützen und gemeinsam ein ökonomisch sinnvolles, aber trotzdem hohes Informationssicherheitsniveau zu erzielen. Durch die einzigartige Kombination aus technischem Know-how und direkten Einblicken in die Arbeitsweisen von Cyberkriminellen können die Cyber-Security-Experten bei ihrer Arbeit auf fundierte Erfahrungswerte zurückgreifen.

Sie muessen eingeloggt sein um einen Kommentar zu schreiben Einloggen