Microsoft und OpenAI behaupten, dass Hacker generative KI nutzen, um Cyber-Angriffe zu verbessern

Microsoft und OpenAI behaupten, dass Hacker generative KI nutzen, um Cyber-Angriffe zu verbessern

Es ist nicht gerade eine Überraschung zu erfahren, dass organisierte Cyberkriminelle beginnen, generative KI-Tools und -Dienste für neue Arten von Angriffen zu nutzen. Heute haben wir viele weitere Informationen darüber erhalten, wie diese staatlich geförderten Hacker große Sprachmodelle verwenden.

In einem Blogbeitrag kündigte Microsoft in Zusammenarbeit mit OpenAI eine neue Untersuchung darüber an, wie Hacker LLMs nutzen. Sie enthält Informationen zu bestimmten Gruppen, die nachweislich generative KI-Tools verwenden.

Die Gruppen haben ihren Sitz in Ländern wie Russland, Nordkorea, Iran und China. Einer von ihnen trägt die Bezeichnung Forest Blizzard und ist mit der russischen GRU-Einheit 26165 verbunden. Microsoft sagt, die Gruppe habe aktiv gegen Organisationen vorgegangen, die mit der laufenden Invasion in der Ukraine in Zusammenhang stehen.

Microsoft behauptet, Forest Blizzard habe LLMs verwendet, „um Satellitenkommunikationsprotokolle, Radarbildtechnologien und spezifische technische Parameter zu verstehen“. Die Forschung fügt hinzu, dass diese Gruppe auch versucht hat, Aufgaben wie Dateiauswahl und -manipulation mit LLMs zu automatisieren.

Eine weitere Cyberkriminelle-Gruppe, die laut Microsoft KI einsetzt, wurde als Salmon Typhoon bezeichnet. Die in China ansässige Gruppe hat in der Vergangenheit gezielt staatliche und US-amerikanische Verteidigungsunternehmen ins Visier genommen. Laut Microsoft hat Salmon Typhoon LLMs auf vielfältige Weise eingesetzt. Dazu gehören das Auffinden von Codierungsfehlern und das Übersetzen technischer EDV-Dokumente.

Microsoft sagt, dass es weiterhin mit OpenAI zusammenarbeiten wird, um den Einsatz von KI durch Cyberkriminelle zu erforschen.

Im Rahmen dieser Verpflichtung haben wir Maßnahmen ergriffen, um mit Bedrohungsakteuren verbundene Vermögenswerte und Konten zu stören, den Schutz der OpenAI LLM-Technologie und Benutzer vor Angriffen oder Missbrauch zu verbessern und die Leitplanken und Sicherheitsmechanismen rund um unsere Modelle zu gestalten.

Das Unternehmen fügte hinzu, dass es seinen eigenen Copilot for Security-Dienst nutzen wird , um diese LLM-basierten Cyber-Bedrohungen zu bekämpfen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert