Wird ChatGPT zu einer Bedrohung für die Cybersicherheit? Hier ist, worauf Sie achten sollten
Wer hat ChatGPT zu diesem Zeitpunkt noch nicht verwendet? Es macht Spaß, ist absolut faszinierend, wenn Sie Interesse an künstlicher Intelligenz haben, und (vorerst) kostenlos.
Obwohl es normalerweise als Chatbot bezeichnet wird, ist ChatGPT viel mehr als das. Es kann Texte erstellen, komplexe Themen erklären, als Übersetzer fungieren, Witze erfinden und Code schreiben. Aber es kann auch von Bedrohungsakteuren bewaffnet werden.
Wie ChatGPT funktioniert und warum es für Cyberkriminelle attraktiv ist
ChatGPT (Generative Pre-trained Transformer) wurde vom Forschungslabor für künstliche Intelligenz OpenAI entwickelt und im November 2022 eingeführt. Es ist ein großes Sprachmodell, das eine Kombination aus überwachten und bestärkenden maschinellen Lerntechniken verwendet.
Vielleicht noch wichtiger ist, dass ChatGPT ständig von Benutzern verfeinert und trainiert wird, die ihre Antworten entweder positiv oder negativ bewerten können, wodurch es umso genauer und leistungsfähiger wird, da es selbst Daten sammelt.
Das unterscheidet ChatGPT von anderen Chatbots. Und wenn Sie es jemals benutzt haben, wissen Sie, dass der Unterschied sofort spürbar ist: Im Gegensatz zu anderen ähnlichen Produkten ist es in der Lage, aktiv an einem Gespräch teilzunehmen und komplexe Aufgaben mit erstaunlicher Genauigkeit zu erledigen, während es kohärente und menschenähnliche Antworten liefert.
Wenn Ihnen ein kurzer Aufsatz gezeigt würde, der von einem Menschen geschrieben wurde, und einer, der von ChatGPT geschrieben wurde, würden Sie wahrscheinlich Schwierigkeiten haben, zu bestimmen, welcher welcher ist. Als Beispiel ist hier ein Teil des Textes, den ChatGPT generierte, als er aufgefordert wurde, einen kurzen Aufsatz über The Catcher in the Rye zu schreiben.
Das soll nicht heißen, dass ChatGPT nicht seine Grenzen hat – das hat es mit Sicherheit. Je mehr Sie es verwenden, desto mehr werden Sie feststellen, dass dies der Fall ist. So mächtig es auch ist, es kann immer noch mit elementarer Logik kämpfen, Fehler machen, falsche und irreführende Informationen weitergeben, Anweisungen auf komische Weise falsch interpretieren und dazu manipuliert werden, die falschen Schlussfolgerungen zu ziehen.
Aber die Stärke von ChatGPT liegt nicht in seiner Fähigkeit, sich zu unterhalten. Vielmehr liegt es in seiner nahezu unbegrenzten Fähigkeit, Aufgaben massenweise effizienter und viel schneller zu erledigen, als es ein Mensch könnte. Mit den richtigen Eingaben und Befehlen und ein paar kreativen Problemumgehungen kann ChatGPT in ein verstörend leistungsfähiges Automatisierungstool verwandelt werden.
Vor diesem Hintergrund ist es nicht schwer, sich vorzustellen, wie ein Cyberkrimineller ChatGPT bewaffnen könnte. Es geht darum, die richtige Methode zu finden, sie zu skalieren und die KI dazu zu bringen, möglichst viele Aufgaben gleichzeitig zu erledigen, notfalls mit mehreren Konten und auf mehreren Geräten.
5 Dinge, die Bedrohungsakteure mit ChatGPT tun könnten
Es gibt bereits einige reale Beispiele dafür, dass ChatGPT von Bedrohungsakteuren verwendet wird, aber es ist mehr als wahrscheinlich, dass es auf verschiedene Weise bewaffnet wird oder irgendwann in der Zukunft sein wird. Hier sind fünf Dinge, die Hacker mit ChatGPT tun können (und wahrscheinlich tun).
1. Malware schreiben
Wenn ChatGPT Code schreiben kann, kann es Malware schreiben. Keine Überraschung. Aber das ist nicht nur eine theoretische Möglichkeit. Im Januar 2023 entdeckte das Cybersicherheitsunternehmen Check Point Research, dass Cyberkriminelle ChatGPT bereits zum Schreiben von Malware verwenden – und in Untergrundforen damit prahlen.
Der Bedrohungsakteur Check Point Research hat entdeckt, dass er den fortschrittlichen Chatbot ziemlich kreativ verwendet hat, um Python-basierte Malware nachzubilden, die in bestimmten Forschungspublikationen beschrieben wird. Als Forscher das Schadprogramm testeten, sagte der Cyberkriminelle die Wahrheit: Seine von ChatGPT generierte Malware tat genau das, wofür sie entwickelt wurde.
2. Generieren Sie Phishing-E-Mails
So leistungsfähig Spam-Filter auch geworden sind, gefährliche Phishing-E-Mails schlüpfen immer noch durch die Ritzen, und der Durchschnittsbürger kann nicht viel tun, außer den Absender seinem Anbieter zu melden. Aber es gibt eine Menge, was ein fähiger Angreifer mit einer Mailingliste und dem Zugriff auf ChatGPT tun könnte.
Mit den richtigen Befehlen und Vorschlägen kann ChatGPT überzeugende Phishing-E-Mails generieren, den Prozess für den Angreifer potenziell automatisieren und ihm ermöglichen, seine Operationen zu skalieren.
3. Erstellen Sie betrügerische Websites
Wenn Sie einfach den Begriff „Erstellen einer Website mit ChatGPT“ googeln, finden Sie eine Reihe von Tutorials, die genau erklären, wie genau das geht. Obwohl dies eine gute Nachricht für jeden ist, der eine Website von Grund auf neu erstellen möchte, sind es auch großartige Nachrichten für Cyberkriminelle. Was hält sie davon ab, ChatGPT zu verwenden, um eine Reihe von Betrugsseiten oder Phishing-Zielseiten zu erstellen?
Die Möglichkeiten sind nahezu unbegrenzt. Ein Angreifer könnte eine bestehende Website mit ChatGPT klonen und dann modifizieren, gefälschte E-Commerce-Websites erstellen, eine Website mit Scareware-Betrug betreiben und so weiter.
4. Erstellen Sie Spam-Inhalte
Um eine gefälschte Website einzurichten, eine betrügerische Social-Media-Seite zu betreiben oder eine Nachahmer-Website zu erstellen, benötigen Sie Inhalte – und zwar jede Menge davon. Und es muss so legitim wie möglich aussehen, damit der Betrug funktioniert. Warum sollte ein Bedrohungsakteur Content-Autoren einstellen oder selbst Blog-Beiträge schreiben, wenn er das einfach von ChatGPT erledigen lassen kann?
Zugegeben, eine Website mit KI-generierten Inhalten würde wahrscheinlich ziemlich schnell von Google abgestraft und nicht in den Suchergebnissen erscheinen, aber es gibt viele verschiedene Möglichkeiten, wie ein Hacker eine Website bewerben, Traffic dorthin senden und Leute aus dem Weg räumen könnte ihr Geld oder stehlen ihre persönlichen Daten.
5. Verbreitung von Desinformation und Fake News
Online-Desinformation ist in den letzten Jahren zu einem großen Problem geworden. Fake News verbreiten sich wie ein Lauffeuer in den sozialen Medien, und Menschen, die es nicht besser wissen, fallen oft auf irreführende – und manchmal buchstäblich erfundene – Geschichten herein. Dies kann schwerwiegende Folgen im wirklichen Leben haben, und es scheint, als hätte niemand eine Ahnung, wie man die Verbreitung gefälschter Nachrichten stoppen kann, ohne gegen die Gesetze zur freien Meinungsäußerung zu verstoßen.
Tools wie ChatGPT könnten dieses Problem noch verschlimmern. Bedrohungsakteure, die Zugang zu Software haben, die in der Lage ist, jeden Tag Tausende von gefälschten Nachrichten und Social-Media-Beiträgen zu generieren, scheinen ein Rezept für eine Katastrophe zu sein.
Nehmen Sie nicht unser Wort dafür
Wenn Sie nicht überzeugt sind, haben wir ChatGPT gefragt, wie ein Cyberkrimineller es verwenden würde. Es scheint mit dem Kern dieses Artikels übereinzustimmen.
In den falschen Händen wird ChatGPT gefährlich
Man kann sich nur vorstellen, wozu künstliche Intelligenz in fünf oder zehn Jahren fähig sein wird. Vorerst ist es am besten, den Hype und die Panik zu ignorieren und ChatGPT rational zu bewerten.
Wie alle Technologien ist ChatGPT weder von Natur aus hilfreich noch schädlich. Trotz einiger Mängel ist es bei weitem der leistungsfähigste Chatbot, der jemals für die Öffentlichkeit freigegeben wurde.
Schreibe einen Kommentar