Google warnt: Der KI-Assistent Gemini wird zunehmend von Hackergruppen genutzt, um ihre Prozesse effizienter zu machen. Doch keine Sorge, die Welt ist noch nicht in einen Science-Fiction-Film abgedriftet. Laut Googles Threat Intelligence Group (GTIG) setzen Hacker Gemini in erster Linie ein, um Aufgaben wie Programmierung, Recherche und Übersetzungen zu beschleunigen – und nicht, um beeindruckende, neue KI-basierte Cyberangriffe zu entwickeln. Aber was steckt hinter dieser neuen Begeisterung für KI bei Cyberkriminellen? Werfen wir einen Blick rein – versprochen, ohne Hacker-Romantisierung.
Gemini bei Hackern: Produktivität ist das Ziel
Von China bis Iran, von Nordkorea bis Russland: Staatlich geförderte Hacker haben Gemini für sich entdeckt. Es ist kein Wunder – schließlich ist KI ein mächtiges Werkzeug, auch für weniger heldenhafte Einsatzzwecke. Besonders beliebt ist der Assistent für Aufgaben wie die Entwicklung von Tools, die Suche nach Schwachstellen und die Planung von Angriffen. Clever, aber auch besorgniserregend.
Während iranische Hacker Gemini besonders intensiv für Phishing und Propaganda einsetzen, konzentrieren sich chinesische Gruppen auf militärische Ziele in den USA. Selbst Nordkorea setzt die KI ein, um Malware zu entwickeln und Tarnungstechniken zu verfeinern. Russland hingegen scheint eher zurückhaltend – vielleicht bevorzugen sie einfach ihre eigenen KI-Modelle aus Misstrauen gegenüber westlichen Systemen.
Missbrauchsversuche scheitern – vorerst
Es gab auch Bemühungen, Gemini selbst auszutricksen. Hacker haben versucht, Sicherheitsmaßnahmen durch manipulierte Prompts oder sogenannte „Jailbreaks“ zu umgehen. Gute Nachricht: Bisher waren diese Experimente erfolglos – Googles Schutzmaßnahmen haben gehalten. Doch das Rennen gegen die Zeit bleibt spannend, denn bei anderen KI-Modellen wie DeepSeek und Alibabas Qwen sind Sicherheitsforscher bereits auf Schwachstellen gestoßen.
Eine wachsende Gefahr für die Cyberwelt
Mit der wachsenden Beliebtheit von generativen KI-Modellen wächst auch die Sorge um ihren Missbrauch. Wenn KI – sei es Gemini oder ChatGPT – in die falschen Hände gerät, könnte das die Cyberwelt grundlegend verändern. Google bleibt wachsam, doch es bleibt die Frage: Wie lange können KI-Sicherheitssysteme mithalten, wenn immer raffiniertere Angriffe entwickelt werden?