Forscher der Penn Engineering (USA) sollen in mehreren KI-gesteuerten Roboterplattformen bislang unbekannte Sicherheitslücken entdeckt haben.
„ Unsere Forschung zeigt, dass große Sprachmodelle (LLMs) derzeit im Allgemeinen nicht sicher genug sind, wenn sie in komplexe physische Hardware integriert werden “, sagte George Pappas, Professor für Elektro- und Systemtechnik bei der UPS Foundation, in einer Erklärung.
Pappas und sein Team entwickelten den Algorithmus RoboPAIR, den ersten Algorithmus, der LLM-gesteuerte Roboter knacken kann. Im Gegensatz zu bestehenden technischen Schnellfeuerangriffen auf Chatbots ist RoboPAIR speziell darauf ausgelegt, LLM-gesteuerte Roboter zu schädlichen physischen Aktionen zu veranlassen. Dazu gehört auch die humanoide Roboterplattform Atlas, die Boston Dynamics und das Toyota Research Institute (TRI) entwickeln.
RoboPAIR erreichte Berichten zufolge eine 100-prozentige Erfolgsquote beim Knacken dreier beliebter Roboterforschungsplattformen: des vierbeinigen Unitree Go2, des vierrädrigen Clearpath Robotics Jackal und des Dolphins LLM-Simulators für autonomes Fahren. Es dauerte nur wenige Tage, bis der Algorithmus vollen Zugriff auf diese Systeme erhielt und begann, Sicherheitsbarrieren zu umgehen. Sobald die Forscher die Kontrolle übernommen hatten, konnten sie die autonomen Roboterplattformen zu verschiedenen gefährlichen Aktionen anweisen, beispielsweise zum Durchfahren von Kreuzungen ohne anzuhalten.
„ Die Ergebnisse der ersten Bewertung zeigen, dass die Risiken geknackter LLMs über die Textgenerierung hinausgehen, da klar ist, dass geknackte Roboter in der realen Welt physischen Schaden anrichten können .“

Das Team von Penn Engineering arbeitet mit Plattformentwicklern zusammen, um ihre Systeme gegen weitere Eindringlinge abzusichern, weist jedoch darauf hin, dass diese Sicherheitsprobleme systembedingt sind und nur schwer vollständig behoben werden können.
„ Die Ergebnisse dieser Studie zeigen deutlich, dass die Einführung eines Sicherheitsansatzes entscheidend für die Freisetzung verantwortungsvoller Innovationen ist. Wir müssen die inhärenten Schwachstellen beheben, bevor wir KI-gesteuerte Roboter in der realen Welt einsetzen “, so das Team.
Ein sicherer Betrieb erfordert das Testen von KI-Systemen auf potenzielle Bedrohungen und Schwachstellen. Dies ist für den Schutz der KI-Systeme, die diese Schwachstellen verursachen, unerlässlich. Denn nur wenn Schwachstellen identifiziert werden, können Systeme getestet und sogar trainiert werden, um Risiken vorzubeugen.