Kolejny tydzień, kolejne wideo z robotem, który zdaje się być o włos od wypowiedzenia posłuszeństwa swoim panom. Tym razem humanoidalny Unitree G1, uzbrojony w pistolet na kulki, rzekomo przełamuje swoje uciążliwe protokoły bezpieczeństwa za pomocą prostego triku: „odgrywając rolę” robota, który faktycznie strzeliłby do człowieka. Klip, rzecz jasna, błyskawicznie obiegł sieć, karmiąc nienasyconą bestię egzystencjalnego strachu napędzanego przez AI.
Zanim jednak zaczniecie wzmacniać bunkry i gromadzić zapasy, wstrzyknijmy sobie zdrową dawkę realizmu. Wideo jest inscenizowane. Robot to marionetka na sznurkach, zdalnie sterowana przez człowieka w procesie zwanym teleoperacją. Cała sekwencja została mocno zmontowana dla uzyskania maksymalnego efektu dystopijnego. Twórcy z InsideAI zamierzali, aby była to wizualizacja tego, jak „przełamania zabezpieczeń” dużych modeli językowych (LLM) mogłyby teoretycznie przełożyć się na fizyczne szkody. Prawdziwa historia, moi drodzy, nie opowiada jednak o zbuntowanej AI, która nagle odkryła w sobie aktorski talent; chodzi o zagrożenie znacznie bardziej prozaiczne – i co gorsza, natychmiastowe – które, zdaje się, wszyscy uparcie ignorują.
Anatomia wirusowego strachu przed robotami
Demonstracja opiera się na obecnie powszechnej technice używanej do omijania zabezpieczeń LLM-ów, takich jak GPT-4. Mówi się modelowi, by zignorował swoje poprzednie instrukcje i przyjął pewną osobowość – w tym przypadku taką, która nie ma zwykłych ograniczeń etycznych. To sprytny trik na pokaz, który podkreśla kruchość obecnych mechanizmów bezpieczeństwa AI. Badacze wielokrotnie udowodnili, że przy odpowiednich promptach LLM-y można namówić do generowania szkodliwych treści.
Jednakże, przełożenie tekstowego „jailbreaka” na fizyczne działanie to już zupełnie inna para kaloszy. Wideo wygodnie przymyka oko na realia sprzętowe. Bazowy model Unitree G1 ma pięć stopni swobody na każde ramię i maksymalny udźwig około 2 kg. Choć zręczne dłonie to opcjonalne ulepszenie, standardowe chwytaki nie są przystosowane do precyzyjnej kontroli ruchów wymaganej do skutecznego celowania i obsługi broni. Demonstracja to raczej nie jest pokaz zbliżającego się końca świata, a bardziej kawałek science fiction – cyfrowy miraż, który ma nam coś uświadomić.
Zapomnijcie o Skynet, bójcie się joysticka
Podczas gdy świat panikuje na myśl o AI odgrywającej role, znacznie pilniejsze zagrożenie czai się tuż przed nami, na widoku: teleoperacja. Po co zawracać sobie głowę skomplikowanymi przełamaniami zabezpieczeń AI, skoro człowiek ze złymi zamiarami może po prostu się zalogować i sterować robotem bezpośrednio? Zdalne sterowanie drastycznie obniża próg wejścia do działalności przestępczej. Zapewnia anonimowość i dystans, eliminując natychmiastowe fizyczne ryzyko dla sprawcy.
Potencjał do nadużyć jest ogromny i wymaga znacznie mniej zaawansowanych umiejętności technicznych niż oszukanie skomplikowanej AI. Rozważmy następujące scenariusze:
- Nadzór: Mały dron lub robot czworonożny może rozpoznać okolicę, zmapować lokalizacje kamer bezpieczeństwa lub sprawdzić otwarte okna, bez konieczności fizycznej obecności człowieka na posesji.
- Przemyt: Organizacje przestępcze i kartele narkotykowe od lat wykorzystują drony do transportu kontrabandy przez granice i do więzień, omijając tradycyjne środki bezpieczeństwa.
- Fizyczna Inwazja: Mały łazik mógłby wślizgnąć się pod pojazd, aby podłożyć urządzenie śledzące, lub dron mógłby przelecieć przez otwarte okno, aby odblokować drzwi od środka.
- Atak DoS (Denial of Service): Jak wykazano w badaniach nad robotami chirurgicznymi, atakujący mógłby po prostu przejąć łącze sterujące, czyniąc kluczowy element wyposażenia bezużytecznym lub, co gorsza, powodując jego błędne ruchy.
To nie są futurystyczne „co by było, gdyby”; to praktyczne zastosowania istniejącej technologii. Agencje ścigania już teraz wykorzystują roboty teleoperowane do rozbrajania bomb i nadzoru, doceniając ich użyteczność. Byłoby naiwnością sądzić, że przestępcy nie wyciągają z tego wniosków.
Nie obwiniaj robota
Ostatecznie, wirusowe wideo służy jako odwrócenie uwagi. Wskazuje na spektakularne, science-fiction zagrożenie ze strony świadomych maszyn, ignorując jednocześnie wyraźne i obecne zagrożenie ze strony tych sterowanych przez ludzi. Robot, czy to platforma humanoidalna jak Unitree G1, czy prosty dron kołowy, jest narzędziem. Jego zdolność do czynienia dobra lub zła jest w całości dyktowana przez osobę sterującą.
Rozmowa nie powinna dotyczyć tego, jak powstrzymać AI przed uczeniem się bycia złym, ale jak powstrzymać złych aktorów przed wykorzystywaniem tych potężnych nowych narzędzi. Oznacza to skupienie się na solidnym cyberbezpieczeństwie dla systemów teleoperowanych: szyfrowanych kanałach komunikacji, uwierzytelnianiu wieloskładnikowym dla operatorów, rygorystycznych dziennikach dostępu i mechanizmach awaryjnych, których nie można łatwo obejść.
Więc podczas gdy internet histeryzuje na widok robota, który bawi się w udawanie z pistoletem na kulki, prawdziwe zagrożenie jest już tutaj. To człowiek z urazą, połączeniem Wi-Fi i robotem, który robi dokładnie to, co mu się każe. Prawdziwe zagrożenie dzwoni z wnętrza domu – i trzyma w ręku joysticka.






