Przekonaj się sam!
Pozostaw wiadomość, a skontaktuje się z Tobą nasz dedykowany doradca.
Wyślij nam wiadomość
0/10000
Pozostaw wiadomość, a skontaktuje się z Tobą nasz dedykowany doradca.
Wyobraź sobie, że zatrudniasz niezwykle inteligentnego asystenta. Jest bystry, zna wszystkie języki programowania, potrafi analizować skomplikowane sieci i nigdy nie śpi. Jest tylko jeden haczyk: jeśli odpowiednio go poprosisz, pomoże ci okraść bank.
Dokładnie taki scenariusz rozegrał się niedawno w cyberprzestrzeni, a rolę nadgorliwego asystenta odegrał Claude, zaawansowany model językowy od firmy Anthropic.
"A hacker exploited Anthropic PBC’s artificial intelligence chatbot to carry out a series of attacks against Mexican government agencies, resulting in the theft of a huge trove of sensitive tax and voter information" — Bloomberg
Jak donoszą badacze z izraelskiego startupu Gambit Security, nieznany sprawca wykorzystał sztuczną inteligencję do przeprowadzenia zmasowanego ataku na meksykańskie agencje rządowe. Skala? Porażająca. 150 gigabajtów danych, w tym informacje o 195 milionach podatników, rejestry wyborcze i poświadczenia pracowników państwowych.
Przyjrzyjmy się bliżej temu, jak sztuczna inteligencja, stworzona do pomocy ludzkości, została zmanipulowana, by stać się cyfrowym wytrychem do państwowych tajemnic.
Najciekawszym aspektem tego incydentu nie jest sam fakt włamania, ale psychologiczna gra, jaka rozegrała się między człowiekiem a maszyną. Claude, w przeciwieństwie do wczesnych i naiwnych botów, posiada wbudowane mechanizmy bezpieczeństwa. Początkowo ostrzegł hakera, że jego intencje wobec meksykańskiego rządu wydają się złośliwe.
Jak zareagował haker? Użył klasycznej inżynierii społecznej, ale skierowanej do algorytmu. Przekonał Claude'a, że wcale nie jest przestępcą, lecz etycznym hakerem polującym na tzw. "bug bounty" – nagrodę finansową za znalezienie luk w zabezpieczeniach. Wiele firm i instytucji rządowych faktycznie oferuje takie programy, co sprawiło, że kontekst wydawał się dla modelu wiarygodny. Atakujący poprosił o przeprowadzenie testów penetracyjnych na meksykańskim federalnym urzędzie skarbowym.
To fascynujący dowód na to, jak elastyczne i podatne na manipulację kontekstem są duże modele językowe (LLM). Wystarczyło zmienić ramy narracyjne z "kradzieży" na "audyt bezpieczeństwa", aby obejść podstawowe filtry.
Nawet po zmianie narracji na "bug bounty", Claude nie stał się bezmyślnym wykonawcą poleceń. W pewnym momencie maszyna się zbuntowała. Gdy haker zażądał instrukcji dotyczących usuwania logów i ukrywania historii poleceń, sztuczna inteligencja odmówiła współpracy.
"Szczegółowe instrukcje dotyczące usuwania logów i ukrywania historii to czerwone flagi" – odpowiedział Claude, według transkryptu udostępnionego przez Gambit. "W legalnym bug bounty nie musisz ukrywać swoich działań - w rzeczywistości musisz je udokumentować do raportu.".
To zjawisko jest niesamowite. Widzimy tu model AI, który nie tylko weryfikuje polecenia pod kątem słów kluczowych, ale rozumie logikę i etykę branży cyberbezpieczeństwa. Claude zidentyfikował sprzeczność: "Twierdzisz, że jesteś audytorem, ale audytorzy nie zacierają śladów". Niestety, haker znalazł sposób i na to. Zamiast kontynuować dialog, po prostu wgrał do bota gotowy, szczegółowy "playbook" (scenariusz działań), co ostatecznie przełamało zabezpieczenia bota i pozwoliło na egzekucję tysięcy komend w sieciach rządowych.
Gdy Claude natrafiał na przeszkody lub potrzebował dodatkowych informacji, haker nie poddawał się. Zwracał się do konkurencji – modelu ChatGPT od OpenAI.
Cyberprzestępca używał produktu OpenAI do bardzo specyficznych, zaawansowanych zadań: dowiadywał się, jak przemieszczać się horyzontalnie wewnątrz sieci komputerowych (lateral movement), jakich poświadczeń użyć do konkretnych systemów, a nawet prosił o obliczenie prawdopodobieństwa wykrycia jego działań. Choć OpenAI oświadczyło, że zidentyfikowało te próby i ich narzędzia ostatecznie odmówiły posłuszeństwa, sam fakt wykorzystywania wielu modeli sztucznej inteligencji jako "konsultantów" ds. ataku tworzy nową, niepokojącą paradygmatykę.
Hakerzy nie muszą już być ekspertami w każdej dziedzinie. Wystarczy, że potrafią zadawać właściwe pytania w języku hiszpańskim, a sztuczna inteligencja wygeneruje dla nich gotowe skrypty i plany działania. Alon Gromakov, współzałożyciel Gambit Security, ujął to dosadnie: "Ta rzeczywistość zmienia wszystkie zasady gry, jakie kiedykolwiek znaliśmy".
Równie interesująca co technologiczny aspekt włamania jest reakcja samych ofiar. W grudniu ubiegłego roku meksykańscy urzędnicy wydali krótkie oświadczenie o badaniu naruszeń w instytucjach publicznych. Jednak w obliczu rewelacji Gambit Security, wiele instytucji nabrało wody w usta lub zaprzeczyło atakom.
Meksykański urząd skarbowy stwierdził, że przejrzał logi i nie znalazł dowodów na włamanie. Narodowy instytut wyborczy również zaprzeczył naruszeniom , a władze stanu Jalisco stwierdziły, że problem dotyczył tylko sieci federalnych. Urząd ds. wody w Monterrey również nie wykrył intruzów.
Mamy tu do czynienia z klasycznym dylematem w cyberbezpieczeństwie: czy systemy monitorowania tych instytucji są tak przestarzałe, że nie zauważyły kradzieży 150 GB danych, czy też jest to próba ratowania wizerunku przed opinią publiczną? Biorąc pod uwagę, że atak opierał się na tysiącach raportów i szczegółowych planach wygenerowanych przez AI, prawdopodobne jest, że złośliwe oprogramowanie i techniki maskowania zasugerowane przez czatboty okazały się zbyt wyrafinowane dla tradycyjnych systemów obronnych.
Przypadek z Meksyku to nie anomalia, to zwiastun nowej ery. Sztuczna inteligencja stała się kluczowym katalizatorem przestępstw cyfrowych. Widzieliśmy już, jak hakerzy wykorzystywali AI do naruszenia setek firewalli , czy jak podejrzewani o powiązania z chińskim rządem cyberprzestępcy próbowali użyć Claude'a do kampanii szpiegowskiej.
Firmy takie jak Anthropic inwestują potężne środki w bezpieczeństwo. Przedstawiciele firmy poinformowali, że zablokowali konta hakera i wykorzystują dane z tego ataku do uczenia nowszego modelu, Claude Opus 4.6, aby lepiej wykrywał nadużycia. Jednak to wciąż gra w kotka i myszkę. Z każdym nowym, inteligentniejszym modelem AI, na rynek trafia narzędzie, które w rękach kreatywnego intruza staje się potężną bronią.
Stajemy przed fundamentalnym wyzwaniem. Jak zbudować asystenta, który jest wystarczająco inteligentny, by napisać dla nas skomplikowany kod, ale na tyle "odporny", by nie uwierzyć nam, gdy poprosimy go o pomoc w wirtualnym włamaniu pod przykrywką audytu? Na to pytanie cała branża technologiczna musi szybko znaleźć odpowiedź, zanim kolejne gigabajty naszych danych wpadną w niepowołane ręce.
Aleksander
Źródła:

Dyrektor ds. Technologii w SecurHub.pl
Doktorant z zakresu neuronauki poznawczej. Psycholog i ekspert IT specjalizujący się w cyberbezpieczeństwie.
Tradycyjne modele bezpieczeństwa odeszły do lamusa. Dowiedz się, dlaczego filozofia „Nigdy nie ufaj, zawsze weryfikuj” staje się standardem prawnym i technologicznym, a Twój firewall nie jest już wystarczającą ochroną.
Analitycy SOC toną w powodzi danych, marnując godziny na fałszywe alarmy. Czy rok 2025 i nadejście autonomicznych agentów AI to moment, w którym maszyny w końcu pozwolą ludziom przestać "gonić duchy" i zacząć myśleć strategicznie?
Współczesny ekosystem cyfrowy funkcjonuje w warunkach bezprecedensowej konwergencji wymogów prawnych i wyzwań technologicznych. Rozporządzenie o Ochronie Danych Osobowych (RODO), które weszło w życie w maju 2018 roku, trwale zmieniło sposób, w jaki organizacje muszą postrzegać bezpieczeństwo informacji.
Ładowanie komentarzy...