Przekonaj się sam!
Pozostaw wiadomość, a skontaktuje się z Tobą nasz dedykowany doradca.
Wyślij nam wiadomość
0/10000
Pozostaw wiadomość, a skontaktuje się z Tobą nasz dedykowany doradca.
Witajcie w cyfrowym świecie 2025 roku, gdzie linia frontu walki o bezpieczeństwo danych przesuwa się z prędkością światła. Jeśli myśleliście, że krajobraz cyberzagrożeń jest już wystarczająco skomplikowany, zapnijcie pasy. Jak alarmuje Światowe Forum Ekonomiczne (WEF), liczba cyberataków w ostatnich latach wzrosła lawinowo, a ich średnia tygodniowa liczba na organizację wzrosła ponad dwukrotnie w ciągu zaledwie czterech lat. To już nie są pojedyncze potyczki, to regularna, globalna wojna cyfrowa. A na tym polu bitwy pojawił się nowy, potężny gracz, który zmienia zasady gry: Sztuczna Inteligencja.
AI, niczym mityczny Janos, ma dwie twarze. Z jednej strony staje się wymarzonym narzędziem hakerów, oszustów i państwowych operatorów, pozwalając im na automatyzację, skalowanie i udoskonalanie ataków na niespotykaną dotąd skalę. Z drugiej – daje obrońcom potężny oręż do analizy, predykcji i neutralizacji zagrożeń. Najnowsze, obszerne raporty opublikowane w ostatnich tygodniach przez Agencję Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) oraz laboratorium badawcze OpenAI rzucają światło na tę nową rzeczywistość. Przyjrzyjmy się, co mówią nam o naturze współczesnych zagrożeń i roli, jaką odgrywa w nich AI.
Zanim zanurzymy się w meandry sztucznej inteligencji, spójrzmy na szerszy obraz, który maluje przed nami coroczny raport ENISA Threat Landscape. Analizując niemal 5000 incydentów z okresu od lipca 2024 do czerwca 2025, agencja wskazuje na kilka kluczowych trendów, które definiują obecne pole walki.
1. Dominacja DDoS i Ideologii: Pod względem czystej liczby incydentów (aż 77%!) królują ataki typu DDoS (Distributed Denial of Service). Co ciekawe, ich głównym motorem napędowym nie jest chęć zysku, a ideologia. To haktywiści odpowiadają za przytłaczającą większość tych operacji, które stanowią niemal 80% wszystkich incydentów motywowanych ideologicznie. Ich celem najczęściej padają strony internetowe administracji publicznej państw członkowskich UE. Chociaż ataki te generują medialny szum, ich realny wpływ jest często niewielki – zaledwie 2% z nich prowadzi do faktycznego zakłócenia usług. Mamy więc do czynienia z głośnym, ale często niegroźnym cyfrowym protestem, którego głównym narzędziem jest grupa NoName057(16), odpowiedzialna za ponad 60% roszczeń.
2. Ransomware: Król Destrukcji: Jeśli DDoS to głośna manifestacja, to ransomware jest cichym, ale śmiertelnie skutecznym zabójcą. ENISA nie ma wątpliwości: to właśnie oprogramowanie szantażujące jest najbardziej dotkliwym i niszczycielskim zagrożeniem w Unii Europejskiej. Pomimo odnotowanego spadku liczby ataków o 11% w stosunku do poprzedniego roku, ich siła rażenia pozostaje ogromna. Grupy takie jak te stojące za szczepami Akira czy SafePay, paraliżując firmy i instytucje (ze szczególnym uwzględnieniem samorządów), powodują realne, wielomilionowe straty i długotrwałe zakłócenia w działaniu.
3. Phishing: Niezawodny Wytrych: Jak cyberprzestępcy dostają się do środka? Stary, dobry phishing wciąż jest na fali. Aż 60% udanych włamań zaczyna się od fałszywego maila, SMS-a czy reklamy. To dowód na to, że najsłabszym ogniwem wciąż pozostaje człowiek. Co więcej, rozwój modeli "Phishing-as-a-Service" (PhaaS) sprawia, że nawet początkujący przestępcy mogą dziś kupić gotowe zestawy do przeprowadzania profesjonalnie wyglądających kampanii, co znacznie obniża próg wejścia do świata cyberprzestępczości.
4. Administracja Publiczna i Aktorzy Państwowi na Celowniku: Kto jest głównym celem ataków? Sektor publiczny. Aż 38,2% wszystkich zarejestrowanych incydentów było skierowanych przeciwko instytucjom rządowym i samorządowym. To na nich skupia się uwaga zarówno wspomnianych haktywistów, jak i znacznie groźniejszych graczy – grup powiązanych z obcymi państwami (state-nexus actors). Te zaawansowane grupy, takie jak osławione APT28 (Fancy Bear), APT29 (Cozy Bear) czy Sandworm, przypisywane rosyjskim służbom wywiadowczym, były według raportu ENISA jednymi z najaktywniejszych w UE, prowadząc wyrafinowane operacje cyberszpiegowskie wymierzone w cele dyplomatyczne, obronne i telekomunikacyjne.
Raport ENISA jednoznacznie wskazuje, że rosnąca rola AI jest kluczowym trendem, który definiuje ewolucję zagrożeń. Potwierdza to opublikowany niemal równolegle szokujący raport OpenAI pt. "Disrupting malicious uses of AI", który na konkretnych przykładach pokazuje, jak wszechstronnym i niebezpiecznym narzędziem w niepowołanych rękach stały się duże modele językowe (LLM), takie jak ChatGPT.
Przestępcy nie budują swoich operacji od zera wokół AI. Zamiast tego, jak zauważa OpenAI, wplatają modele językowe w swoje istniejące schematy działania, czyniąc je szybszymi, bardziej wydajnymi i trudniejszymi do wykrycia.
Phishing i Inżynieria Społeczna na Sterydach: Pamiętacie te niezdarne, pełne błędów gramatycznych maile phishingowe, które można było rozpoznać na kilometr? Te czasy odchodzą w niepamięć. LLM-y potrafią generować perfekcyjnie napisane, spersonalizowane i dopasowane kulturowo wiadomości w dowolnym języku. ENISA szacuje, że na początku 2025 roku kampanie phishingowe wspierane przez AI stanowiły już ponad 80% wszystkich zaobserwowanych działań z zakresu inżynierii społecznej!
OpenAI opisuje przypadek chińskiej grupy (powiązanej z UNK_DROPPITCH), która używała ChatGPT do tworzenia maili phishingowych w języku chińskim, angielskim i japońskim, precyzyjnie dostosowując ton i regionalizmy, by uderzyć w sektor półprzewodników na Tajwanie czy amerykańskie ośrodki akademickie.
Wsparcie dla Twórców Malware'u: Modele AI stały się dla hakerów swego rodzaju inteligentnym asystentem programisty. OpenAI zbanowało konta rosyjskojęzycznej grupy przestępczej, która używała ChataGPT do prototypowania i debugowania komponentów złośliwego oprogramowania – trojanów zdalnego dostępu (RAT), narzędzi do kradzieży poświadczeń i funkcji unikania detekcji. Co istotne, model odmawiał generowania wprost złośliwego kodu. Przestępcy obchodzili to zabezpieczenie, prosząc o poszczególne "klocki" – fragmenty kodu, które same w sobie są neutralne (np. konwersja plików wykonywalnych do shellcode'u), a które następnie składali w śmiercionośną całość poza platformą. Podobne techniki zaobserwowano u operatorów koreańskojęzycznych, którzy wykorzystywali AI do pracy nad implantami, procedurami kradzieży poświadczeń z przeglądarek czy tworzeniem fałszywych stron weryfikacyjnych.
Operacje Dezinformacyjne i Wywierania Wpływu (IO): Sztuczna Inteligencja to wymarzone narzędzie dla machiny propagandowej. Rosyjska operacja "Stop News", o której OpenAI pisało już w 2024 roku, powróciła. Tym razem operatorzy używali ChatGPT do generowania scenariuszy do krótkich, "newsowych" filmików wideo, które następnie publikowali na YouTube i TikToku. Treści, tłumaczone przez AI na francuski, wychwalały rolę Rosji w Afryce, jednocześnie krytykując Francję i USA. W bardziej zaawansowanych przypadkach, AI generowała nawet szczegółowe podpowiedzi (prompty) dla... innych modeli AI, tym razem do tworzenia wideo, co pokazuje rosnącą złożoność tych operacji.
Inny przykład to chińska operacja "Nine-emdash Line". Jej celem było masowe generowanie anglojęzycznych postów w mediach społecznościowych, które podsycały spory terytorialne na Morzu Południowochińskim, krytykowały prezydenta Filipin i dyskredytowały prodemokratycznych aktywistów z Hongkongu.
Globalne Oszustwa na Skalę Przemysłową: AI zdemokratyzowała również wielkoskalowe oszustwa. OpenAI zidentyfikowało i zablokowało siatki scammerów z Kambodży, Mjanmy i Nigerii. Wykorzystywali oni modele językowe do tłumaczenia i tworzenia treści na fałszywe strony inwestycyjne, prowadzenia rozmów z ofiarami i masowego rozsyłania wiadomości.
Jeden z gangów z Kambodży posunął się o krok dalej. Stworzył na WhatsAppie fałszywą grupę dyskusyjną, w której rzekomi "inwestorzy" (w rzeczywistości boty) prowadzili ze sobą ożywione, w pełni wygenerowane przez AI rozmowy o zyskach, by uwiarygodnić oszustwo w oczach nowo dodanej ofiary. Co bardziej szokujące, jedno z centrów scamu w Mjanmie używało ChataGPT nie tylko do oszukiwania, ale też do... zarządzania swoją codzienną działalnością – tworzenia grafików, przypisywania biurek i łóżek w akademikach dla pracowników, a nawet pytało model o potencjalne kary za cyberprzestępstwa.
AI w Rękach Reżimów Autorytarnych: Być może najbardziej mrożącym krew w żyłach zastosowaniem AI jest jej wykorzystanie przez reżimy autorytarne do kontroli i inwigilacji. OpenAI zidentyfikowało użytkowników powiązanych z rządem Chińskiej Republiki Ludowej, którzy próbowali używać ChataGPT do projektowania narzędzi monitorujących na masową skalę. Jeden z nich prosił o pomoc w stworzeniu planu dla "sondy" mediów społecznościowych, która skanowałaby Twittera/X, Facebooka i inne platformy w poszukiwaniu "mowy ekstremistycznej" oraz treści o charakterze etnicznym, religijnym i politycznym.
Inny użytkownik zlecił AI opracowanie propozycji "Modelu Ostrzegania przed Napływem Osób Wysokiego Ryzyka Powiązanych z Ujgurami". Narzędzie to miało analizować rezerwacje transportowe i porównywać je z danymi policyjnymi, by śledzić przemieszczanie się osób z tej mniejszości etnicznej.
To, co czyni nowe zagrożenia szczególnie niepokojącymi, to zdolność przestępców do szybkiej nauki i adaptacji. Nie tylko wykorzystują oni AI, ale także uczą się, jak maskować jej użycie, aby ich działania były jeszcze bardziej przekonujące. Raport OpenAI ujawnia fascynujący "meta-wątek" tej ewolucji.
Operatorzy scamów z Kambodży zaczęli instruować modele AI, aby te usuwały z generowanych tekstów charakterystyczne pauzy (myślniki em-dash), które stały się w internetowych dyskusjach nieformalnym sygnałem rozpoznawczym treści tworzonych przez AI. To drobny, ale znaczący szczegół. Pokazuje on, że przestępcy aktywnie śledzą publiczną debatę na temat AI i na bieżąco dostosowują swoje taktyki, aby unikać detekcji. Podobnie, po zbanowaniu ich grup na WhatsAppie, oszuści używali AI do generowania wymówek, twierdząc, że padli ofiarą fałszywych zgłoszeń ze strony konkurencji. Ta zdolność do dynamicznego reagowania i tworzenia fałszywych narracji w odpowiedzi na działania obronne czyni walkę z nimi jeszcze trudniejszą.
Na szczęście, to tylko jedna strona medalu. Ta sama technologia, która napędza ataki, staje się najpotężniejszym sojusznikiem obrońców. Firmy, jak donosi WEF, masowo inwestują w rozwiązania z zakresu cyberbezpieczeństwa oparte na AI, aby wzmocnić swoje systemy obronne. Ale prawdziwą nadzieję daje inne odkrycie OpenAI.
Okazuje się, że ChatGPT jest używany do identyfikowania i demaskowania oszustw nawet do trzech razy częściej, niż do ich tworzenia! Zwykli użytkownicy wklejają do okna czatu podejrzane SMS-y i maile, a model w odpowiedzi punkt po punkcie analizuje wiadomość, wskazując wszystkie "czerwone flagi": błędy gramatyczne, podejrzane linki, techniki manipulacji i próby wyłudzenia danych. To niezwykły przykład tego, jak dostęp do zaawansowanej technologii może podnieść poziom świadomości i odporności całego społeczeństwa.
W tej całej dyskusji o algorytmach, sieciach neuronowych i zautomatyzowanych atakach łatwo zapomnieć o najważniejszym elemencie tej układanki – człowieku i pieniądzach.
Jesteś Najsłabszym Ogniwem: Mimo rozwoju zaawansowanych technik hakerskich, phishing i kradzież poświadczeń wciąż są najpopularniejszą metodą włamania. To pokazuje, że nasza nieuwaga, pośpiech i brak sceptycyzmu są dla cyberprzestępców najcenniejszym zasobem. Jak celnie ujął to były filipiński Sekretarz ds. Technologii Informacyjnych, Ivan John Uy: "Cyberbezpieczeństwo to nie umiejętność techniczna, ale umiejętność życiowa".
Kryzys Talentów i Presja Ekonomiczna: Drugim ludzkim problemem jest ogromny niedobór specjalistów. WEF w swoim raporcie "Global Cybersecurity Outlook 2025" alarmuje, że brak wykwalifikowanej kadry jest jedną z głównych przeszkód w budowaniu cyfrowej odporności. Zaledwie 14% organizacji uważa, że posiada niezbędne umiejętności do radzenia sobie z cyberzagrożeniami. Ten deficyt ma realne konsekwencje ekonomiczne. Firmy są zmuszone do zwiększania budżetów na cyberbezpieczeństwo (co potwierdza trend wzrostowy w latach 2021-2025), ale jednocześnie mają problem ze znalezieniem ludzi, którzy mogliby te budżety efektywnie wykorzystać. Prowadzi to do rosnących kosztów ubezpieczeń od cyberataków i zmusza zarządy do traktowania cyber-ryzyka jako kluczowego elementu strategii biznesowej i planowania ciągłości działania.
Rok 2025 to bez wątpienia początek nowej ery w cyberbezpieczeństwie – ery zdominowanej przez Sztuczną Inteligencję. Obserwujemy klasyczny wyścig zbrojeń. Przestępcy wykorzystują AI do tworzenia doskonalszych kampanii phishingowych, pisania złośliwego oprogramowania i prowadzenia operacji dezinformacyjnych na niespotykaną skalę. Obrońcy odpowiadają, zaprzęgając te same mechanizmy do analizowania anomalii, wykrywania zagrożeń w czasie rzeczywistym i edukowania społeczeństwa.
W tym nowym, dynamicznym krajobrazie rządy również starają się nadążyć, wprowadzając nowe regulacje, takie jak unijny Akt o Odporności Cyfrowej (Cyber Resilience Act) czy Akt o AI (AI Act). Jednak technologia i taktyki przestępców ewoluują szybciej niż proces legislacyjny.
Dlatego jedno pozostaje niezmienne: fundamenty bezpieczeństwa. Regularne aktualizacje oprogramowania, higiena cyfrowa, silne uwierzytelnianie i, co najważniejsze, nieustanna edukacja i zdrowy sceptycyzm. AI może być potężnym narzędziem, ale ostatecznie to od decyzji podejmowanych przez ludzi zależy, czy stanie się ona naszą tarczą, czy mieczem w ręku wroga.
Czy sztuczna inteligencja naprawdę odbiera nam zdolność myślenia i pisania? Ten artykuł zgłębia, jak AI zmienia nasze nawyki czytelnicze i intelektualne w erze cyfrowej rewolucji.
Najnowszy raport ESET rzuca światło na alarmującą pozycję Polski w globalnym rankingu cyberzagrożeń. Jesteśmy na drugim miejscu na świecie pod względem liczby ataków. Analizujemy, co to oznacza i jak wygląda krajobraz zagrożeń, od ransomware po ataki na infrastrukturę krytyczną.
Pierwszy od trzech lat wzrost ataków ransomware, sponsorowane państwowo kampanie wykorzystujące luki w zaporach sieciowych Cisco i pilne aktualizacje dla produktów VMware – witajcie w październiku.
Ładowanie komentarzy...