SoDA

Wywiad z pentesterem. Wyzwania i zagrożenia dla cybersecurity w erze AI

Wdrożenie sztucznej inteligencji w biznesie niewątpliwie przyniosło wiele korzyści, takich jak automatyzacja procesów, czy lepsza analiza danych. Pojawia się jednak coraz więcej pytań, czy AI może być wykorzystywana w celach związanych z cyberprzestępczością. Nowe metody ataków oraz narzędzia oparte na sztucznej inteligencji stwarzają realne ryzyko dla prywatności, infrastruktury krytycznej i danych użytkowników.

Porozmawialiśmy z doświadczonym pentesterem – Grzegorzem Boruszewskim ze Spyrosoft, firmy członkowskiej SoDA, który na co dzień jest na pierwszej linii walki z nowymi zagrożeniami i próbuje znaleźć luki w zabezpieczeniach systemów przed cyberatakami. 

SoDA: Jakie są najpoważniejsze zagrożenia dla bezpieczeństwa danych w erze sztucznej inteligencji?

GB: Moim zdaniem – mówię tutaj całkiem serio – niedocenianym zagrożeniem jest to, że sztuczna inteligencja (taka nowa, lśniąca, ale wciąż tylko software’owa) momentami pozbawia inteligencji swoich interlokutorów. Sami podajemy poufne dane w rozmowach z Chat GPT lub botami myśląc, że takowe nie ujrzą światła dziennego. W nieco szerszym horyzoncie również ryzyko „dobrowolnego” udostępnienia poufnych danych dramatycznie wzrasta i to uważam za aktualnie najpoważniejsze zagrożenie.

SoDA: Potencjalne skutki wykorzystania AI w celach przestępczych.

GB: Dziś – moim zdaniem – to przede wszystkim podszywanie się pod innych w celu wyłudzenia poufnych danych. Wkrótce jednak algorytmy sztucznej inteligencji będą interpretować także dane typu: instrukcja znalezienia podatności typu 0-day oraz – jak mniemam – wykorzystywać tę wiedzę w atakach na systemy informatyczne.

SoDA: W jaki sposób ataki oparte na sztucznej inteligencji różnią się od tradycyjnych metod?

GB: Większość ataków określanych tym mianem zwyczajnie nie nazwałbym „opartymi na sztucznej inteligencji”. Najczęściej są to ataki zautomatyzowane, wedle pewnego, ambitnego i niełatwego scenariusza. Nazywamy je „atakami opartymi o SI”. Dzisiejsze ataki realizowane przez sztuczną inteligencję to przede wszystkim te, w których algorytm umożliwia podszycie się pod kogoś i w ten sposób wyłudzenie danych. „Tradycyjny” atak phishingowy to oczywiście często również było podszywanie się, ale raczej nie poprzez materiały typu nagranie audio lub video na którym ktoś, kogo znamy zachęca nas do podania hasła lub zrealizowania przelewu. Nigdy zaś dotąd nie mieliśmy możliwości, aby ktoś podszył się pod osobę której ufamy w czasie rzeczywistym. AI sprawia, że właśnie takie ataki (widzę, słyszę kogoś, komu ufam, ten ktoś odpowiada na moje pytania i reaguje tu i teraz) w ogóle są możliwe.

SoDA: Jakie mogą być konsekwencje ataków typu: deepfake, generowanie fałszywych informacji lub sabotowanie algorytmów?

GB: Niepożądane? Oczywiście wyłudzenie danych lub monetyzacja ataku w czasie rzeczywistym czyli wyłudzenie pieniędzy. Będą to także niepokoje społeczne i potęgowanie podziałów. Pożądane? Utrata zaufania do tego, co widzę i słyszę w Internecie. Nie mówię, że mamy od dzisiaj każdą informację i interakcję w sieci traktować jako fake. Chodzi mi bardziej o stosowanie zasady „wątpię, więc myślę, więc jestem”. Przeczytałam coś ważnego w Internecie? Sprawdzam źródło (jego wiarygodność), szukam potwierdzenia w innych miejscach. Ktoś nakłania mnie w sieci do jakiegoś zachowania? Szukam wiarygodnej metody aby potwierdzić okoliczności które miałyby mnie do tego działania nakłonić. Wiarygodność tego rodzaju komunikacji jest taka sama jak wiarygodność wiadomości przekazanej gołębiem pocztowym lub wysłanej w butelce. Ona może być prawdą, ale… Godny zaufania dziennikarz to taki, który potwierdza pozyskaną informację w kilku źródłach, posiada źródła zaufane oraz listę tych, którym ufać się nie powinno. My powinniśmy w Internecie robić tak samo!

SoDA: Czy istnieją luki w zabezpieczeniach, które mogą być wykorzystane przez cyberprzestępców?

GB: Dokładnie te same, które są wykorzystywane przez przestępców w ludzkim ciele. Błędy w konfiguracji środowiska lub infrastruktury, nieprawidłowa konfiguracja aplikacji pod kątem bezpieczeństwa, brak aktualizacji aplikacji, brak lub nieprawidłowa weryfikacja danych wejściowych, brak lub niewystarczające dzienniki zdarzeń. Jest ich jeszcze mnóstwo!

SoDA: Czy sztuczna inteligencja może być wykorzystana w celu wykrywania i zwalczania cyberataków?

GB: Absolutnie nie „może” – absolutnie powinna! Mówi się, że „obrońca” musi wygrać z przestępcą 100/100 incydentów podczas gdy przestępcy wystarczy jeden sukces. Sztuczna Inteligencja bazuje na dostarczanych danych (człowiek też, tylko wolniej). Te ataki to właśnie dane! Ataki na inne systemy to też dane! Powiedzenie „uczę się na błędach” w tym wypadku nabiera jeszcze większego znaczenia!

SoDA: Jakie wyzwania wiążą się z odpowiedzialnością prawną i etyczną w kontekście bezpieczeństwa danych w firmach?

GB: Odpowiedzialność prawda w okolicznościach ujawnienia danych poufnych jest już bardzo precyzyjnie określona w systemach prawnych poszczególnych państw, a także w prawie międzynarodowym. Z reguły wiąże się to przede wszystkim z wielkimi karami finansowymi. Podmiot który ujawnił dane (lub który nienależycie je chronił) musi się też liczyć z pozwami cywilnymi osób, których dane zostały ujawnione. O odpowiedzialności etycznej pozwolę sobie nie pisać w tym kontekście – jeśli AI będzie eskalować aktualny stan naszej moralności to dopiero ten scenariusz napawa mnie grozą. Wspomnę o innym fakcie – ujawnienie danych, które chronić powinien określony podmiot może postawić ten podmiot w bardzo trudnej sytuacji komercyjnej związanej z utratą wiarygodności. Kary z reguły da się zapłacić. Odbudować wiarygodność – to trochę trudniejsze zadanie.

SoDA: Jakie działania powinny podjąć rządy i instytucje międzynarodowe w celu zapewnienia bezpieczeństwa w obliczu szybkiego rozwoju sztucznej inteligencji?

GB: Zakazać kradzieży i łamania zabezpieczeń już bardziej się nie da. Niektórzy – na czele z Elonem Muskiem – sugerują obowiązek wstrzymania prac nad rozwojem AI. Powiedzmy sobie szczerze – to nie jest realne! Jeśli ktoś dzisiaj powstrzyma się z rozwojem swoich algorytmów zwyczajnie straci pozycję na rynku. Nie sądzę, aby regulacje i akty normatywne były jakkolwiek istotne w tej rozgrywce. To, za co rządy mogą (i powinny) – wziąć odpowiedzialność to ochrona infrastruktury krytycznej oraz rozwój cyber-oddziałów (zarówno ofensywnych jak i defensywnych). Cytując klasyka – jeśli chcesz pokoju – szykuj się na wojnę.

SoDA: Które branże są bardziej narażone na ataki z wykorzystaniem AI?

GB: Chcąc wskazać na to, kto lub co jest zagrożone atakiem atomowym musimy wiedzieć przede wszystkim kto dziś posiada arsenał nuklearny oraz z kim jest skonfliktowany. Przenosząc to na grunt AI: kto dziś najbardziej intensywnie rozwija sztuczną inteligencję i z kim będzie lub już toczy boje? Idąc dalej: kto zawsze meldował się w czołówce technologicznych innowatorów? Poza prywatnymi firmami angażującymi te technologie komercyjnie były to… rządy! Dość powiedzieć, że to właśnie instytucje finansowane z pieniędzy publicznych zrealizowały pierwszy akt cyfrowej wojny – stuxnet (atak na Irański program nuklearny). Pierwszym, który powinien się dziś obawiać AI to właśnie agencje rządowe oraz infrastruktura krytyczna. Ale nie jedynym. Cyberprzestępca – jak wiemy z pięknych zdjęć z Internetu – pracuje albo w mundurze albo w kapturze. Ten w kapturze bardzo często buduje swoje stanowisko pracy w piwnicy i jest motywowany (w odróżnieniu od tych w mundurze) finansowo lub ambicjonalnie (zaatakuję, żeby udowodnić, że potrafię). Monetyzacja ataku jest tym bardziej prawdopodobna i opłacalna, im bardziej zasobna i gorzej chroniona jest potencjalna ofiara (lub im więcej podmiotów mogę zaatakować dokładnie tym samym atakiem). Kto to jest? Prywatne firmy, które łatwiej dadzą się nabrać na to, że „prezes dzwoni i prosi o szybki przelew”. Podmioty ze słabą świadomością, bez procedur, bez szkoleń z cyber-awareness.

SoDA: Przyszłość cybersecurity – czego możemy się spodziewać?

GB: Przyszłość o której wypada i o której możemy mówić to przyszłość bardziej „operacyjna” niż „strategiczna” – mówimy więc raczej o miesiącach i ew. kilku latach niż wróżeniu z fusów dot. następnych dziesięcioleci. Na dziś „obrońcy” nie podeszli jeszcze z należytą powagą do ochrony owoców trzeciej i czwartej rewolucji przemysłowej. Zaniedbania w tym zakresie mogą się już odbić czkawką. Kolejne wciąż istotne zagrożenia to ransomware i ataki typu supply chain. Artificial Intelligence to przyszłość „strategiczna”, o której trzeba myśleć, aby nie stało się to, co dziś dotyka nas w świecie IoT, Smart City/home.

Najnowsze artykuły

Najnowsze artykuły

Sztuczna inteligencja w samochodach autonomicznych. Wywiad z Kubą Walińskim, CEO w Happy Team

US One Stop Shop: Opracowanie strategii wejścia na rynek podczas rozwijania firmy technologicznej w USA

Case study bards.ai: Modele AI / LLM już niedługo uruchomią się na mobile bez dostępu do internetu