SoDA

SoDA AI #5: Człowiek – największe zagrożenie dla cybersecurity w dobie AI?

Rozwój sztucznej inteligencji sprawił, że jeszcze bardziej zaczęliśmy dostrzegać jedno z niedocenianych zagrożeń dla cyberbezpieczeństwa, jakim jest człowiek i podejmowane przez niego decyzje. Nieodpowiednie wykorzystanie AI może prowadzić do poważnych incydentów i naruszeń bezpieczeństwa.

Porozmawialiśmy z Dawidem Jóźwiakiem, ekspertem SoDA, System Administrator ze Scalac o obszarach, w których to właśnie czynnik ludzki może stanowić zagrożenie dla bezpieczeństwa danych. 

Brak odpowiedniej wiedzy

Ludzie, którzy nie rozumieją skomplikowanych mechanizmów działania AI, mogą stać się łatwym celem dla cyberprzestępców. Brak odpowiedniego planu awaryjnego lub podejmowanie działań opartych na emocjach może tylko pogłębić szkody.

Najpoważniejszym zagrożeniem są  ludzkie emocje i nastawienie — strach i lekceważenie. Otóż lękając się rozwiązań opartych na sztucznej inteligencji, stajemy się podatni na ataki. Bez znajomości istoty nowoczesnych technik i technologii, pozostajemy w tyle względem innych, rozwiniętych ugrupowań. Organizacje, które korzystają z takich rozwiązań, nie tylko potrafią za ich pomocą chronić bezpieczeństwo własnych danych, ale też wykorzystać niewiedzę innych dla własnych zysków.  Nie ma więc wątpliwości, że największym zagrożeniem dla ludzi w erze sztucznej inteligencji często są sami ludzie. – komentuje ekspert z firmy Scalac. 

Brak kontroli

Wiele incydentów ma źródło wewnątrz organizacji. Osoby zatrudnione w firmie, które mają dostęp do wrażliwych danych, mogą stać się źródłem poważnych zagrożeń, jeśli ich działania nie są odpowiednio monitorowane i kontrolowane.

Sztuczna inteligencja działa z zaskakującą dla człowieka szybkością, więc może być zastosowana do przeanalizowania struktury zabezpieczeń potencjalnego celu pod względem luk i niedopatrzeń. Jeśli nie będziemy na to gotowi, skutkiem tego może być wyciek danych i/lub straty finansowe na szeroką skalę w momencie. – dodaje Dawid Jóźwiak. 

W przypadku ataku cybernetycznego czas jest kluczowy. Szybka reakcja może pomóc zminimalizować straty i ograniczyć rozprzestrzenianie się szkód.

Sztuczna inteligencja ma tę przewagę, że jej prędkość wykracza poza ludzkie możliwości. Choć w jakimś stopniu jest również uzależniona od zasobów. Podczas gdy całe działy cyberbezpieczeństwa mogą próbować się bronić, ta błyskawicznie zmieni tor swojego ataku i uderzy w inne odsłonięte miejsce. – podkreśla ekspert. 

Plan awaryjny w sytuacji zagrożenia powinien zawierać procedury mające na celu przywrócenie normalnego funkcjonowania firmy w możliwie najkrótszym czasie. Dzięki temu można uniknąć długotrwałych przerw w działalności biznesowej.

Zakładając, że taki atak się powiedzie, to skutki mogą wahać się od drobnych poprzez naprawdę poważne. Na przykład, tok pracy w danej jednostce może być zakłócony z powodu dezinformacji. Innym przykładem jest nieporozumienie na arenie międzynarodowej spowodowane uzyskaniem danych do weryfikacji tożsamości  prezydenta kraju. – przestrzega ekspert SoDA. 

Proste rozwiazania – otwarte drzwi do kradzieży danych? 

Zagrożenie dla cybersecurity zaczyna się także wtedy, gdy nie konfigurujemy haseł, czy systemów zgodnie z procedurami firmowymi, tylko kierujemy się tzw. drogą na skróty, aby było łatwiej zapamiętać, czy po prostu pracować. 

Często jesteśmy najłatwiejszym elementem do złamania zabezpieczeń, aby dostać się do wnętrza danej firmy poprzez nasze konta. Kolejnym z częstych problemów są  hasła. W dzisiejszych czasach, aby zapewnić sobie optymalne bezpieczeństwo, należy mieć hasło  posiadające co najmniej 12 znaków mieszanych — cyfr, liter i znaków specjalnych. Kolejną z takich kwestii są sieci dla gości, pod które dany haker może po prostu się podłączyć i z niej działać z większą swobodą, polując na cele z wyższymi dostępami do infrastruktury. – podkreśla Jóźwiak.

Sztuczna inteligencja niesie ze sobą nie tylko potencjał, ale i wyzwania w dziedzinie cyberbezpieczeństwa. Człowiek, mimo swojej roli w rozwoju i zarządzaniu technologią, staje się potencjalnym słabym ogniwem w tym procesie. Dlatego też edukacja, świadomość i odpowiednie procedury są kluczowe w ochronie przed zagrożeniami.

Najnowsze artykuły

Najnowsze artykuły

Sztuczna inteligencja w samochodach autonomicznych. Wywiad z Kubą Walińskim, CEO w Happy Team

US One Stop Shop: Opracowanie strategii wejścia na rynek podczas rozwijania firmy technologicznej w USA

Case study bards.ai: Modele AI / LLM już niedługo uruchomią się na mobile bez dostępu do internetu