Dynamiczny rozwój sztucznej inteligencji stawia przed regulatorami nowe wyzwania i konieczność odpowiedniego dostosowania się do szybko zmieniającej się rzeczywistości technologicznej.
W poniższym artykule zapytaliśmy eksperta z Future Processing, firmy członkowskiej w SoDA, jakie kroki powinni podjąć ustawodawcy w obliczu postępującej ewolucji AI.
Spójna polityka wobec AI
Zdaniem specjalisty pierwszym i kluczowym krokiem jest stworzenie spójnej polityki regulacyjnej, dotyczącej rozwoju i implementacji sztucznej inteligencji. Warto zadbać o to, aby regulacje były elastyczne i dostosowywalne do szybko zmieniającej się technologii, jednocześnie chroniąc prawa obywateli i zapewniając innowacyjnym firmom odpowiednią przestrzeń do działania.
Wraz z postępem AI, rośnie również znaczenie kwestii cyberbezpieczeństwa. Rządy powinny inwestować w rozwój odpowiednich struktur i procedur zapewniających ochronę przed potencjalnymi zagrożeniami związanymi z rozwojem technologii. Wprowadzenie AI Act, choć może wymagać dostosowań, stanowi ważny krok w kierunku regulacji i kontrolowania postępującej automatyzacji.
Określenie ram działań jest zawsze pożądane – wdrożenie AI Act (może niekoniecznie w aktualnej formie, ale samo rozpoczęcie dyskusji w przestrzeni publicznej to dobry ruch). Widać generalny trend w uporządkowywaniu tematów cyberbezpieczeństwa (CyberResilienceAct, wcześniej GDPR w UE, National CyberSecurity Strategy w USA i Australii, analogiczne wytyczne w innych krajach jak np. UK i Szwajcaria). – podkreśla Dominik Samociuk, ekspert SoDA, Head of Security w Future Processing.
Rząd ponadto powinien priorytetowo ochronić branże, które są kluczowe dla stabilności gospodarki, bezpieczeństwa publicznego oraz funkcjonowania społeczeństwa.
W dobie wszechobecnych ataków typu ransomware, które są poprzedzone bardzo często aktywnościami phishingowymi lub inżynierią socjalną, można powiedzieć, że każda firma, która utrzymuje systemy IT (i potrzebuje ich do działania) w przypadku ataku, zapłaci okup. Oczywiście wszystkie firmy z tzw. branż krytycznych zawsze były w pierwszej linii ognia (m.in. finanse, produkcja, logistyka, healthcare). – wymienia Dominik Samociuk.
Jaka jest przyszłość technologii w obliczu boomu na AI?
Ekspert zauważa, że przyszłość cyberbezpieczeństwa zdecydowanie kieruje nas w stronę wszechobecnej automatyzacji procesów związanych z ochroną danych. Wzrasta również rola specjalistów od bezpieczeństwa, którzy coraz częściej uczestniczą w procesach decyzyjnych na najwyższych szczeblach organizacji.
Większy nacisk na zarządzanie ryzykiem i powierzchnią ataku w organizacjach. Większa świadomość potrzeb związanych z bezpieczeństwem i udział „osób od bezpieczeństwa” w decyzjach firmowych na poziomie zarządów. Spodziewam się również kolejnych wytycznych legislacyjnych i regulacyjnych na całym świecie, które wymusi na twórcach rozwiązań cyfrowych dbanie o bezpieczeństwie – zgodnie z wizją „security by default”. Spodziewam się również dużego „trzęsienia ziemi” analogicznego do wdrożenia GDPR/RODO (oczywiście związanego ze strachem przed dostaniem kary) ze względu na wdrożenie w UE CyberResilienceAct. – podkreśla ekspert z Future Processing.
Dynamiczny rozwój sztucznej inteligencji to nie tylko szansa, ale i wyzwanie. Stworzenie spójnej polityki regulacyjnej, inwestycje w edukację i badania, wsparcie ekosystemu innowacji oraz zapewnienie etycznej i bezpiecznej implementacji AI są kluczowymi krokami, które pozwolą na odpowiednie dostosowanie się do tego dynamicznego trendu technologicznego oraz na rozwój firm. Współpraca pomiędzy sektorem publicznym a prywatnym staje się już teraz nieodłącznym elementem budowania przyszłości opartej na sztucznej inteligencji.