SoDA

SoDA AI #4: Jakie działania powinny podjąć rządy w obliczu dynamicznego rozwoju AI?

Dynamiczny rozwój sztucznej inteligencji stawia przed regulatorami nowe wyzwania i konieczność odpowiedniego dostosowania się do szybko zmieniającej się rzeczywistości technologicznej. 

W poniższym artykule zapytaliśmy eksperta z Future Processing, firmy członkowskiej w SoDA, jakie kroki powinni podjąć ustawodawcy w obliczu postępującej ewolucji AI.

Spójna polityka wobec AI

Zdaniem specjalisty pierwszym i kluczowym krokiem jest stworzenie spójnej polityki regulacyjnej, dotyczącej rozwoju i implementacji sztucznej inteligencji. Warto zadbać o to, aby regulacje były elastyczne i dostosowywalne do szybko zmieniającej się technologii, jednocześnie chroniąc prawa obywateli i zapewniając innowacyjnym firmom odpowiednią przestrzeń do działania.

Wraz z postępem AI, rośnie również znaczenie kwestii cyberbezpieczeństwa. Rządy powinny inwestować w rozwój odpowiednich struktur i procedur zapewniających ochronę przed potencjalnymi zagrożeniami związanymi z rozwojem technologii. Wprowadzenie AI Act, choć może wymagać dostosowań, stanowi ważny krok w kierunku regulacji i kontrolowania postępującej automatyzacji.

Określenie ram działań jest zawsze pożądane – wdrożenie AI Act (może niekoniecznie w aktualnej formie, ale samo rozpoczęcie dyskusji w przestrzeni publicznej to dobry ruch). Widać generalny trend w uporządkowywaniu tematów cyberbezpieczeństwa (CyberResilienceAct, wcześniej GDPR w UE, National CyberSecurity Strategy w USA i Australii, analogiczne wytyczne w innych krajach jak np. UK i Szwajcaria). – podkreśla Dominik Samociuk, ekspert SoDA, Head of Security w Future Processing.

Rząd ponadto powinien priorytetowo ochronić branże, które są kluczowe dla stabilności gospodarki, bezpieczeństwa publicznego oraz funkcjonowania społeczeństwa.

W dobie wszechobecnych ataków typu ransomware, które są poprzedzone bardzo często aktywnościami phishingowymi lub inżynierią socjalną, można powiedzieć, że każda firma, która utrzymuje systemy IT (i potrzebuje ich do działania) w przypadku ataku, zapłaci okup. Oczywiście wszystkie firmy z tzw. branż krytycznych zawsze były w pierwszej linii ognia (m.in. finanse, produkcja, logistyka, healthcare). – wymienia Dominik Samociuk. 

Jaka jest przyszłość technologii w obliczu boomu na AI?

Ekspert zauważa, że przyszłość cyberbezpieczeństwa zdecydowanie kieruje nas w stronę wszechobecnej automatyzacji procesów związanych z ochroną danych. Wzrasta również rola specjalistów od bezpieczeństwa, którzy coraz częściej uczestniczą w procesach decyzyjnych na najwyższych szczeblach organizacji. 

Większy nacisk na zarządzanie ryzykiem i powierzchnią ataku w organizacjach. Większa świadomość potrzeb związanych z bezpieczeństwem i udział „osób od bezpieczeństwa” w decyzjach firmowych na poziomie zarządów. Spodziewam się również kolejnych wytycznych legislacyjnych i regulacyjnych na całym świecie, które wymusi na twórcach rozwiązań cyfrowych dbanie o bezpieczeństwie – zgodnie z wizją „security by default”. Spodziewam się również dużego „trzęsienia ziemi” analogicznego do wdrożenia GDPR/RODO (oczywiście związanego ze strachem przed dostaniem kary) ze względu na wdrożenie w UE CyberResilienceAct. – podkreśla ekspert z Future Processing. 

Dynamiczny rozwój sztucznej inteligencji to nie tylko szansa, ale i wyzwanie. Stworzenie spójnej polityki regulacyjnej, inwestycje w edukację i badania, wsparcie ekosystemu innowacji oraz zapewnienie etycznej i bezpiecznej implementacji AI są kluczowymi krokami, które pozwolą na odpowiednie dostosowanie się do tego dynamicznego trendu technologicznego oraz na rozwój firm. Współpraca pomiędzy sektorem publicznym a prywatnym staje się już teraz nieodłącznym elementem budowania przyszłości opartej na sztucznej inteligencji.

Najnowsze artykuły

Najnowsze artykuły

SoDA współtworzy Fundusz Rozwoju Technologii Przełomowych

Gdy prywatność staje się towarem. Jak radzić sobie z zagrożeniami i chronić swoje dane – Simplito

SoDA wybiera nowe Prezydium Rady Dyrektorów na lata 2025–2027.