SoDA

SoDA AI #3: AI a deepfake. Czy można wierzyć we wszystko i jak uchronić się przed oszustwem?

Wpływ sztucznej inteligencji (AI) na różne dziedziny życia jest niezaprzeczalny, zarówno w pozytywny, jak i negatywny sposób. Jednym z najpoważniejszych wyzwań, jakie pojawiły się w kontekście AI, jest generowanie fałszywej treści, tworzenie deepfake’ów oraz sabotowanie algorytmów. W tym artykule przyjrzymy się tym zjawiskom i ich konsekwencjom dla współczesnej informacji.

Manipulacja treści i AI

Deepfake to technologia, która wykorzystuje zaawansowane algorytmy SI, aby zastąpić twarz lub głos osoby w materiale wideo inną twarzą lub głosem. Jest to technika o potencjale zdolnym zaskoczyć i zdezorientować publiczność, ponieważ generuje wrażenie autentyczności. Deepfake może być wykorzystywany w różnych celach, od satyrycznych memów po manipulację polityczną czy oszustwa finansowe.

Upowszechnienie się narzędzi do generacji treści, w szczególności obrazów, wideo i tekstów, znacząco zwiększyło arsenał w ręku osób i organizacji których celem jest manipulowanie ludźmi przez rozpowszechnianie nieprawdziwych informacji. Manipulacja ta często ma charakter polityczny lub służy do wojny informacyjnej, co widzimy w przypadku konfliktu w Ukrainie. – komentuje dr Jerzy Biernacki, ekspert SoDA, Dyrektor Operacyjny w Miquido.

Dezinformacja w społeczeństwie

Sztuczna inteligencja może być wykorzystywana do automatycznego generowania fałszywych treści tekstowych. Programy generujące tekst potrafią naśladować ludzki styl pisania w taki sposób, że trudno odróżnić je od autentycznych. To stanowi poważne zagrożenie dla wiarygodności informacji w Internecie. Fałszywe artykuły, recenzje czy komentarze mogą wprowadzać w błąd użytkowników oraz prowadzić do dezinformacji.

To po prostu kolejny wariant ataków socjotechnicznych – powiedziałbym, że zmienia podejście do edukacji użytkowników, podobnie jak w przypadku tzw. fake newsów – ludzie muszą nauczyć się z korzystać z medium internetowego – nie wierzyć we wszystko, co znajdą w tzw. Internecie. Konsekwencją wykorzystywania AI do tego typu ataków jest po prostu większy wolumen/łatwość generowania takich informacji. – dodaje Dominik Samociuk, Head of Security w Future Processing

Data poisoning

Algorytmy oparte na AI pełnią kluczową rolę w filtrowaniu i sortowaniu treści w mediach społecznościowych i wyszukiwarkach internetowych. Jednakże coraz częściej dochodzi do prób ich sabotowania przez zautomatyzowane ataki lub manipulacje. Przy użyciu technik, takich jak „data poisoning” lub „adversarial examples”, można wprowadzić w błąd algorytmy, a w efekcie do wyświetlania lub promowania fałszywych informacji.

Wpływ na wiedzę społeczeństwa

Wpływ AI na generowanie fałszywej treści, deepfake i sabotowanie algorytmów ma potencjał na zmianę naszego społeczeństwa. Dezinformacja może wpłynąć na wyniki wyborów, spowodować panikę w sytuacjach kryzysowych lub osłabić zaufanie do mediów i instytucji publicznych. Dlatego też walka z tymi wyzwaniami staje się priorytetem dla obrońców faktów. 

Łatwość wykorzystania i powszechność narzędzi do generacji treści może prowadzić też do niezamierzonych szkód. Osoby generujące masowo i bez weryfikacji treści w celu np. zwiększenia swoich zasięgów, mogą przez przypadek przyczynić się do rozpowszechnienia informacji, które spowodują realne szkody. Nie pomaga zdecydowanie fakt,  że w mediach społecznościowych algorytmy promują najczęściej materiały, które generują najwięcej interakcji, niezależnie od ich prawdziwości. – dodaje Jerzy Biernacki. 

W sytuacji wzmożonych ataków wspieranie rozwoju technologii służących wykrywaniu i ograniczaniu takich zjawisk jest kluczowe. Ponadto edukacja społeczeństwa w zakresie rozpoznawania fałszywych treści oraz zrozumienia mechanizmów działania sztucznej inteligencjiI może znacząco zmniejszyć skuteczność tych technik.

Luki w zabezpieczeniach, które mogą być wykorzystane przez cyberprzestępców

Także wzrost potęgi Generative AI, zwłaszcza w przypadku modeli językowych takich jak GPT-4, otwiera nowe drzwi dla cyberprzestępców. Mogą oni wygenerować wiadomości e-mail, które wydają się być wysłane przez rzeczywiste osoby lub instytucje. Treści te mogą zawierać linki do złośliwych stron lub prośby o ujawnienie poufnych informacji. To może stanowić początek skomplikowanego ataku na infrastrukturę firmy.

Najlepszym rozwiązaniem do zminimalizowania ryzyka takich ataków jest implementacja solidnych procedur bezpieczeństwa i aktywne szkolenie pracowników. Przede wszystkim, ważne jest stworzenie świadomości wśród pracowników na temat tego, jak wyglądają ataki phishingowe, jak je rozpoznać i jak na nie reagować. Dobre praktyki bezpieczeństwa mogą obejmować weryfikację wiadomości e-mail z nieznanych źródeł, unikanie klikania w podejrzane linki, nieudostępnianie poufnych informacji bez odpowiedniego sprawdzenia i zgłaszanie wszelkich podejrzanych działań do odpowiedniego zespołu. W miarę jak AI ewoluuje, tak samo muszą rozwijać się nasze metody obrony, co obejmuje bieżące szkolenie i edukację pracowników na temat najnowszych zagrożeń i strategii obronnych. – podsumowuje Jerzy Biernacki. 

Podsumowując, AI otwiera nowe drzwi dla cyberprzestępców, którzy mogą wykorzystać tę technologię do przeprowadzania skomplikowanych ataków. Implementacja solidnych procedur bezpieczeństwa oraz aktywne szkolenie pracowników są kluczowe w minimalizowaniu ryzyka i zabezpieczenia wrażliwych oraz cennych danych.

Najnowsze artykuły

Najnowsze artykuły

Sztuczna inteligencja w samochodach autonomicznych. Wywiad z Kubą Walińskim, CEO w Happy Team

US One Stop Shop: Opracowanie strategii wejścia na rynek podczas rozwijania firmy technologicznej w USA

Case study bards.ai: Modele AI / LLM już niedługo uruchomią się na mobile bez dostępu do internetu