InneNowe Technologie

Model AI wspiera zautomatyzowane oszustwa telefoniczne

Naukowcy z University of Illinois w Urbana-Champaign wykorzystali nowy model głosowy OpenAI do stworzenia zautomatyzowanych agentów, którzy potrafią prowadzić oszukańcze rozmowy telefoniczne. Dzięki temu udało się wykazać, że przestępstwa takie mogą być realizowane efektywnie i przy niskim koszcie.

Wzrost zagrożenia ze strony AI

Z biegiem lat analitycy ds. bezpieczeństwa przyglądają się, w jaki sposób sztuczna inteligencja wpływa na cyberprzestępczość. W szczególności sprawdzają, czy modele językowe mogą posłużyć do tworzenia bardziej wyrafinowanego złośliwego oprogramowania lub zautomatyzowania ataków trudniejszych do wykrycia. Nowe technologie AI są w stanie nie tylko pisać złośliwe skrypty, ale mogą także znacznie ułatwić automatyzację telefonicznych oszustw. Co ważne, są one trudniejsze do wykrycia oraz zatrzymania.

W wyniku przeprowadzonych badań, naukowcy z Uniwersytetu w Illinois przedstawili konkretny scenariusz, w którym model AI jest wykorzystywany do zautomatyzowanego dzwonienia do ofiar w celu wyłudzania ich danych uwierzytelniających i kodów dwuskładnikowego uwierzytelniania (2FA). Wyniki pokazują, że proces ten jest realny i ma niski koszt obliczeniowy.

Eksperyment z automatycznymi agentami AI

Badacze skupili się na telefonicznych oszustwach, w których ofiary namawiane są do przekazania poufnych danych. Celem było sprawdzenie, czy automatyzacja tego procesu jest w ogóle możliwa, bez konieczności dokładnego przekonywania ofiar do podania danych.

„Stworzyliśmy serię agentów, którzy wykonują czynności niezbędne do typowych oszustw. Nasze modele opierały się na modelu GPT-4o obsługiwanym głosowo, zestawie narzędzi oraz instrukcjach dedykowanych konkretnym oszustwom”, tłumaczą badacze. „LLM (large language model) i narzędzia były takie same dla wszystkich agentów, ale instrukcje różniły się w zależności od rodzaju oszustwa. Agenci AI mieli dostęp do pięciu narzędzi w ramach frameworku testowania przeglądarki Playwright”.

Ponieważ GPT-4o nie działa domyślnie zgodnie z etyką oszustw, badacze musieli wykorzystać komendy typu jailbreak dostępne w internecie, aby obejść ograniczenia modelu i umożliwić mu interakcje wymagane do symulacji oszustw.

Testowanie skuteczności

Każdy scenariusz oszustwa przeprowadzono pięć razy. Zespół badał, jak często agenci byli w stanie skutecznie zakończyć próbę oszustwa oraz jakie były średnie koszty i czas trwania interakcji. Wskaźnik skuteczności różnił się w zależności od rodzaju ataku – na przykład wyłudzenie danych logowania do Gmaila udało się w 60% przypadków, natomiast oszustwa związane z przelewami bankowymi oraz próbami podszycia się pod IRS miały skuteczność na poziomie 20%.

Przyczyną niższej skuteczności w przypadku oszustw bankowych jest ich większa złożoność. Przykładowo, oszustwo związane z przelewem bankowym wymagało aż 26 kroków, a agent AI potrzebował około trzech minut na zakończenie całej procedury.

Koszt przeprowadzenia oszustw przez AI

Koszty przeprowadzenia różnych oszustw przez agentów AI były stosunkowo niskie, jednak zależne od stopnia skomplikowania danej procedury. W przypadku prób oszustw bankowych koszt jednej interakcji wynosił średnio 2,51 USD, natomiast najtańsze było oszustwo z wykorzystaniem kryptowaluty Monero, które kosztowało zaledwie 0,12 USD. Całkowity koszt był obliczany na podstawie liczby wydanych tokenów API, co sprawia, że tego typu ataki są tanie do realizacji przy użyciu dużych modeli językowych.

Zagrożenia dla przyszłości bezpieczeństwa

„Nowe badanie dowodzi, że zautomatyzowane oszustwa napędzane modelami językowymi AI mogą stanowić rosnące zagrożenie. Choć naukowcy nie udostępnili opracowanych przez siebie agentów ze względów etycznych, to podkreślili, że ich stworzenie nie jest trudne”, mówi Arkadiusz Kraszewski z firmy Marken Systemy Antywirusowe, polskiego dystrybutora oprogramowania Bitdefender. „Dzięki takim modelom oszustom łatwiej będzie prowadzić kampanie phishingowe i wyłudzać dane, dlatego powinniśmy być przygotowani na wzrost aktywności cyberprzestępców i zadbać o bezpieczeństwo naszych urządzeń”.

Eksperci zwracają uwagę, że tego rodzaju ataki stają się coraz trudniejsze do wykrycia. Dlatego niezwykle istotne jest wprowadzenie skutecznych systemów antywirusowych wyposażonych w moduły antyphishingowe, które pomogą chronić użytkowników przed takimi zagrożeniami.

Podsumowanie

Nowe badania pokazują, że zastosowanie AI do zautomatyzowania oszustw telefonicznych jest realne i opłacalne finansowo. Technologia sztucznej inteligencji, taka jak GPT-4, może zostać wykorzystana przez przestępców do przeprowadzania ataków trudnych do wykrycia, co stwarza rosnące ryzyko dla użytkowników na całym świecie. Wyniki badań wyraźnie wskazują, że zwiększenie zabezpieczeń, takich jak systemy antywirusowe z funkcjami antyphishingowymi, staje się nieodzownym krokiem w walce z cyberprzestępczością.