Oszuści telefoniczni mogą wejść na zupełnie nowy poziom, dzięki wykorzystaniu sztucznej inteligencji. Niebezpieczny fenomen opisał w mediach społecznościowych Jay Shooster – kandydat na członka Izby Reprezentantów Florydy. Polityk opowiedział, jak jego rodzice nieomal stracili 30 tys. dolarów, kiedy zadzwonił do nich „ktoś” o identycznym głosie, jak on.
Nawet bez tak innowacyjnych sztuczek oszuści bardzo często dopinali swego, oszukując swoje ofiary na miliony dolarów. Teraz mają o wiele bardziej ułatwione zadanie. Dzięki sztucznej inteligencji.
Kandydat na członka Izby Reprezentantów Florydy Jay Shooster opisał, jak jego rodzice niemal dali się oszukać na 30 tys. dolarów. Zadzwonił do nich oszust, ale po drugiej stronie słuchawki usłyszeli głos identyczny, jak głos ich syna. Podając się za Shoostera, oszust powiedział jego rodzicom, że uległ wypadkowi drogowemu pod wpływem alkoholu i potrzebuje pieniędzy na opłacenie kaucji.
Jak się okazało – głos oszusta był sfabrykowanym klonem głosu Shoostera, który sztuczna inteligencja zdołała stworzyć na podstawie zaledwie 15-sekundowego nagrania z ostatniego wystąpienia polityka w telewizji.
Rodzina Shoostera bardzo dobrze zdawała sobie sprawę z istnienia tego typu oszustw i ich skuteczności, ale tym razem prawie daliby się przechytrzyć. Tylko dzięki nadzwyczajnej czujności i chłodnemu osądowi nie stracili swoich oszczędności.
Powołując się na ten z życia wzięty przykład niemoralnego wykorzystania AI, Shooster wskazał na potrzebę zwiększenia świadomości społecznej nt. sztucznej inteligencji oraz wprowadzenia w tym zakresie większych regulacji.
W komentarzu pod postem Shoostera jeden z użytkowników zasugerował ustalanie z bliskimi „tajnych haseł”, służących weryfikacji. Inny Internauta zdradził, że jego dziadek uniknął utraty pieniędzy na rzecz oszustów, gdyż przestępca użył zwrotu „dziadku”, którego wnuk niedoszłej ofiary nigdy nie używał.
Red. JŁ