Słowo, które może zamienić Twój głos w broń w oszustwach związanych ze sztuczną inteligencją

Oszustwo z głosem AI „Cześć mamo/tato”

Przygnębiona starsza Azjatka siedzi samotnie na łóżku i patrzy w smartfon. Starsza, dojrzała babcia czuje się samotna i smutna, tęskniąc za rodziną i bliskimi, spędzając czas w domu po przejściu na emeryturę.
Oszuści mogą używać sztucznej inteligencji do „kradzieży” głosu danej osoby z jej profili w mediach społecznościowych. Źródło zdjęcia: Shutterstock

Wiele osób otrzymało oszukańcze e-maile, podszywające się pod przyjaciół i krewnych, którzy desperacko potrzebują gotówki. E-maile te mają na celu nakłonienie ofiary do wysłania pieniędzy, ale oszustwo kończy się fiaskiem, gdy ofiara dzwoni do osoby rzekomo znajdującej się w niebezpieczeństwie, która potwierdza, że ​​e-mail był fałszywy. Teraz jednak oszuści pomijają e-maile i od razu dzwonią. Wykorzystują sztuczną inteligencję, aby udawać członków rodziny w niebezpieczeństwie, wykorzystując próbki audio z ich profili w mediach społecznościowych. Słysząc o bliskiej osobie w potrzebie, ofiara może przeoczyć podejrzaną historię, którą zignorowałaby w e-mailu. 

Dlatego ważne jest, aby szerzyć świadomość na temat tych oszustw. Wiedząc, że głosy (i numery telefonów przychodzących) mogą być sfałszowane, ludzie mogą działać pod wpływem swoich podejrzeń. Jeśli znajdziesz się w takiej sytuacji, wstrzymaj połączenie i spróbuj skontaktować się z daną osobą samodzielnie. Uważaj na nietypowe prośby o wypłatę gotówki, zwłaszcza w postaci kart podarunkowych, ponieważ trudno je namierzyć – wyjaśnia Will Maxson, zastępca dyrektora działu praktyk marketingowych FTC, w rozmowie z „The Washington Post” . 

Czytaj więcej:  15 oszustw emerytalnych, na które należy uważać