Oszustwo z głosem AI „Cześć mamo/tato”

Wiele osób otrzymało oszukańcze e-maile, podszywające się pod przyjaciół i krewnych, którzy desperacko potrzebują gotówki. E-maile te mają na celu nakłonienie ofiary do wysłania pieniędzy, ale oszustwo kończy się fiaskiem, gdy ofiara dzwoni do osoby rzekomo znajdującej się w niebezpieczeństwie, która potwierdza, że e-mail był fałszywy. Teraz jednak oszuści pomijają e-maile i od razu dzwonią. Wykorzystują sztuczną inteligencję, aby udawać członków rodziny w niebezpieczeństwie, wykorzystując próbki audio z ich profili w mediach społecznościowych. Słysząc o bliskiej osobie w potrzebie, ofiara może przeoczyć podejrzaną historię, którą zignorowałaby w e-mailu.
Dlatego ważne jest, aby szerzyć świadomość na temat tych oszustw. Wiedząc, że głosy (i numery telefonów przychodzących) mogą być sfałszowane, ludzie mogą działać pod wpływem swoich podejrzeń. Jeśli znajdziesz się w takiej sytuacji, wstrzymaj połączenie i spróbuj skontaktować się z daną osobą samodzielnie. Uważaj na nietypowe prośby o wypłatę gotówki, zwłaszcza w postaci kart podarunkowych, ponieważ trudno je namierzyć – wyjaśnia Will Maxson, zastępca dyrektora działu praktyk marketingowych FTC, w rozmowie z „The Washington Post” .
Czytaj więcej: 15 oszustw emerytalnych, na które należy uważać
