Пожалуй, самая пугающая тенденция последних лет – это использование искусственного интеллекта (ИИ) для создания реалистичных подделок.
Дипфейки (Deepfakes): это видео или аудиозаписи, где лицо или голос человека заменены на другое. Как рассказали "МК в Пскове" в пресс-службе УМВД, мошенники могут использовать дипфейки, чтобы:
- Имитировать звонки от близких. Представьте, что вам звонит "ваш ребенок" или "родитель" и просит срочно перевести деньги из-за экстренной ситуации. Голос будет звучать убедительно, а иногда даже будет видно лицо "родственника" на видеосвязи.
- Создавать компрометирующие материалы: Для шантажа или вымогательства могут быть созданы фейковые видео с вашим участием.
- Распространять дезинформацию. Дипфейки могут использоваться для дискредитации политиков, бизнесменов или обычных людей.
- Голосовые подделки (Voice Cloning). Даже без видео, мошенники могут клонировать голос человека, используя короткие аудиозаписи. Это позволяет им выдавать себя за кого угодно – от сотрудника банка до начальника.
Как защититься? Эксперты рекомендуют быть скептичными к неожиданным звонкам и сообщениям: Если вам звонит близкий человек с просьбой о деньгах, постарайтесь связаться с ним по другому, заранее известному номеру.
Обращайте внимание на мелкие детали: в дипфейках могут быть неестественные движения глаз, странное освещение, или несовпадение мимики с речью.
Не делитесь личной информацией по телефону: банки и серьезные организации никогда не запрашивают конфиденциальные данные (пароли, коды из СМС) по телефону.