Голос, которому нельзя верить: ИИ превращает мошенничество в искусство

Голос, которому нельзя верить: ИИ превращает мошенничество в искусство
Bulkin Sergey/news.ru/Global Look Press

тестовый баннер под заглавное изображение

В четверг, 13 ноября, в 13:00 пройдет прямой эфир о новых видах мошенничества.

Особенно опасной тенденцией 2025 года стало использование искусственного интеллекта и дипфейков. С помощью нейросетей мошенники копируют голоса и образы родственников, сотрудников банков или госслужб, чтобы убедить жертву перевести деньги. Такие технологии делают обман почти неотличимым от реальности, поэтому даже опытные пользователи часто теряются. Этому способствует и психологическое давление — звонки «от имени силовиков» или «банковской безопасности» заставляют человека действовать быстро, не проверяя информацию.

Как искусственный интеллект помогает мошенникам в 2025 году? Почему дипфейки становятся всё труднее распознать? Какие психологические приёмы используют аферисты, чтобы ускорить реакцию жертвы?

Об этом и многом другом поговорим в эфире «МК» с экспертами: Председатель комиссии по безопасности финансового рынка Совета ТПП России Тимур Аитов и Основатель Проекта «СтопПирамида», эксперт Финансового университета при Правительстве РФ Марат Сафиулин.

Что еще почитать

В регионах

Новости

Самое читаемое

...
Сегодня
...
...
...
...
Ощущается как ...

Реклама

Автовзгляд

Womanhit

Охотники.ру