Искусственный интеллект в руках мошенников: как защититься от вымогательств

Мошенники используют поддельные сообщения, имитируя голос близкого человека в беде

6:27, 21 января 2026 Общество
мужчина в маске 1.jpg
Фото: ИИ

Злоумышленники активно применяют искусственный интеллект для вымогательства, а также проникают в личные аккаунты, чтобы оказывать давление на жертв с помощью конфиденциальной информации, сообщила адвокат Вероника Полякова, сообщает РИА VladNews со ссылкой на РИАМО.

«Использование технологий искусственного интеллекта (deepfake) для шантажа и вымогательства – один из самых опасных трендов», – сказала Полякова.

По словам юриста, мошенники используют поддельные сообщения, имитируя голос близкого человека в беде. Эффективная защита – договоренность о кодовом слове или алгоритме действий в экстренной ситуации. При подозрительном звонке следует прекратить его и связаться с родственником проверенным способом, подчеркнула Полякова.

Адвокат также предупредила, что уступка шантажистам усугубляет проблему. Сделав первую выплату, вы не решите проблему, а усугубите ее, став постоянным источником финансирования для преступника с юридической точки зрения. В подобных случаях важно сохранять доказательства переписки, а также немедленно обратиться в полицию за юридической помощью.

Эксперт также напомнила об опасности передачи кодов из SMS, доступа к личным кабинетам и перехода по сомнительным ссылкам.

«В случае малейших сомнений – прекращайте коммуникацию и консультируйтесь с близкими или юристом», – резюмировала эксперт.

Новости Владивостока в Telegram - постоянно в течение дня.
Подписывайтесь одним нажатием!