Мошенники все чаще используют технологии искусственного интеллекта для шантажа, а также взламывают аккаунты с целью давления на жертву через личные данные, сообщила РИАМО адвокат по уголовным делам Вероника Полякова.
«Использование технологий искусственного интеллекта (deepfake) для шантажа и вымогательства — один из самых опасных трендов. Мошенники создают поддельные видео- или аудиосообщения, имитирующие голос близкого человека в беде. Единственная эффективная защита — это превентивная договоренность в семье о „кодовом слове“ или алгоритме действий в экстренной ситуации», — сказала Полякова.
Она добавила, что если звонок вызывает панику, необходимо немедленно прекратить его и связаться с родственником по заранее известному, проверенному каналу связи.
«Взлом аккаунтов и шантаж личными материалами. Тут с юридической позиции важно понимать: уступка шантажистам и выплата первой суммы не решают проблему, а усугубляют ее. Вы становитесь источником постоянного финансирования для преступника», — предупредила юрист.
Полякова уточнила, что в такой ситуации необходимо сохранять все доказательства переписки (скриншоты), немедленно обратиться с заявлением в правоохранительные органы (ст. 163 УК РФ «Вымогательство») и получить юридическую поддержку для минимизации репутационных рисков.
«Повышенная бдительность и скептицизм — ваша главная защита. Никогда не передавайте коды из SMS, CVC-карты, доступы к личным кабинетам и не переходите по сомнительным ссылкам под давлением. Любое требование срочно перевести деньги или совершить сделку под эмоциональным прессом. В случае малейших сомнений — прекращайте коммуникацию и консультируйтесь с близкими или юристом», — резюмировала эксперт.
Ранее Крымчанин хотел продать детскую кровать и лишился 90 тысяч рублей




