Опасный тренд: новые схемы вымогательства с дипфейками

Опасный тренд: новые схемы вымогательства с дипфейками

Фото: Гала Амарандо
Крымская газета
Опасный тренд: новые схемы вымогательства с дипфейками
Понедельник, 19 января - «Крымская газета».

Мошенники все чаще используют технологии искусственного интеллекта для шантажа, а также взламывают аккаунты с целью давления на жертву через личные данные, сообщила РИАМО адвокат по уголовным делам Вероника Полякова.

«Использование технологий искусственного интеллекта (deepfake) для шантажа и вымогательства — один из самых опасных трендов. Мошенники создают поддельные видео- или аудиосообщения, имитирующие голос близкого человека в беде. Единственная эффективная защита — это превентивная договоренность в семье о „кодовом слове“ или алгоритме действий в экстренной ситуации», — сказала Полякова.

Она добавила, что если звонок вызывает панику, необходимо немедленно прекратить его и связаться с родственником по заранее известному, проверенному каналу связи.

«Взлом аккаунтов и шантаж личными материалами. Тут с юридической позиции важно понимать: уступка шантажистам и выплата первой суммы не решают проблему, а усугубляют ее. Вы становитесь источником постоянного финансирования для преступника», — предупредила юрист.

Полякова уточнила, что в такой ситуации необходимо сохранять все доказательства переписки (скриншоты), немедленно обратиться с заявлением в правоохранительные органы (ст. 163 УК РФ «Вымогательство») и получить юридическую поддержку для минимизации репутационных рисков.

«Повышенная бдительность и скептицизм — ваша главная защита. Никогда не передавайте коды из SMS, CVC-карты, доступы к личным кабинетам и не переходите по сомнительным ссылкам под давлением. Любое требование срочно перевести деньги или совершить сделку под эмоциональным прессом. В случае малейших сомнений — прекращайте коммуникацию и консультируйтесь с близкими или юристом», — резюмировала эксперт.

Ранее Крымчанин хотел продать детскую кровать и лишился 90 тысяч рублей




По теме

Читаемое