В России все чаще злоумышленники применяют новый способ мошенничества, который использует передовые технологии искусственного интеллекта. Мошенники применяют дипфейк-технологии для создания реалистичных видеоизображений людей, которые затем рассылаются через мессенджеры и социальные сети.
В коротком видеоролике виртуальный персонаж, голос которого иногда сложно отличить от голоса прототипа, рассказывает о своей проблеме — болезни, ДТП, увольнении — и просит перевести деньги на определённый счёт. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой работает их потенциальная жертва.
Для создания цифровой копии конкретного человека злоумышленники используют фото, видео и записи голоса, полученные в результате взлома аккаунтов в социальных сетях или мессенджерах.
Будьте осторожны и не доверяйте подобным сообщениям! Если вы получили такое сообщение от знакомого, обязательно свяжитесь с ним по телефону и убедитесь, что ему действительно нужна помощь.
Дипфейк (от англ. deep learning — «глубинное обучение» и fake — «подделка») — это контент, созданный с помощью нейросетей на основе существующего видео, изображения или звука. Чаще всего дипфейк представляет собой образ медийного лица, помещённого в вымышленную ситуацию или говорящего не своим голосом, при этом сохраняя мимику и движения тела оригинала. Также дипфейк может имитировать чей-то голос так, что его практически невозможно отличить от настоящего.