Русское Агентство Новостей
Информационное агентство Русского Общественного Движения «Возрождение. Золотой Век»
RSS

Против мошенников. IT-специалист перечислил признаки дипфейка

13 февраля 2025
756

Против мошенников. IT-специалист перечислил признаки дипфейка

Мошенники все чаще применяют самые современные технологии. С помощью искусственного интеллекта подделывают голоса и лица, чтобы выманить деньги. Как распознать фейк и не дать мошенникам использовать собственный образ для обмана других – в материале РИА Новости.

"Папа, помоги!"

"Папа, я попала в аварию, помоги!" – после этих слов связь прервалась. Хотя номер на экране не определился, 84-летний москвич ни секунды не сомневался, что слышал голос дочери. Не успел он опомниться – новый звонок.

Незнакомец представился свидетелем и сообщил, что дочь пенсионера устроила ДТП. Пострадали люди, а за это светит десятилетний срок. Передать ей трубку отказался – заявил, что виновница аварии уже без сознания. Потребовал действовать быстро: если до составления протокола возместить ущерб, тюрьмы можно избежать.

Пенсионер сообщил, что у него дома хранится почти полтора миллиона рублей. "Этого хватит", – сказал голос в трубке. Вскоре домой к москвичу пришел "помощник следователя", которому хозяин квартиры передал деньги в пакете.

Дочери он позвонил через несколько часов. Та ответила, что ни в какие аварии не попадала. Только в этот момент пенсионер понял, что стал жертвой мошенничества.

Как следует из сообщения прокуратуры Москвы, аферисты применили новую технологию – так называемый дипфейк, то есть подделку голоса или изображения с помощью нейросетей. ИИ позволяет злоумышленникам обманывать далеко не только пенсионеров.

Дьявол просит Prada

Еще одна распространенная схема мошенничества с использованием дипфейка – звонок от имени начальства. Так, президент Ассоциации банков России Анатолий Козлачков рассказал, что его голосом, сгенерированным машиной, "пугали один очень солидный банк". А некоторым топ-менеджерам звонили от его имени с просьбой дать денег взаймы.

Опрошенные РИА Новости участники IT-рынка сообщали о похожих случаях: лжеруководители отдельных компаний пытались выманить деньги у рядовых сотрудников.

Под атакой оказываются и знаменитости, причем не только в России. На днях стало известно, что целью мошенников стали лидеры итальянского бизнеса, в том числе модельер Джорджо Армани и председатель Prada Патрицио Бертелли.

"Министр обороны Гвидо Кросетто" попросил у них денег. Предлог – помощь в освобождении итальянских журналистов, похищенных на Ближнем Востоке. Известно, что по крайней мере одна из жертв попалась на удочку мошенников и перевела один миллион евро на счет в Гонконге.

Поддельное признание

Нередко преступники собирают и куда более крупный улов. В начале 2024-го сотрудник британской инжиниринговой компании Arup совершил перевод на 25 миллионов долларов после видеоразговора с высшим руководством. Оказалось, общался он не с менеджерами, а с дипфейком.

Есть и другие способы использования дипфейков в криминальных целях. В одном из дел была представлена видеозапись, на которой человек якобы признавался в совершении преступления. Однако экспертный анализ выявил признаки искусственной генерации лица и голоса. Суд отказался принимать ролик в качестве доказательства, а инициаторы фальсификации сами оказались под угрозой уголовного преследования по статье 303 УК России, приводит пример эксперт Ассоциации юристов России Тимур Фаизов.

А в 2023-м женщина столкнулась с попыткой шантажа: мошенники создали поддельное видео интимного характера, используя ее изображение. Требовали крупную сумму денег за нераспространение ролика. После обращения в полицию возбуждено уголовное дело по статьям 137 УК России ("Нарушение неприкосновенности частной жизни") и 128.1 УК России ("Клевета").

Можно ли распознать дипфейк

Если раньше выявить такого рода подделку не составляло труда, то теперь – с развитием нейросетей – сделать это крайне сложно. Тем не менее даже современные программы несовершенны. В некоторых случаях обман можно распознать невооруженным глазом.

"Один из главных признаков быстро созданных и не очень качественных дипфейков – рассинхрон речи и движения губ. Неестественное движение зрачков и моргание также могут указать на то, что перед вами искусственно созданное видео", – объясняет РИА Новости команда специалистов отдела верификации видеоагентства Ruptly.

Кроме того, у дипфейков также могут встречаться деформация анатомии лица (разлет бровей, положение носа), рук (появление шестого пальца или отсутствие одного из пяти), перемещение по лицу родимых пятен или неестественный вид растительности на лице.

А основатель проекта для выявления дипфейк-контента www.aIDeepFake.ru Екатерина Корнюшина советует присмотреться, правильно ли отражается свет на окружающих предметах, имеет ли оттенок кожи естественный цвет.

Можно попробовать подловить нейросети на ошибке.

"Например, если человек резко повернул голову, закрыл часть лица рукой или только что появился в кадре, дипфейковая маска часто исчезает на мгновение или смазывается. Иногда элементы маски попадают на другие предметы – и это сразу заметно", – говорит IT-эксперт Филипп Щербанич.

Он советует попробовать лайфхак: если возникли подозрения, что собеседник поддельный, попросите его переключиться на другое устройство – там может не быть специально настроенного программного обеспечения.

Есть и программы по выявлению дипфейков. "Среди них – McAfee Deepfake Detector, Sensity AI, Deepware для видео. Эти системы обучены на больших дипфейк-датасетах и в принципе могут определить, подделка перед вами или нет. Но они не гарантируют стопроцентной точности", – уточняет Щербанич.

Закат эпохи соцсетей

Но основным оружием по-прежнему остается критическое мышление. При онлайн-общении нельзя принимать решения сразу. Мошенники обычно стараются создать стрессовую ситуацию и поторопить вас, чтобы вы не успели заподозрить подделку. Если чувствуете такое давление – возьмите паузу. Всегда стремитесь перезвонить сами через другой канал связи, чтобы убедиться, что ваш собеседник реален, советует Щербанич.

Под удар могут попасть и те, чей образ был использован для создания дипфейка. "Чтобы у злоумышленников получился убедительный дипфейк, необходим большой объем контента. Именно по этой причине дипфейки с актерами и другими публичными личностями получаются настолько правдоподобными", – отмечают в Ruptly.

Чтобы исключить подделку голоса и лица, специалисты советуют не загружать свои фото и видео в соцсети. Или по крайней мере ограничить к ним доступ.

Таким образом, цифровая гигиена в эпоху ИИ противоречит самой идее соцсетей, созданных как раз для того, чтобы делиться с миром фотографиями и видео. Возможно, пользователям придется пересмотреть сетевые привычки, уже давно ставшие нормой жизни.

Поделиться: