Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
Говорит Магадан, 10 июля 2023 г.
Клонирование голоса
Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах.
Комментарии из Instagram компании Meta, признанной в России запрещенной экстремистской организацией.
Первые отчеты о применении технологии ИИ в схемах обмана по телефону западные эксперты начали получать с 2022 года.
Справочно: Правильнее будет говорить не про искусственный интеллект, а именно про нейросеть с машинным обучением на основе искусственного интеллекта. Технологические прорывы в сфере ИИ еще впереди. Чтобы машина получила полноправное звание искусственного интеллекта, она должна пройти самостоятельно, как минимум, тест Тьюринга.
Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота.
Схема обмана та же, но инструменты более прогрессивные. ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП.
Сейчас нейросеть можно обучить языкам, и она с легкостью осваивает любые акценты, чтобы умело вести диалог. “Нужно срочно расплатиться! Вот номер продавца, скинь ему деньги”, — теперь сможет услышать ни о чем не подозревающий человек на том конце провода.
Следует не вестись на эмоции, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу. А еще лучше придумайте кодовое слово, для своих. Прямо как в банке. И таким образом, вы будете знать, что звонят действительно родные и близки, а не мошенники с нейросетью.
Имитация образа
Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология именуется “дипфейк” ( от англ. deepfake — «подделка»). Ее продукты можно видеть в сети уже сейчас, часто в качестве пародий и розыгрышей.
За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.
Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества:
«Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей».
Как распознать дипфейк
- Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций.
- Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта.
- Звук опережает картинку или не успевает за движениями персонажа.
Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. В целом, для обычного пользователя лучший способ защититься от дипфейков — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.