IMAGO/Michael Bihlmayer/TASS
Вместе с развитием кибертехнологий сеть захлестнула волна дипфейков. В этом году их количество в нашей стране выросло в четыре раза. Поддельные видео и аудиозаписи все чаще становятся инструментами, которыми в своих схемах пользуются мошенники. Они обманывают россиян, создавая ролики, в которых используют внешность и голоса других пользователей, а иногда даже образы уже умерших людей.
Есть ли способ защититься от фейков, выяснил корреспондент РЕН ТВ Илья Аникеев.Трамп красит пасхальные яйца, Гарри Поттер в форме красноармейца, а Сталлоне – за рулем асфальтоукладчика. Нейросеть на выдумки хитра.
Все это дипфейки – реалистичные изображения, по воле человека созданные искусственным интеллектом. Одни смешные, другие намеренно вводят в заблуждение.
Визуально отличить псевдогубернатора Саратовской области от настоящего невозможно. Изображение и голос фейкового главы Камчатского края должны были вызвать народный гнев.
Конечно, никто из глав регионов никакие тарифы повышать не собирался. За полгода количество дипфейков с госслужащими увеличилось в четыре раза. Видеоподделки посмотрели 122,5 миллиона человек.
"В этом году мы отмечаем уже четырехкратный рост уникальных дипфейков. Больше 300 случаев в российском сегменте мы зафиксировали", – подчеркнул начальник управления по противодействию распространению недостоверной информации АНО "Диалог регионы" Сергей Маклаков.
И если видео с лжечиновниками быстро разоблачают, то дипфейки с простыми людьми, которые мошенники рассылают в мессенджерах, успевают нанести россиянам финансовый урон.
"Сама по себе дипфейк-технология, она не является какой-то вредоносной или опасной, но то, как ее применяют периодически в связке с какими-то другими ухищрениями, создает действительно серьезные риски", – заявил эксперт по кибербезопасности Павел Мясоедов.
Так голосовой дипфейк предпринимателя Михаила Токовинина призывал инвестировать. Мошенники, используя лицо и голос бизнесмена, обманули десятки людей.
"Крайне неприятно и обидно, что есть реально пострадавшие. Это настолько примитивно, и просто, и доступно, что тебе даже не нужно подделывать Майкла Джексона. Ты же можешь подделывать и обманывать сотни людей. Ты можешь подделать бабушку и обмануть внука", – рассказал Токовинин.
Найти автора дипфейка практически невозможно. В сети полно готовых платформ, создающих такие видео за секунды. В России разрабатывают приложение, способное распознавать сгенерированный голос.
"Задача этой системы – создать очень простой продукт, который был бы ориентирован именно на выявление голосовых дипфейков, у него был бы очень простой программный интерфейс, то есть любой разработчик очень легко мог бы его подключить к своему проекту", – рассказал доцент кафедры криптологии и кибербезопасности НИЯУ "МИФИ" Дмитрий Фанов.
Интернет-пользователи оставляют цифровые следы в мессенджерах и соцсетях: фотографии, видео, голосовые сообщения. С их помощью и создаются кибердвойники. Даже умерших людей.
"Основными целями становятся люди, переживающие утрату. При этом круг жертв не ограничивается только пожилыми людьми", – подчеркнул руководитель центра цифровой экспертизы Роскачества Сергей Кузьменко.
В российском законодательстве уже задумались о введении юридического термина "дипфейк".
"Это персональные данные фактически используются человека, его изображение, его голос, иные данные без его согласия. И, если это используется в преступных посягательствах, очевидно, что требуется отдельная квалификация в сфере уголовного права", – отметил замглавы Росфинмониторинга Герман Негляд.
Подделать можно кого угодно. Сгенерировали же клип на сгенерированную песню лидера группы "Кино", словно подтверждая – Цой жив. И, судя по тому, как развиваются нейросетевые технологии, дипфейки станут еще реалистичнее.
РЕН ТВ в мессенджере МАХ – главный по происшествиям
Свежие комментарии