На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

РЕН ТВ

195 231 подписчик

Свежие комментарии

Количество дипфейков в России в 2025 году выросло в четыре раза

IMAGO/Michael Bihlmayer/TASS

Вместе с развитием кибертехнологий сеть захлестнула волна дипфейков. В этом году их количество в нашей стране выросло в четыре раза. Поддельные видео и аудиозаписи все чаще становятся инструментами, которыми в своих схемах пользуются мошенники. Они обманывают россиян, создавая ролики, в которых используют внешность и голоса других пользователей, а иногда даже образы уже умерших людей.

Есть ли способ защититься от фейков, выяснил корреспондент РЕН ТВ Илья Аникеев.

Трамп красит пасхальные яйца, Гарри Поттер в форме красноармейца, а Сталлоне – за рулем асфальтоукладчика. Нейросеть на выдумки хитра.

Все это дипфейки – реалистичные изображения, по воле человека созданные искусственным интеллектом. Одни смешные, другие намеренно вводят в заблуждение.

Визуально отличить псевдогубернатора Саратовской области от настоящего невозможно. Изображение и голос фейкового главы Камчатского края должны были вызвать народный гнев.

Конечно, никто из глав регионов никакие тарифы повышать не собирался. За полгода количество дипфейков с госслужащими увеличилось в четыре раза. Видеоподделки посмотрели 122,5 миллиона человек.

"В этом году мы отмечаем уже четырехкратный рост уникальных дипфейков. Больше 300 случаев в российском сегменте мы зафиксировали", – подчеркнул начальник управления по противодействию распространению недостоверной информации АНО "Диалог регионы" Сергей Маклаков.

И если видео с лжечиновниками быстро разоблачают, то дипфейки с простыми людьми, которые мошенники рассылают в мессенджерах, успевают нанести россиянам финансовый урон.

"Сама по себе дипфейк-технология, она не является какой-то вредоносной или опасной, но то, как ее применяют периодически в связке с какими-то другими ухищрениями, создает действительно серьезные риски", – заявил эксперт по кибербезопасности Павел Мясоедов.

Так голосовой дипфейк предпринимателя Михаила Токовинина призывал инвестировать. Мошенники, используя лицо и голос бизнесмена, обманули десятки людей.

"Крайне неприятно и обидно, что есть реально пострадавшие. Это настолько примитивно, и просто, и доступно, что тебе даже не нужно подделывать Майкла Джексона. Ты же можешь подделывать и обманывать сотни людей. Ты можешь подделать бабушку и обмануть внука", – рассказал Токовинин.

Найти автора дипфейка практически невозможно. В сети полно готовых платформ, создающих такие видео за секунды. В России разрабатывают приложение, способное распознавать сгенерированный голос.

"Задача этой системы – создать очень простой продукт, который был бы ориентирован именно на выявление голосовых дипфейков, у него был бы очень простой программный интерфейс, то есть любой разработчик очень легко мог бы его подключить к своему проекту", – рассказал доцент кафедры криптологии и кибербезопасности НИЯУ "МИФИ" Дмитрий Фанов.

Интернет-пользователи оставляют цифровые следы в мессенджерах и соцсетях: фотографии, видео, голосовые сообщения. С их помощью и создаются кибердвойники. Даже умерших людей.

"Основными целями становятся люди, переживающие утрату. При этом круг жертв не ограничивается только пожилыми людьми", – подчеркнул руководитель центра цифровой экспертизы Роскачества Сергей Кузьменко.

В российском законодательстве уже задумались о введении юридического термина "дипфейк".

"Это персональные данные фактически используются человека, его изображение, его голос, иные данные без его согласия. И, если это используется в преступных посягательствах, очевидно, что требуется отдельная квалификация в сфере уголовного права", – отметил замглавы Росфинмониторинга Герман Негляд.

Подделать можно кого угодно. Сгенерировали же клип на сгенерированную песню лидера группы "Кино", словно подтверждая – Цой жив. И, судя по тому, как развиваются нейросетевые технологии, дипфейки станут еще реалистичнее.

РЕН ТВ в мессенджере МАХ – главный по происшествиям

 

Ссылка на первоисточник
наверх