На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

РЕН ТВ

195 185 подписчиков

Свежие комментарии

  • Геннадий Свидерский
    Что или кто мешает переместить оон в Россию?Небензя: США восп...
  • Алекс Сэм
    Ну понимаю ну год, ну полтора условно Но 8 лет - это как-то мягко говоря странноСуд назначил Март...
  • Фаина Юсупова
    Что мешало жить спокойно Финляндии?Столько лет работали у нас,жировали,а теперь вошли в НАТО.Что стало лучше?Так и бу...В Госдуме рассказ...

Дипфейки: чем опасны поддельные видео и как защитить свои данные

unsplash.com/Synatix

С каждым годом киберпреступления становятся все более изощренными. Одной из самых опасных технологий считается Deepfake. Мошенники создают фальшивые, но очень реалистичные видео при помощи нейросетей. В материале РЕН ТВ расскажем, как создаются дипфейки, чем они опасны и как защитить свои данные от киберпреступников.

Что такое Deepfake

Deepfake – реалистичная подмена фото- или видео-контента, созданная при помощи нейросетей. В руках кибермошенников дипфейки могут стать опасным оружием. На уже существующие материалы можно наложить лица и голоса известных людей. Эта технология заставляет говорить то, чего никогда не произносил, и делать то, чего не совершал.

Специальный алгоритм анализирует снимки человека, сделанные с разных ракурсов и с разным выражением лица. На основе этих данных искусственный интеллект способен создать правдоподобное видео с его участием. Технология Deepfake умеет воссоздавать эмоции и движения нужного человека, мало чем отличающиеся от настоящих.

Чем опасна эта технология

По словам IT-специалистов, дипфейки могут стать самой опасной цифровой угрозой за последние десятилетия. Воспользоваться этой технологией сможет даже новичок, а вред от нее – огромен. При помощи дипфейков мошенники проворачивают многомиллионные аферы и шантажируют своих жертв.

ТАСС/AP Photo

С распространением дипфейков все чаще появляются случаи дискредитации известных и влиятельных людей. Так в 2018 году мошенники опубликовали видео, на котором Барак Обама якобы оскорбляет Дональда Трампа. А в середине 2019-го в Сети появилось дипфейк-видео со спикером Палаты представителей конгресса США Нэнси Пелоси. Автор ролика изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи посчитали, что она пьяна. Этот случай обернулся громким скандалом, и лишь спустя некоторое время удалось доказать, что речь политика была сгенерирована при помощи нейросетей.

Как защитить себя от мошенников

Лучшая защита от дипфейков – соблюдение базовых правил безопасности. Эксперты советуют использовать разные пароли для разных учетных записей. Они должны быть надежными, а время от времени их необходимо менять. Также будет полезно создавать резервные копии важных документов. Это поможет защитить их и восстановить поврежденные файлы.

По словам специалистов, крайне важно повышать свою медиаграмотность, а все, что мы видим в интернете, воспринимать критически, следуя правилу "доверяй, но проверяй".

Как в России борются с дипфейками

Во многих странах, в том числе и в России, с дипфейками уже начали бороться на законодательном уровне. Еще в 2021 году первый заместитель руководителя администрации президента Сергей Кириенко говорил об опасности технологий Deepfake и утечек данных в соцсетях. Он отметил, что "государство не воюет с интернетом, регулирование нужно, чтобы снять риски".

Global Look Press/Komsomolskaya Pravda

Компании в сфере безопасности создают все новые разработки для распознавания дипфейков. "Сбер" в августе 2022 года запатентовал две новые технологии выявления дипфейков. Разработка позволит распознавать подмену лица человека в кадре. В компании рассказали, что эффективность системы – 98%, это намного выше ее аналогов.

Борьбу с киберпреступниками ведут и российские полицейские. К ноябрю 2022 года они получат IT-разработку, помогающую распознавать фейковые видео.

 

Ссылка на первоисточник

Картина дня

наверх