На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

РЕН ТВ

195 184 подписчика

Свежие комментарии

  • Георгий Михалев
    Так замочили его давно, какая связь может быть.Reuters: командую...
  • лина любимцева
    Бедолага....Останки пропавшей...
  • лина любимцева
    Отвратительная раковая опухоль- это западэнськое жЫдо-бандэрье, которое сейчас захватило всю Украину!!!Риттер: Украина -...

Госдума хочет защитить голос человека при его генерации ИИ

Россиян начнут по-новому защищать от дипфейков, одна из таких мер коснется голоса. Его хотят сделать объектом неимущественного права. То есть, использовать записи с голосом, в том числе сгенерированные нейросетью, можно будет только с разрешения его владельца. Как будет работать новая мера и насколько она поможет избежать уловок злоумышленников, разбиралась Марина Кравцова.

 

Искусственные люди – уже не выдумка фантастов, а суровая реальность соцсетей.

Анастасия откликнулась на призыв по голосу - подруги, на самом деле - мошенников, и перевела 40 тысяч рублей. На следующий день девушка узнала, аккаунт подруги взломали, а эти сообщения сгенерированы нейросетью.

"Голосовые сообщения вызывают доверие, когда говорят: "Настя, чтоб ты не сомневалась". Диалог, наверное, перечитывали и смотрели: в каких отношениях мы находимся, и, соответственно, на этом выстроилась дальнейшая коммуникация", - рассказала Анастасия Богданова.

Сгенерировать голос подруги, родственника, начальника уже не составляет большого труда и не требует знаний в программировании. 

"Все зависит от объема информации, которая есть у мошенников: насколько много примеров, насколько хорошо они могут обучить искусственный интеллект, который вас подделывает", - заявил руководитель Международного центра цифровой криминалистики СПБ ФИЦ РАН Андрей Чечулин.

Исходным материалом для подделки становятся голосовые сообщения в мессенджерах, видео, которые люди выкладывают в соцсети, и даже записи телефонных разговоров. 

Не самую качественную, но похожую подделку сегодня может сделать любой пользователь Интернета всего за несколько минут. В сети множество программ, которые генерируют нужное сообщение голосом нужного человека и даже переводят на другой язык. Достаточно загрузить аудиофайл продолжительностью менее минуты. С длинными предложениями программы справляются так себе, но с короткой фразой справилась бы программа на "отлично".

Если раньше дипфейк или искусственно созданный голос можно было отличить по заторможенности и механической манере, то сегодня нейросети создают копии даже реалистичней настоящих видеозаписей. 

"Мы можем использовать генеративные нейросети, чтобы они создали видео. Натренировать модель на определенном лице и после этого устроить ему и фотосессию и киносъемку, то есть это сейчас все возможно", - подчеркнул киберэксперт Никита Починок.

Технологиями искусственного интеллекта орудуют не только мошенники, но и информационные диверсанты: в пабликах Курской области распространяли фейковый ролик со сгенерированным нейросетью голосом официального представителя МВД Ирины Волк, подделывали выступление официального представителя МИД Марии Захаровой,  распространяли в соцсетях лживый ролик с губернатором Севастополя, где он якобы призывает горожан выходить на митинг.

Голос украинские хакеры подделали идеально, но сдали себя, назвав законодательное собрание города на украинский манер горсоветом. 

Отвоевывать свой тембр у искусственного интеллекта приходится западным звездам. Скарлетт Йоханссон потребовала изъять записи, похожего с ее звучанием голоса, которым заговорил чат американской нейросети. А супруги - актеры дубляжа требуют от американского стартапа пять миллионов долларов за несогласованную компьютерную озвучку видеороликов их голосами. 

"Я был в бешенстве. Не только из-за последствий для моей карьеры, но и из-за того, что эти слова я не соглашался произносить. Это оскорбляет меня, мою индивидуальность. Я не давал согласия, не было никакой компенсации. И получается, я больше не хозяин своего голоса", - заявил актер озвучивания Пол Скай Лерман.

В России решили произвол искусственного интеллекта ограничить законом. В частности голос человека защитят как объект неимущественного права и запретят использовать его, даже сгенерированного нейросетью, без согласия обладателя. 

"Ответственность наступит минимальная в виде штрафа – пять тысяч рублей, максимальная ответственность будет в виде лишения свободы до шести лет, будет наказание зависеть от тяжести правонарушения", - подчеркнула юрист Алла Георгиева.

Законопроект внесен на рассмотрение в Госдуму. Новые нормы должны остановить шутников от создания фейковых видео, а для преступников использование дипфейков станет отягчающим обстоятельством.

 

Ссылка на первоисточник

Картина дня

наверх