Кража голосов: сенаторы хотят запретить искусственному интеллекту разговаривать » E-News.su | Cамые свежие и актуальные новости Новороссии, России, Украины, Мира, политика, аналитика
ЧАТ

Кража голосов: сенаторы хотят запретить искусственному интеллекту разговаривать

21:19 / 26.01.2024
263
3
Артем Шейкин: фальшивые родственники воруют деньги, а поддельные знаменитости призывают к преступлениям


Искусственный интеллект (ИИ) заговорил чужими голосами. Известный актер звонит клиентам банка. Популярный диктор рекламирует порнографические ресурсы. Наконец, каждому может позвонить его родственник и попросить перечислить немножко денег. И это — как проблема для честных людей, так и дополнительная возможность для мошенников.

Совет Федерации готовит законопроект, который запретит подделывать голоса при помощи ИИ. Об этом на площадке РИА «Новости» рассказал заместитель председателя Совета по развитию цифровой экономики при верхней палате, член Комитета СФ по конституционному законодательству Артем Шейкин.

— Поводом для обсуждения законопроекта послужило обращение одного из известных дикторов, голосом которого озвучивался неприличный контент. Это обращение поддержал и Союз дикторов России, — рассказал сенатор.

— В связи с этим мы посмотрели законодательство, и обнаружили, что у нас закона об охране и защите права на голос не существует. Есть законы об охране изображения, а про голос — ничего. Но мы видим, что синтез голоса используется для записи запрещенного контента. Голосами известных людей озвучивались призывы к экстремистским акциям, оглашалась недостоверная информация.

Много таких историй, когда сын звонит маме или отцу и просит срочно прислать ему денег. Родители бросаются на помощь, а потом выясняется: сын не звонил, голос был сгенерирован мошенниками при помощи ИИ.

Согласно изменениям в законе, любое использование голоса гражданина будет возможно только с его согласия. Несанкционированное использование голоса станет караться, — сказал сенатор.

Вопрос в том, насколько реализуемо исполнение такого закона. Об этом рассказал начальник отдела информационной безопасности и технических средств защиты ЦКБ ГА Алексей Щучкин:

— Имитация голоса при помощи ИИ сейчас активно внедряется в нашу действительность. Ряд актеров и дикторов дают на это свое согласие. Но используются и голоса умерших знаменитостей. Также и живых людей — в преступных целях.

Не нужно объяснять, насколько это опасно. Реализовать запрет на использование голоса человека без его согласия одномоментно не получится. Не бывает такого, чтобы приняли закон — и его все сразу же бросились исполнять.

Для защиты граждан и их голосов от неправомерного использования, помимо принятия закона о защите голоса, необходимо предусмотреть методологию сравнения голосов. Проще говоря, необходим сервис экспертной оценки их аутентичности. Для того, чтобы предъявить претензии к краже голоса, это необходимо сначала доказать. Иначе закон не будет исполняться по чисто техническим причинам.

И, конечно, рано или поздно мы придем к созданию единой базы биометрии и идентификаторов граждан на государственных сервисах. Отличить, что сказал человек своим голосом, а что сказано компьютерной программой его голосом — можно. Но для этого предстоит проделать большую работу.

Лучшим способом исполнения этого закона станет ресурс по блокировке распространения фальшивых голосов, — резюмировал Алексей Щучкин.

Михаил Зубов

Новостной сайт E-News.su | E-News.pro. Используя материалы, размещайте обратную ссылку.

Оказать финансовую помощь сайту E-News.su | E-News.pro


          

Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter (не выделяйте 1 знак)

Не забудь поделиться ссылкой

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
  1. -1
    108J
    Читатель | 4 622 коммент | 0 публикаций | 27 января 2024 00:28
    Испугались подделки голосов. Лезут туда, куда ангелы даже не ступают.Ну дьявол их встретит!
    Показать
    1. -1
      Семен Маркович
      Читатель | 1 898 коммент | 0 публикаций | 27 января 2024 07:25
      Вы противоречите даже себе. Прочитайте свой комментарий ещё раз и подумайте. Правильно делают.
      Показать
  2. 0
    SEET
    Читатель | 783 коммент | 0 публикаций | 27 января 2024 09:58
    Срочно отменить телефоны и запретить аудиоконференции.
    Показать
Информация
Комментировать статьи на сайте возможно только в течении 30 дней со дня публикации.