Темная тема
A+ | Сброс | A-
Исследование: голосовые дипфейки научились обманывать устройства распознавания речи

Исследование: голосовые дипфейки научились обманывать устройства распознавания речи
Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают.

Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам.

Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам, с функцией  распознавания голоса, с помощью синтезированных образцов речи.

Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев.

200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям.

По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях:

«Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например цифровых помощников Amazon Alexa или Google Home».

Ученые добавили, что голосовые дипфейки также могут напрямую атаковать конечных пользователей, дополняя традиционные фишинговые мошенничества знакомым человеческим голосом.

Напомним, в сентябре мошенники использовали дипфейк Олега Тинькова для рекламы поддельного сайта «Тинькофф Инвестиции».

В середине сентября ученые рассказали, как отличить подделку от реального фото.

В апреле эксперт заявил, что количество дипфейков в интернете удваивается раз в шесть месяцев.

В марте американская полиция арестовала женщину за травлю подростков с помощью сгенерированных фото.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!



Поделиться новостью:

| Все новости издания: forklog.com | Добавить издание forklog.com в свою ленту |

Новости партнеров:

Наши мобильные приложения:

Показов: 11336
Опубликовано: 14.10.21


Похожие новости:
 

Новости криптовалют - агрегатор новостей криптовалют

Уже у каждого на слуху название криптовалюта. Это и биткоин, и эфириум, и лайткоин и другие криптовалюты, которые набирают большую популярность. Люди массово вливаются и инвестируют в криптовалюту, проводят прибыльные ICO и все больше углубляются в мир криптовалют. В сети интернет действительно мало новостных изданий, которые тематически бы публиковали новости криптовалют. Что бы экономить время и получать максимум информации о данной тематике на нашем проекте новостного агрегатора открыт раздел "Новости криптовалют", где собираются свежие и последние новости криптовалют только с проверенных источников и интернет изданий данной тематики. Что бы получить всю свежую информацию достаточно обновить данный раздел и получить все новости в режиме онлайн. Лента новостей криптовалют обновляется каждую минуту и вы можете получить актуальную информацию за несколько секунд.