Исследователи Сбера повысили точность распознавания русского языка искусственным интеллектом
11:37 21.08.2025
Исследователи Сбера нашли способ повысить качество распознавания русского языка искусственным интеллектом (AI). Новый метод предобучения AI-моделей, получивший название HuBERT-CTC, использует целевые переменные из CTC-модели распознавания (Connectionist Temporal Classification). Это позволяет формировать более семантические представления данных, в то время как существующие модели (wav2vec2.0, HuBERT и BEST-RQ) опираются на низкоуровневые акустические переменные.
Исследование подробно описано в научной статье «GigaAM: Efficient Self-Supervised Learner for Speech Recognition» («GigaAM: эффективный метод предобучения для распознавания речи») и представлено на международной конференции Interspeech 2025 — ключевом событии в области речевых технологий. Метод уже показал отличные результаты для русского языка. Он снижает количество ошибок распознавания (Word Error Rate) на 50% по сравнению с моделью Whisper-large-v3 от OpenAI.
Метод также решает ключевую проблему индустрии — зависимость от дефицитных размеченных аудиоданных. Self-supervised обучение позволяет моделям учиться на огромных массивах неразмеченных данных. Это открывает путь к созданию качественных систем для любых языков и специализированных доменов. Технология масштабируется по размеру модели и объёму данных. Динамическое маскирование self-attention наделяет модель уникальной гибкостью: одна архитектура работает в онлайн- и офлайн-режиме без необходимости инвестирования в переобучение.
Решение, предложенное исследователями Сбера, имеет большое практическое значение для сервисов автоматического распознавания речи и голосовых помощников, контакт-центров и систем аналитики телефонных звонков. Новый метод может быть очень востребован в мультимодальных системах, например, в чат-ботах с аудиопотоком. Исследователи получают новый мощный инструмент предобучения моделей. Открытый код позволяет AI-сообществу дообучать модели искусственного интеллекта и применять его под свои языки и задачи.
«Мы переосмыслили сам подход к предобучению моделей, сместив фокус на семантические представления, – отметил технический директор GigaChat Сбербанка Фёдор Минькин. – Это не просто инкрементальное улучшение метрики, а качественный скачок. Новая архитектура демонстрирует высокую эффективность и гибкость. Она ломает барьеры, которые долгое время сдерживали развитие ASR-систем для языков с малым количеством данных. Думаю, что метод HuBERT-CTC может стать новым стандартом для индустрии, ускорит прогресс и заложит основу для следующего поколения голосовых интерфейсов».
Комментарии отключены - материал старше 3 дней
Новости
- 22:38 20.11.2025
- Уиткофф и Рубио последний месяц «тихо работали над планом» урегулирования на Украине – Белый дом
- 22:00 20.11.2025
- Путин: Эти люди (украинская власть — прим. ТАСС), сидя на золотых горшках, вряд ли думают о судьбе своей страны
- 21:30 20.11.2025
- Путин в четверг, 20 ноября, посетил один из командных пунктов группировки «Запад»
- 20:38 20.11.2025
- В Москве наградили лауреатов национальной премии «Лидеры ИИ»
- 20:10 20.11.2025
- Две вакцины против опухолей получили разрешение Минздрава на использование
- 19:34 20.11.2025
- План Трампа по урегулированию получили в Киеве - офис Зеленского
- 19:02 20.11.2025
- Сбер и Аэрофлот договорились совместно развивать технологии генеративного искусственного интеллекта
- 18:50 20.11.2025
- Каллас заявила, что у ЕС есть план по Украине всего из двух пунктов…
- 18:32 20.11.2025
- Предложения США по Украине предполагают снятие санкций с России – Bloomberg
- 17:43 20.11.2025
- Киев шантажирует персонал ЗАЭС через давление на родственников за пределами РФ — Ульянов


комментарии(0)