Ультимативное сравнение систем распознавания речи: Ashmanov, Google, Sber, Silero, Tinkoff, Yandex

    sandwich_fake


    Какое-то время назад мы писали цикл статей про то, как правильно измерять качество систем распознавания речи, и собственно снимали метрики с доступных решений (цикл статей — 1, 2, 3) (на тот момент и коммерческих и некоммерческих решений). На Хабре была выжимка из этого цикла в рамках этой статьи, но до масштабного обновления исследования, достойного публикации на Хабре, руки никак не доходили (это требует как минимум большого количества усилий и подготовки).


    Прошло некоторое время и пора обновить наше исследование, сделав его по-настоящему ультимативным. По сравнению с прошлыми исследованиями изменилось или добавилось следующее:


    • Добавилось много валидационных сетов из разных реальных доменов;
    • На рынок вышел Сбер, в первую очередь интересно протестировать именно его;
    • Для чистоты эксперимента, мы не предупреждали разработчиков систем о доменах и факте проведения тестов;
    • Мы также попробовали немного протестировать пропускную способность сервисов (понятно, что мы не знаем какое железо и ограничения стоят в облаке);
    • Мы рассматриваем только коммерческие системы, к которым у нас получилось получить доступ и которые показали хоть какой-то намек на "всеядность", работу с холодного старта и "энтерпрайзность";

    Методология


    Мы старались следовать нашей стандартной методологии (см. ссылки выше) с небольшими изменениями:


    • Тестируем одни и те же данные в формате wav (или просто PCM);
    • Мы слали запросы во все системы в 8 параллельных потоков (если было очень много таймаутов или все было медленно, то снижали);
    • Расчет скорости делался отдельным небольшим прогоном без всяческой пред- или пост-обработки, чтобы не "загрязнять" метрики, допустим, нормализацией или ресемплингом;
    • Считаем основную метрику — WER. Не пугайтесь высоких показателей в районе 20% WER, нужно понимать что в самой разметке заложено порядка 5% WER и что иногда система получает штраф за неверную форму слова (но корень сохраняется, подробнее писал по ссылке в начале статьи);
    • По причине большого количества доменов в этот раз на каждый домен случайно выбрали по 1 часу аудио. Стабильные результаты как правило получаются с 2-3 часов аудио (поэтому некоторые метрики могут визуально быть "хуже" прошлых тестов). За тесты в Гугле нам пришлось заплатить почти 500 долларов!;
    • Метрики считаются на нормализованных текстах (то есть без цифр, "как слышится так и пишется"), так как системы нормализации могут быть разными и строго говоря к качеству распознавания имеют непрямое отношение и зачастую делаются под домен;
    • Если у системы нет такого функционала, то мы нормализуем тексты самостоятельно. В любом случае это влияет в рамках 1 п.п. WER, мы проверяли;
    • Сначала мы пробовали слать ogg/opus в системы, которые его поддерживают, но потом отказались от такой идеи, потом что резко вырос процент "пустых" ответов;
    • Все данные по умолчанию отправляются с родной частотой дискретизации (8 или 16 kHz), но мы не записывали исходную частоту дискретизации всех оригинальных аудио до обработки;

    Сухие метрики


    Все модели, кроме Silero bleeding egde, это модели упакованные в production сервисы. Используемый показатель — WER (для простоты восприятия можно мысленно пририсовать знак процента или считать WER процентом ошибок в словах).


    Датасет Ashmanov Google Google Sber Sber Silero Silero new Tinkoff Yandex
    default enhanced IVR prod bleeding edge
    Чтение 10 11 10 7 7 6 8 13
    Умная колонка 35 24 6 30 27 27 14
    Энергосбыт 24 39 41 20 16 11 15 13
    Звонки (такси) 47 16 18 22 32 13 12 21 15
    Публичные выступления 28 27 24 18 14 12 20 21
    Финансы (оператор) 31 37 37 24 33 25 24 23 22
    Аэропорт 31 36 37 26 21 22 25 21
    Аудио книги 22 60 54 19 24 20 28 22
    Радио 24 61 40 26 18 15 27 23
    Умная колонка (далеко) 42 49 8 41 27 52 18
    Банк 62 30 32 24 28 39 35 28 25
    Звонки (e-commerce) 34 45 43 34 45 29 29 31 28
    Заседания суда 34 29 29 31 20 20 31 29
    Yellow pages 45 43 49 41 32 29 31 30
    Финансы (клиент) 43 55 59 41 67 38 37 33 32
    YouTube 32 50 41 34 28 25 38 32
    Звонки (пранки) 44 72 66 46 41 35 38 35
    Медицинские термины 50 37 40 50 35 33 42 38
    Диспетчерская 61 68 68 54 41 32 43 42
    Стихи, песни и рэп 54 70 60 61 43 41 56 54
    Справочная 39 50 53 32 25 20 27

    Чем меньше WER, тем лучше.


    Также интерес представляет процент пустых ответов сервисов (не совсем ясно, это баг или фича, артефакт нагрузки или самих моделей, но где-то снижение нагрузки помогает снизить этот процент). Традиционно этот процент высокий у Гугла. И как ни странно он довольно высокий у Сбера (и там скорее всего это фича, так как их пропускная способность явно не узкое место).


    Ashmanov Google Google Sber Sber Silero Tinkoff Yandex
    default enhanced IVR
    Чтение 0% 0% 0% 0% 0% 5% 4%
    Умная колонка 0% 2% 0% 0% 4% 0%
    Энергосбыт 1% 12% 13% 6% 0% 2% 1%
    Звонки (такси) 0% 0% 0% 1% 0% 0% 7% 0%
    Публичные выступления 0% 1% 0% 0% 0% 2% 0%
    Финансы (оператор) 0% 0% 0% 2% 0% 0% 6% 0%
    Аэропорт 0% 8% 10% 4% 0% 4% 0%
    Аудио книги 0% 22% 6% 2% 0% 1% 0%
    Радио 0% 19% 2% 3% 1% 4% 0%
    Умная колонка (далеко) 0% 12% 0% 0% 1% 0%
    Банк 0% 2% 3% 1% 1% 0% 5% 1%
    Звонки (e-commerce) 0% 0% 0% 7% 1% 0% 7% 0%
    Заседания суда 0% 0% 0% 1% 0% 4% 0%
    Yellow pages 1% 13% 9% 14% 0% 2% 2%
    Финансы (клиент) 0% 0% 7% 35% 9% 0% 5% 0%
    YouTube 0% 13% 1% 6% 0% 1% 0%
    Звонки (пранки) 1% 33% 12% 17% 5% 1% 1%
    Медицинские термины 0% 1% 0% 7% 0% 6% 1%
    Диспетчерская 3% 26% 28% 25% 0% 2% 4%
    Стихи, песни и рэп 2% 19% 3% 25% 0% 1% 1%
    Справочная 1% 12% 14% 9% 0% 3% 0%

    Чем меньше ближе к нулю этот процент, тем лучше.


    Качественный анализ и интерпретация метрик


    Неудивительно, что каждый силен в том домене, на котором фокусируется. Tinkoff — на звонках в банк, справочную, финансовые сервисы. Сбер имеет ультимативно лучшие результаты на своей "умной колонке" (спекулирую, что они поделились в лучшем случае 1/10 своих данных) и в среднем неплохие показатели. IVR модель Сбера на доменах, где оригинальные данные лежат у нас в 8 kHz, показывает себя достойно, но она не ультимативно лучшая. Приятно удивил Яндекс — в прошлых рейтингах их модели были не в списке лидеров, а сейчас точно лучше, чем в среднем по больнице. Другой сюрприз — Google, который является аутсайдером данного исследования вместе с Ашмановым.


    Также интересно посчитать количество доменов, где production модели поставщика лучшие / худшие (допустим с неким "послаблением" в 10% от лучшего или худшего результата):


    Сервис Лучше всех Хуже всех
    Ashmanov 0 7
    Google 1 13 (9 у enhanced)
    Sber 2 0
    Sber IVR 4 4
    Silero 13 0
    Tinkoff 6 2
    Yandex 10 1

    Как и ожидалось — наша модель показывает в среднем неплохие показатели на всех доменах, заметно отставая на банках и финансах. Также если смотреть по формальной метрике "на каком числе доменов модель лучшая или почти лучшая" — то наша модель как минимум лучше всех генерализуется. Если включить в забег нашу bleeding edge модель (мы пока не выкатили ее еще), то она отстает только на "умной колонке" и банковских датасетах, лидируя уже на 17 доменах из 21. Это логично, так как у нас нет своей колонки и банки очень неохотно делятся своими данными даже приватно.


    Удобство использования


    У Сбера на момент тестирования было только gRPC API. Это не самое удачное решение для SMB клиентов с точки зрения удобства, имеющее более высокий порог на вход. Также в их реализации вообще не прокидываются важные ошибки (или отсутствуют в принципе, чем часто грешат корпоративные сервисы). Документация запрятана внутри портала их экосистемы, но в целом кроме лишней "сложности" проблем особо там нет, читать приятно. 40 страниц на два метода это конечно сильно (мы читали сначала в PDF), но документация хотя бы подробная и с примерами и пояснениями.


    У Яндекса и Гугла стандартная корпоративная документация. Она несложная, но иногда длиннее, чем хотелось бы. Есть и обычные и потоковые интерфейсы. У Яндекса кстати она стала сильно приятнее и человечнее с момента, когда я в последний раз ее видел.


    У Tinkoff само распознавание работает по умолчанию также через gRPC, а поверх написаны клиенты (в тех, которые мы разбирали было много лишнего). С учетом фокуса на enterprise (оставим за скобками этические, правовые и финансовые последствия монетизации банком ваших данных без явного согласия и возможности отказаться) это имеет больше смысла, чем то, что сделал Сбер. Это уже мои спекуляции, но скорее всего это в первую очередь артефакт разработки решения под свои нужды.


    У сервиса Ашманова… вообще нет документации, примеры не работают из коробки, пришлось немного позаниматься перебором для запуска. Отдельно отмечу, что обычно b2b сервисы не славятся читаемыми ошибками и читаемой документацией, но тут вообще не было ни ошибок, ни документации. Или 500-я ошибка или 200 с пустым ответом. Это создает легкий когнитивный диссонанс с учетом проработки анимации девушки-маскота, количества маркетинговых материалов и "успешных" кейсов.


    ashmanov


    У нашего сервиса само публичное АПИ весьма минималистичное и состоит из 2 методов (синтеза и gRPC нет еще в публичной документации) с примерами. Есть также gRPC АПИ, которое сейчас проходит обкатку. Наверное я тут не лучший судья, но основная ценность как мне кажется состоит в радикальной простоте для публичного АПИ и детальных инструкциях / сайзингах / опциях конфигурирования для более крупных клиентов.


    Пропускная способность


    Все АПИ, которые мы протестировали (кроме Ашманова) показали себя довольно бодро по скорости (это баг или фича — решать вам). Для измерения пропускной способности мы считаем показатель секунд аудио в секунду на 1 поток распознавания (RTS = 1 / RTF):


    Сервис RTS per Thread Threads Комментарий
    Ashmanov 0.2 8
    Ashmanov 1.7 1
    Google 4.3 8
    Google enhanced 2.9 8
    Sber 13.6 8
    Sber 14.1 1
    Silero 2.5 8 4-core, 1080
    Silero 3.8 4 4-core, 1080
    Silero 6.0 8 12 cores, 21080 Ti
    Silero 9.7 1 12 cores, 21080 Ti
    Tinkoff 1.4 8
    Tinkoff 2.2 1
    Yandex 5.5 2 8 — много пустых ответов

    Чем выше RTS, тем лучше.


    Поскольку никто не публикует сайзинги облачных и даже иногда коробочных (тут поправьте меня, если пропустил) версий своих систем публично (кстати прошлая версия нашего сайзинга например доступна по ссылке), то довольно сложно оценить адекватность работы систем по ресурсам. Ведь за АПИ может скрываться как одна VDS, так и сотни карт Nvidia Tesla, которыми любят хвастаться корпорации в своих пресс-релизах (что кстати частично подтверждается результатами Сбера — пропускная способность там не падает от роста нагрузки совсем). Расчеты выше не являются заменой полноценным сайзингам.


    В защиту нашей системы могу сказать, что за этим бенчмарком стоит довольно слабый сервер конфигурации EX51-SSD-GPU, у которого сейчас есть некоторая фоновая нагрузка и который скорее сейчас оптимизирован на скорость ответа а не на пропускную способность. Еще небольшой тонкий момент состоит в том, что мы считали время каждого запроса и суммировали и поэтому никак не нормализовывали результаты на пинг, но оставим это для следующих исследований.


    Вообще меня очень приятно удивили результаты Сбера. На текущих версиях моделей у нас например сайзинг на 12 ядерном процессоре + GPU рассчитан на ~150 RTS. По идее это означает, что если мы поднимем тестовый и сервис на 12+ ядрах процессора на чуть более новой карточке, мы должны получить результаты более близкие к Сберу. У нас все равно не получается получить такие же высокие показатели без просадки от нагрузки, но какие-то выводы уже можно строить и получается все равно весьма достойно. Снимаем шляпу перед инженерами Сбера и ставим aspirational цель сделать наш сервис еще в 2-3 раза быстрее.


    На цене мы останавливаться особо не будем (большая часть серьезных клиентов все равно не использует облако), но в очередной раз неприятный сюрприз преподнес Гугл выставив круглый счет за смешной (как нам кажется) объем. А ответ прост — зачастую облачные корпоративные сервисы распознавания имеют не только крутой ценник (и в случае Гугла еще и в долларах), но и неочевидные системы округления вверх. В начале своего пути мы тестировали какой-то сервис из Великобритании… который округлял до 60 секунд!


    photo_2021-05-27_09-18-04


    Небольшая ложка дегтя


    Довольно приятно, что наш публичный некоммерческий датасет Open STT, неоднократно обсуждавшийся на Хабре, был предвестником релизов публичных данных, например от Сбера. Но долгосрочно все равно хотелось бы видеть хотя бы какую-то соразмерность вклада госкорпораций количеству вложенных в них публичных денег. В сравнении с похожими релизами на западе, мы пока сильно отстаем. Да и Яндекс традиционно не публикует ничего полезного в сфере распознавания речи, интересно почему.


    Обновления / ошибки


    Я перепутал, второй раз мы тестировали пропускную способность нашего сервиса на 1080 Ti, а не 2080 Ti. Это важно, так как между поколениями сильнее меняется скорость карточек.


    Именно в Яндекс мы слали данные в формате opus. Мы потестили немного, вроде именно у Яндекса особой разницы между wav и opus нет.

    Реклама
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее

    Комментарии 34

      +1
      Как разработчик сервиса «Ашманова» хочу заметить, что доступ к веб интерфейсу закрытый, сам сайт исключительно демонстрационный, крутится на CPU, не предполагает нагрузки. Документация есть, клиентам мы её направляем, на сайт не успели её выложить, поддержаны протоколы wss, gRPC, MRCP обеих версий.

      snakers4 Вы сравнивали в бенчмарке обе демонстрационные модели, 8000 и 16000?
        0

        Мы использовали модель по-умолчанию

          0
          На звонках гораздо лучше работает модель 8000, некорректно тестировать модель одного домена на другом
            0
            Также просто для информации: этот демо сервис работает на AWS инстансе типа t3a.2xlarge, и к нему подключен t.me/voicybot, который тоже генерирует какую-то постоянную нагрузку, пусть и не очень высокую
              0

              Ну на примере того же Сбера и нашего сервиса я бы с этим поспорил, но значит в следующий раз протестируем две модели

          +2
          Насчет Google думаю, что на английском они должны получше выступить) Интересно, а вы не пробовали такое же сравнение провести для распознавания английского языка? (среди моделей, которые его распознают)
            +1

            На английском естественно все сильно лучше, да и там миллион моделей (несколько базовых + пара премиум моделей + одна модель каждую страну).
            Между строк читается, что без явного согласия юзера они как бы берут звонки из звонилки (звонилка по умолчанию на Андроиде это приложение Гугла).


            Сравнение мы естественно делали, но там так много работы, что сил и ресурсов хватило только на сравнение Гугла и нашей системы — вот ссылка — https://github.com/snakers4/silero-models/wiki/Quality-Benchmarks#en-v3

            +3

            А почему на КДПВ потёмкинский сэндвич?

              +1

              Потому что многие красивые на вид вещи зачастую просто имеют хороший маркетинг. Тот же STT Гугла на русском. Вроде Гугл, дорого богато. Но по факту не очень.

              +2

              А что означает цифра в ячейке в первой таблице? У неё как будто бы отсутствует легенда

                0

                Это WER

                  +1

                  Подпишите пожалуйста везде под таблицами что-то типа "больше цифра — лучше результат". Или наоборот.

                    0

                    Написал

                +1

                Привет!

                А вы выложите куда-нибудь данные с текстами? Хочется не только WER, но и другие метрики распознавания речи посчитать

                  0

                  Насчёт данных - не стал прямо писать это лишний раз в статье - если сделать вал сеты публичными - то любую сколь угодно вменяемую модель можно оверфитнуть на валидации к любым нужным метрикам. Это много раз наблюдалось в академии в виде так называемого Закона Гудхарта. Самый яркий пример - SOTA метрики на английском и показатели реальных систем. Пример из другой оперы - https://arxiv.org/abs/2003.08505.

                  Если добавить к этому наши реалии и типовые ценности на фоне макро трендов - то думаю получится ещё веселее.

                  Поэтому, к сожалению, или верьте методологии и непредвзятости тестов или нет. Кстати а какие метрики хотелось бы посчитать ещё? CER везде это WER // 2 примерно.

                  +1

                  Кстати, для сравнения систем, помимо дискретного числа побед, для большей наглядности, можно посчитать средневзвешенный WER по доменам для каждой системы, т.е. ∑ (доля записей в домене от всех записей) * WER_домена

                    0

                    Ну записей, на которых делали тест, в каждом домене примерно по часу. Я не стал этого делать, т.к. средняя тут не особо "правильный" показатель, так как есть домены, где любая система выдает дичь — например стихи и рэп. И получается мы будем усреднять 10% и 40-50%. Как в шутке про 2 курицы и статистику. Но если прямо интересно, то вот средние:


                    | Домен             | Средняя |
                    |-------------------|---------|
                    | Ashmanov          | 38      |
                    | Google            | 43      |
                    | Google (enhanced) | 42      |
                    | Sber              | 33      |
                    | Silero            | 28      |
                    | Silero new        | 24      |
                    | Tinkoff           | 31      |
                    | Yandex            | 26      |
                    +1
                    Подскажите, пожалуйста, я правильно понимаю, что на текущий момент какого-нибудь готового опенсорсного решения (типа yolo для CV) русского STT, которое можно было бы развернуть, с минимальным допиливанием, на условном RPi, чтобы раговаривать со своим умным домом (без привлечения сторонних облаков), — нет?
                      0

                      На языках, отличных от русского у нас самих например есть такое — https://github.com/snakers4/silero-models


                      На русском конечно есть, но я бы не стал ставить ссылки по двум причинам:


                      • В прошлых тестах были сильные проблемы с генерализацией, плюс зачастую OSS сделан на Kaldi;
                      • Не раз видел комическую гротескную ситуацию, когда есть тендер на очень круглую сумму. заказчик / вендор сравнивает коммерческое и OSS решение. Первое работает хоть как-то, второе чисто для галочки. Рассказываешь им как пройти путь, чтобы работало классно и юзер был доволен. В итоге они просто берут первую попавшуюся OSS сборку с ужасным качеством… потому, что плевать на пользователей и цель не решить задачу, а несколько иная. В итоге деньги распилены, поставлено неработающее решение, всем плевать, разработчики обоих решений не получили ничего, финансирование идет на следующий распил. Это одна из причин, почему мы не публикуем наши модели для русского языка.
                        +1
                        Я вполне понимаю вашу, как коммерческой компании, боль. И, клянусь соседским поросёнком, не собираюсь использовать вашу информацию ни в каких, даже отдалённо коммерческих целях. В то же самое время, не думаю, что наличие «открытых публичных датасетов из реальных данных в разных доменах и публикация претренированных моделей на таких датасетах» (цитата из другого вашего поста) сильно помогает «пилить». Там всё-таки, другие условия, критерии и механизмы, и человек «на откате» (или даже просто «на зарплате») всегда имеет в своём распоряжении оплаченное время во всём разобраться. А вот любителю, без базовых знаний и опыта, тяжело пробиваться через этот «гранит науки» :(

                        P.S. А чем так провинился Kaldi, что вы его всё-таки упомянули?
                          0

                          Если мы сейчас про датасеты для тренировки (а цитата про них), то пилить она помогает, безусловно. Но независимым авторам датасета публикация датасета гораздо меньше, как выяснилось помогает =)


                          Если просуммировать не вдаваться в холиворы, в мире по дефолту отсутствует культура поддержки условно полезных открытых проектов, если ты не делаешь какой-то ярый популизм, а пытаешься сделать что-то условно полезное с ненулевой суммой.


                          P.S. А чем так провинился Kaldi, что вы его всё-таки упомянули?

                          Я например открывал рецепты тренировки моделей. Как минимум смесь баша, перла, си и еще чего-то + инструкции по установке на страницу как-то сразу не показались привлекательными с точки зрения долгосрочной поддержки и стоимости обладания.

                      +1
                      Компании Google аплодирую стоя! Имея худшую модель для распознавания (по результатам теста) они получили наибольший доход за этот тест. Вот что значит умение вести бизнес и настоящая коммерческая хватка!
                        0

                        Еще им можно стоя аплодировать за то, что их ОС стоит на большинстве телефонов в мире (во всем мире, не только в странах золотого миллиарда) и де-факто они кормят свои модели вашими звонками без явного согласия. К плюсам можно отнести, что в глубине настроек вроде появился opt out от этого всего, но каждый раз когда туда заходишь — там всегда все опять переделано.

                          0

                          Мы как-то проверяли через функцию экспорта архива — и были приятно удивлены, количеству аудио, которое Гугл как минимум "говорит что сохранил".

                            0
                            В каком приложении?
                            0
                            Не совсем понятно, про какие звонки вы говорите. Если приложение Телефон в Андроиде, то оно не сохраняет звонки. Сохраняют все звонки в России только ОРИ в рамках всяких законов о СОРМ. Также можно установить дополнительные приложения, которые будут сохранять звонки (может быть и от Google тоже). Могут сохранять всякие мессенджеры, потому что сигнал идет через них. Ну или программы-шпионы в телефоне.
                              0

                              Единственное что здесь можно сделать — это попросить у Гугла свой архив и послушать что там. Если у корпорации нет ответственности за такое поведение, то управляя ОС и приложением для звонков она может делать любые вещи, и поймать за руку будет очень сложно. Практика показывает, что если что-то можно абьюзить, то корпорации будут это абьюзить.

                                0
                                Смотря для чего. Если речь идет о сборе неразмеченных голосовых данных, то есть же огромный массив таких данных на том же их youtube. Нужно качество похуже, без проблем — можно ухудшить до любого качества. Если же речь о слежке каких-то спецслужб, то тут, конечно, возможно всякое.
                          0

                          Обновления / ошибки


                          Я перепутал, второй раз мы тестировали пропускную способность нашего сервиса на 1080 Ti, а не 2080 Ti. Это важно, так как между поколениями сильнее меняется скорость карточек.

                            0

                            Обновления / ошибки


                            Именно в Яндекс мы слали данные в формате opus. Мы потестили немного, вроде именно у Яндекса особой разницы между wav и opus нет.

                              –1
                              Интересное сравнение. Хотя и методика вызывает ряд вопросов, выкинув систему авторов можно получить относительно несмещенную картинку. В связи с этим, хочу поздравить коллег из Сбера с удачным релизом! Верно ли я понимаю, что в случае Яндекс использовалась модель general? Надеюсь мы все понимаем, что сравнивать производительность подобным способом — очень спорная идея, так как экспериментатор наблюдает только собственную нагрузку на систему, да и резкие скачки по нагрузке могут привести к троттлингу со стороны сервиса. Что касается данных, то Яндекс собирается опубликовать русскоязычный датасет в этом году.
                                –1

                                Для контекста людей читающих эти комментарии в будущем, если конечно я правильно сделал деанон, Игорь — сотрудник Яндекса.


                                Верно ли я понимаю, что в случае Яндекс использовалась модель general?

                                Скорее всего да, мы использовали текущую модель по умолчанию.


                                сравнивать производительность подобным способом — очень спорная идея, так как экспериментатор наблюдает только собственную нагрузку на систему, да и резкие скачки по нагрузке могут привести к троттлингу со стороны сервиса

                                В статье я явно описал очевидные ограничения этой методологии.
                                Разница в реакции сервисов при разной нагрузке тоже показательна.
                                У кого-то вообще нет троттлинга, у кого-то примерно одинаково стабильные показатели при разной нагрузке (на выбранном дизайнерами системы уровне производительности), а у кого-то просто система возвращает пустоту без ошибок.


                                Что касается данных, то Яндекс собирается опубликовать русскоязычный датасет в этом году.

                                Круто, если тренд действительно поменяется. Я просто вообще не припомню каких-то полезных для публики релизов от Яндекса в обозримом прошлом.

                                  0
                                  Ну в этом месте я скорее выступаю не только и не столько как «сотрудник Яндекса», скорее как исследователь в этой области и один из основателей РОМИП, целью которого было сравнение поисковых движков на российском рынке. Так что, если тема независимой оценки вам близка, то коллеги из GlowByte устраивают встречу по голосовым технологиям во вторник в 9 вечера (https://t.me/noml_community?voicechat), и можно там продолжить дискуссию.
                                    0

                                    Честно говоря не могу сказать, что консалтинговые компании и закрытые семинары, спонсируемые корпорациями мне близки, равно как и Яндекс.


                                    Да и я не совсем понимаю, какое РОМИП имеет отношение к теме данной статьи (он последний раз проводился в 2012?).


                                    По крайней мере мое личное мнение — доступ к информации должен быть публичным, а не "кто больше заплатил, того и рекламируем".

                              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                              Самое читаемое