Как стать автором
Обновить
84.95
НТР
Разработка и внедрение отечественного ПО
Сначала показывать

Как графы знаний и LLM могут друг другу помочь

Уровень сложности Средний
Время на прочтение 4 мин
Количество просмотров 2.7K

Предобученные языковые модели генерируют качественный текст, сравнимый по качеству с человеческим (иногда даже превосходящий его). Но некоторые проблемы остаются даже у лучших LLM — сеть не понимает, что говорит. Может получаться хоть и виртуозный с точки зрения грамматики и лексики, но всё-таки неверный по смыслу результат. 

Читать далее
Всего голосов 14: ↑14 и ↓0 +14
Комментарии 3

Диффузионные текстовые модели — между двух миров

Уровень сложности Средний
Время на прочтение 3 мин
Количество просмотров 1.9K

Диффузионные модели и большие языковые модели прочно заняли и информационное поле, и исследовательское. Диффузионные модели генерируют прекрасные картинки, видео и аудио, а LLM отлично справляются с генерацией текста. Но где‑то посередине остается область диффузионных текстовых моделей. Нельзя сказать, что она забыта — нет, исследования ведутся, и есть хорошие локальные успехи — но сравниться с успехам нашумевших LLM и DM пока не получается.

Читать далее
Всего голосов 4: ↑4 и ↓0 +4
Комментарии 0

«Надо включать мозги, руки в ноги и что-то делать» — интервью с Мариной Аншиной об IT в индустрии в 2024

Уровень сложности Простой
Время на прочтение 6 мин
Количество просмотров 16K

В конце прошлого года мы поговорили с цифровыми директорами и лидерами IT-индустрии для нашего тг-канала об IT в индустрии Цифровой директор. Нас интересовали надежды (и опасения) коллег на 2024 год в IT. Из-за чего в России страдает ввод в эксплуатацию решений, почему мода на технологии — это не всегда хорошо, и зачем айтишникам своя “клятва Гиппократа” — читайте в интервью с Мариной Аншиной, председателем Правления Российского Союза ИТ-директоров, президентом фонда ФОСТАС.

Читать далее
Всего голосов 20: ↑3 и ↓17 -14
Комментарии 8

Выбор данных, малые языковые модели и причём здесь Шмидхубер

Время на прочтение 4 мин
Количество просмотров 1.5K

Большие языковые модели — это хорошо, но интересно, можно ли получить сравнимое качество на малых моделях. Вести диалог с GPT-2 не получится, а тем более написать диплом или научную статью. Она и другие small language models (SLM) по большей части выдают слабый текст, даже если обучить их на всей Википедии.  

Возможно, тут стоит вспомнить теорию Шмидхубера, который, как известно,  всё придумал

Читать далее
Всего голосов 7: ↑7 и ↓0 +7
Комментарии 1

Цифровой клон свиньи — как фермы становятся умнее

Уровень сложности Простой
Время на прочтение 1 мин
Количество просмотров 1.1K

Отслеживать состояние скота на фермах с помощью дистанционных методов становится мировой нормой. Или, по крайней мере, трендом.

В Южно-китайском сельскохозяйственном университете, например, научились определять вес свиней по камерам, установленным в коридоре перед убойным цехом. Модель компьютерного зрения определяет отдельных особей и оценивает вес по снимкам сверху. Главное, что всё это происходит не в закрытом загоне, а в движении — за 0,34 секунды.

Читать далее
Всего голосов 9: ↑6 и ↓3 +3
Комментарии 1

Нео-РНН или Make RNNs great again

Уровень сложности Средний
Время на прочтение 3 мин
Количество просмотров 635

Когда в 2017 году появились трансформеры, популярные до этого RNN обрели слишком серьезного конкурента и отошли на второй план. Трансформеры допускали распараллеливание, а значит — ускоренное обучение, поэтому быстро захватили NLP. Преимущества трансформеров понятны, но с моделированием длинных последовательностей возникают проблемы даже у них. Для RNN это тоже непростая задача из-за исчезающих или взрывающихся градиентов. Но RNN с их линейной зависимостью от масштаба выглядят гораздо привлекательнее квадратичной сложности трансформеров. Идеальным вариантом было бы совместить преимущества тех и других. 

Читать далее
Всего голосов 4: ↑4 и ↓0 +4
Комментарии 0

Всё смешалось — эксперты, модели. Как уменьшить LLM, но не проиграть в продуктивности

Уровень сложности Средний
Время на прочтение 5 мин
Количество просмотров 2K

Накатившая волна LLM с правилом “чем больше, тем лучше” уже вызывала естественный запрос — хочется повысить эффективность не за счет увеличения размера модели. Похоже, что вторая волна будет (или уже есть) именно такая — наращивание размеров уже не так впечатляет, появляется всё больше хитрых подходов, которые делают ставку не на размер. Мы разберем некоторые из них.

Читать далее
Всего голосов 10: ↑9 и ↓1 +8
Комментарии 0

Информация

Сайт
ntr.ai
Дата регистрации
Дата основания
Численность
101–200 человек
Местоположение
Россия