Комментарии 6
Привет, спасибо за статью! У меня вопрос - а как сохранять результат обучения?
0
Буквально на прошлой недели адаптировал вашу модель для задачи Named Entity Recognition
Для подобной задачи всё же слишком «маленькая» модель. Недостаточно информации, к сожалению.
Однако скорость сильно порадовала, конечно (1.6s на эпоху вместо 10s)
Для подобной задачи всё же слишком «маленькая» модель. Недостаточно информации, к сожалению.
Однако скорость сильно порадовала, конечно (1.6s на эпоху вместо 10s)
0
Увы - это не моя модель. Но именно этот маленький русский берт отлично заходит на моих задачках классификации. Ну и скорость конечно тоже отменная)
0
Модель моя, и обучал я её конкретно под sequence classification, поэтому под token classification она ожидаемо так себе.
Но маленький BERT для token classification тоже на очереди на создание)
+2
Спасибо за подробное описание решения.
А если требуется сделать классификацию не на две категории, а на 150, например, - что потребуется изменить?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
BERT для классификации русскоязычных текстов