You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Я говорю про то чтобы не использовать _classifier_hook можно просто сделать SentenceTranformer, а не CrossEncoder
причины почему мы используем хук:
* это работает :)
* нам нужно использовать один трансформер в двух режимах в зависимости от флага `train_classifier`: с претренированной головой и со своей кастомной
Претренированную голову точно можно ипользовать с помощью CrossEncoder.predict(), а о том что ее можно использовать и с помощью какого-то метода класса SentenceTransformer мне неизвестно. Если это и можно сделать, то наверное это что-то экзотическое и не задокументировано в самой библиотеке sentence_transformers
Да, нельзя использовать доп голову. Просто сейчас у нас реализован получение эмбеда из 0 токена (предположим, что это CLS) но не все модели обучались с ним и не факт, что это хорошо работать будет
Да, нельзя использовать доп голову. Просто сейчас у нас реализован получение эмбеда из 0 токена (предположим, что это CLS) но не все модели обучались с ним и не факт, что это хорошо работать будет
Originally posted by @Samoed in #88 (comment)
The text was updated successfully, but these errors were encountered: