You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
kss로 sentence 단위 embedding
-> max_length 1280일 때 성능 가장 좋다. 대략 5% 상승
멀리 떨어진 context들을 서로 붙일 수 있는 방법?
max length 길이를 줄이면 tokenize 불필요
-> score가 높게 나온 이유 추론 : 연관 있는 일부분만 가져오게 된다.
top_1000 context -> reader -> top_1000에서 answer 영역 context 추출
맥락에 대한 이해를 무시하게 될 수 도 있다.
context를 이어서 answer를 구하지 않고 따로 answer를 구하고 retrieval score에 weigthed해서 ranked answer를 구한다
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
kss로 sentence 단위 embedding
-> max_length 1280일 때 성능 가장 좋다. 대략 5% 상승
멀리 떨어진 context들을 서로 붙일 수 있는 방법?
max length 길이를 줄이면 tokenize 불필요
-> score가 높게 나온 이유 추론 : 연관 있는 일부분만 가져오게 된다.
top_1000 context -> reader -> top_1000에서 answer 영역 context 추출
맥락에 대한 이해를 무시하게 될 수 도 있다.
context를 이어서 answer를 구하지 않고 따로 answer를 구하고 retrieval score에 weigthed해서 ranked answer를 구한다
github에 각자 폴더 만들어서 작업 내용 업로드하기
Beta Was this translation helpful? Give feedback.
All reactions