Python/PyTorch 공부
[PyTorch] Multi_head_attention에서 target sequence length와 source sequence length 의미
AI 꿈나무
2022. 7. 27. 20:23
반응형
Multi_head_attention에서 target sequence length와 source sequence length 의미
연구를 위해 pytorch의 multi head attention에 attention mask를 씌워줘야 했다.
도큐먼트를 보면 L은 target sequence length를 의미하고 S는 source sequence length를 말하는데, 이 둘은 무엇일까?
pytorch 내부 코드를 뜯어보니 target sequence length는 query의 길이를 의미한다.
soure sequence length는 key의 길이를 의미함.
구글링해도 관련 내용을 찾기 어려워서 작성해본당. 나만 모르고 다 아는 내용이라서 구글링해도 못찾았던 거일수도?
반응형