Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 주간학습정리
- 네이버 부스트캠프 AI Tech 6기
- seq2seq
- boostcamp
- Transformer 모델
- Transformer Decoder
- transformer
- 네이버 부스트캠프
- Transformer 디코더
- AI Math
- 트랜스포머 행렬
- 네이버 ai 부스트캠프
- 부스트캠프
- VAE 논문 리뷰 #
- 네이버 부스트캠프 KDT 전형
- 트랜스포머 모델
- VAE
- Transformer model
- 네이버 부스트캠프 AI Tech
- 셀프 어텐션
- 어텐션
- VAE 설명
- 트랜스포머
- 네이버 부스트캠프 코딩테스트 후기
- pytorch
- self-attention
- Positional Encoding
- 포지셔널 인코딩
- 어텐션 행렬
- Auto-Encoding Variational Bayes
Archives
- Today
- Total
목록포지셔널 인코딩 (1)
DH. AI

"Attention is all you need"에서 나온 모델로 기존의 seq2seq의 구조인 인코더-디코더를 따르면서도, 논문의 이름처럼 어텐션(Attention)만으로 구현한 모델입니다. 이 모델은 RNN을 사용하지 않고, 인코더-디코더 구조를 설계하였음에도 번역 성능에서도 RNN보다 우수한 성능을 보여주었습니다. 1. 기존의 seq2seq 모델의 한계 기존의 seq2seq 모델은 인코더-디코더 구조로 구성되어져 있는데, 인코더는 입력 시퀀스를 하나의 벡터 표현으로 압축하고, 디코더는 이 벡터 표현을 통해서 출력 시퀀스를 만들어냈습니다. 하지만, 인코더 부분에서 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 손실되는 문제가 있습니다. 그래서 이를 보정하기 위한 목적으로 어텐션이..
[딥러닝]/[Transformer]
2022. 8. 7. 02:14