일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- 어텐션
- 네이버 부스트캠프 AI Tech 6기
- Transformer model
- 어텐션 행렬
- VAE 논문 리뷰 #
- 셀프 어텐션
- 트랜스포머
- transformer
- Transformer Decoder
- 네이버 부스트캠프
- boostcamp
- AI Math
- 주간학습정리
- self-attention
- Auto-Encoding Variational Bayes
- 네이버 ai 부스트캠프
- 트랜스포머 행렬
- Positional Encoding
- 포지셔널 인코딩
- Transformer 모델
- 네이버 부스트캠프 코딩테스트 후기
- pytorch
- 부스트캠프
- Transformer 디코더
- VAE 설명
- 네이버 부스트캠프 KDT 전형
- 트랜스포머 모델
- 네이버 부스트캠프 AI Tech
- seq2seq
- VAE
- Today
- Total
목록트랜스포머 (2)
DH. AI

"Attention is all you need"에서 나온 모델로 기존의 seq2seq의 구조인 인코더-디코더를 따르면서도, 논문의 이름처럼 어텐션(Attention)만으로 구현한 모델입니다. 이 모델은 RNN을 사용하지 않고, 인코더-디코더 구조를 설계하였음에도 번역 성능에서도 RNN보다 우수한 성능을 보여주었습니다. 1. 기존의 seq2seq 모델의 한계 기존의 seq2seq 모델은 인코더-디코더 구조로 구성되어져 있는데, 인코더는 입력 시퀀스를 하나의 벡터 표현으로 압축하고, 디코더는 이 벡터 표현을 통해서 출력 시퀀스를 만들어냈습니다. 하지만, 인코더 부분에서 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 손실되는 문제가 있습니다. 그래서 이를 보정하기 위한 목적으로 어텐션이..

- 어텐션 메커니즘의 이해는 Transformer 모델을 이해를 위해 필수입니다. 1. 이전 방식(seq2seq)의 문제점과, 어텐션(Attention)의 아이디어 첫번째, 하나의 소정된 크기에 벡터의 모든 정보를 압축하기 때문에 정보 소실이 발생함.두번째, RNN의 문제인 기울기 소실(vanishing gradient) 문제가 있음. 어텐션의 기본 아이디어는 디코더에서 출력 단어를 예측하는 매 시점(time step)마다, 인코더에서의 전체 입력 문장을 다시 한 번 참고한다는 점입니다. 단, 전체 입력 문장을 전부 다 동일한 비율로 참고하는 것이 아니라, 해당 시점에서 예측해야할 단어와 연관이 있는 입력 단어 부분을 좀 더 집중(attention)해서 보게 됩니다. 2. 어텐션 함수(Attention ..