Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 네이버 부스트캠프
- 네이버 부스트캠프 AI Tech 6기
- 주간학습정리
- 네이버 부스트캠프 KDT 전형
- AI Math
- 부스트캠프
- Positional Encoding
- Transformer 디코더
- 네이버 부스트캠프 코딩테스트 후기
- 네이버 ai 부스트캠프
- 네이버 부스트캠프 AI Tech
- Auto-Encoding Variational Bayes
- 트랜스포머 행렬
- VAE 논문 리뷰 #
- boostcamp
- 포지셔널 인코딩
- self-attention
- transformer
- Transformer Decoder
- 셀프 어텐션
- Transformer 모델
- VAE
- 트랜스포머
- 어텐션
- pytorch
- seq2seq
- Transformer model
- 어텐션 행렬
- 트랜스포머 모델
- VAE 설명
Archives
- Today
- Total
목록VAE (1)
DH. AI

디퓨전을 공부하기전에 VAE를 제대로 공부해보고 싶어서 정리한 글입니다. Smart Design Lab 강남우 교수님의 강의를 보고 정리한 글입니다. + Boost Camp 강의도 조금 참고하였습니다. : 수정 1 2 3 VAE는 생성모델이다. Decoder부분을 만들어내기 위해서 Encoder부분이 필요하다. VAE 논문에서 중요한 Contribution은 두가지이다. 1. 역전파가 되지 않는 단순 Sampling을 Reparameterization Trick을 사용하여 역전파가 가능하게 하였다. 2. Variational lower bound를 사용하여 interactable한 posterior의 근사치를 최적화 한다. VAE 구조 VAE의 전체적인 구조를 보면, 인코더 부분에서 𝜇(평균)와, 𝜎(분..
[딥러닝]/[Generative model]
2023. 3. 13. 02:30