Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- VAE
- 셀프 어텐션
- Positional Encoding
- 네이버 부스트캠프 AI Tech
- 포지셔널 인코딩
- self-attention
- 네이버 ai 부스트캠프
- 주간학습정리
- VAE 설명
- Transformer Decoder
- Transformer 디코더
- seq2seq
- Transformer 모델
- 네이버 부스트캠프
- 어텐션
- 트랜스포머 모델
- 네이버 부스트캠프 코딩테스트 후기
- 트랜스포머
- AI Math
- 네이버 부스트캠프 KDT 전형
- boostcamp
- pytorch
- 어텐션 행렬
- VAE 논문 리뷰 #
- 트랜스포머 행렬
- Auto-Encoding Variational Bayes
- 네이버 부스트캠프 AI Tech 6기
- Transformer model
- 부스트캠프
- transformer
Archives
- Today
- Total
목록Auto-Encoding Variational Bayes (1)
DH. AI

디퓨전을 공부하기전에 VAE를 제대로 공부해보고 싶어서 정리한 글입니다. Smart Design Lab 강남우 교수님의 강의를 보고 정리한 글입니다. + Boost Camp 강의도 조금 참고하였습니다. : 수정 1 2 3 VAE는 생성모델이다. Decoder부분을 만들어내기 위해서 Encoder부분이 필요하다. VAE 논문에서 중요한 Contribution은 두가지이다. 1. 역전파가 되지 않는 단순 Sampling을 Reparameterization Trick을 사용하여 역전파가 가능하게 하였다. 2. Variational lower bound를 사용하여 interactable한 posterior의 근사치를 최적화 한다. VAE 구조 VAE의 전체적인 구조를 보면, 인코더 부분에서 𝜇(평균)와, 𝜎(분..
[딥러닝]/[Generative model]
2023. 3. 13. 02:30