일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- seq2seq
- 네이버 부스트캠프 코딩테스트 후기
- Auto-Encoding Variational Bayes
- 셀프 어텐션
- 어텐션 행렬
- Transformer Decoder
- 부스트캠프
- 포지셔널 인코딩
- 트랜스포머 행렬
- VAE 논문 리뷰 #
- 네이버 ai 부스트캠프
- 네이버 부스트캠프 AI Tech 6기
- AI Math
- boostcamp
- pytorch
- self-attention
- 트랜스포머
- Positional Encoding
- 어텐션
- 트랜스포머 모델
- 네이버 부스트캠프
- 주간학습정리
- VAE 설명
- Transformer 모델
- VAE
- 네이버 부스트캠프 KDT 전형
- Transformer 디코더
- transformer
- Transformer model
- 네이버 부스트캠프 AI Tech
- Today
- Total
목록[딥러닝]/[Generative model] (2)
DH. AI

데이터 셋은 MNIST를 이용한다. 전체 코드 VAE 논문 리뷰 VAE의 Encoder x를 입력받아 간단한 Linear Layer를 거친 후 z, mu, logvar를 내보낸다. z는 Decoder에 들어갈 값이고, mu와 logvar는 Regularization term을 계산할 때 쓰인다. logvar : log(σ²) def reparameterization(mu, logvar): std = torch.exp(logvar/2) # logvar : log(σ²) eps = torch.randn_like(std) return mu + eps * std class Encoder(nn.Module): def __init__(self, x_dim=img_size**2, h_dim=hidden_dim, z_..

디퓨전을 공부하기전에 VAE를 제대로 공부해보고 싶어서 정리한 글입니다. Smart Design Lab 강남우 교수님의 강의를 보고 정리한 글입니다. + Boost Camp 강의도 조금 참고하였습니다. : 수정 1 2 3 VAE는 생성모델이다. Decoder부분을 만들어내기 위해서 Encoder부분이 필요하다. VAE 논문에서 중요한 Contribution은 두가지이다. 1. 역전파가 되지 않는 단순 Sampling을 Reparameterization Trick을 사용하여 역전파가 가능하게 하였다. 2. Variational lower bound를 사용하여 interactable한 posterior의 근사치를 최적화 한다. VAE 구조 VAE의 전체적인 구조를 보면, 인코더 부분에서 𝜇(평균)와, 𝜎(분..