토니의 연습장

advancedGAN 이론 본문

카테고리 없음

advancedGAN 이론

bellmake 2024. 10. 30. 11:20

[ Wasserstein GAN ]

1. 배경 : 기존 basicGAN의 문제점

(1) Mode Collapse

 

(2) BCE Loss 문제점 (gradient)

 

2. 해결 : Wasserstein Loss

 

3. 추가적용 : Critic의 gradient가 너무 커지지 않도록 1-lipschitz 연속성 조건 도입(critic)

아래와 같이 두 가지 방안 중에 Weight Clipping은 좋지 않은 방법으로, Gradient penalty가 적용됩니다.

이 때, 현실적으로 매번 gradient를 계산할 수 없으므로 real과 fake의 interpolated mix를 통해 이를 gp equation에 위와 같이 대입함으로써 gradient penalty를 계산합니다. (gradient의 norm에서 1을 뺀 값의 제곱)

 

4. Conv layer 적용

Conv2d 와 ConvTranspose2d 의 차이