머신러닝/GAN 3

Progressive Growing GAN 소개

https://machinelearningmastery.com/introduction-to-progressive-growing-generative-adversarial-networks/ A Gentle Introduction to the Progressive Growing GAN Progressive Growing GAN is an extension to the GAN training process that allows for the stable training of generator models […] machinelearningmastery.com ProGAN소개 점진적으로 증가하는 GAN은 학슴과정을 확장시키고 이건 크고 높은 퀄리티의 생성자모델의 안정적인 학습을 가능케한다. 이건 아주작은 이미지에..

머신러닝/GAN 2021.06.28

MSE, BCE의 최적 Loss 값

GAN network의 경우 loss값이 작다고 장땡이아니다. 판별기의 loss값이 작아질수록 생성기의 loss값은 커지고 그 반대로 행동하기도 한다. 판별기와 생성기의 loss수준이 적당해야 훈련을 계속 이어가는 이상적인 모델이라고 볼 수 있다. 판별기의 수준은 생성기를 50:50 으로 판별하는 정도, 생성기의 수준은 판별기를 50:50 으로 속이는 정도가 훈련을 지속할 수 있는 이상적인 값이다. 따라서 MSE의 최적 loss값은 0.25, BCE의 최적 loss 값은 ln(2) = 0.693

머신러닝/GAN 2021.06.22

모드 붕괴 Mode Collapse

모드붕괴Mode Collapse는 GAN을 훈련할 때 자주 맞닥뜨리는 현상이다. 이는 생성기Generator가 다양한 이미지를 생성하는 것이 바람직하지만, 오직 한 종류의 이미지만 생성하게 되거나, 선택지의 극히 일부만 만들게 된다. 모드붕괴Mode Collapse의 원인에 대해서 명확하게 이해된 바는 없지만, 그럴듯한 이론은 생성기Generator가 판별기Discriminator보다 앞서간 후, 항상 판별기의 Target에 가깝게 결과가 나오는 '손쉬운 이미지'를 그 이미지만 계속 만들어내게 된다는 것이다. GAN에서는 훈련의 양보다는 질이 중요하고, 그 질은 생성기와 판별기의 적절한 균형을 유지하는 것이다. 훈련의 질을 높이기 위해서는 Loss Function, Activation Function, ..

머신러닝/GAN 2021.06.21