WGAN-GP

less than 1 minute read

WGAN-GP: Wasserstein GAN with Gradient Penalty

论文要点

  • Wasserstein GAN
    • WGAN在训练过程中可能遇到不稳定性和收敛困难的问题,而WGAN-GP通过引入梯度惩罚项来替代权重裁剪,能够有效提升GAN的稳定性和训练效果。
    • WGAN-GP中,通过对批次中真实样本和生成样本之间直线上的点进行采样,并对生成器的梯度进行惩罚来实现Lipschitz约束。这种方法能够在不进行任何超参数调整的情况下,稳定地训练各种GAN架构,包括具有101层ResNet的图像生成模型和连续生成器的语言模型。
    • 在实验中,通过对CIFAR-10和LSUN卧室数据集进行训练和生成,展示了WGAN-GP相对于传统权重裁剪方法在训练速度和样本质量上的改进。论文还对200个随机架构进行了训练并对比其性能,结果显示WGAN-GP能够成功训练大多数架构。
  • 需要理解KL散度,JS散度(KL的对称版)
  • GAN
    • D(Y, θ):其中相对熵被用神经网络训练(希望尽可能大-网络可以区分)
    • G(X, θ):希望两个分布尽可能相似(希望尽可能小)

CVAE-GAN: Fine-Grained Image Generation through Asymmetric Training

Reference

  • 互怼的艺术:从零直达WGAN-GP
    • [公众号:PaperWeekly 第41期 互怼的艺术:从零直达 WGAN-GP](https://mp.weixin.qq.com/s?__biz=MzIwMTc4ODE0Mw==&mid=2247484880&idx=1&sn=4b2e976cc715c9fe2d022ff6923879a8&chksm=96e9da50a19e5346307b54f5ce172e355ccaba890aa157ce50fda68eeaccba6ea05425f6ad76&scene=21#wechat_redirect)
    • github
  • [变分自编码器VAE:原来是这么一回事 附开源代码 - PaperWeekly的文章 - 知乎](https://zhuanlan.zhihu.com/p/34998569)

Categories:

Updated: