WGAN
发布日期:2021-06-29 11:45:20 浏览次数:2 分类:技术文章

本文共 228 字,大约阅读时间需要 1 分钟。

相对于传统的GAN,WGAN只做了以下三点简单的改动:

1.D最后一层去掉sigmoid

2.G和D的loss不取log(sigmoid_cross_entropy_with_logits)

3.每次更新D的参数之后,将其绝对值截断到不超过一个固定常数c,即gradient clipping(前作);或使用梯度惩罚,即gradient penalty(后作)

4.不要用基于动量的优化算法(包括momentum和Adam),推荐RMSProp,SGD也行

转载地址:https://blog.csdn.net/zz2230633069/article/details/88372537 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:调解算法参数2
下一篇:数据处理中ToTensor紧接着Normalize

发表评论

最新留言

不错!
[***.144.177.141]2024年04月02日 05时23分32秒