新智元建议
【新智元介绍】本文是DeepMind高级研究科学家巴拉吉·拉克什米纳拉亚南(Balaji Lakshminarayanan)在SF AI Meetup上给出的幻灯片,总结了他与伊恩·古德费勒(Ian Goodfellow)、沙基尔·穆罕默德(Shakir Mohamed)、米哈埃拉·罗斯卡(Mihaela Rosca)等人的最新GAN工作。
PPT下载:http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf
理解和生成对抗网络
包括以下内容:
GAN与概率机器学习中的其他方法有哪些联系?如何比较分布?生成模型与算法如何结合VAE和GAN来获得更好的结果?缩小理论与实践之间的差距其他一些有趣的研究方向和应用问题陈述:
一代模型
我们的目标是从给定的真实分布样本中找到θ
GAN概述
鉴别器:训练一个分类器,用样本来区分两个分布
生成器:生成傻瓜鉴别器的样本
极小极大游戏:在训练鉴别器和生成器之间交替
对应JS散度的最小值的纳什均衡在实践中为了稳定训练需要一些技巧GAN有很多变体
概率机器学习中GAN与其他方法有什么联系?
隐式模型:生成数据的随机过程
指定模型:提供关于观察概率的知识,并指定一个条件对数似然函数。
比较学习:用样本比较估计分布和实际分布
定义联合损失函数,并在比较损失和生成损失之间进行选择
如何比较分布?
介绍了以下四种方法,包括:
类概率估计散度最小化(f-GAN)密度比估计时矩匹配如何比较分布?——方法总结
类别概率估计
建立一个分类器来区分真实样本和真实样本原始的GAN解决方案密度比匹配
直接将真实比率与估计值之间的预期误差最小化最小化发散
最小化真实密度 p* 和乘积 r(x)q(x) 之间的广义散度f-GAN方法力矩匹配(力矩匹配)
匹配 p* 和 r(x)q(x) 的时矩MMD,最优传输( optimal transport),等如何学习发电机?
在氮化镓中,发电机是可微分的
生成器loss有以下几种形式,例如:f-散度 D_f = E_q [f(r)]可以利用再参数化的技巧摘要:内隐生成模型中的学习
密度比估计
但它们不专注于学习生成器近似贝叶斯计算和无似然推理
低维,理论更好理解对参数的贝叶斯推断模拟器通常是不可微分的生成模型和算法
对于固定模型,比较其推理算法
用最大似然估计(MLE)训练通过Wasserstein GAN训练生成器比较总结:
Wasserstein距离可以比较模型。通过训练critic可以近似估计Wasserstein距离。通过WGAN进行训练能得到更好的样本,但对数概率显著更差。通过WGAN训练的Latent code是非高斯的。如何结合VAE和GAN获得更好的效果?
模式折叠问题:
“Unrolled GAN”论文中的MoG toy 的例子VAE还有其他问题,但不会遭到Mode collapse在VAE,将自动编码器加入到遗传算法中及其与证据下界的关系
评估不同的变体
我们的VAE-甘混合模式可与最先进的甘相媲美
总结:脆弱性和适应性
VAE:
变分推理:重构;编码器网络后期的latent与先前的匹配甘:
隐式解码器可以使用隐式编码器:用于匹配分布的鉴别器缩小理论和实践之间的差距
GAN理论与实践的差异
已经提出了许多新的GAN变体(例如,瓦瑟斯坦GAN)
由新理论激发的损失函数和正则化项理论与实践之间的有显着区别如何弥合这个差距?
理论预测失败的综合数据集将新的正规化项添加到原始non-saturating GAN詹森香农散度失效时合成数据集的比较
Gradient penalty能得到更好的表现真实数据集上的结果
总结:
一些令人惊讶的发现:
梯度惩罚(gradient penalty)也能稳定(非Wasserstein的)GAN不仅要考虑理想的损失函数,还要考虑优化其他有趣的研究方向:
GAN用于模仿学习
使用一个单独的网络(鉴别器)来“学习”现实的动作对抗模仿学习:RL奖励来自鉴别器研究:
利用纳什均衡收敛的想法与RL(actor-critic方法)的联系控制理论应用:
Class-conditional生成文本-图像生成图像-图像转换单图像超分辨率域适应总结:
稳定GAN训练的方法
结合自动编码器梯度惩罚GAN文献中的一些有用工具:
密度比(density ratio)的技巧在其他领域也很有用(例如信息传递)隐式变分逼近学习一个现实的损失函数如何处理不可微分的模拟器?——使用可微分近似进行搜索?1.《59gan DeepMind高级研究员:重新理解GAN,最新算法、技巧及应用(59页PPT)》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《59gan DeepMind高级研究员:重新理解GAN,最新算法、技巧及应用(59页PPT)》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/tiyu/1587206.html