本文为对抗样本生成系列文章的第三篇文章,主要对DCGAN的原理进行介绍,并对其中关键部分的使用pytorch代码进行介绍,另外如果有需要完整代码的同学可以关注我的github。
该系列包含的文章还包括:
DCGAN时CNN与GAN相结合的一种实现方式,源自于论文《Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks》,该模型主要讨论了如何将CNN引入GAN网络,将CNN引入GAN网络并非直接将Generator和Discriminator的全连接网络直接替换成CNN即可,而是要对CNN网络进行特定的设计才能使CNN网络有效的快速收敛。本文将对DCGAN中一些核心观点进行详细论述并对其中核心部分的代码实现进行解析,完整的代码实现可以关注我的github.
DCGAN中一些核心关键点如下:
1.激活函数:
生成器除最后一层的输出使用Tanh激活函数外统一使用relu作为激活函数,
判别器所有层都是用LeakyRelu激活函数(这里很关键,还是使用relu的话很可能造成模型很难进行有优化,最终模型输出的图像一致和目标图像相差很远)
2.生成器和判别器的模型结构复杂度不要差距太大
复杂度差距过大会导致模型训练后期一个部分的效果非常好,能够不断提升,但是另一个部分的由于模型过于简单无法再优化导致该部分效果不断变差。
3.判别器最后的全连接层使用卷积层代替。
全部的操作均使用卷积操作进行。
4.Batch Normalization区别应用:
不能将BN层应用到生成网络和判别网络的全部部分,在生成网络的输出层和判别网络的输入层不能使用BN层,否则可能造成模型的不稳定。
原始对抗训练细节实现
预处理:将输入图像的各个像素点标准化到tanh的值域范围[-1,1]之内
权重初始化:均值为0方差为0.02的正态分布
Relu激活函数斜率:0.2
优化器:Adam 0.01或0.0002
Generator
生成器主要反卷积层、BN层、激活函数层三部分堆叠而成,其结构如下所示:
在DCGAN中一个最为核心的结构就是反卷积层,那么什么是反卷积层呢?
反卷积是图像领域中常见的一种上采样操作,反卷积并不是正常卷积的逆过程,而是一种特殊的正向卷积,先按照一定的比例通过补 0来扩大输入图像的尺寸,接着旋转卷积核,再进行正向卷积,这种特殊的卷积操作只能能够复原矩阵的原始尺寸,不能对原矩阵的各个元素的内容进行复原。
生成器实现中核心点包括:
1.使用反卷积进行一步一步的图片生成
2.最后的输出层中不使用BN
3.除输出层使用tanh激活函数外,其它层都使用relu激活函数
代码实现如下(该代码为手写数字图片生成项目中的实现,真实维度为28*28):
1 | class Generator(nn.Module): |
Discriminator
判别器主要为实现对图片是否为生成图片。在DCGAN中主要使用CNN、BN和LeakyRelu网络来进行,其实现的核心点包括:
1.判别网络全部使用卷积操作来搭建,整个过程中不包含全连接层和池化层。
2.判别器激活函数除最后一层使用Sigmod激活函数外,全部使用LeakyRelu激活函数
3.判别器的输入层中不能使用BN层
1 | class Discriminator(nn.Module): |
参考文献:
DCGAN pytorch教程:https://pytorch.org/tutorials/beginner/dcgan_faces_tutorial.html