avatar

对抗样本(二)L-BFGS

一、论文相关信息

  1.论文题目

    Intriguing properties of neural networks

  2.论文时间

    2014年

  3.论文文献

    https://arxiv.org/abs/1312.6199

二、论文背景及简介

   深度学习因为其表达能力强而获得了成功,但也造成了其会学习到一些无法解释的结果,具有一些反常理的属性。一、单个高阶单位和随机线性组合的高阶单位之间没有区别,这表明,在神经网络的高层中,包含语义信息的是空间,而不是单个单元。二、深度神经网络学习的输入输出映射在很大程度上是不连续的,这造成了我们可以通过应用某种难以察觉的扰动使网络误分类图像,这种扰动是通过最大化网络的预测误差而发现的。


三、论文内容总结

  • 提出了两个神经网络的有趣的特征—-神经元的语义信息神经网络的盲点
    • 通过控制输入来最大化激活神经元,来获取神经元的语义信息
    • 神经网络在添加较小扰动时,会使其分类错误
  • 我们可以通过最大化分类错误率来获得扰动,其公式如下:
  • 可以通过L-BFGS来找到近似解
  • 对抗样本是一种普遍现象,并不是由于模型的过拟合与特定的数据集的引起的,其具有泛化能力
  • 对抗样本引入到训练过程中是可以提高模型的泛化能力
  • 作者认为,扰动会在神经网络正向传播的过程中,不断地累加,直到最后变得很大,大到能够使其越过了分类边界。
  • 作者认为,对抗样本时因为网络的离散性,才会出现的(后面的论文中与该观点持相反意见,其认为是网络的过度的线性才导致的对抗样本的出现)

附:如需继续学习对抗样本其他内容,请查阅对抗样本学习目录

四、论文所使用的符号及数据等信息

符号

   $ x$代表术语的图片,$ \phi(x)$代表某一层的激活值。

数据集及模型

    在MINST数据集下

        一个简单的全连接层,使用Softmax分类器,把这个网络称为FC

        在自动编码器上训练的分类器,把这个网络成为AE

    在ImageNet数据集下

        使用了AlexNet

    在10MYoutube数据集下

        无监督训练网络,称为QuocNet

参数

    在MINST数据集实验中,使用了权重衰减,参数为$ \lambda$。在一些实验中,将MINST数据集分离为$ P_1和P_2$。


五、论文主要内容

该论文实际是描述了神经网络的两个特征


1、第一个特征 神经元的语义信息

    论文中所提到的神经网络的第一个特征是神经网络中各个单元的语义信息

    在之前的工作中,通过控制输入图像来最大化激活给定的单元,来分析每个单元的语义信息。而这些工作也显示出,最后一层layer是分类的基础,对语义信息是最有帮助的。他们,对激活单元$ \phi(x)$的随机投影,发现这样并没有表现出语义信息。这也就表明,神经网络并不是通过坐标系来构建语义信息。一般来说,是整个激活空间包含了语义信息的主体,而并非单个的单元。 在空间旋转后,向量表示仍然是稳定的,也就是说是整个向量包含着语义信息,而并非向量中的某个单元。

    在下文中,作者通过实验,进行了说明。

    以神经网络的某一层i为例,我们通过改变输入来找到能够最大化激活该层的输入图像$ x’$,我们已知第i层的隐向量为$ e_i$。可以将$ x’$进行如下表示:

    在这里$ L$表示验证集。

    之后,将$ e_i$换成了随机的向量$ v$,而实验结果表明,找到的图像$ x’$都是差不多的,也就是说,随机的向量并不包含语义信息,这就说明,神经网络并购不是通过坐标系来分开变量因素的。

    这些实验仅仅表明了,在一个特定的输入分布的子集中,神经单元的生成不变性的能力,但这并没有解释域内的其他部分。在第二个特征中将会对这部分进行讲解,即神经网络的盲点。

2、第二个特征 神经网络的盲点

    第二个特征就是本文要讲解的对抗样本的内容,即神经网络对输入样本的小扰动的稳定性

    这些扰动是通过最大化分类错误率来生成的,这个小扰动可以让神经网络误分类该图像,而且扰动具有可迁移性。

    这些结果表明,由反向传播训练出来的网络具有一些非直观的特征和内在的盲点,这些结构也是跟数据分布相关的。

    论文表示,输出层有可能会将一些不重要的概率分配给输入空间的一些区域,而这些区域是训练样本没有覆盖的地方。而这些区域,在不同的视角看,可能能表示相同的物体,但在像素空间中距离很远(即我们肉眼可分辨的不同物体),却在输出域中共享着相同的标签和结构。

    需要注意,通过简单的随机取得的扰动是没有用的,他仍然会被正确分类,得到的图像与原来的图像仍然是高度相关的。对抗样本是精心设计出来的。所以,通过增加小的扰动来扩充数据集是没有太大效率的。

    那该如何找到对抗样本呢?作者给出了如下的box-constrained优化问题

    一般来说,可以满足这个条件的r不是唯一的,我们用$ D(x,l)$来表示一个最小的r。但是,要想要找到这样的扰动D,是十分困难的,作者使用了box-constrained的L-BFGS来近似它。作者通过执行线搜索来找到下列问题的最小r满足$ f(x+r)=l$的最小$ c>0$,从而找到$ D(x,l)$的近似值。

    如果目标函数是凸的,那么我们可以找到r的精确解,但是一般来说神经网络一般都是非凸的,所以我们只能找到近似解。

    对抗样本是一种普遍现象,并不是由于模型的过拟合与特定的数据集的引起的。同时,作者认为,将对抗样本引入到训练过程中是可以提高模型的泛化能力。

五、实验结果

实验结果如下

1、相同训练集,不同模型间的对抗样本
在这里插入图片描述

行表示对抗样本,列代表模型,数字表示对抗成功率(模型分类的错误率)

2、不同的训练集,不同模型间的对抗样本

在这里插入图片描述
行表示对抗样本(由训练集1训练得到),列代表模型(由训练集2训练得到)

第二个模块是作者对对抗样本做出的优化,将标准差提升到0.1,使用$ x+0.1·\frac{x’-x}{||x’-x||_2}$作为对抗样本,而不用x’


六、模型的不稳定性分析

    作者表示,对抗样本之所以会让模型分类错误,是因为误差具有累加性,对抗样本在输入图片上有一个小误差,在网络的每一层都会使误差变大,到了网络了最后一层,于是便让网络分类错误。本节就是对该问题进行分析。

    用$ \phi(x)$ 表示K层网络的输出,用$ \phi_i(x;W_i)$ 表示第i层的输出,则:

    模型$ \phi(x)$ 的不稳定性可以用Lipschitz上界来描述,即存在常数$ L_k$ ,使得:

    relu层、池化层、全连接层、池化层都是收缩的(即满足上式)。因此,作者做出了实验,得到结果如下

在这里插入图片描述
    从结果可以看出,网络是不稳定的,在第一层卷积层就出现了不稳定的情况。但是,作者证明,大的上界并不会自动转换成对抗样本,但是小的上界可以防止对抗样本的产生。

    这也说明,对参数的简单的正则化就可以提升模型的泛化能力。


七、总结

    该篇文章主要讲述了神经网络的两个反常的特性,分别是由于神经元的语义和圣经网络的离散型导致。对抗样本的存在说明了网络的泛化能力不高。

文章作者: 白丁
文章链接: http://baidinghub.github.io/2020/04/03/%E5%AF%B9%E6%8A%97%E6%A0%B7%E6%9C%AC%EF%BC%88%E4%BA%8C%EF%BC%89L-BFGS/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 BaiDing's blog
打赏
  • 微信
    微信
  • 支付寶
    支付寶

评论