面向对抗样本的深度神经网络可解释性分析
文献类型:期刊论文
作者 | 董胤蓬; 苏航; 朱军 |
刊名 | 自动化学报
![]() |
出版日期 | 2022 |
卷号 | 48期号:1页码:75-86 |
关键词 | 深度神经网络 可解释性 对抗样本 视觉特征表示 |
ISSN号 | 0254-4156 |
DOI | 10.16383/j.aas.c200317 |
英文摘要 | 虽然深度神经网络(Deep neural networks, DNNs)在许多任务上取得了显著的效果,但是由于其可解释性(Interpretability)较差,通常被当做“黑盒”模型.本文针对图像分类任务,利用对抗样本(Adversarial examples)从模型失败的角度检验深度神经网络内部的特征表示.通过分析,发现深度神经网络学习到的特征表示与人类所理解的语义概念之间存在着不一致性.这使得理解和解释深度神经网络内部的特征变得十分困难.为了实现可解释的深度神经网络,使其中的神经元具有更加明确的语义内涵,本文提出了加入特征表示一致性损失的对抗训练方式.实验结果表明该训练方式可以使深度神经网络内部的特征表示与人类所理解的语义概念更加一致. |
源URL | [http://ir.ia.ac.cn/handle/173211/56430] ![]() |
专题 | 自动化研究所_学术期刊_自动化学报 |
推荐引用方式 GB/T 7714 | 董胤蓬,苏航,朱军. 面向对抗样本的深度神经网络可解释性分析[J]. 自动化学报,2022,48(1):75-86. |
APA | 董胤蓬,苏航,&朱军.(2022).面向对抗样本的深度神经网络可解释性分析.自动化学报,48(1),75-86. |
MLA | 董胤蓬,et al."面向对抗样本的深度神经网络可解释性分析".自动化学报 48.1(2022):75-86. |
入库方式: OAI收割
来源:自动化研究所
浏览0
下载0
收藏0
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。