面向自然语言处理深度学习模型的归因解释研究
文献类型:学位论文
作者 | 鞠一鸣![]() |
答辩日期 | 2023-05-17 |
文献子类 | 博士 |
关键词 | 自然语言处理 可解释人工智能 深度学习 归因解释 事后解释 |
英文摘要 | 深度学习技术在自然语言处理领域已取得了巨大成功,在一系列自然语言处理任务上达到了最佳性能。然而,自然语言处理深度学习模型一个被长期诟病的问题就是其往往运行在所谓黑盒的模式下,即模型的决策过程对于人类来说是不透明的。因此,研究者们对如何提高自然语言处理深度学习模型的可解释性展开了研究。其根据可解释性获得来源的不同可以分为两个主要方面:内在可解释性和事后可解释性。前者指模型本身可以被人类理解的程度,后者指解释训练好的模型的决策依据。其中,事后归因解释通过衡量目标特征对模型决策的影响解释自然语言处理深度学习模型,有着明确的数学解释形式和良好的可读性, 在近年来得到了广泛的关注与研究。 |
学科主题 | 计算机科学技术 |
语种 | 中文 |
页码 | 100 |
源URL | [http://ir.ia.ac.cn/handle/173211/51879] ![]() |
专题 | 毕业生_博士学位论文 模式识别国家重点实验室_自然语言处理 |
推荐引用方式 GB/T 7714 | 鞠一鸣. 面向自然语言处理深度学习模型的归因解释研究[D]. 2023. |
入库方式: OAI收割
来源:自动化研究所
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。