基于隐变量模型的自然语言处理解释方法研究
文献类型:学位论文
作者 | 江忠涛![]() |
答辩日期 | 2024-05-14 |
文献子类 | 博士 |
关键词 | 解释方法,自然语言处理,隐变量模型 |
英文摘要 | 近年来,以神经网络为代表的深度学习技术在自然语言处理领域取得了突破性进展。神经网络本质上是一个复杂的非线性函数,其参数和表示都不具有明确的物理意义。这种黑盒特性使得神经网络的决策过程难以理解,输出难以控制,极大地限制了其在实际场景的应用。在这种背景下,可解释性以及解释方法研究应运而生。其中,基于隐变量模型的解释方法具有坚实的理论基础,同时能有效地建模人类决策过程中不可观测的隐式解释,因此逐渐得到了学术界的广泛关注。 隐变量模型是建立在可观测变量和隐变量上的统计模型。在可解释性研究中,可观测变量为任务数据,而隐变量控制了这些数据的生成,因此可作为数据的解释。在隐变量模型中,作为解释的载体,解释生成分布描述了解释在给定输入时的概率。围绕着解释生成分布,基于隐变量模型的解释方法可分为应用和理论两个层面。面向特定任务和模型,应用层面的解释方法的目标是学习得到解释生成模型,其挑战在于设计可理解性高的匹配任务的解释隐变量形式。理论层面的解释方法的目标是直接研究解释生成分布的理论性质,其挑战在于设计合理且便于分析的隐变量模型结构,以及在解释生成分布未知的情况下分析其理论性质。 本文面向自然语言处理的不同任务和场景,对以上两个层面的解释方法进行研究。首先,针对应用层面的挑战,本文面向自然语言推理和情感分析这两个代表性的自然语言处理任务,研究可理解性高的隐变量形式及相应的解释方法: 面向自然语言推理的短语对齐事后解释方法:句子对之间的词和短语对齐是自然语言推理任务决策的重要依据。然而已有工作要么采用词级别的特征归因等不匹配的解释形式,要么采用可解释性较差的互注意力机制建模句子间的对齐关系。为此,本文基于监督学习场景的隐变量模型框架,将解释隐变量定义为形式为二元掩码矩阵的对齐,从而提出了一种事后解释生成方法以获取自然语言推理模型的对齐解释。该解释方法基于保真度、简洁性和连续性三个优化目标。实验结果证明,所提出的解释方法生成的解释具有更好的忠实性和可理解性。基于所提出的解释方法,本文对已有的三种典型的基于互注意力的自然语言推理模型在对齐层面进行了诊断,并发现这些模型的性能主要取决于其句间短语对齐性能。最后,本文根据解释结果提出了基于语义角色标注的改进策略。该策略可以大幅提升模型在对抗数据集上的推理性能。 面向情感分类的语义树自解释方法:情感分析任务的关键是情感组合,即一个成分的情感由其子成分的语义以及语义组合规则确定。自然地,情感组合通常通过树状结构进行建模。然而,已有的树状结构缺乏对功能性词和短语的刻画,并不能完整地建模和解释情感组合。为此,本文提出了语义树以及对应的情感组合文法,以完整地建模和解释情感组合现象。由于数据中并没有语义树的标注,本文基于监督学习场景的隐变量模型框架,将解释隐变量定义为语义树,从而提出了情感组合模块,以学习语义树解析器。情感组合模块既能为给定的输入预测其极性标签,还能为该预测生成语义树解释。实验证明,在添加了情感组合模块后,模型在情感分类任务以及跨领域迁移任务上的性能有明显提升。此外,生成的语义树解释表明模型能很好地解释复杂的情感组合现象。
语言模型的上下文生成能力及其主题泛化性研究:上下文生成/学习能力是大语言模型最重要的涌现能力之一。给定包含少数样本的上下文提示,大语言模型可以隐式地学习这些样本的模式,并在后续的补全中复用这些模式。本文系统地研究了语言模型的上下文生成能力。首先,本文提出了一种符合真实数据的隐变量模型以描述数据的预训练分布,并对上下文生成现象进行合理的形式化。该模型的隐变量为文本数据的文体和大纲。然后,从理论上证明,如果语言模型能较好地逼近预训练分布,则在给定上下文提示时,解释生成分布随着提示中样本数的增大依概率收敛到上下文样本的真实文体和主题的单点分布。宏观上,该性质的表现即为实验中观察到的上下文生成能力。最后,本文探究了数据和模型的不同设置对上下文生成和其主题泛化能力的影响。实验结果发现,数据组合性、重复主题的占比、模型的参数量以及模型窗口大小都在决定上下文生成的主题泛化上起到了重要作用。这些结论可以对数据集构建和模型结构设计有很大启发。值得注意的是,由于上下文生成是上下文学习的基础,因此本研究的结论也能很方便地迁移到上下文学习。 语言模型上下文学习的稳定性分析及其校准:已有研究普遍发现大语言模型的上下文学习的性能对提示设置不稳定。为此,本文结合上一工作中基于隐变量模型的理论结果,系统地解释了该现象源自于样本较少时语言模型对文体和任务主题推断的方差较大。同时,通过定性和定量分析,本文还发现上下文学习的不稳定性主要表现为标签偏移,即语言模型的上下文标签边缘分布对提示设置很敏感。为了缓解这个现象,本文提出了生成校准方法。该方法采用蒙特卡洛采样估计上下文标签边缘分布,并使用该估计结果对上下文预测分布进行校准。实验结果表明,在不同的数据集、语言模型以及样本数、提示设置下,生成校准的性能普遍远超上下文学习和现有的校准方法,并和基于大规模数据的复杂提示优化算法性能相当。同时,生成校准对上下文提示中样本的选择以及排列顺序表现出较好的鲁棒性。 |
语种 | 中文 |
页码 | 164 |
源URL | [http://ir.ia.ac.cn/handle/173211/57252] ![]() |
专题 | 毕业生_博士学位论文 |
推荐引用方式 GB/T 7714 | 江忠涛. 基于隐变量模型的自然语言处理解释方法研究[D]. 2024. |
入库方式: OAI收割
来源:自动化研究所
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。