结构启发的神经语义解析方法研究
文献类型:学位论文
作者 | 张翔![]() |
答辩日期 | 2024-05-14 |
文献子类 | 博士 |
关键词 | 自然语言理解 神经语义解析 形式化语义表示 组合泛化 |
英文摘要 | 语义解析(Semantic Parsing,SP)是将自然语言的言语文本转换为形式语言的语义表示(Semantic Representation)的一类自然语言理解任务。它在知识问答、对话系统、代码生成等多种任务中均有应用,因此具备较高的研究价值。由于研究背景和应用需求的不同,该任务所涉及的语义表示种类丰富,语法差异也很大,例如有一阶谓词逻辑、常用编程语言(Python、Java)、数据库查询语言、各类任务的领域特定语言等。但是,不同的语义表示都体现出很强的结构性特点。 语义解析有多种实现方法,如基于规则的方法和基于统计模型的方法等。但目前,为了兼容多样化的语义表示,基于神经网络的方法最为常见。由于其普遍性,基于神经网络的语义解析又被称为神经语义解析(Neural Semantic Parsing)。具体地,神经语义解析一般基于编码器---解码器架构(Encoder-Decoder Architecture),采用端到端的方式进行训练。然而,这一方法中忽略了形式语言语义表示的结构性,而只是把它看作普通的文本序列。因此,这种典型的神经语义解析方法不仅不符合语义组合性的要求,在实际应用中也经常生成结构错误的结果。因此,针对现有模型忽略结构性的问题,本文展开了结构启发的神经语义解析方法研究。具体的工作内容和主要的创新点如下: 1. 基于解码侧结构建模的神经语义解析方法 典型的神经语义解析方法将语义表示看作普通的序列文本进行生成。为了加入结构信息,现有工作中,有的提出人工设计新颖的中间表示,有的提出针对特定语义表示的解码器,均取得了一定效果。但是,这种方式需要较多人类专家的参与,例如每次遇到新的语义表示都设计全新的解码器,或者对既有语义表示进行深入研究后发明一种恰当的中间表示。针对现有方法中需要大量专家知识、开发成本过高、迁移性较弱的问题,本文设计了三种融入语义表示结构信息的神经语义解析方法。具体包括:(1)将隐式的层次结构偏置融入解码器,从数据中自适应地学习语义表示符号的层次结构;(2)使用语义表示在工业上的语法标准,作为先验知识引导神经网络解码和生成;(3)使用先验语法推断样本的树型结构,并选出结构相似样本对排序模型进行精调,针对没有结构信息的模型所输出的候选结果,进一步选择排序模型打分最高的结果并输出。实验结果表明,不同的建模手段都相应地提升了神经语义解析中识别语义表示结构的能力,并且在避免加入过多专家知识的前提下,带来一定的性能提升。 2. 基于编解码结构建模的神经语义解析方法 除了语义表示的结构性之外,自然语言也被广泛认为具有结构性。研究自然语言结构的一项典型任务是语法归纳(Grammar Induction)。但是,神经语义解析和该任务之间缺乏互动,这容易引发相关的质疑,即神经语义解析是否已经具备理解自然语言结构的能力?围绕这一问题,本文工作包括两个方面:(1)针对神经语义解析方法中缺少自然语言结构建模的问题,本文借助包括语法归纳在内的一些自然语言结构研究的主要成果,提出了多种自然语言和语义表示的联合结构模型。通过在多个数据集和泛化设置上的对比实验,本文得出了关于联合结构建模的几个结论。其中主要的结论有:两种结构偏置的匹配程度对于模型更为重要;数据的具体切分和泛化要求也会明显影响性能。(2)根据上述结论,针对模型难以预先了解结构匹配程度和数据切分方式的难题,本文提出了预估联合结构建模的一个质量指标,以便找到具体数据集上更为匹配的联合结构。该指标基于大语言模型给出的向量表示进行最优传输计算,无需训练且计算的时间复杂度较低。实验发现该指标与模型性能有相关性,有利于实现自动化的语法搜索。 3. 基于结构对齐学习的神经语义解析方法 在神经语义解析任务中,自然语言和语义表示两种结构并不孤立,它们之间可能存在对应关系。根据语义的组合性,语义表示的意义应由更小的语义表示的意义组成,而这些次一级的语义表示可能对应于输入的自然语言的个别片段。因此,语义组合性要求神经语义解析掌握两种结构之间的对齐关系。在朴素的神经语义解析中,负责显式地学习结构对齐的模块是注意力机制。很多方法希望增强注意力机制的稀疏性,以此来强化它学习结构对齐的效果,例如退火机制、SparseMAX等。但是,注意力机制及相应的稀疏性改进很难学习到语义上正确的对齐。针对现有注意力机制的对齐准确率较低、人工标注对齐的成本又过高的问题,本文提出了使用匈牙利算法对注意力机制进行改进的方法。该方法通过将结构对齐转换为一个匹配优化问题,从而利用匈牙利算法找出最优解,并用于损失计算中。有的数据集无法转换成一对一的匹配优化问题,本文提出的匈牙利算法可以反向使用,以便降低注意力机制的噪音。实验发现这种无需标注的方法不仅在一些数据集上超过了使用人工对齐标签进行训练的方法。并且,相比针对注意力机制的稀疏性改进,此方法所预测的结构对齐也有更高的准确率。 |
学科主题 | 自然语言处理 |
语种 | 中文 |
页码 | 79 |
源URL | [http://ir.ia.ac.cn/handle/173211/57618] ![]() |
专题 | 毕业生_博士学位论文 |
推荐引用方式 GB/T 7714 | 张翔. 结构启发的神经语义解析方法研究[D]. 2024. |
入库方式: OAI收割
来源:自动化研究所
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。