ACRank:在神经排序模型中引入检索公理知识
文献类型:期刊论文
作者 | 薄琳3; 庞亮2; 张朝亮1; 王钊伟1; 董振华1; 徐君3; 文继荣3 |
刊名 | 计算机学报
![]() |
出版日期 | 2023 |
卷号 | 46期号:10页码:2117 |
关键词 | neural ranking model information retrieval axiom contrastive learning knowledge driven data driven 神经检索模型 信息检索公理 对比学习 知识驱动 数据驱动 |
ISSN号 | 0254-4164 |
英文摘要 | 传统的信息检索(Information Retrieval,IR)是知识驱动的方法,如以BM25、LMIR等为代表的检索模型在设计过程中考虑词频、逆文档频率、文档长度等关键因素计算查询-文档的相关性得分.这些关键因素被总结为IR公理,在传统模型的设计和评价中起到了至关重要的作用.如词频规则认为有更多查询词的文档更相关.与之相对,数据驱动的神经排序模型基于大量的标注数据与精巧的神经网络结构自动学习相关性评分函数,带来了显著的排序精度提升.传统IR公理知识是否能用来提升神经排序模型的效果是一个值得研究的重要问题且已有学者进行了初步探索,其首先通过公理指导增强数据生成,然后利用生成的标注数据直接训练神经网络.但IR公理的形式是通过比较匹配信号的强弱给出两个文档间相对的相关关系,而非直接给出文档的相关度标签.针对这一问题,本文提出了一种通过对比学习将IR公理知识引入神经排序模型的框架,称为ACRank.ACRank利用信息检索公理生成增强数据,抽取不同文档的匹配信号,利用对比学习拉开匹配信号间差距,使正样本匹配信号强于负样本,通过上述方式,ACRank将IR公理知识自然地融入到数据驱动的神经排序模型中.ACRank作为通用框架,可应用于不同规则,本文选择词频规则进行实验,基于大规模公开数据集上的实验结果表明,ACRank能够有效提升已有神经检索模型如BERT的排序精度,相关分析实验验证了该框架的有效性. |
语种 | 英语 |
源URL | [http://119.78.100.204/handle/2XEOYT63/38097] ![]() |
专题 | 中国科学院计算技术研究所期刊论文_中文 |
作者单位 | 1.深圳华为技术有限公司 2.中国科学院计算技术研究所 3.中国人民大学 |
推荐引用方式 GB/T 7714 | 薄琳,庞亮,张朝亮,等. ACRank:在神经排序模型中引入检索公理知识[J]. 计算机学报,2023,46(10):2117. |
APA | 薄琳.,庞亮.,张朝亮.,王钊伟.,董振华.,...&文继荣.(2023).ACRank:在神经排序模型中引入检索公理知识.计算机学报,46(10),2117. |
MLA | 薄琳,et al."ACRank:在神经排序模型中引入检索公理知识".计算机学报 46.10(2023):2117. |
入库方式: OAI收割
来源:计算技术研究所
浏览0
下载0
收藏0
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。