KLMo:建模细粒度关系的知识图增强预训练语言模型
(KLMo: Knowledge Graph Enhanced Pretrained Language Model with Fine-Grained Relationships)
论文地址:https://aclanthology.org/2021.findings-emnlp.384.pdf
- 摘要
- 01引言
2001年 , 郎朗参加了BBC的毕业舞会,但他在中国直到2012年在《幸福三重奏》中亮相才很受欢迎 。
文章插图
图1:将知识合并到PLMs中的一个示例 。KG中的关系对于正确预测Trio of Happiness的类型至关重要 。
以图1为例 , 实体类型 , 没有明确地知道细粒度Lang Lang和Trio of Happiness的关系是客人(Guest),这是不同于关系表演者(Performer)LangLang和BBC Proms,不可能正确预测Trio of Happiness作为电视节目的类型,因为输入句子字面上意味着Trio of Happiness和BBC Proms属于同一类型 。KG中实体之间的细粒度关系为实体提供了特定的约束,从而在知识驱动任务的语言学习中发挥重要作用 。为了明确地将KG中的实体和细粒度关系合并到PLMs中,我们面临的一个主要挑战是文本-知识对齐(TKA)问题:很难为文本和知识的融合进行token-关系和token-实体对齐 。为了解决这个问题,我们提出了KG增强的预训练语言模型(KLMo)来将KG(即实体和细粒度关系)集成到语言表示学习中 。KLMo的主要组件是一个知识聚合器,它负责从两个单独的嵌入空间即token嵌入空间和KG嵌入空间,进行文本和知识信息的融合 。知识聚合器通过实体片段级的交叉KG注意力机制,建模文本中实体片段和所有实体和关系之间的交互,使tokens注意KG中高度相关的实体和关系 。基于KG增强的token表示 , 利用关系预测目标,基于KG的远程监督,预测文本中每对实体的关系 。关系预测和实体链接目标是将KG信息集成到文本表示中的关键 。
我们在两个中国知识驱动的自然语言处理任务上进行了实验,即实体类型和关系分类 。实验结果表明 , 通过充分利用包含实体和细粒度关系的结构化KG , KLMo比BERT和现有的知识增强PLMs有了很大的改进 。我们还将发布一个中国的实体类型数据集,用于评估中国的PLMs 。
- 02模型描述
文章插图
图2:模型体系结构的概述 。
2.1知识聚合器
如图2所示,知识聚合器被设计为一个M层知识编码器,将KG中的知识集成到语言表示学习中 。它接受token序列的隐藏层和KG中实体和关系的知识嵌入作为输入,并融合来自两个单独嵌入空间的文本和KG信息 。它接受token序列的隐藏层和KG中实体和关系的知识嵌入作为输入,并融合来自两个单独嵌入空间的文本和KG信息 。知识聚合器包含两个独立的多头注意力机制:token级自注意力和知识图谱注意力(Veliˇckovi‘cetal.,2017),它对输入文本和KG进行独立编码 。实体表示是通过汇集一个实体片段中的所有token来计算的 。然后,聚合器通过实体级的交叉KG注意力,将文本中的实体片段与上下文KG中的所有实体和关系之间的交互进行建模,从而将知识融入到文本表示中 。
推荐阅读
- 【疫情动态条形图】用Python开发全球疫情排名动态条形图bar_chart_race
- 【Java8新特性】- 接口中默认方法修饰为普通方法
- NFC 怎么使用(nfc具体使用方法)
- 儿童飞行棋怎么玩(儿童学棋入门教程)
- 收纳梦之岛拒做恋爱脑怎么过
- 光遇欧若拉季网易云黑胶会员怎么领取
- 原神复苏之梦怎么完成
- 骁龙870和天玑1200处理器哪个好?
- 一个人玩飞行棋怎么玩(玩飞行棋的诀窍)
- 原神11月4日礼包兑换码是多少