论文速读<一>:关系抽取与提示学习

论文速读<一>:关系抽取与提示学习

论文速读系列为对论文的核心思想进行快速抓取,仅记录论文的Key Idea。本期为论文速读系列的第一期,选取了5篇近期知识图谱领域的关系抽取相关论文。

Key Idea

Enriching pre-trained language model with entity information for relation classification.[1]

R-Bert模型的框架如上图所示,其主要思路就是对每个句子的关系的头部放一个分类头,并在2个实体出使用特殊标记,放进预训练好后的Bert中,在输出中,实体所对应的embedding做一个平均值,和分类头的embedding分别经过3个MLP,最后做一个拼接,输出到softmax中去,进行分类。

Relation classification with entity type restriction.

该论文事实上是提出了一个算法无关的流程。

传统的关系抽取是将句子、实体以及实体类型一起丢进一个分类器中,然后输出关系的类别。但假如根据实体的类型可以一定程度上的筛掉一些不可能的关系。因此区别于传统的做法,它首先将实体丢进一个分类器,然后获得其类别之后,根据实体的类型去训练专用的分类器,最后句子一起输入到这个专用分类器中,输出对应的类别。

Ptr: Prompt tuning with rules for text classification.

该论文提出了一种提示学习的方法对文本进行分类。提示学习就是在Fine Tuning的时候加一个模板化的提示,这样可以使得原问题更贴近于自然语言处理的问题,从而更贴合预训练的自然语言模型。

该论文的模式来源于推理规则,他在Fine Tuning时,在句子的结尾增添提示。给出句子的实体,但对实体的类型和实体间的关系做一个mask。这样可以使得模型能将实体与对应的类型结合起来,推理出他们之间的关系。

Summarization as Indirect Supervision for Relation Extraction

该论文将摘要模型用于关系抽取。

若想要将摘要模型应用在句子的关系抽取上,需要将关系抽取问题转化为摘要问题。直觉上来讲,上游模型的特点和下游任务的关系月紧密,它的效果也会越好。

和通常的提示学习想法类似,它也是对原句子进行模板化改造,只不过将句子转换为一个段落而已。如上图所示,所谓的段落就是,加上“主语是。。。”,“谓语是。。。”这样的信息。

由于摘要模型输入是一个段落,输出是一个句子,而不是一个标签。因此输出的标签也应当做一个改造。改造的方式也很简单,比如"city of birth"就改在为"subj was born in the city obj"。需要注意的是,主语放在句子开头,宾语放在句子结尾。这是方便后面的预测。

其预测过程是构造一棵字典树,由于所有的句子主语放在开头,所以他们有同一个根结点。从根据结点出发,每次遇到一个分叉就使用decoder进行预测,给出每个分叉的概率。最后每个类别的概率,就是跟结点到叶结点的路上所有概率的乘积。选择最大的就是输出。

Prefix-tuning: Optimizing continuous prompts for generation.

提示学习所用的提示模板往往是一个个离散的词。该文章提出了一种将离散词嵌入到连续空间中去,比如使用2个向量,使其起到提示的效果。

参考资料


论文速读<一>:关系抽取与提示学习
http://vitaminzl.com/2022/07/16/kg/lun-wen-su-du-1-guan-xi-chou-qu/
作者
vitaminzl
发布于
2022年7月16日
许可协议