CN111931509A - 实体链指方法、装置、电子设备及存储介质 - Google Patents
实体链指方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111931509A CN111931509A CN202010886164.4A CN202010886164A CN111931509A CN 111931509 A CN111931509 A CN 111931509A CN 202010886164 A CN202010886164 A CN 202010886164A CN 111931509 A CN111931509 A CN 111931509A
- Authority
- CN
- China
- Prior art keywords
- entity
- expression
- target
- query text
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000014509 gene expression Effects 0.000 claims abstract description 185
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims description 62
- 230000015654 memory Effects 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 241000220225 Malus Species 0.000 description 15
- 235000013399 edible fruits Nutrition 0.000 description 9
- 235000021016 apples Nutrition 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241000220324 Pyrus Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 240000008790 Musa x paradisiaca Species 0.000 description 1
- 235000014443 Pyrus communis Nutrition 0.000 description 1
- 235000010724 Wisteria floribunda Nutrition 0.000 description 1
- 235000021015 bananas Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 235000021017 pears Nutrition 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种实体链指方法、装置、电子设备及存储介质,涉及人工智能技术领域及自然语言处理技术领域。具体实现方案为:对查询文本进行实体检测,获取目标实体;采用预先训练的上下文表达模型,生成所述查询文本的特征表达;基于所述查询文本的特征表达和预先获取的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别。本申请基于上下文表达模型获取的查询文本的特征表达以及预先获取的各实体类别的特征表达,均能够对相关信息进行有效地泛化,保证查询文本的特征表达以及各实体类别的特征表达的准确性,进而能够有效地提高实体链指的准确性。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及人工智能技术领域及自然语言处理技术领域,具体涉及一种实体链指方法、装置、电子设备及存储介质。
背景技术
在自然语言处理(Natural Language Processing;NLP)中,命名实体识别(NamedEntity Recognition;NER)属于信息抽取的一个子任务。给定一段非结构化文本,NER的目的是确定其中的实体的位置和归属的类别。
实体链指(Entity Linking;EL)是NER中的一个重要环,EL是链指文本中的目标实体词到唯一且具体的实体上的一项任务。从某种程度上来讲,EL实现的是消歧任务,消岐的主要依据是上下文语境和不同实体之间的匹配程度。譬如仅仅给定“苹果”这个词是无法做实体的消歧,但是如果说“吃个苹果”或者“苹果手机”就能判断出前者指的是水果对应的实体,后者指的是品牌对应的实体。现有的实体链指技术,主要是预先人工提取各实体类别的实体相关的一些共现特征,然后根据文本中的实体的上下文,与各实体类别的实体的共现特征做匹配,并给出打分。最后选出打分最高的类别的实体作为实体链指的结果。
但是,现有的实体链指方法中,各类别的实体相关的一些共现特征仅仅抽取了字面的特征信息,无法进行有效地泛化,导致实体链指的准确性较差。
发明内容
为了解决上述技术问题,本申请提供了一种实体链指方法、装置、电子设备及存储介质。
根据本申请的一方面,提供了一种实体链指方法,其中,所述方法包括如下步骤:
对查询文本进行实体检测,获取目标实体;
采用预先训练的上下文表达模型,生成所述查询文本的特征表达;
基于所述查询文本的特征表达和预先获取的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别。
根据本申请的另一方面,提供了一种实体链指装置,其中,所述装置包括:
检测模块,用于对查询文本进行实体检测,获取目标实体;
第一生成模块,用于采用预先训练的上下文表达模型,生成所述查询文本的特征表达;
链指模块,用于基于所述查询文本的特征表达和预先获取的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别。
根据本申请的再一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本申请的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本申请的技术,基于上下文表达模型获取的查询文本的特征表达以及预先获取的各实体类别的特征表达,均能够对相关信息进行有效地泛化,保证查询文本的特征表达以及各实体类别的特征表达的准确性,进而能够有效地提高实体链指的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是本实施例提供一种节点异构体图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请第四实施例的示意图;
图6是用来实现本申请实施例的实体链指方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图;如图1所示,本实施例提供一种实体链指方法,所述方法包括如下步骤:
S101、对查询文本进行实体检测,获取目标实体;
S102、采用预先训练的上下文表达模型,生成查询文本的特征表达;
S103、基于查询文本的特征表达和预先获取的目标实体对应的各实体类别的特征表达,将目标实体链指到匹配程度最高的实体类别。
本实施例的实体链指方法的执行主体为实体链指装置,该装置为一电子实体,或者也可以为采用软件集成的应用,使用时运行在计算机设备上,以实现对查询文本中的实体进行链指。
本实施例中的查询文本可以为用户输入的query,该query中可以包括一个、两个或者多个目标实体,采用本实施例的方式,可以将该查询文本中的每一个目标实体链指到正确的实体类别上。
具体地,本实施例中,首先对查询文本进行实体检测,检测到查询文本中的所有可能的目标实体。且,本实施例中还可以基于预先训练的上下文表达模型,生成该查询文本的特征表达,例如该查询文本的特征表达可以采用向量的形式来表示。
可选地,可以预先采集有实体词典,在该实体词典中标识有各实体对应的各个实体类别。例如,可以在实体库中记录苹果的对应的实体类别有水果和电子产品;再例如,某个人物A,对应的实体类别有明星、企业家等不同的实体类别,等等。对于同一实体的每一个实体类别的特征表达,本实施例中可以预先获取到。然后,基于查询文本的特征表达和目标实体对应的各实体类别的特征表达,从该目标实体对应的各实体类别中匹配程度最高的实体类别,从而将该目标实体链指到该匹配度最高的实体类别上,进而实现消除歧义。
本实施例的实体链指方法,通过对查询文本进行实体检测,获取目标实体;采用预先训练的上下文表达模型,生成查询文本的特征表达;基于查询文本的特征表达和预先获取的目标实体对应的各实体类别的特征表达,将目标实体链指到匹配程度最高的实体类别,与现有技术相比,本实施例中基于上下文表达模型获取的查询文本的特征表达以及预先获取的各实体类别的特征表达,均能够对相关信息进行有效地泛化,保证查询文本的特征表达以及各实体类别的特征表达的准确性,进而能够有效地提高实体链指的准确性。
图2是根据本申请第二实施例的示意图;如图2所示,本实施例的实体链指方法,在上述图1所示实施例的技术方案的基础上,进一步更加详细地介绍本申请的技术方案。如图2所示,本实施例的实体链指方法,具体可以包括如下步骤:
S201、采用预先训练的实体识别模型和预先生成的实体词典对查询文本进行实体检测,获取至少一个目标实体;
本实施例中,以同时采用实体识别模型和预先生成的实体词典两种方式对查询文本中的实体进行检测。实际应用中,也可以以择一的方式对查询文本中的实体进行检测。
本实施例的实体识别模型能够对查询文本中的所有目标实体进行检测。该实体识别模型在训练时,可以预先采集数条训练文本,并标注每一条训练文本中的目标实体。将各条训练文本输入至实体识别模型中,由该实体识别模型预测该条训练文本中的目标实体;若预测的与标注的不一致,则调整实体识别模型的参数;然后采用下一条训练文本继续按照上述方式进行训练,直至在连续多轮的训练中,预测的和标注的结果始终一致,此时可以确定实体识别模型的参数,进而确定实体识别模型,训练结束。
本实施例中,训练时采集的数条训练文本的数量可以达到百万数量级,训练文本的数量越多,训练的实体识别模型越准确。
采用实体识别模型对查询文本进行实体检测时,可以将该查询文本输入至该实体识别模型中,该实体识别模型可以预测并输出该查询文本中的所有可能的目标实体。需要说明的是,本实施例的实体识别模型可以采用Bi-LSTM-CRF之类的序列标注模型来实现。
另外,本实施例中还需要预先生成实体词典。具体地,可以通过各种方式,采集各个实体以及每个实体对应的所有实体类别,记录在实体词典中。具体检测时,可以先对查询文本进行分词,然后采用实体词典检测每个分词是否存在于实体词典中,若存在,则确定该分词为一个目标实体。采用该方式也可以检测到查询文本中的每一个可能的目标实体。
由于实际应用中,采用实体识别模型对查询文本进行实体检测,和采用实体词典对查询文本进行实体检测的检测方式不同,检测的结果也可能存在不同,本实施例中,为了获取到查询文本中尽可能全面的目标实体,以得到两种方式检测的目标实体为例。实际应用中,可以以择一的方式,仅执行一种方式的实体检测,得到相应的目标实体。
S202、检测各目标实体是否对应至少两个实体类别;若不是,将目标实体链指到对应的实体类别上;否则执行步骤S203;
本实施例的实体词典中记录的实体可以为人名、地名或者物体名等等。且由于实体词典中有的实体可能仅存在一种实体类别,而有的实体存在两种甚至两种以上的实体类别。而对于仅存在一种实体类别的实体,不存在相应的消岐任务,此时,将对应的目标实体链指到对应的实体类别上即可。而对于存在至少两个实体类别的目标实体,则需要进行进行实体链指处理,以将该目标实体链指到正确的实体类别上。
S203、对查询文本进行分词,得到多个分词;
可选地,本实施例中的分词粒度可以为字的粒度,也可为词语的粒度。
S204、将多个分词分别进行嵌入表达;
S205、将嵌入表达后的多个分词输入至预先训练的上下文表达模型中,并获取上下文表达模型输出的查询文本的特征表达;
本实施例的特征表达可以采用向量的形式来表示。
本实施例的上下文表达模型,也为预先训练的。需要说明的是,本实施例的上下文表达模型在训练时,需要参考该查询文本中的目标实体及对应的实体类别一起来训练。
例如,可以预先采集数条训练文本;标注训练文本中的目标实体及目标实体在训练文本中所标识的实体类别,并进一步获取该目标实体在该实体类别上的特征表达。训练时,将各条训练文本按照上述方式,进行分词以及嵌入表达后输入至上下文表达模型中,由上下文表达模型预测并输出该训练文本的特征表达。然后基于训练文本的特征表达和训练文本中的该目标实体在对应实体类别上的特征表达,调整上下文表达模型的参数。例如,由于训练文本中的该目标实体属于该训练文本中的部分,该训练文本中该目标实体在对应实体类别上的特征表达理论上与该训练文本的特征表达应该具体一定的相似度,例如两个向量的相似度可以大于一定的相似度阈值。在训练时,若小于该相似度阈值,则需要调整该上下文表达模型的参数,使得该训练文本的特征表达与训练文本中该目标实体在对应实体类别上的特征表达的相似度足够大,大到大于该相似度阈值。采用数条训练文本以及获取的训练文本中的目标实体在对应的实体类别上的特征表达,按照上述方式,不断地对上下文表达模型进行训练,直至在连续的预设轮数的训练中,训练文本的特征表达与训练文本中该目标实体在对应实体类别上的特征表达的相似度始终是足够大到大于该相似度阈值。此时训练结束,可以确定上下文表达模型的参数,进而确定上下文表达模型。
同理,训练时采集的数条训练文本的数量可以达到百万数量级,训练文本的数量越多,训练的上下文表达模型越准确。
上述步骤S203-S205为上述图1所示实施例的步骤S102的一种实现方式。
S206、从预先生成的实体特征库中,获取该目标实体对应的各实体类别的特征表达;
需要说明的是,本实施例中,在该步骤S206之前,还可以包括如下步骤:
(a1)基于实体表达模型和目标实体的各实体类别,生成目标实体对应的各实体类别的特征表达;
(b1)将目标实体对应的各实体类别的特征表达存储在实体特征库中。
其中步骤(a1)在具体实现时,还可以包括如下步骤:
(a2)采集目标实体的各实体类别对应的数条训练样本对,各训练样本对中包括正样本和负样本,正样本中包括实体、以及与实体属于同一实体类别的正样本实体,负样本中包括实体、以及与正样本中的实体不属于同一实体类别的负样本实体;
(b2)采用数条训练样本对,训练实体表达模型,使得实体表达模型生成正样本标识的实体类别的特征表达与正样本实体的特征表达相匹配,而与负样本实体的特征表达不相匹配,进而得到目标实体的对应的实体类别的特征表达。
例如,图3是本实施例提供一种节点异构体图。如图3所示,异构图包括同一实体的两种实体类别的节点,如实体_苹果_水果以及实体_苹果_品牌。指向实体_苹果_水果为与该实体类别相关的上下文词对应的节点,可以包括有红富士、梨子以及水果。指向实体_苹果_品牌为与该实体类别相关的上下文词对应的节点,可以包括有iphone、手机以及乔布斯。即实体相关的上下文词对应的节点,和该实体对应的节点会有对应的边连接。实体表达模型的目的是要学习一个实体的特征表达即语义向量表示,把实体相关的上下文语义嵌入到实体的向量表示中去。一个自然的想法是直接套用word2vec的BOW模型,即用每一个上下文的普通词去预测实体向量。然而这样的模型结构过于简单。而图卷积神经网络(GraphConvolutional Network;GCN)非常适用这个任务,且能利用卷积核的参数共享,学到语义更加丰富的实体向量表示。因此,本实施例中,具体可以采用GCN来实现该实体表达模型。
具体训练时,对于各目标实体,可以采集该目标实体的各实体类别对应的数条训练样本对,各训练样本对中包括正样本和负样本,如正样本中包括实体、以及与实体属于同一实体类别的正样本实体,负样本中包括实体、以及与正样本中的实体不属于同一实体类别的负样本实体。例如生成实体_苹果_水果的特征表达时,采集的正样本中可以包括苹果和水果、或者苹果和香蕉,或者还可以包括苹果和梨子等等水果之类的正样本实体。而对应的负样本中可以包括苹果和手机、或者还可以包括苹果和衣服、或者还可以包括苹果和水果相关的之外的其他任意负样本实体。然后将正样本中的实体、正样本实体以及负样本实体分别输入值实体表达模型中,该实体表达模型可以分别预测并输出实体、正样本实体以及负样本实体自各的特征表达。由于实体和正样本实体属于同一实体类别,而与负样本实体属于不同的实体类别,本实施例的训练目的便要使得实体表达模型生成的正样本标识的实体类别的特征表达与正样本实体的特征相匹配,而与负样本实体的特征表达不相匹配。本实施例中的相匹配可以为相似度大于第一预设相似度阈值,如80%。85%或者大于50%的其他百分比;而不相匹配可以为相似度小于第二相似度阈值,如50%,45%或者小于50%的其他百分比。若实体表达模型输出的实体、正样本实体以及负样本实体自各的特征表达不满足上述条件,可以对实体表达模型的参数进行调整,使得其满足上述条件。采用该实体类别的对应的数条训练样本对,按照上述方式不断地对该实体表达模型进行训练,直至连续预设轮数的训练中,始终满足上述条件,此时可以得到该实体表达模型生成的该实体类别的特征表达。按照此方式可以得到各目标实体的各实体类别特征表达。然后将各目标实体的各实体类别特征表达存储在实体特征库中。采用该方式生成的各目标实体的各实体类别特征表达,具有极强的泛化能力,能够准确地表示各实体类别的信息。
使用时,基于该实体以及实体类别,获取对应的实体类别的特征表达即可,使用非常方便。
S207、基于查询文本的特征表达和预先获取的目标实体对应的各实体类别的特征表达,计算查询文本的特征表达与目标实体对应的各实体类别的特征表达的匹配度得分;
S208、将目标实体链指到匹配度得分最高的实体类别。
具体地,可以将查询文本的特征表达分别与该目标实体的各实体类别的特征表达进行相似度计算,将得到的相似度值作为查询文本的特征表达与目标实体对应的实体类别的特征表达的匹配度得分。相似度值越高,即匹配度得分越高,表示该查询文本与目标实体的该实体类别的匹配度越高。反之亦然。基于此,可以从该目标实体的至少两个实体类别中获取匹配度得分最高的实体类别,作为最后的消歧和链指的结果。并最终将该目标实体链指到获取的匹配度得分最高的实体类别上。
步骤S207-S208为上述图1所示实施例的步骤S103的一种实现方式。
本实施例的实体链指方法,通过采用特征表达的方式来表示相关信息,能做到更好的泛化效果。在实体链指的过程,目标实体的特征表达会和上下文做匹配,摒弃了现有技术的利用共现特征的做法,能够带来更准确的匹配效果,能够有效地提高实体链指的准确性。而且与现有技术相比,本实施例中由于用神经网络模型替代了大量的特征抽取流程,整体的流程有性能上的优势,且资源消耗上也会有明显的优化。而且,整个过程不再依赖人工干预的特征工程和规则,避免了维护大量的规则和人工设计的特征工程,能够有效地提高实体链指技术使用的智能性及实用性。
图4是根据本申请第三实施例的示意图;如图4所示,本实施例提供一种实体链指装置400,包括:
检测模块401,用于对查询文本进行实体检测,获取目标实体;
第一生成模块402,用于采用预先训练的上下文表达模型,生成查询文本的特征表达;
链指模块403,用于基于查询文本的特征表达和预先获取的目标实体对应的各实体类别的特征表达,将目标实体链指到匹配程度最高的实体类别。
本实施例的实体链指装置400,通过采用上述模块实现实体链指的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图5是根据本申请第四实施例的示意图;如图5所示,本实施例的实体链指装置400,在上述图4所示实施例的技术方案的基础上,进一步更加详细地描述本申请的技术方案。
如图5所示,本实施例的实体链指装置400,还包括:
获取模块404,用于从预先生成的实体特征库中,获取目标实体对应的各实体类别的特征表达。
进一步可选地,如图5所示,本实施例的实体链指装置400,还包括:
第二生成模块405,用于基于实体表达模型和目标实体的各实体类别,生成目标实体对应的各实体类别的特征表达;
存储模块406,用于将目标实体对应的各实体类别的特征表达存储在实体特征库中。
进一步可选地,如图5所示,第二生成模块405,包括:
采集单元4051,用于采集目标实体的各实体类别对应的数条训练样本对,各训练样本对中包括正样本和负样本,正样本中包括实体、以及与实体属于同一实体类别的正样本实体,负样本中包括实体、以及与正样本中的实体不属于同一实体类别的负样本实体;
训练单元4052,用于采用数条训练样本对,训练实体表达模型,使得实体表达模型生成正样本标识的实体类别的特征表达与正样本实体的特征表达相匹配,而与负样本实体的特征表达不相匹配,进而得到目标实体的对应的实体类别的特征表达。
进一步可选地,如图5所示,第一生成模块402,包括:
分词单元4021,用于对查询文本进行分词,得到多个分词;
表达单元4022,用于将多个分词分别进行嵌入表达;
获取单元4023,用于将嵌入表达后的多个分词输入至上下文表达模型中,并获取上下文表达模型输出的查询文本的特征表达。
进一步可选地,检测模块401,还用于检测并确定目标实体对应至少两个实体类别。
进一步可选地,检测模块401,用于:
采用实体识别模型对查询文本进行实体检测,获取目标实体;和/或
采用预先生成的实体词典对查询文本进行实体检测,获取目标实体。
本实施例的实体链指装置400,通过采用上述模块实现实体链指的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是本申请实施例的实现实体链指方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的实体链指方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的实体链指方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的实体链指方法对应的程序指令/模块(例如,附图4和附图5所示的相关模块)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的实体链指方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据实现实体链指方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至实现实体链指方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现实体链指方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与实现XXX方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过对查询文本进行实体检测,获取目标实体;采用预先训练的上下文表达模型,生成查询文本的特征表达;基于查询文本的特征表达和预先获取的目标实体对应的各实体类别的特征表达,将目标实体链指到匹配程度最高的实体类别,与现有技术相比,本实施例中基于上下文表达模型获取的查询文本的特征表达以及预先获取的各实体类别的特征表达,均能够对相关信息进行有效地泛化,保证查询文本的特征表达以及各实体类别的特征表达的准确性,进而能够有效地提高实体链指的准确性。
根据本申请实施例的技术方案,通过采用特征表达的方式来表示相关信息,能做到更好的泛化效果。在实体链指的过程,目标实体的特征表达会和上下文做匹配,摒弃了现有技术的利用共现特征的做法,能够带来更准确的匹配效果,能够有效地提高实体链指的准确性。而且与现有技术相比,本实施例中由于用神经网络模型替代了大量的特征抽取流程,整体的流程有性能上的优势,且资源消耗上也会有明显的优化。而且,整个过程不再依赖人工干预的特征工程和规则,避免了维护大量的规则和人工设计的特征工程,能够有效地提高实体链指技术使用的智能性及实用性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种实体链指方法,其中,所述方法包括如下步骤:
对查询文本进行实体检测,获取目标实体;
采用预先训练的上下文表达模型,生成所述查询文本的特征表达;
基于所述查询文本的特征表达和预先获取的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别。
2.根据权利要求1所述的方法,其中,采用预先训练的上下文表达模型,生成所述查询文本的特征表达之后,基于所述查询文本的特征表达和预先获取的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别之前,所述方法还包括:
从预先生成的实体特征库中,获取所述目标实体对应的各实体类别的特征表达。
3.根据权利要求2所述的方法,其中,从预先生成的实体特征库中,获取所述目标实体对应的各实体类别的特征表达之前,所述方法还包括:
基于实体表达模型和所述目标实体的各实体类别,生成所述目标实体对应的各实体类别的特征表达;
将所述目标实体对应的各实体类别的特征表达存储在所述实体特征库中。
4.根据权利要求3所述的方法,其中,基于实体表达模型和所述目标实体的各实体类别,生成所述目标实体对应的各实体类别的特征表达,包括:
采集所述目标实体的各实体类别对应的数条训练样本对,各所述训练样本对中包括正样本和负样本,所述正样本中包括实体、以及与所述实体属于同一实体类别的正样本实体,所述负样本中包括所述实体、以及与所述正样本中的所述实体不属于同一实体类别的负样本实体;
采用所述数条训练样本对,训练所述实体表达模型,使得所述实体表达模型生成所述正样本标识的实体类别的特征表达与所述正样本实体的特征表达相匹配,而与所述负样本实体的特征表达不相匹配,进而得到所述目标实体的对应的实体类别的特征表达。
5.根据权利要求1所述的方法,其中,采用预先训练的上下文表达模型,生成所述查询文本的特征表达,包括:
对所述查询文本进行分词,得到多个分词;
将所述多个分词分别进行嵌入表达;
将嵌入表达后的所述多个分词输入至所述上下文表达模型中,并获取所述上下文表达模型输出的所述查询文本的特征表达。
6.根据权利要求1所述的方法,其中,对查询文本进行实体检测,获取目标实体之后,基于所述查询文本的特征表达和预先生成的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别之前,所述方法还包括:
检测并确定所述目标实体对应至少两个实体类别。
7.根据权利要求1-6任一所述方法,其中,对查询文本进行实体检测,获取目标实体,包括:
采用实体识别模型对所述查询文本进行实体检测,获取所述目标实体;和/或
采用预先生成的实体词典对所述查询文本进行实体检测,获取所述目标实体。
8.一种实体链指装置,其中,所述装置包括:
检测模块,用于对查询文本进行实体检测,获取目标实体;
第一生成模块,用于采用预先训练的上下文表达模型,生成所述查询文本的特征表达;
链指模块,用于基于所述查询文本的特征表达和预先获取的所述目标实体对应的各实体类别的特征表达,将所述目标实体链指到匹配程度最高的实体类别。
9.根据权利要求8所述的装置,其中,所述装置还包括:
获取模块,用于从预先生成的实体特征库中,获取所述目标实体对应的各实体类别的特征表达。
10.根据权利要求9所述的装置,其中,所述装置还包括:
第二生成模块,用于基于实体表达模型和所述目标实体的各实体类别,生成所述目标实体对应的各实体类别的特征表达;
存储模块,用于将所述目标实体对应的各实体类别的特征表达存储在所述实体特征库中。
11.根据权利要求10所述的装置,其中,所述第二生成模块,包括:
采集单元,用于采集所述目标实体的各实体类别对应的数条训练样本对,各所述训练样本对中包括正样本和负样本,所述正样本中包括实体、以及与所述实体属于同一实体类别的正样本实体,所述负样本中包括所述实体、以及与所述正样本中的所述实体不属于同一实体类别的负样本实体;
训练单元,用于采用所述数条训练样本对,训练所述实体表达模型,使得所述实体表达模型生成所述正样本标识的实体类别的特征表达与所述正样本实体的特征表达相匹配,而与所述负样本实体的特征表达不相匹配,进而得到所述目标实体的对应的实体类别的特征表达。
12.根据权利要求8所述的装置,其中,所述第一生成模块,包括:
分词单元,用于对所述查询文本进行分词,得到多个分词;
表达单元,用于将所述多个分词分别进行嵌入表达;
获取单元,用于将嵌入表达后的所述多个分词输入至所述上下文表达模型中,并获取所述上下文表达模型输出的所述查询文本的特征表达。
13.根据权利要求8所述的装置,其中:
所述检测模块,还用于检测并确定所述目标实体对应至少两个实体类别。
14.根据权利要求8-13任一所述装置,其中,所述检测模块,用于:
采用实体识别模型对所述查询文本进行实体检测,获取所述目标实体;和/或
采用预先生成的实体词典对所述查询文本进行实体检测,获取所述目标实体。
15.一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010886164.4A CN111931509A (zh) | 2020-08-28 | 2020-08-28 | 实体链指方法、装置、电子设备及存储介质 |
US17/319,631 US20220067439A1 (en) | 2020-08-28 | 2021-05-13 | Entity linking method, electronic device and storage medium |
EP21173906.5A EP3961476A1 (en) | 2020-08-28 | 2021-05-14 | Entity linking method and apparatus, electronic device and storage medium |
KR1020210106324A KR102573637B1 (ko) | 2020-08-28 | 2021-08-11 | 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체 |
JP2021134380A JP7234483B2 (ja) | 2020-08-28 | 2021-08-19 | エンティティリンキング方法、装置、電子デバイス、記憶媒体及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010886164.4A CN111931509A (zh) | 2020-08-28 | 2020-08-28 | 实体链指方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111931509A true CN111931509A (zh) | 2020-11-13 |
Family
ID=73309481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010886164.4A Withdrawn CN111931509A (zh) | 2020-08-28 | 2020-08-28 | 实体链指方法、装置、电子设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220067439A1 (zh) |
EP (1) | EP3961476A1 (zh) |
JP (1) | JP7234483B2 (zh) |
KR (1) | KR102573637B1 (zh) |
CN (1) | CN111931509A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597305A (zh) * | 2020-12-22 | 2021-04-02 | 上海师范大学 | 基于深度学习的科技文献作者名消歧方法及web端消歧装置 |
CN114647739A (zh) * | 2022-02-25 | 2022-06-21 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
CN115796280A (zh) * | 2023-01-31 | 2023-03-14 | 南京万得资讯科技有限公司 | 一种适用于金融领域高效可控的实体识别实体链接系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12045843B2 (en) * | 2020-10-09 | 2024-07-23 | Jpmorgan Chase Bank , N.A. | Systems and methods for tracking data shared with third parties using artificial intelligence-machine learning |
US20230008868A1 (en) * | 2021-07-08 | 2023-01-12 | Nippon Telegraph And Telephone Corporation | User authentication device, user authentication method, and user authentication computer program |
CN114970491B (zh) * | 2022-08-02 | 2022-10-04 | 深圳市城市公共安全技术研究院有限公司 | 一种文本衔接性判断方法、装置、电子设备及存储介质 |
CN117271804B (zh) * | 2023-11-21 | 2024-03-01 | 之江实验室 | 一种共病特征知识库生成方法、装置、设备及介质 |
CN117689963B (zh) * | 2024-02-02 | 2024-04-09 | 南京邮电大学 | 一种基于多模态预训练模型的视觉实体链接方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150095017A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
CN106407180A (zh) * | 2016-08-30 | 2017-02-15 | 北京奇艺世纪科技有限公司 | 一种实体消歧方法及装置 |
CN106940702A (zh) * | 2016-01-05 | 2017-07-11 | 富士通株式会社 | 连接短文本中实体提及与语义知识库中实体的方法和设备 |
CN107861939A (zh) * | 2017-09-30 | 2018-03-30 | 昆明理工大学 | 一种融合词向量和主题模型的领域实体消歧方法 |
US20180173694A1 (en) * | 2016-12-21 | 2018-06-21 | Industrial Technology Research Institute | Methods and computer systems for named entity verification, named entity verification model training, and phrase expansion |
CN108280061A (zh) * | 2018-01-17 | 2018-07-13 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
CN109522393A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备和存储介质 |
US20190251164A1 (en) * | 2018-02-12 | 2019-08-15 | Ricoh Company, Ltd. | Entity linking method, electronic device for performing entity linking, and non-transitory computer-readable recording medium |
CN111428507A (zh) * | 2020-06-09 | 2020-07-17 | 北京百度网讯科技有限公司 | 实体链指方法、装置、设备以及存储介质 |
CN111523326A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 实体链指方法、装置、设备以及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10111869A (ja) * | 1996-10-07 | 1998-04-28 | Fujitsu Ltd | 情報分類装置とその方法 |
JP5127751B2 (ja) | 2009-03-19 | 2013-01-23 | 株式会社東芝 | 情報検索装置及び方法 |
JP5199968B2 (ja) | 2009-09-07 | 2013-05-15 | 日本電信電話株式会社 | キーワードタイプ判定装置、キーワードタイプ判定方法およびキーワードタイプ判定プログラム |
WO2015116909A1 (en) * | 2014-01-31 | 2015-08-06 | Google Inc. | Generating vector representations of documents |
US9836453B2 (en) * | 2015-08-27 | 2017-12-05 | Conduent Business Services, Llc | Document-specific gazetteers for named entity recognition |
-
2020
- 2020-08-28 CN CN202010886164.4A patent/CN111931509A/zh not_active Withdrawn
-
2021
- 2021-05-13 US US17/319,631 patent/US20220067439A1/en not_active Abandoned
- 2021-05-14 EP EP21173906.5A patent/EP3961476A1/en not_active Ceased
- 2021-08-11 KR KR1020210106324A patent/KR102573637B1/ko active IP Right Grant
- 2021-08-19 JP JP2021134380A patent/JP7234483B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150095017A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
CN106940702A (zh) * | 2016-01-05 | 2017-07-11 | 富士通株式会社 | 连接短文本中实体提及与语义知识库中实体的方法和设备 |
CN106407180A (zh) * | 2016-08-30 | 2017-02-15 | 北京奇艺世纪科技有限公司 | 一种实体消歧方法及装置 |
US20180173694A1 (en) * | 2016-12-21 | 2018-06-21 | Industrial Technology Research Institute | Methods and computer systems for named entity verification, named entity verification model training, and phrase expansion |
CN107861939A (zh) * | 2017-09-30 | 2018-03-30 | 昆明理工大学 | 一种融合词向量和主题模型的领域实体消歧方法 |
CN108280061A (zh) * | 2018-01-17 | 2018-07-13 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
US20190251164A1 (en) * | 2018-02-12 | 2019-08-15 | Ricoh Company, Ltd. | Entity linking method, electronic device for performing entity linking, and non-transitory computer-readable recording medium |
CN109522393A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备和存储介质 |
CN111523326A (zh) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | 实体链指方法、装置、设备以及存储介质 |
CN111428507A (zh) * | 2020-06-09 | 2020-07-17 | 北京百度网讯科技有限公司 | 实体链指方法、装置、设备以及存储介质 |
Non-Patent Citations (3)
Title |
---|
王静;谭绍峰;贺东东;陈建辉;闫健卓;: "基于上下文特征的领域文献实体消歧算法", 北京生物医学工程, no. 04, pages 72 - 76 * |
詹飞;朱艳辉;梁文桐;冀相冰;: "基于BERT和TextRank关键词提取的实体链接方法", 湖南工业大学学报, no. 04, pages 68 - 75 * |
陈玉博;何世柱;刘康;赵军;吕学强;: "融合多种特征的实体链接技术研究", 中文信息学报, no. 04, pages 180 - 187 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597305A (zh) * | 2020-12-22 | 2021-04-02 | 上海师范大学 | 基于深度学习的科技文献作者名消歧方法及web端消歧装置 |
CN112597305B (zh) * | 2020-12-22 | 2023-09-01 | 上海师范大学 | 基于深度学习的科技文献作者名消歧方法及web端消歧装置 |
CN114647739A (zh) * | 2022-02-25 | 2022-06-21 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
CN114647739B (zh) * | 2022-02-25 | 2023-02-28 | 北京百度网讯科技有限公司 | 实体链指方法、装置、电子设备及存储介质 |
CN115796280A (zh) * | 2023-01-31 | 2023-03-14 | 南京万得资讯科技有限公司 | 一种适用于金融领域高效可控的实体识别实体链接系统 |
Also Published As
Publication number | Publication date |
---|---|
JP7234483B2 (ja) | 2023-03-08 |
EP3961476A1 (en) | 2022-03-02 |
KR20220029384A (ko) | 2022-03-08 |
US20220067439A1 (en) | 2022-03-03 |
KR102573637B1 (ko) | 2023-08-31 |
JP2022040026A (ja) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931509A (zh) | 实体链指方法、装置、电子设备及存储介质 | |
CN112560912B (zh) | 分类模型的训练方法、装置、电子设备和存储介质 | |
CN111832292B (zh) | 文本识别处理方法、装置、电子设备和存储介质 | |
CN111709247B (zh) | 数据集处理方法、装置、电子设备和存储介质 | |
CN111507104B (zh) | 建立标签标注模型的方法、装置、电子设备和可读存储介质 | |
CN111078865B (zh) | 文本标题生成方法和装置 | |
CN111967268A (zh) | 文本中的事件抽取方法、装置、电子设备和存储介质 | |
CN111241819B (zh) | 词向量生成方法、装置及电子设备 | |
CN111967262A (zh) | 实体标签的确定方法和装置 | |
CN111950254B (zh) | 搜索样本的词特征提取方法、装置、设备以及存储介质 | |
CN111104514A (zh) | 文档标签模型的训练方法及装置 | |
CN112001169B (zh) | 文本纠错的方法、装置、电子设备和可读存储介质 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN111859953B (zh) | 训练数据的挖掘方法、装置、电子设备及存储介质 | |
CN113553412B (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN111078878B (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN112507702B (zh) | 文本信息的抽取方法、装置、电子设备及存储介质 | |
CN111950291A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111143564B (zh) | 无监督的多目标篇章级情感分类模型训练方法和装置 | |
CN110717340A (zh) | 推荐方法、装置、电子设备及存储介质 | |
CN111274407A (zh) | 知识图谱中三元组置信度计算方法和装置 | |
CN112329453B (zh) | 样本章节的生成方法、装置、设备以及存储介质 | |
CN111539209A (zh) | 用于实体分类的方法和装置 | |
CN111241810A (zh) | 标点预测方法及装置 | |
CN111666417A (zh) | 生成同义词的方法、装置、电子设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201113 |