CN112487815B - 核心实体抽取方法、装置以及电子设备 - Google Patents
核心实体抽取方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN112487815B CN112487815B CN202011362541.0A CN202011362541A CN112487815B CN 112487815 B CN112487815 B CN 112487815B CN 202011362541 A CN202011362541 A CN 202011362541A CN 112487815 B CN112487815 B CN 112487815B
- Authority
- CN
- China
- Prior art keywords
- core
- entity
- candidate set
- core entity
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本公开公开了核心实体抽取方法、装置以及电子设备,涉及知识图谱、深度学习技术领域。具体实现方案为:获取输入文本;根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。由于核心实体候选集根据生成器和对输入文本进行语义解析获取,可以确保核心实体候选集对核心实体的覆盖率,从而提高获取的输入文本的核心实体的召回率。
Description
技术领域
本公开涉及计算机领域中的知识图谱、深度学习技术领域。具体地,提供了一种核心实体抽取方法、装置以及电子设备。
背景技术
核心实体是指明确文本资源所主要描述的实体或能反映文章核心主题的实体。核心实体抽取技术目前普遍采用如下三种方案来解决:
基于无监督学习的关键词提取技术。这种方法适用于面对大规模无标注语料时的方案调研;
基于有监督学习的端到端(End2End)核心实体抽取技术。这种方案使用在拥有海量训练数据的场景下,源文本直接输入端到端模型中,经词向量(Word2Vec)将文字映射至低维向量空间后,进入编码器提取高维语义和词法特征,最后经过解码器输出文本的最佳标签序列路径,得到核心实体。
基于有监督学习的管道(Pipeline)核心实体抽取技术,这种方案适用在训练数据有限的离线任务场景中。
发明内容
本公开提供了一种核心实体抽取方法、判别器训练方法、装置以及电子设备。
根据本公开的第一方面,提供了一种核心实体抽取方法,包括:
获取输入文本;
根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;
将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。
根据本公开的第二方面,提供了一种判别器训练方法,包括:
获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;
根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。
根据本公开的第三方面,提供了一种核心实体抽取装置,包括:
第一获取模块,用于获取输入文本;
第二获取模块,用于根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;
第三获取模块,用于将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。
根据本公开的第四方面,提供了一种判别器训练装置,包括:
获取模块,用于获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;
训练模块,用于根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面任一项所述的方法,或者,以使所述至少一个处理器能够执行第二方面任一项所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面任一项所述的方法,或者,所述计算机指令用于使所述计算机执行第二方面任一项所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开实施例提供的核心实体抽取方法的流程图;
图2是本公开实施例提供的判别器训练方法的流程图;
图3是本公开实施例提供的生成器和判别器进行核心实体抽取过程的流程图;
图4为本公开实施例提供的核心实体抽取方法的另一流程图;
图5是本公开实施例提供的核心实体抽取装置的结构图;
图6是本公开实施例提供的判别器训练装置的结构图;
图7是用来实现本公开实施例的核心实体抽取方法或判别器训练方法的电子设备的框图。
实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
参见图1,图1是本公开实施例提供的核心实体抽取方法的流程图,如图1所示,本实施例提供一种核心实体抽取方法,包括以下步骤:
步骤101、获取输入文本。
输入文本可理解为一段文字,输入文本为需要进行核心实体抽取的文本。
步骤102、根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集。
根据输入文本,获取核心实体候选集,核心实体候选集包括多个候选核心实体。核心实体候选集中的候选核心实体的获取方式包括两种,第一种通过生成器基于输入文本获取,第二种通过对输入文本进行语义解析获取。结合两种方式来确定核心实体候选集,可以确保核心实体候选集对核心实体的覆盖率。生成器可采用命名实体识别(Named EntityRecognition,NER)模型。
步骤103、将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。
判别器预先训练好,判别器的训练样本包括训练文本的核心嵌套实体和训练文本的非核心嵌套实体,例如,训练文本“基于社会资源拼凑的社会创业企业成长机制”中,若核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会创业企业”包括“社会”,则认为“社会创业企业”为核心嵌套实体。核心嵌套实体可理解为包括训练文本的其他核心实体的核心实体。
相应的,训练文本“基于社会资源拼凑的社会创业企业成长机制”中,若非核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会创业企业”包括“社会”,则认为“社会创业企业”为非核心嵌套实体。非核心嵌套实体可理解为包括训练文本的其他非核心实体的非核心实体。
训练样本还可包括训练文本,训练文本的核心非嵌套实体和训练文本的非核心非嵌套实体。例如上述中,若核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会”和“社会创业”未包括训练文本的其他核心实体,则 “社会”和“社会创业”为核心非嵌套实体。
若非核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会”和“社会创业”未包括训练文本的其他非核心实体,则 “社会”和“社会创业”为非核心非嵌套实体。
判别器可对核心实体候选集中的候选核心实体进行判别,获得每个候选核心实体对应的实体核心度(也可理解为概率),实体核心度概率越大,该实体为核心实体的可能性越大。判别器可输出每个候选核心实体的实体核心度,也可直接输出核心实体。若判别器输出每个候选核心实体的实体核心度,则进一步的,根据实体核心度与预设阈值进行比较,将大于实体核心度的候选核心实体作为核心实体。核心实体可包括核心嵌套实体和核心非嵌套实体。
本实施例中,获取输入文本;根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。由于核心实体候选集根据生成器和对输入文本进行语义解析获取,可以确保核心实体候选集对核心实体的覆盖率,从而提高获取的输入文本的核心实体的召回率。
上述中,所述生成器和所述判别器属于同一个对抗网络,所述判别器的损失函数包括分类损失和排序损失,所述生成器的损失函数根据所述判别器的损失函数获得。
也就是说,对抗网络包括生成器和判别器,在判别器进行训练时,同时也会对生成器进行训练。生成器的损失函数由两部分构成,第一部分基于生成器的输出结果根据训练集(训练集可理解为训练生成器的训练样本)学习得到,训练集中的样本为一段文字,可采用人工标注的形式对训练集中的样本进行标注。例如,可对样本的核心嵌套实体和非核心嵌套实体进行标注,这部分使得生成器能够对抽取的结果是一个实体进行学习。第二部分根据判别器的损失函数获得,即,根据判别器的输出来确定非核心嵌套实体,这部分使得生成器可根据判别器输出结果(判别器输出核心嵌套实体)确定的非核心嵌套实体进行学习,从而对生成器的参数进行调整。进一步的,还可对样本的核心非嵌套实体和非核心非嵌套实体进行标注,使得后续可通过生成器获得输入文本的核心非嵌套实体和非核心非嵌套实体。
判别器可由一个深度语义匹配网络组成。判别器的输入包括源文本,源文本的核心实体和源文本的非核心实体。其中,核心实体包括核心嵌套实体和核心非嵌套实体,非核心实体包括非核心嵌套实体和非核心非嵌套实体。判别器计算源文本与核心实体的语义相似度,以及源文本与非核心实体的语义相似度,获得得分。得分经过softmax模块(分类器)后输出核心嵌套实体、核心非嵌套实体、非核心嵌套实体和非核心非嵌套实体的概率(即实体核心度)。
判别器的损失函数包括分类损失和排序损失,分类损失采用交叉熵进行计算,使得判别器输出的得分具有一定置信度。排序损失采用rankloss,使得判别器的输出的得分整体有序,达到概率可比的目的(可理解为概率大小不同,可根据概率进行大小比较)。
上述中,所述根据所述输入文本,获取核心实体候选集,包括:
将所述输入文本输入至所述生成器中,获得第一核心实体候选集;
对所述输入文本进行语义解析,获得解析结果;
根据所述解析结果,获得第二核心实体候选集。
本实施例中,生成器可在对判别器训练的过程中进行训练,例如,将训练集中的样本输入至生成器中,生成器输出核心嵌套实体和非核心嵌套实体,判别器对核心嵌套实体和非核心嵌套实体进行判别,输出核心嵌套实体,并将核心嵌套实体反馈给生成器,生成器根据核心嵌套实体确定其输出中哪些是非核心嵌套实体,从而确定生成器的损失函数(具体为损失函数的第二部分),最终根据损失函数对生成器的参数进行调整。
核心实体候选集中的候选核心实体的获取方式包括两种,第一种通过生成器基于输入文本获取,即将输入文本输入生成器中,获得第一核心实体候选集;第二种通过对输入文本进行语义解析,根据所述解析结果,获得第二核心实体候选集。
上述中,结合两种方式来确定核心实体候选集,可以确保核心实体候选集对核心实体的覆盖率,从而提高获取的输入文本的核心实体的召回率。
上述中,所述根据所述解析结果,获得第二核心实体候选集,包括:
对所述解析结果进行基于规则的实体短语拼接,获得第一核心实体子候选集;
对所述解析结果进行基于自定义词典的实体抽取,获得第二核心实体子候选集,所述第二核心实体候选集包括所述第一核心实体子候选集和所述第二核心实体子候选集。
具体的,解析结果可包括词语、词语的词性,以及各个词语之间的依存关系等等。
在根据解析结果获得第二核心实体候选集时,包括两种方式:第一种方式是对解析结果进行基于规则的实体短语拼接。为了确保核心实体候选集对于核心实体的高召回率,可以利用自然语言处理(Natural Language Processing,NLP)工具,针对不同领域的核心实体,进行句法依存关系规则和词性规则挖掘,即基于规则的实体短语拼接,获得第一核心实体子候选集。
第二种方式是基于用户自定义字典的实体抽取。为了确保核心实体候选集对核心实体的覆盖率,加载用户自定义字典,可以确保对领域专有名词的高召回率。用户自定义字典可包括用户自定义的专有名词。
上述中,第二核心实体候选集采用基于规则的实体短语拼接和基于用户自定义字典的实体抽取,可确保核心实体候选集对于核心实体的高召回率。
参见图2,图2是本公开实施例提供的判别器训练方法的流程图,如图2所示,本实施例提供一种判别器训练方法,包括以下步骤:
步骤201、获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体。
判别器的训练样本包括训练文本的核心嵌套实体和训练文本的非核心嵌套实体,例如,训练文本“基于社会资源拼凑的社会创业企业成长机制”中,若核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会创业企业”包括“社会”,则认为“社会创业企业”为核心嵌套实体。核心嵌套实体可理解为包括训练文本的其他核心实体的核心实体。
相应的,训练文本“基于社会资源拼凑的社会创业企业成长机制”中,若非核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会创业企业”包括“社会”,则认为“社会创业企业”为非核心嵌套实体。非核心嵌套实体可理解为包括训练文本的其他非核心实体的非核心实体。
训练样本还包括训练文本。进一步的,训练样本还可以包括训练文本的核心非嵌套实体和训练文本的非核心非嵌套实体。
例如上述中,若核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会”和“社会创业”未包括训练文本的其他核心实体,则 “社会”和“社会创业”为核心非嵌套实体。
若非核心实体有“社会”、“社会创业”和“社会创业企业”,由于“社会”和“社会创业”未包括训练文本的其他非核心实体,则 “社会”和“社会创业”为非核心非嵌套实体。
训练样本可根据生成器基于训练集的生成结果获得。生成器的生成结果包括训练集中样本的核心嵌套实体和非核心嵌套实体。样本的核心嵌套实体和非核心嵌套实体即为用于训练判别器的训练样本。
进一步的,生成器的生成结果还可包括样本的核心非嵌套实体和非核心非嵌套实体。训练样本还可包括样本的核心非嵌套实体和非核心非嵌套实体。训练文本即训练集中的样本。
步骤202、根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。
采用训练样本对初始的判别器进行训练,获得新的判别器。新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,新的判别器的输出包括输入文本的核心实体。输入文本可理解为一段文字,输入文本为需要进行核心实体抽取的文本。
核心实体候选集包括多个候选核心实体。核心实体候选集中的候选核心实体的获取方式包括两种,第一种通过生成器基于输入文本获取,第二种通过对输入文本进行语义解析获取。结合两种方式来确定核心实体候选集,可以确保核心实体候选集对核心实体的覆盖率。
新的判别器可对核心实体候选集中的候选核心实体进行判别,获得每个候选核心实体对应的实体核心度(也可理解为概率),实体核心度概率越大,该实体为核心实体的可能性越大。判别器可输出每个候选核心实体的实体核心度,也可直接输出核心实体。若判别器输出每个候选核心实体的实体核心度,则进一步的,根据实体核心度与预设阈值进行比较,将大于实体核心度的候选核心实体作为核心实体。核心实体可包括核心嵌套实体和核心非嵌套实体。
本实施例中,获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。由于训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体,使得新的判别器可对输入文本中的核心嵌套实体和非核心嵌套实体进行识别,获得核心嵌套实体,提高获取的输入文本的核心实体的召回率。
上述中,所述生成器和所述判别器属于同一个对抗网络,所述判别器的损失函数包括分类损失和排序损失,所述生成器的损失函数根据所述判别器的损失函数获得。
也就是说,对抗网络包括生成器和判别器,在判别器进行训练时,同时也会对生成器进行训练。生成器的损失函数由两部分构成,第一部分基于生成器的输出结果根据训练集(训练集可理解为训练生成器的训练样本)学习得到,训练集中的样本为一段文字,可采用人工标注的形式对训练集中的样本进行标注。例如,可对样本的核心嵌套实体和非核心嵌套实体进行标注,这部分使得生成器能够对抽取的结果是一个实体进行学习。第二部分根据判别器的损失函数获得,即,根据判别器的输出来确定非核心嵌套实体,这部分使得生成器可根据判别器输出结果(判别器输出核心嵌套实体)确定的非核心嵌套实体进行学习,从而对生成器的参数进行调整。进一步的,还可对样本的核心非嵌套实体和非核心非嵌套实体进行标注,使得后续可通过生成器获得输入文本的核心非嵌套实体和非核心非嵌套实体。
判别器可由一个深度语义匹配网络组成。判别器的输入包括源文本,源文本的核心实体和源文本的非核心实体。其中,核心实体包括核心嵌套实体和核心非嵌套实体,非核心实体包括非核心嵌套实体和非核心非嵌套实体。判别器计算源文本与核心实体的语义相似度,以及源文本与非核心实体的语义相似度,获得得分。得分经过softmax模块(分类器)后输出核心嵌套实体、核心非嵌套实体、非核心嵌套实体和非核心非嵌套实体的概率(即实体核心度)。
判别器的损失函数包括分类损失和排序损失,分类损失采用交叉熵进行计算,使得判别器输出的得分具有一定置信度。排序损失采用rankloss,使得判别器的输出的得分整体有序,达到概率可比的目的(可理解为概率大小不同,可根据概率进行大小比较)。
图3所示为生成器和判别器进行核心实体抽取过程的流程图,如图3所示,输入文本为“基于社会资源拼凑的社会创业企业成长机制”,输入文本输入至生成器中,生成器输出“社会创业企业”、“社会”、“成长机制”以及“社会创业”四个候选核心实体,这四个候选核心实体输入至判别器中,判别器输出这四个候选核心实体的实体核心度,分别为0.976、0.413、0.237和0.894。进一步的,判别器也可以直接输出实体核心度大于预设阈值的候选核心实体。
图4为本公开实施例提供的核心实体抽取方法的流程图。如图4所示:
输入模块即输入数据接口,通过输入模块将文本文档输入至核心实体候选集生成模块中。
核心实体候选集生成模块,包括生成对抗网络中的生成器,基于规则的实体短语拼接组件和基于用户自定义词典的实体抽取组件。
其中,生成器根据输入文本的语义信息,生成具有高置信度的候选核心实体。
基于规则的实体短语拼接组件:为了确保核心实体候选集对于核心实体的高召回率,可以利用自然语言处理(Natural Language Processing,NLP)工具,针对不同领域的核心实体,进行句法依存关系规则和词性规则挖掘。
基于用户自定义词典的实体抽取组件:同样为了确保核心实体候选集对核心实体的覆盖率,加载用户自定义字典,可以确保对不同领域专有名词的高召回率。
判别器:基于输入文本和核心实体候选集的实体,进行实体核心度判定,最终将高于预设阈值的实体核心度对应的实体作为核心实体进行输出,即判别器直接输出实体核心度大于预设阈值的候选核心实体。
上述判别器和生成器的训练方法,能够有效提升模型的召回率,极大提高模型的通用性能,降低模型重训成本,具备行业可迁移能力。
参见图5,图5是本公开实施例提供的核心实体抽取装置的结构图,如图5所示,本实施例提供一种核心实体抽取装置500,包括:
第一获取模块,用于获取输入文本;
第二获取模块,用于根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;
第三获取模块,用于将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。
进一步的,所述第二获取模块,包括:
输入子模块,用于将所述输入文本输入至所述生成器中,获得第一核心实体候选集;
解析子模块,用于对所述输入文本进行语义解析,获得解析结果;
获取子模块,用于根据所述解析结果,获得第二核心实体候选集。
进一步的,所述解析子模块,包括:
第一获取单元,用于对所述解析结果进行基于规则的实体短语拼接,获得第一核心实体子候选集;
第二获取单元,用于对所述解析结果进行基于自定义词典的实体抽取,获得第二核心实体子候选集,所述第二核心实体候选集包括所述第一核心实体子候选集和所述第二核心实体子候选集。
进一步的,所述生成器和所述判别器属于同一个对抗网络,所述判别器的损失函数包括分类损失和排序损失,所述生成器的损失函数根据所述判别器的损失函数获得。
上述核心实体抽取装置500能够实现图1的方法实施例中的各个过程以及达到相同的技术效果,为避免重复,这里不再赘述。
本公开实施例的核心实体抽取装置500,通过获取输入文本;根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。由于核心实体候选集根据生成器和对输入文本进行语义解析获取,可以确保核心实体候选集对核心实体的覆盖率,从而提高获取的输入文本的核心实体的召回率。
参见图6,图6是本公开实施例提供的判别器训练装置的结构图,如图6所示,本实施例提供一种判别器训练装置600,包括:
获取模块601,用于获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;
训练模块602,用于根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。
进一步的,所述生成器和所述判别器属于同一个对抗网络,所述判别器的损失函数包括分类损失和排序损失,所述生成器的损失函数根据所述判别器的损失函数获得。
上述判别器训练装置600能够实现图2的方法实施例中的各个过程以及达到相同的技术效果,为避免重复,这里不再赘述。
本公开实施例的判别器训练装置600,获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。由于训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体,使得新的判别器可对输入文本中的核心嵌套实体和非核心嵌套实体进行识别,获得核心嵌套实体,提高获取的输入文本的核心实体的召回率。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图7所示,是根据本公开实施例的核心实体抽取的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本公开所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本公开所提供的核心实体抽取的方法。本公开的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本公开所提供的核心实体抽取的方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本公开实施例中的核心实体抽取的方法对应的程序指令/模块(例如,附图5所示的第一获取模块501、第二获取模块502和第三获取模块503,或者,附图6所示的获取模块601和训练模块602)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的核心实体抽取的方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据核心实体抽取的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至核心实体抽取的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
核心实体抽取的方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与核心实体抽取的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
本公开中,获取输入文本;根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体。由于核心实体候选集根据生成器和对输入文本进行语义解析获取,可以确保核心实体候选集对核心实体的覆盖率,从而提高获取的输入文本的核心实体的召回率。
判别器的损失函数包括分类损失和排序损失,分类损失采用交叉熵进行计算,使得判别器输出的得分具有一定置信度。排序损失采用rankloss,使得判别器的输出的得分整体有序,达到概率可比的目的。
结合两种方式来确定核心实体候选集,可以确保核心实体候选集对核心实体的覆盖率,从而提高获取的输入文本的核心实体的召回率。
第二核心实体候选集采用基于规则的实体短语拼接和基于用户自定义字典的实体抽取,可确保核心实体候选集对于核心实体的高召回率。
获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;根据所述训练样本对初始的判别器进行训练,得到新的判别器,所述新的判别器的输入包括输入文本的第一核心实体候选集和第二核心实体候选集,所述新的判别器的输出包括所述输入文本的核心实体,其中,所述第一核心实体候选集由生成器生成,所述第二核心实体候选集与所述输入文本的语义相关。由于训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体,使得新的判别器可对输入文本中的核心嵌套实体和非核心嵌套实体进行识别,获得核心嵌套实体,提高获取的输入文本的核心实体的召回率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (4)
1.一种核心实体抽取方法,包括:
获取输入文本;
根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;
将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体;
其中,所述根据所述输入文本,获取核心实体候选集,包括:
将所述输入文本输入至所述生成器中,获得第一核心实体候选集;
对所述输入文本进行语义解析,获得解析结果;
根据所述解析结果,获得第二核心实体候选集;
其中,所述根据所述解析结果,获得第二核心实体候选集,包括:
对所述解析结果进行基于规则的实体短语拼接,获得第一核心实体子候选集;
对所述解析结果进行基于自定义词典的实体抽取,获得第二核心实体子候选集,所述第二核心实体候选集包括所述第一核心实体子候选集和所述第二核心实体子候选集;
其中,所述生成器和所述判别器属于同一个对抗网络,所述判别器的损失函数包括分类损失和排序损失,所述生成器的损失函数根据所述判别器的损失函数获得;
所述将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体之前,所述方法还包括:
获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;
根据所述训练样本对初始的判别器进行训练,得到所述预先获取的判别器,所述预先获取的判别器的输入包括所述训练文本的第一核心实体候选集和第二核心实体候选集,所述预先获取的判别器的输出包括所述训练文本的核心实体,其中,所述第一核心实体候选集由所述生成器生成,所述第二核心实体候选集与所述训练文本的语义相关。
2.一种核心实体抽取装置,包括:
第一获取模块,用于获取输入文本;
第二获取模块,用于根据所述输入文本,获取核心实体候选集,其中,所述核心实体候选集包括由生成器生成的第一核心实体候选集,以及与所述输入文本的语义相关的第二核心实体候选集;
第三获取模块,用于将所述核心实体候选集输入至预先获取的判别器,获得所述输入文本的核心实体;
其中,所述第二获取模块,包括:
输入子模块,用于将所述输入文本输入至所述生成器中,获得第一核心实体候选集;
解析子模块,用于对所述输入文本进行语义解析,获得解析结果;
获取子模块,用于根据所述解析结果,获得第二核心实体候选集;
其中,所述解析子模块,包括:
第一获取单元,用于对所述解析结果进行基于规则的实体短语拼接,获得第一核心实体子候选集;
第二获取单元,用于对所述解析结果进行基于自定义词典的实体抽取,获得第二核心实体子候选集,所述第二核心实体候选集包括所述第一核心实体子候选集和所述第二核心实体子候选集;
其中,所述生成器和所述判别器属于同一个对抗网络,所述判别器的损失函数包括分类损失和排序损失,所述生成器的损失函数根据所述判别器的损失函数获得;
其中,所述核心实体抽取装置还包括:
获取模块,用于获取训练样本,所述训练样本包括训练文本的核心嵌套实体和所述训练文本的非核心嵌套实体;
训练模块,用于根据所述训练样本对初始的判别器进行训练,得到所述预先获取的判别器,所述预先获取的判别器的输入包括所述训练文本的第一核心实体候选集和第二核心实体候选集,所述预先获取的判别器的输出包括所述训练文本的核心实体,其中,所述第一核心实体候选集由所述生成器生成,所述第二核心实体候选集与所述训练文本的语义相关。
3. 一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1中所述的方法。
4.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011362541.0A CN112487815B (zh) | 2020-11-27 | 2020-11-27 | 核心实体抽取方法、装置以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011362541.0A CN112487815B (zh) | 2020-11-27 | 2020-11-27 | 核心实体抽取方法、装置以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112487815A CN112487815A (zh) | 2021-03-12 |
CN112487815B true CN112487815B (zh) | 2023-06-27 |
Family
ID=74936611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011362541.0A Active CN112487815B (zh) | 2020-11-27 | 2020-11-27 | 核心实体抽取方法、装置以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112487815B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107943784A (zh) * | 2017-11-02 | 2018-04-20 | 南华大学 | 基于生成对抗网络的关系抽取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10997464B2 (en) * | 2018-11-09 | 2021-05-04 | Adobe Inc. | Digital image layout training using wireframe rendering within a generative adversarial network (GAN) system |
-
2020
- 2020-11-27 CN CN202011362541.0A patent/CN112487815B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107943784A (zh) * | 2017-11-02 | 2018-04-20 | 南华大学 | 基于生成对抗网络的关系抽取方法 |
Non-Patent Citations (2)
Title |
---|
Toward synchronization between decentralized orchestrations of composite web services;Walid Fdhila等;《 IEEE Xplore》;全文 * |
深度学习实体关系抽取研究综述;鄂海红;张文静;肖思琪;程瑞;胡莺夕;周筱松;牛佩晴;;软件学报(06);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112487815A (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560912B (zh) | 分类模型的训练方法、装置、电子设备和存储介质 | |
JP7398402B2 (ja) | 実体リンキング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
KR102448129B1 (ko) | 엔티티 연결 방법, 장치, 기기 및 저장 매체 | |
US20210383064A1 (en) | Text recognition method, electronic device, and storage medium | |
US20210216580A1 (en) | Method and apparatus for generating text topics | |
CN111241832B (zh) | 核心实体标注方法、装置及电子设备 | |
CN111079442B (zh) | 文档的向量化表示方法、装置和计算机设备 | |
CN110674314B (zh) | 语句识别方法及装置 | |
CN111967268A (zh) | 文本中的事件抽取方法、装置、电子设备和存储介质 | |
CN110991196B (zh) | 多义词的翻译方法、装置、电子设备及介质 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN112560479B (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
CN111666751B (zh) | 训练文本扩充方法、装置、设备以及存储介质 | |
CN111241819A (zh) | 词向量生成方法、装置及电子设备 | |
CN111078878B (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN111460135B (zh) | 用于生成文本摘要的方法和装置 | |
KR20210157342A (ko) | 언어 모델의 훈련 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
CN111950256A (zh) | 断句处理方法、装置、电子设备和计算机存储介质 | |
CN111984775A (zh) | 问答质量确定方法、装置、设备和存储介质 | |
CN110990569B (zh) | 文本聚类方法、装置及相关设备 | |
CN112487815B (zh) | 核心实体抽取方法、装置以及电子设备 | |
CN113312451B (zh) | 文本标签确定方法和装置 | |
CN111651988B (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111832313B (zh) | 文本中情感搭配集合的生成方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |