CN111291185B - 信息抽取方法、装置、电子设备及存储介质 - Google Patents

信息抽取方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111291185B
CN111291185B CN202010071824.3A CN202010071824A CN111291185B CN 111291185 B CN111291185 B CN 111291185B CN 202010071824 A CN202010071824 A CN 202010071824A CN 111291185 B CN111291185 B CN 111291185B
Authority
CN
China
Prior art keywords
information
model
triplet
neural network
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010071824.3A
Other languages
English (en)
Other versions
CN111291185A (zh
Inventor
王炳乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN202010071824.3A priority Critical patent/CN111291185B/zh
Publication of CN111291185A publication Critical patent/CN111291185A/zh
Priority to US17/425,556 priority patent/US11922121B2/en
Priority to PCT/CN2021/071485 priority patent/WO2021147726A1/zh
Application granted granted Critical
Publication of CN111291185B publication Critical patent/CN111291185B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供了一种信息抽取方法、装置、电子设备及存储介质,首先获取源数据,然后将源数据输入预先训练得到的信息抽取模型,得到源数据所包含的三元组信息,三元组信息包括源数据中的主语、谓语和宾语;其中,信息抽取模型包括二分类子模型和多标签分类子模型,二分类子模型用于抽取源数据中的主语,多标签分类子模型用于根据主语和所述源数据,抽取源数据中与主语对应的谓语和宾语。本申请技术方案采用端到端的信息抽取模型联合抽取源数据中的三元组信息,替代传统的实体识别和关系抽取的管道式抽取方法,可以提高信息抽取的效率和准确率。

Description

信息抽取方法、装置、电子设备及存储介质
技术领域
本发明涉及信息处理技术领域,特别是涉及一种信息抽取方法、装置、电子设备及存储介质。
背景技术
随着深度学习等领域的持续发展,人工智能逐渐涉足各个领域,致力于改善人们的生活,在图像识别、语音识别等领域已经超越了人类的水平。然而在自然语言处理领域,由于人类语言的复杂性以及事物的多样性,目前的技术尚不能达到完全理解语义的程度,因此需要一个语义连接的桥梁——知识图谱。知识图谱由实体、属性和关系组成,其本质上来讲是一种语义网络,网络中的节点表示现实世界存在的实体或者属性值,节点之间的边表示两个实体之间的关系。目前知识图谱技术主要用于智能语义搜索、移动个人助理以及问答系统中。
发明内容
本发明提供一种信息抽取方法、装置、电子设备及存储介质,以提高信息抽取的效率和精度。
为了解决上述问题,本发明公开了一种信息抽取方法,所述方法包括:
获取源数据;
将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息,所述三元组信息包括所述源数据中的主语、谓语和宾语;其中,所述信息抽取模型包括二分类子模型和多标签分类子模型,所述二分类子模型用于抽取所述源数据中的主语,所述多标签分类子模型用于根据所述主语和所述源数据,抽取所述源数据中与所述主语对应的谓语和宾语。
在一种可选的实现方式中,在所述将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息的步骤之前,还包括:获得所述信息抽取模型,其中,所述获得所述信息抽取模型的步骤,包括:
获得样本集合,所述样本集合中包括多个待训练文本以及各所述待训练文本的三元组标注信息,所述三元组标注信息包括主语标注信息、谓语标注信息和宾语标注信息;
将所述待训练文本输入第一预训练语言模型,将所述第一预训练语言模型的输出信息送入第一神经网络模型;
将所述第一神经网络模型的输出信息以及所述待训练文本输入第二预训练语言模型,将所述第二预训练语言模型的输出信息送入第二神经网络模型;
根据所述第一神经网络模型的输出信息、所述第二神经网络模型的输出信息以及所述三元组标注信息,对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型进行训练,得到所述信息抽取模型,其中,训练后的第一预训练语言模型和第一神经网络模型构成所述二分类子模型,训练后的第二预训练语言模型和第二神经网络模型构成所述多标签分类子模型。
在一种可选的实现方式中,所述根据所述第一神经网络模型的输出信息、所述第二神经网络模型的输出信息以及所述三元组标注信息,对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型进行训练,得到所述信息抽取模型的步骤,包括:
根据所述第一神经网络模型的输出信息以及所述主语标注信息,确定第一损失函数;
根据所述第二神经网络模型的输出信息、所述谓语标注信息以及所述宾语标注信息,确定第二损失函数;
对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型中的参数进行优化,得到所述信息抽取模型,使得所述第一损失函数与所述第二损失函数之和最小。
在一种可选的实现方式中,所述第一损失函数和所述第二损失函数均为交叉熵损失函数。
在一种可选的实现方式中,所述获得样本集合的步骤,包括:
获取非结构化文本样本;
对所述非结构化文本样本进行处理,得到待标注文本;
获取已完成标注的待训练文本以及所述待训练文本的三元组标注信息;
响应于所述待标注文本中包含所述三元组标注信息中的主语标注信息和宾语标注信息,按照所述三元组标注信息对所述待标注文本进行标注。
在一种可选的实现方式中,所述获得样本集合的步骤,还包括:
采用预先训练得到的K个预测模型对所述待标注文本进行预测,得到K个三元组预测信息;
当第一三元组信息的数量与K的比值大于第一预设阈值时,将所述第一三元组信息作为所述待标注文本的三元组标注信息添加至所述样本集合中,其中,所述第一三元组信息为出现在所述三元组预测信息中但未出现在所述待标注文本的三元组标注信息中的三元组信息;
当第二三元组信息的数量与K的比值大于第二预设阈值时,将所述第二三元组信息从所述待标注文本的三元组标注信息中删除,其中,所述第二三元组信息为出现在所述待标注文本的三元组标注信息中但未出现在所述三元组预测信息中的三元组信息;
其中,K大于或等于5且小于或等于10。
在一种可选的实现方式中,在所述采用预先训练得到的K个预测模型对所述待标注文本进行预测,得到K个三元组预测信息的步骤之前,包括:
根据已完成标注的待训练文本以及所述待训练文本的三元组标注信息,采用K折交叉验证的方式获得K个预测模型。
为了解决上述问题,本发明还公开了一种信息抽取装置,所述装置包括:
获取模块,被配置为获取源数据;
抽取模块,被配置为将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息,所述三元组信息包括所述源数据中的主语、谓语和宾语;其中,所述信息抽取模型包括二分类子模型和多标签分类子模型,所述二分类子模型用于抽取所述源数据中的主语,所述多标签分类子模型用于根据所述主语和所述源数据,抽取所述源数据中与所述主语对应的谓语和宾语。
为了解决上述问题,本发明还公开了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现任一实施例所述的信息抽取方法。
为了解决上述问题,本发明还公开了一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行任一实施例所述的信息抽取方法。
与现有技术相比,本发明包括以下优点:
本申请技术方案提供了一种信息抽取方法、装置、电子设备及存储介质,首先获取源数据,然后将源数据输入预先训练得到的信息抽取模型,得到源数据所包含的三元组信息,三元组信息包括源数据中的主语、谓语和宾语;其中,信息抽取模型包括二分类子模型和多标签分类子模型,二分类子模型用于抽取源数据中的主语,多标签分类子模型用于根据主语和所述源数据,抽取源数据中与主语对应的谓语和宾语。本申请技术方案采用端到端的信息抽取模型联合抽取源数据中的三元组信息,替代传统的实体识别和关系抽取的管道式抽取方法,可以提高信息抽取的效率和准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请一实施例提供的一种信息抽取方法的步骤流程图;
图2示出了本申请一实施例提供的一种获得信息抽取模型的步骤流程图;
图3示出了本申请一实施例提供的一种三元组标注信息的格式;
图4示出了本申请一实施例提供的一种信息抽取模型的训练框架;
图5示出了本申请一实施例提供的一种数据自动标注方法的步骤流程图;
图6示出了本申请一实施例提供的一种自动化标注的流程示意图;
图7示出了本申请一实施例提供的一种信息抽取方法的流程示意图;
图8示出了本申请一实施例提供的一种信息抽取装置的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
领域知识图谱是从特定领域的特定资源中抽取实体和实体之间的关系,从而构建知识库,它包含的知识体系通常具有很强的领域针对性和专业性。领域知识图谱自上而下进行构建,主要包括schema设计,实体识别、关系抽取、实体链接、知识融合、知识计算等几个环节。其关键是如何自动抽取信息得到候选知识单元,其中涉及的技术包括:实体抽取、关系抽取和属性抽取,统称为信息抽取。信息抽取也称三元组(S,P,O)抽取,其中S和O为句子的主语和宾语,对应知识图谱中的实体或者属性值,P为谓语,对应实体之间的关系。发明人发现,现有方法大多数将信息抽取分成两个步骤来做,即先进行实体识别,然后抽取实体之间的关系,然而这样做效率低,实体识别的误差会传递到关系抽取部分,导致最终的结果精度较低。
为了提高信息抽取的效率和精度,本申请一实施例提供了一种信息抽取方法,参照图1,该方法可以包括:
步骤101:获取源数据。
在具体实现中,源数据可以为非结构化文本等。
步骤102:将源数据输入预先训练得到的信息抽取模型,得到源数据所包含的三元组信息,三元组信息包括源数据中的主语、谓语和宾语;其中,信息抽取模型包括二分类子模型和多标签分类子模型,二分类子模型用于抽取源数据中的主语,多标签分类子模型用于根据主语和源数据,抽取源数据中与主语对应的谓语和宾语。
在实际应用中,领域知识图谱通常采用自上而下的方法进行构建,即首先进行顶层设计:确定知识图谱需包含的实体、属性和关系种类。这一部分没有固定标准,通常根据业务需求来进行设计。例如,在艺术领域,我们可能需要获取画作、画家、艺术机构等实体,这些实体和实体之间存在很多属性值和关系,画作存在创作时间、创作媒介等属性,而画家与画作中间存在创作关系等,基于此,我们可以构建如下信息抽取schema:
{‘subject’:画作,‘predicate’:创作年份,‘object’:年份,‘subject_type’:art_work,‘object_type’:time};
{‘subject’:画作,‘predicate’:创作媒介,‘object’:媒介,‘subject_type’:art_work,‘object_type’:medium};
{‘subject’:画作,‘predicate’:收藏地,‘object’:艺术机构,‘subject_type’:art_work,‘object_type’:institution};……
其中,subject代表三元组中的主语s,predicate代表三元组中的谓语p也称关系,object代表三元组中的宾语o,subject_type为主语的实体类型,object_type为宾语的实体类型。每一条关系确定一条schema信息,主谓宾确定后,其中的主语s和宾语o的实体也就确定,所以上述schema可以简化为:(画作,创作年份,年份),(画作,创作媒介,媒介),(画作,收藏地,技术机构),……。
当源数据为“《蒙娜丽莎》是意大利文艺复兴时期画家达芬奇创作的油画,现收藏于法国卢浮宫博馆”时,该非结构化文本中存在多个三元组:(蒙娜丽莎,作者,达芬奇)、(蒙娜丽莎,收藏地,法国卢浮宫博物馆)、(达芬奇,国籍,意大利)以及(蒙娜丽莎,创作类别,油画),并且存在一个主语对应多个不同宾语的情况,采用传统的管道式抽取无法同时提取句子中多个三元组。本实施例中我们采用条件概率的思想,首先预测主语s,然后传入主语s来预测该主语s对应的宾语o,然后再传入主语s和宾语o来预测关系谓语p,实际应用中,可以把宾语o和宾语p的预测合并为一步,即:先预测主语s,然后传入主语s来预测该主语s所对应的宾语o及谓语p,如以下公式所示:
P(s,p,o)=P(s)P(o|s)P(p|s,o)
其中,信息抽取模型中的二分类子模型和多标签分类子模型可以采用标注好三元组信息的非结构化文本对预训练语言模型和神经网络模型进行联合训练得到。后续实施例中会对信息抽取模型的训练过程以及对非结构化文本进行标注的过程进行详细介绍。
在具体实现中,首先将源数据输入二分类子模型,由二分类子模型抽取源数据中的所有主语,然后再将各主语和源数据成对送入多标签分类子模型,由多标签分类子模型抽取源数据中与主语对应的谓语和宾语。这样,只需要将源数据输入信息抽取模型,经信息抽取模型中的二分类子模型和多标签分类子模型处理,就可以输出信息源数据中的三元组信息,即通过端到端的实体和关系联合抽取模型,替代传统的实体识别和关系抽取管道式抽取方法,提高信息抽取的效率和准确率。
为了获取信息抽取模型,在一种可选的实现方式中,在步骤102之前还可以包括:获得信息抽取模型的步骤。参照图2,获得信息抽取模型的步骤具体可以包括:
步骤201:获得样本集合,样本集合中包括多个待训练文本以及各待训练文本的三元组标注信息,三元组标注信息包括主语标注信息、谓语标注信息和宾语标注信息。
其中,待训练文本例如可以为:“《蒙娜丽莎》是意大利文艺复兴时期画家达芬奇创作的油画,现收藏于法国卢浮宫博馆”,该待训练文本的三元组信息包括(蒙娜丽莎,作者,达芬奇)、(蒙娜丽莎,收藏地,法国卢浮宫博物馆)、(达芬奇,国籍,意大利)以及(蒙娜丽莎,创作类别,油画)。
在具体实现中,在将待训练文本及对应的三元组信息喂入模型之前,可以按照特定的格式标注三元组信息。具体地,在预测主语时,我们标出主语S在句子中的起止位置。例如,在标注(蒙娜丽莎,作者,达芬奇),(蒙娜丽莎,创作类别,油画),(达芬奇,国籍,意大利)时,会将主语蒙娜丽莎和达芬奇在句子中的起止位置分别用两个序列标注出来,即在相应的起始和终止位置标1,其他位置标0,参照图3示出了上述待训练文本的主语标注信息。在预测时,我们可以通过二分类(区分0和1)便可以确定主语的起止位置。在得到主语后,我们利用得到的主语去预测关系(谓语)和宾语,宾语的标注方式和主语相似,区别是,我们会在宾语的起止位置标上谓语对应的索引ID,我们可以预先为每一个谓语建立一个索引,如{1:收藏地,2:作者,3:创作类别,4:国籍,……},参照图3示出了上述待训练文本的谓语和宾语标注信息。在预测谓语和宾语时我们只需要做一个多标签分类即可。
步骤202:将待训练文本输入第一预训练语言模型,将第一预训练语言模型的输出信息送入第一神经网络模型。
步骤203:将第一神经网络模型的输出信息以及待训练文本输入第二预训练语言模型,将第二预训练语言模型的输出信息送入第二神经网络模型。
步骤204:根据第一神经网络模型的输出信息、第二神经网络模型的输出信息以及三元组标注信息,对第一预训练语言模型、第一神经网络模型、第二预训练语言模型以及第二神经网络模型进行训练,得到信息抽取模型,其中,训练后的第一预训练语言模型和第一神经网络模型构成二分类子模型,训练后的第二预训练语言模型和第二神经网络模型构成多标签分类子模型。
在具体实现中,可以根据第一神经网络模型的输出信息以及主语标注信息,确定第一损失函数;根据第二神经网络模型的输出信息、谓语标注信息以及宾语标注信息,确定第二损失函数;对第一预训练语言模型、第一神经网络模型、第二预训练语言模型以及第二神经网络模型中的参数进行优化,得到信息抽取模型,使得第一损失函数与第二损失函数之和最小。
其中,第一预训练语言模型和第二预训练语言模型可以为BERT模型、ERNIE模型以及Span BERT模型等等。下面以第一预训练语言模型和第二预训练语言模型均为BERT模型为例进行说明,第一神经网络模型为Dense层+sigmod,第二神经网络模型为Dense层+softmax,第一损失函数和第二损失函数均为交叉熵损失函数。需要说明的是,第一损失函数和第二损失函数之和最小并不仅限于一个数值,而是一个数值范围。
参照图4示出了信息抽取模型的训练框架。模型训练的具体步骤为:首先将待训练文本X,即[CLS]《蒙娜丽莎》是意大利文艺复兴时期画家达芬奇创作的油画……[SEP],用单输入方式送入BERT模型,将BERT模型输出信息的编码送入Dense层+sigmod,用第一损失函数loss_s(交叉熵损失函数)做二分类训练预测主语起止位置的标注模型,训练后的第一预训练语言模型(BERT)和第一神经网络模型(Dense层+sigmod)构成二分类子模型subject_model。然后随机选取一个主语,如蒙娜丽莎,将其和待训练文本组合成句子对Y,采用双输入方式成对送入BERT模型,如[CLS]《蒙娜丽莎》是意大利文艺复兴时期画家达芬奇创作的油画[SEP]蒙娜丽莎[SEP],其中[CLS]为分类用的特殊标记位,它表示文本进过BERT后的向量表示,[SEP]为句子间分隔符。我们将BERT模型的输出信息即[CLS]对应的向量送入Dense层+softmax,用第二损失函数loss_o(交叉熵损失函数)做预测谓语和宾语的多分类训练,训练后的第二预训练语言模型(BERT)和第二神经网络模型(Dense层+softmax)构成多标签分类子模型object_model。在实际应用中,可以对二分类子模型subject_model和多标签分类子模型object_model进行联合训练,联合训练的目标是最小化联合损失函数loss=loss_s+loss_o,对第一预训练语言模型、第一神经网络模型、第二预训练语言模型以及第二神经网络模型中的参数进行迭代优化,从而得到信息抽取模型。
具体的,在主语抽取任务上,输入样本X经BERT编码后的输出信息可以表示为:
h0=XWt+Wp
hl=Transformer(l-1)l∈[1,L] (1)
其中Wt为词嵌入矩阵,hi隐藏层向量(即第i层Transformer网络的输出),L表示Transformer的层数。
这里我们采用两个二分类来判断输入序列在当前位置上是0/1的可能性来确定主语的起止位置,即通过主语起始位置序列Ss和主语终止位置序列Se中每个位置上可能为一个主语起止位置的置信度来确定一个主语,如某个主语的起始位置可能在Ss中每个位置上出现的概率分布(置信度)可以表示为:
其中Wstart为可训练权重向量,bstart为偏置项,σ为sigmoid激活函数,为第i个输入序列经过BERT后的编码表示,由(1)式获得。同理,其终止位置在Se中每个位置出现的概率分布/>可以表示为:
最终我们得到两个向量训练的目标函数为:
同理,在进行宾语和关系(谓语)抽取时,我们从主语中随机采样一个主语,将其与句子组合成句子对嵌入的方式,用BERT进行编码得到编码表示:
h0=YWt+Ws+Wp
hl=Transformer(hl-1),l∈[1,L] (5)
其中Ws为句子嵌入矩阵。
我们同样用两个序列来确定宾语的起止位置,如图3所示,与主语抽取方式不同的是,我们用多标签分类的方式同时确定宾语的起止的位置和关系,即在宾语的起止位置上确定关系标签的概率
其中为可训练权重向量,/>为偏置项,α为softmax激活函数。训练的目标函数为:
其中,为真实的关系标签,R为关系标签的数量。
模型训练过程中待优化的参数为上述的可训练权重向量,通过对参数进行迭代更新优化,使损失函数loss最小化。
目前主流的关系抽取方法是有监督的学习方法、半监督的学习方法和无监督的学习方法三种。与半监督的学习方法和无监督的学习方法相比,有监督的学习方法准确率与召回率更高,因此受到越来越多的关注。有监督的学习方法需要大量的数据标注,如果提高数据标注效率也是一个急需解决的问题。
为了提高数据标注效率,在一种可选的实现方式中,参照图5,步骤201可以包括:
步骤501:对非结构化文本样本进行处理,得到待标注文本。
步骤502:获取已完成标注的待训练文本以及待训练文本的三元组标注信息。
步骤503:响应于待标注文本中包含三元组标注信息中的主语标注信息和宾语标注信息,按照三元组标注信息对待标注文本进行标注。
采用有监督方法进行信息抽取需要大量的标注数据,这需要消耗大量的人力和财力成本进行数据标注。当具有一定规模的知识库时,我们可以采用远程监督的方法进行语料的自动化标注,在此基础上进行人工审核,处理错标和漏标问题。参照图6示出了自动化标注的流程图,其中的非结构化数据可以从艺术领域网站爬取,也可以从当前知识图谱中的非结构化信息中获取。当然,也可以利用实体词直接从百度百科等搜索引擎中搜索得到。在实际应用中,可以首先对从网页上爬取到的非结构数据进行处理如数据清洗等,从而去除无用的标点符号和脚本等无用信息,得到待标注文本Sentence,然后再利用预先定义好的schema和知识图谱中的三元组标注信息进行远程监督方式标注。
在具体实现中,可以判断待标注文本Sentence中是否存在现有知识图谱中的三元组标注信息中的主语e1和宾语e2,如果二者同时存在,则按照现有知识图谱中的三元组标注信息对待标注文本进行标注。这样,通过利用已有知识库自动化标注数据,可以减轻语料标注的成本。
当待标注文本为“《蒙娜丽莎》是意大利文艺复兴时期画家达芬奇创作的油画,现收藏于法国卢浮宫博物馆”时,该待标注文本的标注格式如下:
{’text’:‘《蒙娜丽莎》是意大利文艺复兴时期画家达芬奇创作的油画,现收藏于法国卢浮宫博物馆’,‘spo_list’:[(蒙娜丽莎,作者,达芬奇),(蒙娜丽莎,收藏地,法国卢浮宫博物馆),(达芬奇,国籍,意大利),(蒙娜丽莎,创作类别,油画)]}。
另外,为了尽可能降低训练数据中的噪音和漏标数据,我们可以采用知识蒸馏的方法对自动标注数据进行降噪。上述实现方式还可以包括:
步骤504:采用预先训练得到的K个预测模型对待标注文本进行预测,得到K个三元组预测信息。
其中,K个预测模型可以根据已完成标注的待训练文本以及待训练文本的三元组标注信息,采用K折交叉验证的方式训练得到。
具体为:将训练样本等分为K份,依次取其中的K-1份训练模型,另外1份作为待预测样本。如可分为[D1,D2,D3,…,DK],依次取[D1,D2,…,Dk-1,Dk+1,…,DK]为训练样本,Dk为待预测样本,k∈[1,K]。
步骤505:当第一三元组信息的数量与K的比值大于第一预设阈值时,将第一三元组信息作为待标注文本的三元组标注信息添加至样本集合中,其中,第一三元组信息为出现在三元组预测信息中但未出现在待标注文本的三元组标注信息中的三元组信息。
步骤506:当第二三元组信息的数量与K的比值大于第二预设阈值时,将第二三元组信息从待标注文本的三元组标注信息中删除,其中,第二三元组信息为出现在待标注文本的三元组标注信息中但未出现在三元组预测信息中的三元组信息。
其中,K值可以大于或等于5且小于或等于10,也可以依据数据规模自行设定。第一预设阈值和第二预设阈值可以相同或不同,具体数值可以根据实际需求确定。
在具体实现中,可以采用K折交叉验证的方式用已标注数据训练出K个模型,然后用训练好的K个模型去预测待标注文本。模型预测出来的结果和原始标注结果会有偏差,例如在某个待标注文本S中,被标注出了{T1,T2,T3,…Tk}K个三元组标注信息,记R_s={T1,T2,T3,…Tk},然后可以用K个模型去预测待标注文本S,得到K个三元组预测信息。K个三元组预测信息中可能存在某个第一三元组信息Ti不在R_s中,该第一三元组信息Ti在K个三元组预测信息中出现了M次,K个三元组预测信息中可能有N个结果不包含第二三元组信息Tj,而第二三元组信息Tj存在于R_s中。此时,我们可以设置第一预设阈值和第二预设阈值均为Score,当M/K>Score时,认为第一三元组信息Ti为待标注文本的漏标数据,因此可以将第一三元组信息Ti添加到三元组标注信息R_s中,当N/K>Score时,认为第二三元组信息Tj为错标数据,因此,需要将第二三元组信息Tj从三元组标注信息R_s中删除。按照此方式重复训练和预测多次,可以不断修正训练样本集合。
本实现方式中,利用已有知识库自动化标注数据,从而可以降低预料标注的成本,在此基础上进行人工审核,并在后期利用知识蒸馏的方法对标注的数据进行降噪处理。
本实施例提供的信息抽取方法,参照图7,主要涉及数据标注方法、schema构建、信息抽取算法模型、数据降噪等几个主要部分,该方案运用端到端的实体关系联合抽取方法从非结构化文本中抽取知识,在保证信息抽取精度的同时,降低构建知识图谱的代价,提升信息抽取效率,节约人力成本。
本申请另一实施例还提供了一种信息抽取装置,参照图8,该装置可以包括:
获取模块801,被配置为获取源数据;
抽取模块802,被配置为将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息,所述三元组信息包括所述源数据中的主语、谓语和宾语;其中,所述信息抽取模型包括二分类子模型和多标签分类子模型,所述二分类子模型用于抽取所述源数据中的主语,所述多标签分类子模型用于根据所述主语和所述源数据,抽取所述源数据中与所述主语对应的谓语和宾语。
在一种可选的实现方式中,所述装置还可以包括:模型获取模块,被配置为获得所述信息抽取模型,所述模型获取模块包括:
第一单元,被配置为获得样本集合,所述样本集合中包括多个待训练文本以及各所述待训练文本的三元组标注信息,所述三元组标注信息包括主语标注信息、谓语标注信息和宾语标注信息;
第二单元,被配置为将所述待训练文本输入第一预训练语言模型,将所述第一预训练语言模型的输出信息送入第一神经网络模型;
第三单元,被配置为将所述第一神经网络模型的输出信息以及所述待训练文本输入第二预训练语言模型,将所述第二预训练语言模型的输出信息送入第二神经网络模型;
第四单元,被配置为根据所述第一神经网络模型的输出信息、所述第二神经网络模型的输出信息以及所述三元组标注信息,对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型进行训练,得到所述信息抽取模型,其中,训练后的第一预训练语言模型和第一神经网络模型构成所述二分类子模型,训练后的第二预训练语言模型和第二神经网络模型构成所述多标签分类子模型。
在一种可选的实现方式中,所述第四单元具体被配置为:
根据所述第一神经网络模型的输出信息以及所述主语标注信息,确定第一损失函数;
根据所述第二神经网络模型的输出信息、所述谓语标注信息以及所述宾语标注信息,确定第二损失函数;
对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型中的参数进行优化,得到所述信息抽取模型,使得所述第一损失函数与所述第二损失函数之和最小。
在一种可选的实现方式中,所述第一损失函数和所述第二损失函数均为交叉熵损失函数。
在一种可选的实现方式中,所述第一单元具体被配置为:
获取非结构化文本样本;
对所述非结构化文本样本进行处理,得到待标注文本;
获取已完成标注的待训练文本以及所述待训练文本的三元组标注信息;
响应于所述待标注文本中包含所述三元组标注信息中的主语标注信息和宾语标注信息,按照所述三元组标注信息对所述待标注文本进行标注。
在一种可选的实现方式中,所述第一单元还被配置为:
采用预先训练得到的K个预测模型对所述待标注文本进行预测,得到K个三元组预测信息;
当第一三元组信息的数量与K的比值大于第一预设阈值时,将所述第一三元组信息作为所述待标注文本的三元组标注信息添加至所述样本集合中,其中,所述第一三元组信息为出现在所述三元组预测信息中但未出现在所述待标注文本的三元组标注信息中的三元组信息;
当第二三元组信息的数量与K的比值大于第二预设阈值时,将所述第二三元组信息从所述待标注文本的三元组标注信息中删除,其中,所述第二三元组信息为出现在所述待标注文本的三元组标注信息中但未出现在所述三元组预测信息中的三元组信息。
其中,K值可以大于或等于5且小于或等于10,也可以依据数据规模自行设定。
在一种可选的实现方式中,所述第一单元还被配置为:
根据已完成标注的待训练文本以及所述待训练文本的三元组标注信息,采用K折交叉验证的方式获得K个预测模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在应用于服务器的信息抽取方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请另一实施例还提供了一种电子设备,该电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现任一实施例所述的信息抽取方法。
本申请另一实施例还提供了一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行任一实施例所述的信息抽取方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种信息抽取方法、装置、电子设备及存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种信息抽取方法,其特征在于,所述方法包括:
获取源数据;
将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息,所述三元组信息包括所述源数据中的主语、谓语和宾语;其中,所述信息抽取模型包括二分类子模型和多标签分类子模型,所述二分类子模型用于抽取所述源数据中的主语,所述多标签分类子模型用于根据所述主语和所述源数据,抽取所述源数据中与所述主语对应的谓语和宾语;所述源数据包括非结构化文本,所述二分类子模型和所述多标签分类子模型是采用样本集合对预训练语言模型和神经网络模型进行联合训练得到,所述样本集合包括多个待训练文本以及各所述待训练文本的三元组标注信息,所述三元组标注信息包括主语标注信息、谓语标注信息和宾语标注信息;
在所述将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息的步骤之前,还包括:获得所述信息抽取模型,其中,所述获得所述信息抽取模型的步骤,包括:
获得所述样本集合;
将所述待训练文本输入第一预训练语言模型,将所述第一预训练语言模型的输出信息送入第一神经网络模型;
将所述第一神经网络模型的输出信息以及所述待训练文本输入第二预训练语言模型,将所述第二预训练语言模型的输出信息送入第二神经网络模型;
根据所述第一神经网络模型的输出信息、所述第二神经网络模型的输出信息以及所述三元组标注信息,对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型进行训练,得到所述信息抽取模型,其中,训练后的第一预训练语言模型和第一神经网络模型构成所述二分类子模型,训练后的第二预训练语言模型和第二神经网络模型构成所述多标签分类子模型。
2.根据权利要求1所述的信息抽取方法,其特征在于,所述根据所述第一神经网络模型的输出信息、所述第二神经网络模型的输出信息以及所述三元组标注信息,对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型进行训练,得到所述信息抽取模型的步骤,包括:
根据所述第一神经网络模型的输出信息以及所述主语标注信息,确定第一损失函数;
根据所述第二神经网络模型的输出信息、所述谓语标注信息以及所述宾语标注信息,确定第二损失函数;
对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型中的参数进行优化,得到所述信息抽取模型,使得所述第一损失函数与所述第二损失函数之和最小。
3.根据权利要求2所述的信息抽取方法,其特征在于,所述第一损失函数和所述第二损失函数均为交叉熵损失函数。
4.根据权利要求1所述的信息抽取方法,其特征在于,所述获得样本集合的步骤,包括:
获取非结构化文本样本;
对所述非结构化文本样本进行处理,得到待标注文本;
获取已完成标注的待训练文本以及所述待训练文本的三元组标注信息;
响应于所述待标注文本中包含所述三元组标注信息中的主语标注信息和宾语标注信息,按照所述三元组标注信息对所述待标注文本进行标注。
5.根据权利要求4所述的信息抽取方法,其特征在于,所述获得样本集合的步骤,还包括:
采用预先训练得到的K个预测模型对所述待标注文本进行预测,得到K个三元组预测信息;
当第一三元组信息的数量与K的比值大于第一预设阈值时,将所述第一三元组信息作为所述待标注文本的三元组标注信息添加至所述样本集合中,其中,所述第一三元组信息为出现在所述三元组预测信息中但未出现在所述待标注文本的三元组标注信息中的三元组信息;
当第二三元组信息的数量与K的比值大于第二预设阈值时,将所述第二三元组信息从所述待标注文本的三元组标注信息中删除,其中,所述第二三元组信息为出现在所述待标注文本的三元组标注信息中但未出现在所述三元组预测信息中的三元组信息;
其中,K大于或等于5且小于或等于10。
6.据权利要求5所述的信息抽取方法,其特征在于,在所述采用预先训练得到的K个预测模型对所述待标注文本进行预测,得到K个三元组预测信息的步骤之前,包括:
根据已完成标注的待训练文本以及所述待训练文本的三元组标注信息,采用K折交叉验证的方式获得K个预测模型。
7.一种信息抽取装置,其特征在于,所述装置包括:
获取模块,被配置为获取源数据;
抽取模块,被配置为将所述源数据输入预先训练得到的信息抽取模型,得到所述源数据所包含的三元组信息,所述三元组信息包括所述源数据中的主语、谓语和宾语;其中,所述信息抽取模型包括二分类子模型和多标签分类子模型,所述二分类子模型用于抽取所述源数据中的主语,所述多标签分类子模型用于根据所述主语和所述源数据,抽取所述源数据中与所述主语对应的谓语和宾语;所述源数据包括非结构化文本,所述二分类子模型和所述多标签分类子模型是采用样本集合对预训练语言模型和神经网络模型进行联合训练得到,所述样本集合包括多个待训练文本以及各所述待训练文本的三元组标注信息,所述三元组标注信息包括主语标注信息、谓语标注信息和宾语标注信息;
所述装置还包括:模型获取模块,被配置为获得所述信息抽取模型,所述模型获取模块包括:
第一单元,被配置为获得样本集合;
第二单元,被配置为将所述待训练文本输入第一预训练语言模型,将所述第一预训练语言模型的输出信息送入第一神经网络模型;
第三单元,被配置为将所述第一神经网络模型的输出信息以及所述待训练文本输入第二预训练语言模型,将所述第二预训练语言模型的输出信息送入第二神经网络模型;
第四单元,被配置为根据所述第一神经网络模型的输出信息、所述第二神经网络模型的输出信息以及所述三元组标注信息,对所述第一预训练语言模型、所述第一神经网络模型、所述第二预训练语言模型以及所述第二神经网络模型进行训练,得到所述信息抽取模型,其中,训练后的第一预训练语言模型和第一神经网络模型构成所述二分类子模型,训练后的第二预训练语言模型和第二神经网络模型构成所述多标签分类子模型。
8.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6中任一项所述的信息抽取方法。
9.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至6中任一项所述的信息抽取方法。
CN202010071824.3A 2020-01-21 2020-01-21 信息抽取方法、装置、电子设备及存储介质 Active CN111291185B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010071824.3A CN111291185B (zh) 2020-01-21 2020-01-21 信息抽取方法、装置、电子设备及存储介质
US17/425,556 US11922121B2 (en) 2020-01-21 2021-01-13 Method and apparatus for information extraction, electronic device, and storage medium
PCT/CN2021/071485 WO2021147726A1 (zh) 2020-01-21 2021-01-13 信息抽取方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010071824.3A CN111291185B (zh) 2020-01-21 2020-01-21 信息抽取方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111291185A CN111291185A (zh) 2020-06-16
CN111291185B true CN111291185B (zh) 2023-09-22

Family

ID=71025634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010071824.3A Active CN111291185B (zh) 2020-01-21 2020-01-21 信息抽取方法、装置、电子设备及存储介质

Country Status (3)

Country Link
US (1) US11922121B2 (zh)
CN (1) CN111291185B (zh)
WO (1) WO2021147726A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291185B (zh) 2020-01-21 2023-09-22 京东方科技集团股份有限公司 信息抽取方法、装置、电子设备及存储介质
CN112052681A (zh) * 2020-08-20 2020-12-08 中国建设银行股份有限公司 信息抽取模型训练方法、信息抽取方法、装置及电子设备
CN112000808B (zh) * 2020-09-29 2024-04-16 迪爱斯信息技术股份有限公司 一种数据处理方法及装置、可读存储介质
US11934785B2 (en) * 2020-10-23 2024-03-19 Target Brands, Inc. Multi-task learning of query intent and named entities
CN112380356A (zh) * 2020-11-30 2021-02-19 百度国际科技(深圳)有限公司 用于构建配餐知识图谱的方法、装置、电子设备及介质
CN112507125A (zh) * 2020-12-03 2021-03-16 平安科技(深圳)有限公司 三元组信息提取方法、装置、设备及计算机可读存储介质
CN112528641A (zh) * 2020-12-10 2021-03-19 北京百度网讯科技有限公司 建立信息抽取模型的方法、装置、电子设备和可读存储介质
CN112528600B (zh) * 2020-12-15 2024-05-07 北京百度网讯科技有限公司 文本数据处理方法、相关装置及计算机程序产品
CN112613315B (zh) * 2020-12-29 2024-06-07 重庆农村商业银行股份有限公司 一种文本知识自动抽取方法、装置、设备及存储介质
CN113158671B (zh) * 2021-03-25 2023-08-11 胡明昊 一种结合命名实体识别的开放域信息抽取方法
CN112818138B (zh) * 2021-04-19 2021-10-15 中译语通科技股份有限公司 知识图谱本体构建方法、装置、终端设备及可读存储介质
CN113051356B (zh) * 2021-04-21 2023-05-30 深圳壹账通智能科技有限公司 开放关系抽取方法、装置、电子设备及存储介质
CN113254429B (zh) * 2021-05-13 2023-07-21 东北大学 一种用于远程监督关系抽取的基于bert和mlm的降噪方法
CN113160917B (zh) * 2021-05-18 2022-11-01 山东浪潮智慧医疗科技有限公司 一种电子病历实体关系抽取方法
CN113486189B (zh) * 2021-06-08 2024-10-18 广州数说故事信息科技有限公司 一种开放性知识图谱挖掘方法及系统
CN113420120B (zh) * 2021-06-24 2024-05-31 平安科技(深圳)有限公司 关键信息提取模型的训练方法、提取方法、设备及介质
CN113590810B (zh) * 2021-08-03 2023-07-14 北京奇艺世纪科技有限公司 摘要生成模型训练方法、摘要生成方法、装置及电子设备
CN113779260B (zh) * 2021-08-12 2023-07-18 华东师范大学 一种基于预训练模型的领域图谱实体和关系联合抽取方法及系统
CN113468344B (zh) * 2021-09-01 2021-11-30 北京德风新征程科技有限公司 实体关系抽取方法、装置、电子设备和计算机可读介质
CN113821602B (zh) * 2021-09-29 2024-05-24 平安银行股份有限公司 基于图文聊天记录的自动答疑方法、装置、设备及介质
CN114781364A (zh) * 2021-11-30 2022-07-22 浙江航天恒嘉数据科技有限公司 一种基于语句实体关系网络的关系抽取方法及系统
CN114266258B (zh) * 2021-12-30 2023-06-23 北京百度网讯科技有限公司 一种语义关系提取方法、装置、电子设备及存储介质
CN115544626B (zh) * 2022-10-21 2023-10-20 清华大学 子模型抽取方法、装置、计算机设备及介质
CN115759098B (zh) * 2022-11-14 2023-07-18 中国科学院空间应用工程与技术中心 一种航天文本数据的中文实体和关系联合抽取方法、系统
CN116340552B (zh) * 2023-01-06 2024-07-02 北京达佳互联信息技术有限公司 一种标签排序方法、装置、设备及存储介质
CN116415005B (zh) * 2023-06-12 2023-08-18 中南大学 一种面向学者学术网络构建的关系抽取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106055536A (zh) * 2016-05-19 2016-10-26 苏州大学 一种中文事件联合推理方法和系统
CN106709006A (zh) * 2016-12-23 2017-05-24 武汉科技大学 一种对查询友好的关联数据压缩方法
CN106844368A (zh) * 2015-12-03 2017-06-13 华为技术有限公司 用于人机对话的方法、神经网络系统和用户设备
CN108694208A (zh) * 2017-04-11 2018-10-23 富士通株式会社 用于构造数据库的方法和装置
CN108874778A (zh) * 2018-06-15 2018-11-23 广东蔚海数问大数据科技有限公司 语义实体关系抽取方法、装置及电子设备
US10325106B1 (en) * 2013-04-04 2019-06-18 Marklogic Corporation Apparatus and method for operating a triple store database with document based triple access security

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070083357A1 (en) * 2005-10-03 2007-04-12 Moore Robert C Weighted linear model
US20100185700A1 (en) * 2007-09-17 2010-07-22 Yan Bodain Method and system for aligning ontologies using annotation exchange
US10303999B2 (en) * 2011-02-22 2019-05-28 Refinitiv Us Organization Llc Machine learning-based relationship association and related discovery and search engines
US11222052B2 (en) * 2011-02-22 2022-01-11 Refinitiv Us Organization Llc Machine learning-based relationship association and related discovery and
US10977573B1 (en) * 2015-05-07 2021-04-13 Google Llc Distantly supervised wrapper induction for semi-structured documents
US20180232443A1 (en) * 2017-02-16 2018-08-16 Globality, Inc. Intelligent matching system with ontology-aided relation extraction
KR101991320B1 (ko) 2017-03-24 2019-06-21 (주)아크릴 온톨로지에 의해 표현되는 자원들을 이용하여 상기 온톨로지를 확장하는 방법
KR101983455B1 (ko) * 2017-09-21 2019-05-28 숭실대학교산학협력단 지식베이스 구축 방법 및 그 서버
US10733538B2 (en) * 2017-09-29 2020-08-04 Oracle International Corporation Techniques for querying a hierarchical model to identify a class from multiple classes
CN108073711B (zh) 2017-12-21 2022-01-11 北京大学深圳研究生院 一种基于知识图谱的关系抽取方法和系统
US11288294B2 (en) * 2018-04-26 2022-03-29 Accenture Global Solutions Limited Natural language processing and artificial intelligence based search system
CN109597855A (zh) 2018-11-29 2019-04-09 北京邮电大学 基于大数据驱动的领域知识图谱构建方法及系统
US10825449B1 (en) * 2019-09-27 2020-11-03 CrowdAround Inc. Systems and methods for analyzing a characteristic of a communication using disjoint classification models for parsing and evaluation of the communication
CN111291185B (zh) * 2020-01-21 2023-09-22 京东方科技集团股份有限公司 信息抽取方法、装置、电子设备及存储介质
CN113204649A (zh) * 2021-05-11 2021-08-03 西安交通大学 基于实体关系联合抽取的法律知识图谱构建方法及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10325106B1 (en) * 2013-04-04 2019-06-18 Marklogic Corporation Apparatus and method for operating a triple store database with document based triple access security
CN106844368A (zh) * 2015-12-03 2017-06-13 华为技术有限公司 用于人机对话的方法、神经网络系统和用户设备
CN106055536A (zh) * 2016-05-19 2016-10-26 苏州大学 一种中文事件联合推理方法和系统
CN106709006A (zh) * 2016-12-23 2017-05-24 武汉科技大学 一种对查询友好的关联数据压缩方法
CN108694208A (zh) * 2017-04-11 2018-10-23 富士通株式会社 用于构造数据库的方法和装置
CN108874778A (zh) * 2018-06-15 2018-11-23 广东蔚海数问大数据科技有限公司 语义实体关系抽取方法、装置及电子设备

Also Published As

Publication number Publication date
WO2021147726A1 (zh) 2021-07-29
CN111291185A (zh) 2020-06-16
US20230153526A1 (en) 2023-05-18
US11922121B2 (en) 2024-03-05

Similar Documents

Publication Publication Date Title
CN111291185B (zh) 信息抽取方法、装置、电子设备及存储介质
CN111639171A (zh) 一种知识图谱问答方法及装置
CN114064918B (zh) 一种多模态事件知识图谱构建方法
CN112989841B (zh) 一种用于突发事件新闻识别与分类的半监督学习方法
Mondal et al. A course recommendation system based on grades
CN112507136A (zh) 一种知识驱动的业务操作图谱构建方法
CN116127090B (zh) 基于融合和半监督信息抽取的航空系统知识图谱构建方法
CN111581368A (zh) 一种基于卷积神经网络的面向智能专家推荐的用户画像方法
CN114648635B (zh) 一种融合标签间强相关性的多标签图像分类方法
CN114840685A (zh) 一种应急预案知识图谱构建方法
CN118152547B (zh) 一种根据提问者理解能力的机器人回答方法、介质及系统
CN115687610A (zh) 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质
CN115659947A (zh) 基于机器阅读理解及文本摘要的多项选择答题方法及系统
US20220309597A1 (en) Computer vision framework for real estate
CN114880307A (zh) 一种开放教育领域知识的结构化建模方法
Xu et al. A novel entity joint annotation relation extraction model
CN113535928A (zh) 基于注意力机制下长短期记忆网络的服务发现方法及系统
CN116522165B (zh) 一种基于孪生结构的舆情文本匹配系统及方法
CN116702784A (zh) 实体链接方法、装置、计算机设备和存储介质
CN117216617A (zh) 文本分类模型训练方法、装置、计算机设备和存储介质
CN115859989A (zh) 基于远程监督的实体识别方法及系统
CN116127097A (zh) 一种结构化文本关系抽取方法、装置、设备
CN115934944A (zh) 一种基于Graph-MLP与相邻对比损失的实体关系抽取方法
CN109582958A (zh) 一种灾难故事线构建方法及装置
CN114443818A (zh) 一种对话式知识库问答实现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant