CN111767334B - 信息抽取方法、装置、电子设备及存储介质 - Google Patents

信息抽取方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111767334B
CN111767334B CN202010608575.7A CN202010608575A CN111767334B CN 111767334 B CN111767334 B CN 111767334B CN 202010608575 A CN202010608575 A CN 202010608575A CN 111767334 B CN111767334 B CN 111767334B
Authority
CN
China
Prior art keywords
relation
text
processed
question
entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010608575.7A
Other languages
English (en)
Other versions
CN111767334A (zh
Inventor
杜泓江
庞敏辉
谢国斌
陈兴波
李丹青
刘彦江
曲福
韩光耀
张瑾
姜泽青
卢俊豪
靳歌曲
薛礼强
秦文静
罗小兰
张嘉懿
王天翼
郑佩韦
许博勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010608575.7A priority Critical patent/CN111767334B/zh
Publication of CN111767334A publication Critical patent/CN111767334A/zh
Application granted granted Critical
Publication of CN111767334B publication Critical patent/CN111767334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/254Extract, transform and load [ETL] procedures, e.g. ETL data flows in data warehouses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本申请公开了信息抽取方法、装置、电子设备及存储介质,涉及人工智能、深度学习领域。具体实现方案为:根据待处理文本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;根据实体、第一关系和第二关系中的至少一项生成问题;将问题和待处理文本输入第一机器学习模型,得到问题的答案;根据问题的答案生成针对待处理文本的信息抽取结果。根据问题的答案生成针对待处理文本的信息抽取结果。本申请实施例使得从待处理文本中抽取的信息更加丰富完整,有效减少了人力耗时,大大提升了信息抽取的效率。

Description

信息抽取方法、装置、电子设备及存储介质
技术领域
本申请可应用于计算机技术领域,尤其是人工智能领域。
背景技术
随着互联网的发展,文本信息也越来越多。从海量文本信息中寻找有效的、关键的、准确的信息,通常情况下需要耗费大量的人力进行人工查找和人工确认,甚至需要多人进行交叉核查以便于保证抽取信息的完整性、正确性。人工查找、人工确认耗费时间较长,而且效率也相对低下,不利于解放与发展生产力。另外,现有技术中的自动信息抽取方法存在抽取出的信息语义不完整、抽取的信息不全面的缺陷,难以满足用户的信息获取需求。
发明内容
本申请提供了一种用于信息抽取方法、装置、设备以及存储介质。
根据本申请的第一方面,提供了一种信息抽取方法,包括:
根据待处理文本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;
根据实体、第一关系和第二关系中的至少一项生成问题;
将问题和待处理文本输入第一机器学习模型,得到问题的答案;
根据问题的答案生成针对待处理文本的信息抽取结果。
根据本申请的第二方面,提供了一种信息抽取装置,包括:
定义模块:用于根据待处理文本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;
第一生成模块:用于根据实体、第一关系和第二关系中的至少一项生成问题;
第一处理模块:用于将问题和待处理文本输入第一机器学习模型,得到问题的答案;
第二生成模块:用于根据问题的答案生成针对待处理文本的信息抽取结果。
根据本申请的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请任意一项实施例所提供的方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使该计算机执行本申请任意一项实施例所提供的方法。
根据本申请的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
上述申请中的一个实施例具有如下优点或有益效果:本申请实施例使得从待处理文本中抽取的信息更加丰富完整,有效减少了人力耗时,大大提升了信息抽取的效率。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请一实施例的信息抽取方法的流程图;
图2是根据本申请一实施例的信息抽取方法的生成问题的流程图;
图3是根据本申请一实施例的信息抽取方法的答案过滤的流程图;
图4是根据本申请一实施例的信息抽取方法的模型预测的流程图;
图5是根据本申请一实施例的信息抽取方法的模型训练的流程图;
图6是根据本申请一实施例的信息抽取装置的示意图;
图7是根据本申请另一实施例的信息抽取装置的示意图;
图8是用来实现本申请实施例的文档标题树的构建方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请一实施例的信息抽取方法的流程图。参见图1,该信息抽取方法包括:
步骤S110,根据待处理文本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;
步骤S120,根据实体、第一关系和第二关系中的至少一项生成问题;
步骤S130,将问题和待处理文本输入第一机器学习模型,得到问题的答案;
步骤S140,根据问题的答案生成针对待处理文本的信息抽取结果。
在本申请实施例中,利用预先定义的抽取字段,通过机器学习模型可从待处理文本中抽出完整全面的信息。以下是一个待处理文本的文本内容的示例:“总公司的下属公司有A公司和B公司。员工张三在A公司任职,工号为0123。该员工业绩突出,被评为优秀员工。员工李四在A公司任职,工号为0126。该员工于今年入职,被授予最佳新人奖。”
在步骤S110中,根据待处理文本的文本内容,定义抽取字段。其中,抽取字段由几下几种方式定义:
1)定义实体。
根据上述示例中的文本内容,“员工张三在A公司任职”、“员工李四在A公司任职”,则可将“员工姓名”定义为第一实体,以第一实体作为抽取字段。
2)定义第一关系,第一关系为实体之间的关系。
从上述示例中的文本内容“员工张三在A公司任职”、“员工李四在A公司任职”中可以提取出两个实体,即第一实体“员工姓名”和第二实体“公司名称”。并且第一实体和第二实体是雇佣关系。可将上述第一实体和第二实体之间的关系定义为第一关系。根据第一关系,将与已定义的第一实体存在第一关系的第二实体作为抽取字段。也就是说,将与“员工姓名”存在雇佣关系的“公司名称”作为抽取字段。
3)定义第二关系,第二关系为实体的属性与实体之间的关系的对应关系。也就是说,第二关系为实体的属性与第一关系的对应关系。
从上述示例中的文本内容“员工张三在A公司任职,工号为0123”中可以获知,第一实体“员工姓名”张三的属性为工号,属性值为0123。已定义的第一关系为:第一实体“员工姓名”张三和第二实体“公司名称”A公司的雇佣关系。则在此基础上,可将实体的属性“工号”与第一关系(雇佣关系)建立对应关系,将该对应关系定义为第二关系。由于员工张三与A公司产生了雇佣关系之后,才能产生“员工姓名”张三的属性为工号。因此第二关系体现了实体的属性与第一关系中的两个实体都存在关系,也就是实体的属性与第一关系的对应关系。
根据第二关系,与已定义的第一关系存在关系的实体的属性作为抽取字段。也就是说,将与雇佣关系存在第二关系的实体的属性“工号”作为抽取字段。
利用上述几种方式抽取字段,其具体实现方式可以是获取人工预定义的实体、第一关系和第二关系,也可以是利用实体关系属性抽取模型自动从待处理文本中抽取出实体、关系和属性,再根据抽取结果定义实体、第一关系和第二关系。
在步骤S120中,可根据以上几种方式定义的抽取字段来生成问题。仍以上述示例中的文本内容为例,如果定义了第一实体,可生成问题:“员工姓名是什么?”如果定义了第一关系,可生成问题:“员工张三在什么公司任职?”如果定义了第二关系,可生成问题:“员工张三在A公司的工号是多少?”
在步骤S130中,将以上生成的问题和待处理文本输入第一机器学习模型,利用机器学习模型在待处理文本中查找问题的答案。最后在步骤S140中根据问题的答案生成针对所述待处理文本的信息抽取结果。
本申请实施例中,将实体的属性与实体之间的关系建立对应关系,可以使得抽取出的信息语义更加完整。进而根据定义的实体、第一关系和第二关系自动生成问题,使得从待处理文本中抽取的信息更加丰富完整,有效减少了人力耗时,大大提升了信息抽取的效率。
图2是根据本申请一实施例的信息抽取方法的生成问题的流程图。如图2所示,在一种实施方式中,图1中的步骤S120,根据实体、第一关系和第二关系中的至少一项生成问题,包括:
步骤S210,将构成第一关系的实体进行组合,生成问题;和/或,
步骤S220将构成第二关系的实体的属性以及构成第二关系的第一关系中的实体进行组合,生成问题。
在本申请实施例中,在步骤S120中,可根据步骤S110中的定义自动生成问题。采用以下方式之中的至少之一自动生成问题:
1)如果在步骤S110中定义了实体,则生成问题:“实体”是什么?
仍以上述示例中的文本内容为例,如果定义了第一实体“员工姓名”,可生成问题1:“员工姓名是什么?”在后续的处理步骤中,根据问题在待处理文本中查找答案,可将“员工姓名”作为抽取字段。
2)如果在步骤S110中定义了第一关系,则在步骤S210中将构成第一关系的第一实体和第二实体进行组合生成问题,生成问题语句的描述方式可参照待处理文本中的描述方式。
在上述示例的文本内容中,如果定义了第一关系:第一实体“员工姓名”张三和第二实体“公司名称”A公司的雇佣关系,则将构成第一关系的第一实体“员工姓名”张三和第二实体“公司名称”A公司进行组合生成问题。参照待处理文本中有如下描述:“员工张三在A公司任职”,则可生成问题2:“员工张三在什么公司任职?”在后续的处理步骤中,根据问题在待处理文本中查找答案,可将与“员工姓名”存在雇佣关系的“公司名称”作为抽取字段。
3)如果在步骤S110中定义了第二关系,则在步骤S220中将构成第二关系的实体的属性以及构成第二关系的第一关系中的第一实体和第二实体进行组合,生成问题。生成问题语句的描述方式可参照待处理文本中的描述方式。
在上述示例的文本内容中,第一实体“员工姓名”张三的属性为工号,属性值为0123。第一关系为第一实体“员工姓名”和第二实体“公司名称”的雇佣关系。第二关系为实体的属性(工号)与第一关系(雇佣关系)的对应关系。
根据以上第二关系可生成问题,则将构成第二关系的实体的属性“工号”以及第一关系中的第一实体“员工姓名”张三和第二实体“公司名称”A公司进行组合生成问题。参照待处理文本中有如下描述:“员工张三在A公司任职,工号为0123”,则可生成问题3:“员工张三在A公司的工号是多少?”在后续的处理步骤中,根据问题在待处理文本中查找答案,可将与雇佣关系存在第二关系的实体的属性“工号”作为抽取字段。
本申请实施例中,将实体的属性与实体之间的关系建立对应关系,可以使得抽取出的信息语义更加完整。根据定义的实体、第一关系和第二关系自动生成问题,使得抽取的信息内容更加丰富完整。
本申请实施例中,在将问题和待处理文本输入第一机器学习模型之前,还需要对待处理文本进行文件解析。其中,待处理文本可包括PDF(Portable Document Format,便携式文档格式)文件、WORD文件或网页文件等。
以PDF文件为例,一方面,可利用解析工具将待处理文本的PDF文件解析成字符串(二进制文件),然后将字符串和上述生成的问题输入第一机器学习模型,利用模型进行预测,得到所述问题的答案。另一方面,可利用解析工具将PDF文件解析成TXT(Text File,文本文档)格式的文件,用于在标注后制作模型训练数据集,利用模型训练数据集预先训练第一机器学习模型。
在一个示例中,上述文件解析过程中可参照知识库进行同义词扩展。例如,在知识库中,“入职日期”和“入职时间”是同义词。则在文件解析过程中,参照知识库将“入职日期”和“入职时间”统一解析为“入职时间”。
在上述文件解析过程之后可进行格式转换。本申请实施例中,可将解析得到的字符串和经过标注后的TXT格式的文件转换成SQUAD(The Stanford Question AnsweringDataset,斯坦福问答数据集)格式。其中,SQUAD是一个阅读理解数据集。该数据集中的数据格式为(问题,原文,答案)三元组。将待处理文本最终转换成SQUAD格式之后,可输入到第一机器学习模型进行训练和预测。
本申请实施例中,在第一机器学习模型进行训练和预测之前,可先执行步骤S110和步骤S120再执行文件解析过程和格式转换的步骤,也可以先执行文件解析过程和格式转换的步骤再执行步骤S110和步骤S120。本申请实施例对执行顺序不做限制。
在一种实施方式中,第一机器学习模型包括基于变换器的双向编码器表征模型。
本申请实施例中,可采用BERT(Bidirectional Encoder Representations fromTransformers,基于变换器的双向编码器表征)模型获取问题的答案。其中,“双向”表示模型在处理某一个词时,它能同时利用前面的词和后面的词两部分信息,使得模型的输出结果准确率更高。
在一种实施方式中,图1中的步骤S130,将问题和待处理文本输入第一机器学习模型,得到问题的答案,包括:
对待处理文本中进行格式解析,得到待处理文本的文本部分;
将文本部分输入第一机器学习模型,得到问题的答案。
在一种实施方式中,上述方法还包括:
对待处理文本中进行格式解析,得到待处理文本的表格部分;
从表格部分中提取表格的字段;
根据表格的字段生成针对表格部分的信息抽取结果。
仍以PDF文件为例,在一种实施方式中,在上述解析步骤中可将PDF文件解析成文本内容,同时给出文本中是否含有表格的逻辑判断。可根据文本的元数据schema对文本进行解析处理。操作步骤具体可包括:
1)将PDF文件中的文本部分进行处理。文本部分可包括无表格部分。将PDF文件中的文本部分的内容解析成字符串(二进制文件);
2)将PDF文件中的表格部分的内容在对应位置插入标签,例如以特殊字符<table></table>来进行标识。
3)将解析后的文本路径作为一个参数传入第一机器学习模型。第一机器学习模型根据文本路径可获取解析后的数据。
本申请实施例中,经过上述解析步骤之后,可根据标签识别待处理文本中是否包含有表格部分。
对于待处理文本中的表格部分,不输入第一机器学习模型,直接提取表格中的字段。例如,表格中的字段有:员工姓名:李四;公司名称:A公司;工号(0126)。
本申请实施例中,对于表格部分和文本部分分别采用不同的信息提取方法。由于表格部分有明确的格式标记,对于表格部分不输入机器学习模型,而是直接提取表格中的字段,该方法更加快捷易用,可以提高提取信息提取的效率。
对于待处理文本中的文本部分,则将其输入第一机器学习模型抽取字段。利用步骤S120中生成的问题,在步骤S130中将字段抽取任务转化为多轮问答任务。参见步骤S120中生成的问题,一个示例性的字段抽取的步骤如下:
1)将步骤S120中根据第一实体生成的问题1:“员工姓名是什么?”和待处理文本输入到第一机器学习模型。第一机器学习模型根据问题1在待处理文本中查找答案,将“员工姓名”作为抽取字段,得到的问题1的答案为:员工姓名是张三。经过以上过程得到了第一轮字段抽取的答案。
2)将第一轮的字段抽取的答案“张三”与第一关系中的第二实体“公司名称”进行组合,生成问题2:“员工张三在什么公司任职?”。将问题2和待处理文本输入到第一机器学习模型。第一机器学习模型根据问题2在待处理文本中查找答案,将“公司名称”作为抽取字段,得到的问题2的答案为:员工张三在A公司任职。经过以上过程得到了第二轮字段抽取的答案。
3)将第二轮的字段抽取的答案“员工张三在A公司任职”与第二关系中的实体的属性进行组合,生成问题3:“员工张三在A公司的工号是多少?”。将问题3和待处理文本输入到第一机器学习模型。第一机器学习模型根据问题3在待处理文本中查找答案,将实体的属性“工号”作为抽取字段,得到的问题3的答案为:员工张三在A公司的工号是0123。经过以上过程得到了第三轮字段抽取的答案。
在以上过程中,将上一轮的字段抽取的答案组合成问题,作为下一轮的第一机器学习模型的输入信息,通过以上多轮问答的方式利用第一机器学习模型进行字段抽取。
本申请实施例中,将实体的属性与实体之间的关系建立对应关系,可以使得抽取出的信息语义更加完整。根据定义的实体、第一关系和第二关系自动生成问题,进而根据生成的问题通过从待处理文本中查找答案的方式抽取信息,使得抽取的信息内容更加丰富完整。
图3是根据本申请一实施例的信息抽取方法的答案过滤的流程图。如图3所示,在一种实施方式中,图1中的步骤S130,在将问题和待处理文本输入第一机器学习模型,得到问题的答案之后,还包括:
步骤S510,将问题和问题的答案输入第二机器学习模型,判断输出问题的答案是否正确的判断结果;
步骤S520,过滤掉不正确的问题的答案;
步骤S530,采用过滤后的问题的答案生成针对待处理文本的信息抽取结果。
例如,采用BERT模型作为第一机器学习模型,可对BERT模型进行改进,在以上多轮问答的处理流程之后再加一个第二机器学习模型。第二机器学习模型可以是分类模型,用于判断BERT模型的输出结果是否是该问题的正确答案。第二机器学习模型和第一机器学习模型可根据训练样本的标注信息一起训练得到。经过第一机器学习模型和第二机器学习模型的处理,最终将回答不正确的答案抛弃,将回答正确的答案输出。在后续步骤中采用回答正确的答案生成针对所述待处理文本的信息抽取结果。
本申请实施例中,通过过滤掉不正确的问题的答案,采用过滤后的问题的答案生成针对待处理文本的信息抽取结果,使得信息抽取的内容更加真实准确。
在一种实施方式中,图1中的步骤S140,根据问题的答案生成针对待处理文本的信息抽取结果,包括:
将问题的答案和针对表格部分的信息抽取结果进行拼接,生成针对待处理文本的信息抽取结果。
在这种实施方式中,将表格部分的信息抽取和文本部分的信息抽取拼接后输出结果。输出结果可统一为文本形式或表格形式。
例如,统一为文本形式为:
员工张三在A公司的工号是0123。
员工李四在A公司的工号是0126。
统一为表格形式为:
员工姓名 公司名称 工号
张三 A公司 0123
李四 A公司 0126
本申请实施例可用于便捷地自动化地快速高效地对短文本信息进行信息抽取,同时兼顾到表格信息和非表格信息,适用于各类文本,通用性强,可以较好地对各类文本信息进行抽取。
图4是根据本申请一实施例的信息抽取方法的模型预测的流程图。在图4所示的示例中,首先定义实体和关系,其中关系包括上述第一关系和第二关系。然后对定义的实体和关系实施遍历操作。首先判断实体和关系是否遍历完成。若实体和关系没有遍历完成,则针对没有实施遍历操作的实体或关系实施遍历操作。每一次针对实体或关系的遍历操作可包括:1)根据待处理文本生成SQUAD格式数据;2)将生成的SQUAD格式数据以及根据实体和关系生成的问题输入到训练好的问答模型,问答模型的实现方式可参见上述第一机器学习模型的相关描述,在此不再赘述;3)利用问答模型进行模型预测,得到问题的答案;4)输出答案。若实体和关系遍历完成,则拼接所有实体与关系的问答结果。
在一种实施方式中,上述方法还包括:
根据训练样本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;
根据由训练样本定义的实体、第一关系和第二关系中的至少一项,生成训练样本对应的问题和对应的答案;
利用训练样本对应的问题和对应的答案预先训练第一机器学习模型和第二机器学习模型。
在本申请实施例的模型训练过程中,可根据训练样本的文本内容定义实体、第一关系和第二关系。定义的方法可采用与步骤S110中相同的方法,在此不再赘述。然后根据由训练样本定义的实体、第一关系和第二关系,自动生成训练样本对应的问题和对应的答案。在步骤S120中描述了生成问题的方法,同时生成问题和答案的方法也可采用与步骤S120中相同的方法,在此不再赘述。
在一个模型训练的示例中,将转换成SQUAD格式的数据输入第一机器学习模型进行训练。采用准确率、召回率、F1-Score中的至少一个为评估指标衡量模型的效果如何。如果模型不达标,进行模型迭代优化直至达标为止。训练好的模型可保存为ckpt格式。
在一种实施方式中,第二机器学习模型和第一机器学习模型可根据训练样本的标注信息一起训练得到。两个模型一起训练可以取得更好的训练效果,可以使得模型预测时所实现的功能更好地进行融合。
图5是根据本申请一实施例的信息抽取方法的模型训练的流程图。如图5所示,在本申请实施例的模型训练过程中,可根据训练样本的文本内容定义实体和关系。其中关系包括第一关系和第二关系。然后对定义的实体和关系实施遍历操作。首先判断实体和关系是否遍历完成。若实体和关系没有遍历完成,则针对没有实施遍历操作的实体或关系实施遍历操作。每一次针对实体或关系的遍历操作可包括:1)根据待处理文本生成SQUAD格式数据;2)将生成的SQUAD格式数据以及根据实体和关系生成的问题和答案输入到待训练的问答模型,对问答模型进行训练;问答模型的实现方式可参见上述第一机器学习模型的相关描述,在此不再赘述;3)对问答模型的效果进行评估,如果模型不达标,进行模型迭代优化直至达标为止;4)输出答案。
根据本申请实施例的信息抽取方法,可以实现一个通用化组件集成到各类企业的建模平台中,帮助企业快速抽取信息。在另一种方式中,该方法也可以作为内部通用化平台实现逻辑的一个不可或缺的组成部分,帮助产品人员获得更好的产品呈现,协助ToB(ToBusiness,面向企业)销售人员获取更高的业绩。
参考图6,本申请实施例提供一种信息抽取装置,包括:
定义模块100:用于根据待处理文本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;
第一生成模块200:用于根据实体、第一关系和第二关系中的至少一项生成问题;
第一处理模块300:用于将问题和待处理文本输入第一机器学习模型,得到问题的答案;
第二生成模块400:用于根据问题的答案生成针对待处理文本的信息抽取结果。
在其他一些实施方式中,第一生成模块200用于:
将构成第一关系的实体进行组合,生成问题;和/或,
将构成第二关系的实体的属性以及构成第二关系的第一关系中的实体进行组合,生成问题。
在其他一些实施方式中,第一处理模块300用于:
对待处理文本中进行格式解析,得到待处理文本的文本部分;
将文本部分输入第一机器学习模型,得到问题的答案。
参考图7,在其他一些实施方式中,该装置还包括第二处理模块500,用于:
对待处理文本中进行格式解析,得到待处理文本的表格部分;
从表格部分中提取表格的字段;
根据表格的字段生成针对表格部分的信息抽取结果。
在其他一些实施方式中,第二生成模块400用于:
将问题的答案和针对表格部分的信息抽取结果进行拼接,生成针对待处理文本的信息抽取结果。
在其他一些实施方式中,该装置还包括过滤模块600,用于:
将问题和问题的答案输入第二机器学习模型,输出问题的答案是否正确的判断结果;
过滤掉不正确的问题的答案;
采用过滤后的问题的答案生成针对待处理文本的信息抽取结果。
在其他一些实施方式中,该装置还包括训练模块700,用于:
根据训练样本定义实体、第一关系和第二关系,第一关系为实体之间的关系,第二关系为实体的属性与第一关系的对应关系;
根据由训练样本定义的实体、第一关系和第二关系中的至少一项,生成训练样本对应的问题和对应的答案;
利用训练样本对应的问题和对应的答案预先训练第一机器学习模型和第二机器学习模型。
上述任一项实施例的装置,第一机器学习模型包括基于变换器的双向编码器表征模型。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图8所示,是根据本申请实施例的信息抽取方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的信息抽取方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的信息抽取方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的信息抽取方法对应的程序指令/模块(例如,附图6所示的定义模块100、第一生成模块200、第一处理模块300、和第二生成模块400,以及附图7所示的第二处理模块500、过滤模块600和训练模块700)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的信息抽取方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据信息抽取电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至信息抽取的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
信息抽取方法的电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与信息抽取的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与虚拟专用服务器(VPS)服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,本申请实施例使得从待处理文本中抽取的信息更加丰富完整,有效减少了人力耗时,大大提升了信息抽取的效率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (18)

1.一种信息抽取方法,包括:
根据待处理文本定义实体、第一关系和第二关系,所述第一关系为所述实体之间的关系,所述第二关系为实体的属性与所述第一关系的对应关系;
根据所述实体、所述第一关系和所述第二关系中的至少一项生成问题;
将所述问题和所述待处理文本输入第一机器学习模型,得到所述问题的答案;
根据所述问题的答案生成针对所述待处理文本的信息抽取结果;
所述根据所述实体、所述第一关系和所述第二关系中的至少一项生成问题,包括:
将构成所述第二关系的所述实体的属性以及构成所述第二关系的第一关系中的实体进行组合,生成问题。
2.根据权利要求1所述的方法,其中,所述根据所述实体、所述第一关系和所述第二关系中的至少一项生成问题,还包括:
将构成所述第一关系的实体进行组合,生成问题。
3.根据权利要求1所述的方法,其中,所述将所述问题和所述待处理文本输入第一机器学习模型,得到所述问题的答案,包括:
对所述待处理文本中进行格式解析,得到所述待处理文本的文本部分;
将所述文本部分输入所述第一机器学习模型,得到所述问题的答案。
4.根据权利要求3所述的方法,还包括:
对所述待处理文本中进行格式解析,得到所述待处理文本的表格部分;
从所述表格部分中提取表格的字段;
根据所述表格的字段生成针对所述表格部分的信息抽取结果。
5.根据权利要求4所述的方法,其中,所述根据所述问题的答案生成针对所述待处理文本的信息抽取结果,包括:
将所述问题的答案和所述针对所述表格部分的信息抽取结果进行拼接,生成针对所述待处理文本的信息抽取结果。
6.根据权利要求1至5中任一项所述的方法,在所述将所述问题和所述待处理文本输入第一机器学习模型,得到所述问题的答案之后,还包括:
将所述问题和所述问题的答案输入第二机器学习模型,输出所述问题的答案是否正确的判断结果;
过滤掉不正确的所述问题的答案;
采用过滤后的问题的答案生成针对所述待处理文本的信息抽取结果。
7.根据权利要求6所述的方法,还包括:
根据训练样本定义实体、第一关系和第二关系,所述第一关系为所述实体之间的关系,所述第二关系为实体的属性与所述第一关系的对应关系;
根据由训练样本定义的实体、第一关系和第二关系中的至少一项,生成训练样本对应的问题和对应的答案;
利用所述训练样本对应的问题和对应的答案预先训练所述第一机器学习模型和所述第二机器学习模型。
8.根据权利要求1至5中任一项所述的方法,所述第一机器学习模型包括基于变换器的双向编码器表征模型。
9.一种信息抽取装置,包括:
定义模块:用于根据待处理文本定义实体、第一关系和第二关系,所述第一关系为所述实体之间的关系,所述第二关系为实体的属性与所述第一关系的对应关系;
第一生成模块:用于根据所述实体、所述第一关系和所述第二关系中的至少一项生成问题;
第一处理模块:用于将所述问题和所述待处理文本输入第一机器学习模型,得到所述问题的答案;
第二生成模块:用于根据所述问题的答案生成针对所述待处理文本的信息抽取结果;
所述第一生成模块用于:
将构成所述第二关系的所述实体的属性以及构成所述第二关系的第一关系中的实体进行组合,生成问题。
10.根据权利要求9所述的装置,其中,所述第一生成模块还用于:
将构成所述第一关系的实体进行组合,生成问题。
11.根据权利要求9所述的装置,其中,所述第一处理模块用于:
对所述待处理文本中进行格式解析,得到所述待处理文本的文本部分;
将所述文本部分输入所述第一机器学习模型,得到所述问题的答案。
12.根据权利要求11所述的装置,还包括第二处理模块,用于:
对所述待处理文本中进行格式解析,得到所述待处理文本的表格部分;
从所述表格部分中提取表格的字段;
根据所述表格的字段生成针对所述表格部分的信息抽取结果。
13.根据权利要求12所述的装置,其中,所述第二生成模块用于:
将所述问题的答案和所述针对所述表格部分的信息抽取结果进行拼接,生成针对所述待处理文本的信息抽取结果。
14.根据权利要求9至13中任一项所述的装置,还包括过滤模块,用于:
将所述问题和所述问题的答案输入第二机器学习模型,输出所述问题的答案是否正确的判断结果;
过滤掉不正确的所述问题的答案;
采用过滤后的问题的答案生成针对所述待处理文本的信息抽取结果。
15.根据权利要求14所述的装置,还包括训练模块,用于:
根据训练样本定义实体、第一关系和第二关系,所述第一关系为所述实体之间的关系,所述第二关系为实体的属性与所述第一关系的对应关系;
根据由训练样本定义的实体、第一关系和第二关系中的至少一项,生成训练样本对应的问题和对应的答案;
利用所述训练样本对应的问题和对应的答案预先训练所述第一机器学习模型和所述第二机器学习模型。
16.根据权利要求9至13中任一项所述的装置,所述第一机器学习模型包括基于变换器的双向编码器表征模型。
17.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
CN202010608575.7A 2020-06-30 2020-06-30 信息抽取方法、装置、电子设备及存储介质 Active CN111767334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010608575.7A CN111767334B (zh) 2020-06-30 2020-06-30 信息抽取方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010608575.7A CN111767334B (zh) 2020-06-30 2020-06-30 信息抽取方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111767334A CN111767334A (zh) 2020-10-13
CN111767334B true CN111767334B (zh) 2023-07-25

Family

ID=72724132

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010608575.7A Active CN111767334B (zh) 2020-06-30 2020-06-30 信息抽取方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111767334B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541332B (zh) * 2020-12-08 2023-06-23 北京百度网讯科技有限公司 表单信息抽取方法、装置、电子设备及存储介质
CN112784720A (zh) * 2021-01-13 2021-05-11 浙江诺诺网络科技有限公司 基于银行回单的关键信息提取方法、装置、设备及介质
CN112819622B (zh) * 2021-01-26 2023-10-17 深圳价值在线信息科技股份有限公司 一种信息的实体关系联合抽取方法、装置及终端设备
CN114996434B (zh) * 2022-08-08 2022-11-08 深圳前海环融联易信息科技服务有限公司 一种信息抽取方法及装置、存储介质、计算机设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108804521A (zh) * 2018-04-27 2018-11-13 南京柯基数据科技有限公司 一种基于知识图谱的问答方法及农业百科问答系统
CN110321559A (zh) * 2019-06-24 2019-10-11 腾讯科技(深圳)有限公司 自然语言问题的答案生成方法、装置及存储介质
WO2020001373A1 (zh) * 2018-06-26 2020-01-02 杭州海康威视数字技术股份有限公司 一种本体构建方法及装置
CN110795543A (zh) * 2019-09-03 2020-02-14 腾讯科技(深圳)有限公司 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN111090736A (zh) * 2018-10-24 2020-05-01 马上消费金融股份有限公司 问答模型的训练方法、问答方法、装置及计算机存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180232443A1 (en) * 2017-02-16 2018-08-16 Globality, Inc. Intelligent matching system with ontology-aided relation extraction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108804521A (zh) * 2018-04-27 2018-11-13 南京柯基数据科技有限公司 一种基于知识图谱的问答方法及农业百科问答系统
WO2020001373A1 (zh) * 2018-06-26 2020-01-02 杭州海康威视数字技术股份有限公司 一种本体构建方法及装置
CN111090736A (zh) * 2018-10-24 2020-05-01 马上消费金融股份有限公司 问答模型的训练方法、问答方法、装置及计算机存储介质
CN110321559A (zh) * 2019-06-24 2019-10-11 腾讯科技(深圳)有限公司 自然语言问题的答案生成方法、装置及存储介质
CN110795543A (zh) * 2019-09-03 2020-02-14 腾讯科技(深圳)有限公司 基于深度学习的非结构化数据抽取方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
实体关系的弱监督学习抽取方法;王政;朱礼军;徐硕;;中国科技资源导刊(02);全文 *

Also Published As

Publication number Publication date
CN111767334A (zh) 2020-10-13

Similar Documents

Publication Publication Date Title
CN111767334B (zh) 信息抽取方法、装置、电子设备及存储介质
JP7223785B2 (ja) 時系列ナレッジグラフ生成方法、装置、デバイス及び媒体
US11797607B2 (en) Method and apparatus for constructing quality evaluation model, device and storage medium
EP3832488A2 (en) Method and apparatus for generating event theme, device and storage medium
CN113220836B (zh) 序列标注模型的训练方法、装置、电子设备和存储介质
CN111611468B (zh) 页面交互方法、装置和电子设备
CN112541359B (zh) 文档内容识别方法、装置、电子设备及介质
CN104657440A (zh) 结构化查询语句生成系统及方法
CN110555205B (zh) 否定语义识别方法及装置、电子设备、存储介质
CN110569370B (zh) 一种知识图谱的构建方法、装置、电子设备及存储介质
EP3916738A1 (en) Medical fact verification method and apparatus, electronic device, and storage medium
CN113678118A (zh) 数据提取系统
CN112559552B (zh) 数据对生成方法、装置、电子设备及存储介质
CN111767381A (zh) 自动问答方法和装置
CN113657100A (zh) 实体识别方法、装置、电子设备及存储介质
CN111984774B (zh) 搜索方法、装置、设备以及存储介质
CN111966781B (zh) 数据查询的交互方法及装置、电子设备和存储介质
CN111143577A (zh) 数据标注方法、装置和系统
CN114548072A (zh) 用于合同类文件的自动内容解析与信息评测方法及系统
JP7160986B2 (ja) 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム
CN112597768B (zh) 文本审核方法、装置、电子设备、存储介质及程序产品
CN114064913A (zh) 一种基于知识图谱的文档检索方法及系统
CN112269884B (zh) 信息抽取方法、装置、设备及存储介质
CN111241302B (zh) 职位信息图谱生成方法、装置、设备和介质
CN117171296A (zh) 信息获取方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant