CN110807325A - 谓词识别方法、装置及存储介质 - Google Patents

谓词识别方法、装置及存储介质 Download PDF

Info

Publication number
CN110807325A
CN110807325A CN201910996088.XA CN201910996088A CN110807325A CN 110807325 A CN110807325 A CN 110807325A CN 201910996088 A CN201910996088 A CN 201910996088A CN 110807325 A CN110807325 A CN 110807325A
Authority
CN
China
Prior art keywords
predicate
information
text information
target
predicates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910996088.XA
Other languages
English (en)
Other versions
CN110807325B (zh
Inventor
冯晓
王昊
仲广沛
费昊
吕进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910996088.XA priority Critical patent/CN110807325B/zh
Publication of CN110807325A publication Critical patent/CN110807325A/zh
Application granted granted Critical
Publication of CN110807325B publication Critical patent/CN110807325B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种谓词识别方法、装置及存储介质,属于计算机技术领域,方法包括:获取目标文本信息包含的实体类型对应的多个第一谓词;基于第一文本匹配模型,获取目标文本信息的语义特征、每个第一谓词对应的至少一个模板文本信息的语义特征,根据至少一个模板文本信息的语义特征,分别获取每个第一谓词的语义特征,根据目标文本信息与每个第一谓词的语义特征相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词。由于根据第一谓词对应的至少一个模板文本信息的语义特征获取该第一谓词的语义特征,更能准确表示第一谓词的含义,提高了获取的第一谓词的语义特征的准确性和确定的相似度的准确性,进而提高了获取的目标谓词的准确性。

Description

谓词识别方法、装置及存储介质
技术领域
本申请涉及计算机技术领域,特别涉及一种谓词识别方法、装置及存储介质。
背景技术
自然语言中包括实体和谓词,实体是指具有特定意义的名词,谓词是用于描述实体之间关系的词语。在理解文本含义时谓词发挥着重要的作用。例如,在智能问答系统中,根据问题信息中的谓词可以准备理解问题信息的含义,从而准确确定该问题信息对应的答案信息。
相关技术中,当获取到目标文本信息时,对该目标文本信息进行分析,得到该目标文本信息中包含的实体,再获取与该实体的实体类型对应的至少一个谓词,分别确定文本信息的语义特征以及至少一个谓词中每个谓词的语义特征,根据文本信息的语义特征与每个谓词的语义特征,确定文本信息与每个谓词的相似度,从而获取与文本信息的相似度最大的谓词。
但是,由于仅根据文本信息的语义特征和谓词的语义特征确定文本信息与谓词的相似度,导致确定的相似度准确率较低,进而导致确定的谓词准确率较低。
发明内容
本申请实施例提供了一种谓词识别方法、装置及存储介质,能够提高确定目标文本信息的目标谓词的准确性。所述技术方案如下:
一方面,提供了一种谓词识别方法,所述方法包括:
获取目标文本信息包含的实体类型对应的多个第一谓词;
基于第一文本匹配模型,获取所述目标文本信息的语义特征、所述多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征;
基于所述第一文本匹配模型,根据所述每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取所述每个第一谓词的语义特征;
基于所述第一文本匹配模型,获取所述目标文本信息与所述每个第一谓词的语义特征相似度;
根据所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取与所述目标文本信息匹配的目标谓词。
可选地,所述获取目标文本信息包含的实体类型对应的多个第一谓词,包括:
获取所述目标文本信息包括的实体,确定所述实体的实体类型;
获取第一预设对应关系,所述第一预设对应关系中包括实体类型与谓词的对应关系;
根据所述实体类型及所述第一预设对应关系,获取与所述实体类型对应的多个第一谓词。
可选地,所述基于第一文本匹配模型,获取所述多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征,包括:
获取第二预设对应关系,所述第二预设对应关系中包括谓词与模板文本信息的对应关系;
根据所述每个第一谓词及所述第二预设对应关系,获取与所述每个第一谓词对应的至少一个模板文本信息;
基于所述第一文本匹配模型,获取所述至少一个模板文本信息的语义特征。
另一方面,提供了一种谓词识别装置,所述装置包括:
谓词获取模块,用于获取目标文本信息包含的实体类型对应的多个第一谓词;
特征获取模块,用于基于第一文本匹配模型,获取所述目标文本信息的语义特征、所述多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征;
所述特征获取模块,还用于基于所述第一文本匹配模型,根据所述每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取所述每个第一谓词的语义特征;
相似度获取模块,用于基于所述第一文本匹配模型,获取所述目标文本信息与所述每个第一谓词的语义特征相似度;
选取模块,用于所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取与所述目标文本信息匹配的目标谓词。
可选地,所述谓词获取模块,包括:
确定单元,用于获取所述目标文本信息包括的实体,确定所述实体的实体类型;
第一关系获取单元,用于获取第一预设对应关系,所述第一预设对应关系中包括实体类型与谓词的对应关系;
谓词获取单元,用于根据所述实体类型及所述第一预设对应关系,获取与所述实体类型对应的多个第一谓词。
可选地,所述特征获取模块,包括:
第二关系获取单元,用于获取第二预设对应关系,所述第二预设对应关系中包括谓词与模板文本信息的对应关系;
模板获取单元,用于根据所述每个第一谓词及所述第二预设对应关系,获取与所述每个第一谓词对应的至少一个模板文本信息;
特征获取单元,用于基于所述第一文本匹配模型,获取所述至少一个模板文本信息的语义特征。
可选地,所述特征获取模块还用于对于所述每个第一谓词,获取所述第一谓词对应的多个模板文本信息的语义特征的平均语义特征,作为所述第一谓词的语义特征。
可选地,所述选取模块,包括:
选取单元,用于根据所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取多个第二谓词,所述多个第二谓词与所述目标文本信息的语义特征相似度大于其他第一谓词与所述目标文本信息的语义特征相似度;
所述选取单元,还用于从所述多个第二谓词中选取与所述目标文本信息匹配的目标谓词。
可选地,所述选取单元还用于对于每个第二谓词,获取所述第二谓词对应的至少一个模板文本信息;基于第二文本匹配模型,获取每个模板文本信息与所述目标文本信息的匹配标识,所述匹配标识用于指示所述目标文本信息与所述模板文本信息是否匹配;当任一个模板文本信息与所述目标文本信息匹配时,将所述第二谓词确定为所述目标谓词。
可选地,所述选取单元,还用于获取每个模板文本信息与所述目标文本信息的相似度对应的特征向量;将获取的每个特征向量分别输入至所述第二文本匹配模型中,获取所述每个模板文本信息与所述目标文本信息的匹配标识。
可选地,所述装置还包括:
信息获取模块,用于获取样本问题信息、与所述样本问题信息匹配的正样本谓词及与所述样本问题信息不匹配的负样本谓词;
类型获取模块,用于获取所述样本问题信息与所述正样本谓词的第一相似度、所述样本问题信息与所述负样本谓词的第二相似度,及所述样本问题信息对应的答案信息所属的信息类型;
训练模块,用于基于所述第一相似度、第二相似度和所述信息类型,对所述第一文本匹配模型进行训练。
可选地,所述第一文本匹配模型采用的损失函数为:
L=αL1+(1-α)L2
L1=max(0,margin-cos(yP+,yQ)+cos(yP-,yQ))
Figure BDA0002239758370000041
其中,α为第一阈值,yP+为所述正样本谓词的语义特征,yP-为所述负样本谓词的语义特征,yQ为所述目标文本信息的语义特征,n为所述答案信息的信息类型的数量,yi为所述答案信息所属的第i个信息类型的取值,si为所述答案信息属于第i个信息类型的概率,cos(yp+,yQ)为所述正样本谓词的语义特征与所述目标文本信息的语义特征的余弦相似度,cos(yp-,yQ)为所述负样本谓词的语义特征与所述目标文本信息的语义特征的余弦相似度,margin为第二阈值。
另一方面,提供了一种谓词识别装置,所述装置包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行以实现如所述谓词识别方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如所述谓词识别方法。
本申请实施例提供的谓词识别方法、装置及存储介质,获取目标文本信息包含的实体类型对应的多个第一谓词,基于第一文本匹配模型,获取目标文本信息的语义特征、多个第一谓词中每个第一谓词对应的至少一个模板文本信息的语义特征,基于该第一文本匹配模型,根据每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取每个第一谓词的语义特征,基于第一文本匹配模型,获取目标文本信息的语义特征与每个第一谓词的语义特征的相似度,根据目标文本信息的语义特征与每个第一谓词的语义特征的相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词。由于根据第一谓词对应的至少一个模板文本信息的语义特征,获取该第一谓词的语义特征,该语义特征更能准确表示该第一谓词的含义,因此提高了获取第一谓词的语义特征的准确性和确定的相似度的准确性,进而提高了获取的目标谓词的准确性。
并且,在训练第一文本匹配模型时,获取样本问题信息对应的答案信息所属的信息类型,根据获取的答案信息所属的信息类型对该第一文本匹配模型进行训练,从而使得该第一文本匹配模型具备区分目标文本信息对应的信息类型与谓词对应的信息类型是否一致的能力,进一步提高了获取的相似度的准确性,进而提高了获取的目标谓词的准确性。
并且,获取到多个第二谓词后,还会根据第二谓词对应的至少一个模板文本信息,确定该至少一个模板文本信息是否与目标文本信息匹配,仅有当模板文本信息与目标文本信息匹配时,才将该模板文本信息所属的第二谓词作为与目标文本信息匹配的目标谓词,提高了获取的目标谓词的准确性,且提高了目标谓词的拒识能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种智能问答系统的工作流程图;
图2是本申请实施例提供的一种谓词识别方法的流程图;
图3是本申请实施例提供的一种第一文本匹配模型的结构示意图;
图4是本申请实施例提供的一种谓词识别方法的流程图;
图5是本申请实施例提供的一种谓词识别装置的结构示意图;
图6是本申请实施例提供的另一种谓词识别装置的结构示意图;
图7是本申请实施例提供的一种终端的结构示意图;
图8是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例采用NLP(Natural Language Processing,自然语言处理)技术进行处理,实现了谓词识别。该自然语言处理技术是计算机科学领域与人工智能领域中的一个重要方向,它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,是一门融合语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
本申请实施例提供了一种谓词识别方法,获取目标文本信息包含的实体类型对应的多个第一谓词,基于第一文本匹配模型,获取目标文本信息与每个第一谓词的语义特征相似度,从而根据目标文本信息与每个第一谓词的语义特征相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词,实现了对目标文本信息的谓词识别。
本申请实施例提供的谓词识别方法,可以应用于智能问答系统中,当获取到用户输入的问题信息时,采用本申请实施例提供的方法,即可确定与该问题信息匹配的目标谓词。后续还可以确定该问题信息中的目标实体,根据目标实体和目标谓词,确定该问题信息对应的答案信息,将确定的答案信息输出给用户。
其中,该智能问答系统基于KB(Knowledge Base,知识库)回答问题信息,也即是KBQA(Knowledge Base Question Answering,知识库问答)。当基于用户的提问向智能问答系统输入问题信息时,该智能问答系统即可根据该问题信息确定对应的答案信息。
其中,该KB是一个图结构,该图结构中的节点为实体,任两个实体之间可以通过边连接,这两个实体和对应的边构成一个三元组,每个三元组被称为一个事实。例如,这个三元组可由主语、谓词和宾语构成。
按照领域划分,该知识库问答包括领域知识问答和开放域知识问答。该领域知识问答是指仅针对特定领域的问题信息进行回答。例如,该领域知识问答可以是仅针对金融领域的问题信息进行回答,或者可以是仅针对医学领域的问题信息进行回答,或者还可以是仅针对航天领域的问题信息进行回答等等。该开放域知识问答是指不限定领域的问题信息,无论何种领域的问题信息,均可以进行回答。
对于问题信息而言,该问题信息可以包括一度关系查询信息、多度关系查询信息、带有条件限定查询的信息、聚合查询信息等等。该一度关系查询信息是指问题信息中仅存在一个实体。该多度关系查询信息是指问题信息中存在多个实体构成的限定语句。带有条件限定查询的信息是指问题信息中不仅存在实体,而且还存在对该实体进行限定的语句。聚合查询信息是指根据问题信息获得的答案信息对应的数量信息。
例如,如表1所示:
表1
问题类型 举例
一度关系查询 xx是哪里人
多度关系查询 xx老婆是哪里人
带有条件限定的查询 xx的yy女主角是谁?
聚合查询 xx有几个女儿
图1是本申请实施例提供的一种智能问答系统的工作流程图。参见图1,该方法包括:
101、识别目标文本信息中的实体。
例如,该目标文本信息为“xx的aa女主角是谁”,该目标文本信息中的实体为“xx”和“aa”。
102、识别目标文本信息中的谓词。
例如,该目标文本信息“xx的aa女主角是谁”中识别出的谓词为“主演”。
103、根据知识库中存储的实体,从目标文本信息的实体中选取主题实体。
其中,该知识库中存储有图结构,该图结构中的节点即为实体,通过查询该知识库中存储的实体,即可确定目标文本信息中的主题实体,该主题实体为在知识库中存在该谓词所指示的边连接的实体。
104、根据获取的主题实体和谓词,在知识库中查询候选答案。
其中,由于知识库中包括任两个实体和对应的边构成的三元组,因此,根据主题实体和谓词,即可从知识库中查询得到与该主题实体通过谓词连接的实体,将获取到的实体作为问题信息的候选答案。
例如,“xx的aa女主角是谁”的候选答案为“张三”、“李四”和“王五”。
105、获取每个候选答案的置信度,选取置信度最高的候选答案作为目标文本信息的答案信息。
图2是本申请实施例提供的一种谓词识别方法的流程图。参见图2,该方法应用于识别装置中,该识别装置可以为终端或者服务器。其中,该终端可以为手机、平板电脑、计算机等。该服务器可以为一台服务器,或者由若干服务器组成的服务器集群,或者是一个云计算服务中心。该方法包括:
201、获取目标文本信息包含的实体类型对应的多个第一谓词。
其中,该目标文本信息可以为任一语句。目标文本信息中包括实体,且实体是指客观存在且可以相互区分的对象或事物,实体在目标文本信息中具有特定的含义,能够用来描述一个对象或事物。
实体类型用于表示每个实体所属的类别。对于不同的实体,可以属于相同的实体类型,或者也可以属于不同的实体类型。例如,实体类型可以为人物、机构、地理位置、时间、日期、货币、百分比等。相应的,实体可以为人物名称、机构名称、地理位置名称、时间、日期、货币金额、百分比等。
谓词用于表示任两个实体之间的相关关系,且目标文本信息中包含的不同的实体类型也对应有不同的谓词,因此,获取目标文本信息中包含的实体,再获取该实体的实体类型对应的多个第一谓词,后续即可根据该多个第一谓词确定与目标文本信息匹配的目标谓词。
可选地,获取目标文本信息包括的实体,确定实体的实体类型,获取第一预设对应关系,根据实体类型及第一预设对应关系,获取与实体类型对应的多个第一谓词。其中,该第一预设对应关系中包括实体类型与谓词的对应关系。
该第一预设对应关系可以存储在数据库中,识别装置从数据库中获取该第一预设对应关系。
在一种可能实现方式中,识别装置可以从数据库中获取第一预设对应关系,采用schema(知识库模式),查询该第一预设对应关系,获取实体类型对应的多个第一谓词。
可选地,获取目标文本信息包括的实体时,可以获取实体词库,将目标文本信息中包含的词汇分别与实体词库中的实体进行对比,确定该目标文本信息中的实体。或者,采用命名实体识别算法,获取目标文本信息中的实体。
需要说明的是,本申请实施例仅是以获取目标文本信息中的实体类型对应的多个第一谓词为例进行说明。该目标文本信息可以为原始的文本信息。而在另一实施例中,获取原始文本信息中的实体,将该实体替换为该实体对应的实体类型,得到目标文本信息,该目标文本信息即为对原始文本信息进行模板化后得到的文本信息。
由于每个谓词对应有至少一个模板文本信息,因此通过模板化得到目标文本信息之后,可以将目标文本信息与已设置的模板文本信息进行对比,当目标文本信息与任一模板文本信息匹配时,直接将该模板文本信息对应的谓词作为目标文本信息的目标谓词。而当目标文本信息与任一模板文本信息均不匹配时,开始执行步骤201。
202、基于第一文本匹配模型,获取目标文本信息的语义特征、多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征。
其中,每个谓词对应有至少一个模板文本信息,例如,当谓词为出生日期时,该出生日期对应的模板文本信息包括“xx是哪年出生的”、“xx的生日是哪天”、“xx的出生日期是什么时候”。该第一文本匹配模型用于获取任两个文本信息的语义特征相似度,也即是获取这两个文本信息的语义特征,计算这两个文本信息的语义特征的相似度,即为这两个文本信息的语义特征相似度。
将目标文本信息和该目标文本信息对应的多个第一谓词输入至第一文本匹配模型中,基于该第一文本匹配模型,获取目标文本信息的语义特征、每个第一谓词对应的模板文本信息的语义特征,后续基于得到的目标文本信息的语义特征和每个第一谓词对应的至少一个模板文本信息的语义特征,即可获取目标文本信息与每个第一谓词的语义特征相似度。
在一种可能实现方式中,获取第二预设对应关系,根据每个第一谓词及第二预设对应关系,获取与每个第一谓词对应的至少一个模板文本信息,将目标文本信息、该目标文本信息对应的多个第一谓词、每个第一谓词对应的至少一个模板文本信息输入至第一文本匹配模型中,基于第一文本匹配模型,即可获取至少一个模板文本信息的语义特征。
其中,该第二预设对应关系中包括谓词与模板文本信息的对应关系。该第二预设对应关系可以存储在数据库中,识别装置从数据库中获取该第二预设对应关系。
其中,该第一文本匹配模型可以由识别装置训练得到,并由该识别装置存储。或者,该第一文本匹配模型可以由其他设备训练后发送给识别装置,由识别装置存储。该第一文本匹配模型可以为CNN(Convolutional Neural Network,卷积神经网络)模型、BiGRU(一种神经网络)模型、HRRNN(一种神经网络)模型等。
在一种可能实现方式中,第一文本匹配模型的训练过程包括:获取样本问题信息、与样本问题信息匹配的正样本谓词及与样本问题信息不匹配的负样本谓词,获取样本问题信息与正样本谓词的第一相似度、样本问题信息与负样本谓词的第二相似度,及样本问题信息对应的答案信息所属的信息类型,基于第一相似度、第二相似度和信息类型,对第一文本匹配模型进行训练。
其中,该第一文本匹配模型可以为初始化的模型,也可以为经过一次或者多次调整后得到的模型。
在训练过程中,该第一文本匹配模型会预先设置答案信息可能属于的多个信息类型,当获取到样本问题信息对应的答案信息所属的信息类型后,将该样本问题信息对应的答案信息属于的信息类型的样本概率设置为1,将其他信息类型的样本概率设置为0。
将样本问题信息、正样本谓词和负样本谓词输入至该第一文本匹配模型,基于该第一文本匹配模型获取样本问题信息与正样本谓词的第一预测相似度、样本问题信息与负样本谓词的第二预测相似度及样本问题信息对应的答案信息属于多个信息类型的预测概率,获取第一相似度与第一预测相似度之间的误差、第二相似度与第二预测相似度之间的误差及答案信息属于每个信息类型的预测概率与对应的样本概率之间的误差,对第一文本匹配模型的模型参数进行调整,以使基于调整后的第一文本匹配模型获取到的误差收敛。
对于一个模型来说,误差收敛是指,通过对模型进行一次调整,使基于调整后的模型进行处理时得到的误差与基于调整前的模型进行处理时得到的误差相比更小。通过一次或多次调整,模型的误差逐渐减小,直至模型的误差小于预设阈值时,误差收敛,可以认为模型的准确率满足要求,模型训练完成。
在一种可能实现方式中,为该第一文本匹配模型设置损失函数,按照该损失函数对第一文本匹配模型进行训练,该损失函数的输出值与基于第一文本匹配模型获取的第一预测相似度与第一相似度之间的误差、基于第一文本匹配模型获取的第二预测相似度与第二相似度之间的误差以及预测概率与样本概率之间的误差呈正相关关系。
例如,第一文本匹配模型采用的损失函数为:
L=αL1+(1-α)L2
L1=max(0,margin-cos(yP+,yQ)+cos(yP-,yQ))
Figure BDA0002239758370000111
其中,α为第一阈值,yP+为正样本谓词的语义特征,yP-为负样本谓词的语义特征,yQ为目标文本信息的语义特征,n为答案信息的信息类型的数量,yi为答案信息所属的第i个信息类型的取值,si为答案信息属于第i个信息类型的概率,cos(yp+,yQ)为正样本谓词的语义特征与目标文本信息的语义特征的余弦相似度,cos(yp-,yQ)为负样本谓词的语义特征与目标文本信息的语义特征的余弦相似度,margin为第二阈值。
在一种可能实现方式中,还可以采用onehot(独热编码)对获取的答案信息属于的信息类型进行编码,得到编码后的数据,根据该编码后的数据对第一文本匹配模型进行训练。
例如,如图3所示,将样本问题信息、正样本谓词、负样本谓词输入至第一文本匹配模型中,获取问题信息的语义特征、正样本谓词的语义特征、负样本谓词的语义特征,分别获取问题信息与正样本谓词的语义特征相似度和问题信息与负样本谓词的语义特征相似度,计算第一损失函数L1的输出值,再根据问题信息获取对应的答案信息属于的信息类型的预测概率和样本概率,计算第二损失函数L2的输出值,计算第一损失函数L1的输出值和第二损失函数L2的输出值之和,即为第一文本匹配模型的误差。
该第一文本匹配模型包括两个任务:谓词识别任务和答案识别任务,该谓词识别任务是指基于该第一文本匹配模型,获取问题信息与每个谓词之间的语义特征相似度,该答案识别任务是指根据问题信息的语义特征,确定该问题信息对应的答案信息所属的信息类型。通过上述训练过程,两个任务相互作用,共同学习,以使该第一文本匹配模型能够具备获取语义特征相似度的能力以及确定谓词的信息类型是否匹配的能力。在基于第一文本匹配模型获取第一谓词的语义特征时,既能考虑目标文本信息与第一谓词的语义特征相似度,又能考虑第一谓词是否与问题信息对应的答案信息的信息类型匹配。
需要说明的第一点是,由于问题信息的答案信息属于某种信息类型,且每个谓词会对应一种信息类型,因此在训练第一文本匹配模型时,将问题信息的答案信息对应的信息类型和谓词对应的信息类型考虑进来,根据答案信息对应的信息类型和谓词对应的信息类型,对第一文本匹配模型进行训练后,实现了多任务联合训练的效果,可以提高基于该第一文本匹配模型获取的相似度的准确率,排除答案信息的信息类型与谓词对应的信息类型不一致但问题信息与谓词的相似度仍然很高的情况。
例如,答案信息所属的信息类型可以如表2所示:
表2
需要说明的第二点是,本申请实施例仅是以获取样本问题信息对应的答案信息所属的信息类型,对第一文本匹配模型进行训练为例进行说明。在另一实施例中,无需获取样本问题信息对应的答案信息所属的信息类型,仅根据样本问题信息与正样本谓词的第一相似度以及样本问题信息与负样本谓词的第二相似度,对第一文本匹配模型进行训练即可。
203、基于第一文本匹配模型,根据每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取每个第一谓词的语义特征。
对于多个第一谓词中的每个第一谓词,根据该第一谓词对应的至少一个模板文本信息的语义特征,即可获取该第一谓词的语义特征。
在一种可能实现方式中,对于每个第一谓词,该第一谓词对应多个模板文本信息,获取第一谓词对应的多个模板文本信息的语义特征的平均语义特征,作为第一谓词的语义特征。
例如,当第一谓词对应的模板文本信息为【T1、T2、T3】,每个模板文本信息的语义特征为
Figure BDA0002239758370000131
那么第一谓词的语义特征为
Figure BDA0002239758370000132
其中,为第i个第一谓词的语义特征,N为第一谓词对应的模板文本信息的数量,
Figure BDA0002239758370000134
为第i个第一谓词对应的第j个模板文本信息的语义特征。
本申请实施例提供的方法,通过获取第一谓词对应的多个模板文本信息的语义特征,根据该多个模板文本信息的语义特征获取第一谓词的语义特征,提高了第一谓词的语义特征的准确性。
204、基于第一文本匹配模型,获取目标文本信息与每个第一谓词的语义特征相似度。
对于多个第一谓词中的每个第一谓词,基于第一文本匹配模型,即可获取目标文本信息的语义特征与每个第一谓词的语义特征的相似度,即为目标文本信息与每个第一谓词的语义特征相似度。
其中,上述语义特征相似度可以为余弦相似度、欧式距离或者其他方式表示的相似度。
语义特征相似度为余弦相似度时,采用以下公式进行计算:
Figure BDA0002239758370000135
其中,scorepi表示目标文本信息与第一谓词的余弦相似度,
Figure BDA0002239758370000136
表示第一谓词的语义特征,
Figure BDA0002239758370000137
表示目标文本信息的语义特征。
205、根据目标文本信息与每个第一谓词的语义特征相似度,从多个第一谓词中选取多个第二谓词。
其中,多个第二谓词与目标文本信息的语义特征相似度大于其他第一谓词与目标文本信息的语义特征相似度。
在一种可能实现方式中,按照相似度由高到低的顺序对多个第一谓词进行排序,选取前预设数量的第一谓词作为第二谓词。或者,按照相似度由低到高的顺序对多个第一谓词进行排序,选取后预设数量的第一谓词作为第二谓词。
其中,该预设数量可以由识别装置设置,或者还可以由开发人员设置。该预设数量可以为3、4、5或者其他数值。
在另一种可能实现方式中,从多个第一谓词中选取相似度大于预设相似度的第一谓词作为第二谓词。
其中,该预设相似度可以由识别装置设置,或者还可以由开发人员设置。该预设相似度可以为0.7、0.75、0.8或者其他数值。
本申请实施例提供的方法,从多个第一谓词中选取多个第二谓词,该多个第二谓词即为与目标文本信息相似的谓词,能够去除与目标文本信息不相似的谓词,减小后续过程中的数据量,还能够提高谓词识别的准确率。
206、从多个第二谓词中选取与目标文本信息匹配的目标谓词。
在一种可能实现方式中,对于每个第二谓词,获取第二谓词对应的至少一个模板文本信息,基于第二文本匹配模型,获取每个模板文本信息与目标文本信息的匹配标识,任一个模板文本信息与目标文本信息匹配时,将第二谓词确定为目标谓词。
其中,匹配标识用于指示目标文本信息与模板文本信息是否匹配。该第二文本匹配模型为一种分类模型,可以为GBDT(Gradient Boosting Decision Tree,梯度提升决策树)模型、LR(logistic regression,逻辑回归)模型、或者其他类型的模型等。
可选地,该匹配标识包括第一匹配标识和第二匹配标识,第一匹配标识与第二匹配标识不同,且该第一匹配标识用于表示目标文本信息与模板文本信息匹配,第二匹配标识用于表示目标文本信息与模板文本信息不匹配。例如,该第一匹配标识为1,第二匹配标识为0。
在另一种可能实现方式中,获取每个模板文本信息与目标文本信息的相似度对应的特征向量,将获取的每个特征向量输入至第二文本匹配模型中,分别获取每个模板文本信息与目标文本信息的匹配标识。其中,该第二文本匹配模型用于根据任两个文本信息对应的特征向量确定这两个文本信息是否匹配。
其中,可以通过至少两种方式获取模板文本信息与目标文本信息的相似度,也即是可以获取模板文本信息与目标文本信息的至少两个相似度,将该至少两个相似度进行组合,得到模板文本信息与目标文本信息的相似度对应的特征向量。
对于每个第二谓词对应的至少一个模板文本信息中的每个模板文本信息,当根据该模板文本信息与目标文本信息的相似度获取模板文本信息与目标文本信息的特征向量后,即可将该特征向量输入至第二文本匹配模型中,基于该第二文本匹配模型,获取该模板文本信息与目标文本信息的匹配标识,根据该匹配标识确定模板文本信息和目标文本信息是否匹配,当该匹配标识指示模板文本信息和目标文本信息匹配时,将模板文本信息所属的第二谓词作为与目标文本信息匹配的目标谓词。
在一种可能实现方式中,获取模板文本信息与目标文本信息的相似度可以包括以下至少两项:
一、获取余弦相似度。
获取模板文本信息的语义特征与目标文本信息的语义特征的余弦相似度,作为模板文本信息与目标文本信息的余弦相似度。
其中,在获取模板文本信息的语义特征与目标文本信息的语义特征的过程中,采用是基于字的分词方式,以得到模板文本信息和目标文本信息的语义特征,或者采用基于词的分词方式,以得到模板文本信息和目标文本信息的语义特征,或者还可以采用其他分词方式以得到模板文本信息和目标文本信息的语义特征。
二、根据模板文本信息的逆文档词频形成的第一向量及根据目标文本信息的逆文档词频形成的第二向量,获取该第一向量和第二向量的余弦相似度。
在一种可能实现方式中,确定模板文本信息中的每个词汇对应的逆文档词频,将每个词汇的逆文档词频进行组合,构成该模板文本信息的第一向量,再确定目标文本信息中的每个词汇对应的逆文档词频,将每个词汇的逆文档词频进行组合,构成该目标文本信息的第二向量,再获取该第一向量和第二向量的余弦相似度。
三、获取模板文本信息中每个词汇的词向量的第一平均向量,及目标文本信息中每个词汇的词向量的第二平均向量,获取该第一平均向量和第二平均向量的余弦相似度。
四、获取模板文本信息与目标文本信息的杰卡德相似度。
例如,可以采用以下公式确定模板文本信息和目标文本信息的杰卡德相似度:
Figure BDA0002239758370000161
其中,Ttj表示第j个模板文本信息的词汇集合,Q表示目标文本信息的词汇集合,|Ttj∩Q|表示目标文本信息与第j个模板文本信息的相同词汇的数量,|Ttj∪Q|表示目标文本信息与第j个模板文本信息的词汇总数量,Jaccard(Ttj,Q)表示第j个模板文本信息与目标文本信息的杰卡德相似度。
本申请实施例获取到多个第二谓词后,还会根据第二谓词对应的至少一个模板文本信息,确定该至少一个模板文本信息是否与目标文本信息匹配,仅有当模板文本信息与目标文本信息匹配时,才将该模板文本信息所属的第二谓词作为与目标文本信息匹配的目标谓词,提高了获取的目标谓词的准确性,且提高了目标谓词的拒识能力。
需要说明的第一点是,本申请实施例仅是以确定每个第二谓词中每个模板文本信息是否与目标文本信息匹配为例进行说明。在另一实施例中,先从多个第二谓词中选取与目标文本信息相似度最大的第二谓词,判断该第二谓词对应的至少一个模板文本信息中是否包括与目标文本信息匹配的模板文本信息,当该至少一个模板文本信息中的任一个模板文本信息与目标文本信息匹配时,将该第二谓词确定为与目标文本信息匹配的目标谓词,后续不再判断其他第二谓词对应的模板文本信息是否与目标文本信息匹配。
如果该第二谓词对应的至少一个模板文本信息均与目标文本信息不匹配,则从除该第二谓词以外的其他第二谓词中选取与目标文本信息的相似度最大的第二谓词,继续判断该第二谓词对应的至少一个模板文本信息中是否包括与目标文本信息匹配的模板文本信息,当该至少一个模板文本信息中的任一个模板文本信息与目标文本信息匹配时,将该第二谓词确定为与目标文本信息匹配的目标谓词,后续不再判断其他第二谓词对应的模板文本信息是否与目标文本信息匹配。依次类推,直至从多个第二谓词中选取到与目标文本信息匹配的目标谓词为止。
需要说明的第二点是,本公开实施例仅是以根据目标文本信息和每个第一谓词的语义特征相似度,获取多个第二谓词,再从多个第二谓词中选取与目标文本信息匹配的目标谓词为例进行说明,在另一实施例中,还可以直接根据目标文本信息与每个第一谓词的语义特征相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词。
在一种可能实现方式中,根据目标文本信息与每个第一谓词的语义特征相似度,选取与目标文本信息的语义特征相似度最大的第一谓词,作为与目标文本信息匹配的目标谓词。
需要说明的第三点是,步骤205-206仅是可选方案。在另一实施例中,获取到多个第二谓词之后,将多个第二谓词进行两两组合,得到组合后的多个第三谓词,从多个第三谓词中获取预设数据库中包括的至少一个第三谓词,从该至少一个第三谓词中获取与目标文本信息的相似度最大的第三谓词,作为与目标文本信息匹配的目标谓词。其中,该预设数据库中可以预先存储一个或多个谓词,且这些谓词是由至少两个谓词组合而成。
在一种可能实现方式中,按照相似度由高到低的顺序对多个第三谓词进行排序,选取第一个第三谓词作为目标谓词。或者,按照相似度由低到高的顺序对多个第三谓词进行排序,选取最后一个第三谓词作为目标谓词。
在另一种可能实现方式中,从多个第三谓词中选取相似度大于预设相似度的第三谓词作为目标谓词。
其中,该预设相似度可以由识别装置设置,或者还可以由开发人员设置。该预设相似度可以为0.7、0.75、0.8或者其他数值。
可选地,当从多个第三谓词中选取的、相似度大于预设相似度的第三谓词仅存在一个时,直接将该第三谓词作为目标谓词。当从多个第三谓词中选取的、相似度大于预设相似度的第三谓词存在多个时,从选取的多个第三谓词中选取相似度最大的第三谓词作为目标谓词。
图4是本申请实施例提供的一种谓词识别方法的流程图。参见图4,该方法包括:
1、获取问题信息。
2、对问题信息进行实体识别,得到该问题信息中的实体。
3、对问题信息进行谓词识别,得到该问题信息中的谓词。
其中,该步骤3中还包括步骤(1)-(4):
(1)、将问题信息中的实体替换为实体类型,得到模板化后的问题信息。
(2)、获取实体类型对应的多个谓词。
(3)、将模板化后的问题信息与每个谓词进行匹配。
(4)、将模板化后的问题信息与每个谓词对应的模板文本信息进行匹配,根据匹配结果得到与问题信息匹配的目标谓词。
本申请实施例提供的方法,获取目标文本信息包含的实体类型对应的多个第一谓词,基于第一文本匹配模型,获取目标文本信息的语义特征、多个第一谓词中每个第一谓词对应的至少一个模板文本信息的语义特征,基于该第一文本匹配模型,根据每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取每个第一谓词的语义特征,基于第一文本匹配模型,获取目标文本信息的语义特征与每个第一谓词的语义特征的相似度,根据目标文本信息的语义特征与每个第一谓词的语义特征的相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词。由于根据第一谓词对应的至少一个模板文本信息的语义特征,获取该第一谓词的语义特征,该语义特征更能准确表示该第一谓词的含义,因此提高了获取第一谓词的语义特征的准确性和确定的相似度的准确性,进而提高了获取的目标谓词的准确性。
并且,在训练第一文本匹配模型时,获取样本问题信息对应的答案信息所属的信息类型,根据获取的答案信息所属的信息类型对该第一文本匹配模型进行训练,从而使得该第一文本匹配模型具备区分目标文本信息对应的信息类型与谓词对应的信息类型是否一致的能力,进一步提高了获取的相似度的准确性,进而提高了获取的目标谓词的准确性。
并且,获取到多个第二谓词后,还会根据第二谓词对应的至少一个模板文本信息,确定该至少一个模板文本信息是否与目标文本信息匹配,仅有当模板文本信息与目标文本信息匹配时,才将该模板文本信息所属的第二谓词作为与目标文本信息匹配的目标谓词,提高了获取的目标谓词的准确性,且提高了目标谓词的拒识能力。
图5是本申请实施例提供的一种谓词识别装置的结构示意图,参见图5,该装置包括:
谓词获取模块501,用于获取目标文本信息包含的实体类型对应的多个第一谓词;
特征获取模块502,用于基于第一文本匹配模型,获取目标文本信息的语义特征、多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征;
特征获取模块502,还用于基于第一文本匹配模型,根据每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取每个第一谓词的语义特征;
相似度获取模块503,用于基于第一文本匹配模型,获取目标文本信息的语义特征与每个第一谓词的语义特征的相似度;
选取模块504,用于目标文本信息与每个第一谓词的语义特征相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词。
本申请实施例提供的装置,获取目标文本信息包含的实体类型对应的多个第一谓词,基于第一文本匹配模型,获取目标文本信息的语义特征、多个第一谓词中每个第一谓词对应的至少一个模板文本信息的语义特征,基于该第一文本匹配模型,根据每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取每个第一谓词的语义特征,基于第一文本匹配模型,获取目标文本信息的语义特征与每个第一谓词的语义特征的相似度,根据目标文本信息的语义特征与每个第一谓词的语义特征的相似度,从多个第一谓词中选取与目标文本信息匹配的目标谓词。由于根据第一谓词对应的至少一个模板文本信息的语义特征,获取该第一谓词的语义特征,该语义特征更能准确表示该第一谓词的含义,因此提高了获取第一谓词的语义特征的准确性,也提高了确定的相似度的准确性,进而提高了获取的目标谓词的准确性。
可选地,参见图6,谓词获取模块501,包括:
确定单元5011,用于获取目标文本信息包括的实体,确定实体的实体类型;
第一关系获取单元5012,用于获取第一预设对应关系,第一预设对应关系中包括实体类型与谓词的对应关系;
谓词获取单元5013,用于根据实体类型及第一预设对应关系,获取与实体类型对应的多个第一谓词。
可选地,参见图6,特征获取模块502,包括:
第二关系获取单元5021,用于获取第二预设对应关系,第二预设对应关系中包括谓词与模板文本信息的对应关系;
模板获取单元5022,用于根据每个第一谓词及第二预设对应关系,获取与每个第一谓词对应的至少一个模板文本信息;
特征获取单元5023,用于基于第一文本匹配模型,获取至少一个模板文本信息的语义特征。
可选地,特征获取模块502还用于对于每个第一谓词,获取第一谓词对应的多个模板文本信息的语义特征的平均语义特征,作为第一谓词的语义特征。
可选地,参见图6,选取模块504,包括:
选取单元5041,用于根据目标文本信息与每个第一谓词的语义特征相似度,从多个第一谓词中选取多个第二谓词,多个第二谓词与目标文本信息的语义特征相似度大于其他第一谓词与目标文本信息的语义特征相似度;
选取单元5041,还用于从多个第二谓词中选取与目标文本信息匹配的目标谓词。
可选地,选取单元5041还用于对于每个第二谓词,获取第二谓词对应的至少一个模板文本信息;基于第二文本匹配模型,获取每个模板文本信息与目标文本信息的匹配标识,匹配标识用于指示目标文本信息与模板文本信息是否匹配;当任一个模板文本信息与目标文本信息匹配时,将第二谓词确定为目标谓词。
可选地,选取单元5041,还用于获取每个模板文本信息与目标文本信息的相似度对应的特征向量;将获取的每个特征向量分别输入至第二文本匹配模型中,获取每个模板文本信息与目标文本信息的匹配标识。
可选地,参见图6,装置还包括:
信息获取模块505,用于获取样本问题信息、与样本问题信息匹配的正样本谓词及与样本问题信息不匹配的负样本谓词;
类型获取模块506,用于获取样本问题信息与正样本谓词的第一相似度、样本问题信息与负样本谓词的第二相似度,及样本问题信息对应的答案信息所属的信息类型;
训练模块507,用于基于第一相似度、第二相似度和信息类型,对第一文本匹配模型进行训练。
可选地,第一文本匹配模型采用的损失函数为:
L=αL1+(1-α)L2
L1=max(0,margin-cos(yP+,yQ)+cos(yP-,yQ))
Figure BDA0002239758370000201
其中,α为第一阈值,yP+为所述正样本谓词的语义特征,yP-为所述负样本谓词的语义特征,yQ为所述目标文本信息的语义特征,n为所述答案信息的信息类型的数量,yi为所述答案信息所属的第i个信息类型的取值,Si为所述答案信息属于第i个信息类型的概率,cos(yp+,yQ)为所述正样本谓词的语义特征与所述目标文本信息的语义特征的余弦相似度,cos(yp-,yQ)为所述负样本谓词的语义特征与所述目标文本信息的语义特征的余弦相似度,margin为第二阈值。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的谓词识别装置在识别谓词时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将识别装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的谓词识别装置的实施例与谓词识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7是本申请实施例提供的一种终端的结构示意图,该终端用于执行上述实施例中识别装置执行的步骤。该终端700可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑、台式电脑、头戴式设备,或其他任意智能终端。终端700还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端700包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器701所具有以实现本申请中方法实施例提供的谓词识别方法。
在一些实施例中,终端700还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、触摸显示屏705、摄像头组件706、音频电路707、定位组件708和电源709中的至少一种。
外围设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及8G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏705用于显示UI(UserInterface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置终端700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在终端700的不同表面或呈折叠设计;在再一些实施例中,显示屏705可以是柔性显示屏,设置在终端700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位终端700的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源709用于为终端700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端700还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
加速度传感器711可以检测以终端700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制触摸显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测终端700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对终端700的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在终端700的侧边框和/或触摸显示屏705的下层。当压力传感器713设置在终端700的侧边框时,可以检测用户对终端700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在触摸显示屏705的下层时,由处理器701根据用户对触摸显示屏705的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户具有相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置终端700的正面、背面或侧面。当终端700上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商标志集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制触摸显示屏705的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏705的显示亮度;当环境光强度较低时,调低触摸显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件706的拍摄参数。
接近传感器716,也称距离传感器,通常设置在终端700的前面板。接近传感器716用于采集用户与终端700的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与终端700的正面之间的距离逐渐变小时,由处理器701控制触摸显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与终端700的正面之间的距离逐渐变大时,由处理器701控制触摸显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对终端700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图8是本申请实施例提供的一种服务器的结构示意图,该服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central ProcessingUnits,CPU)801和一个或一个以上的存储器802,其中,所述存储器802中存储有至少一条指令,所述至少一条指令由所述处理器801加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
服务器800可以用于执行上述谓词识别方法中识别装置所执行的步骤。
本申请实施例还提供了一种谓词识别装置,该装置包括处理器和存储器,存储器中存储有至少一条程序代码,至少一条程序代码由处理器加载并具有以实现上述实施例的谓词识别方法中所具有的操作。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,至少一条程序代码由处理器加载并具有以实现上述实施例的谓词识别方法中所具有的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种谓词识别方法,其特征在于,所述方法包括:
获取目标文本信息包含的实体类型对应的多个第一谓词;
基于第一文本匹配模型,获取所述目标文本信息的语义特征、所述多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征;
基于所述第一文本匹配模型,根据所述每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取所述每个第一谓词的语义特征;
基于所述第一文本匹配模型,获取所述目标文本信息与所述每个第一谓词的语义特征相似度;
根据所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取与所述目标文本信息匹配的目标谓词。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一文本匹配模型,根据所述每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取所述每个第一谓词的语义特征,包括:
对于所述每个第一谓词,基于所述第一文本匹配模型,获取所述第一谓词对应的多个模板文本信息的语义特征的平均语义特征,作为所述第一谓词的语义特征。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取与所述目标文本信息匹配的目标谓词,包括:
根据所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取多个第二谓词,所述多个第二谓词与所述目标文本信息的语义特征相似度大于其他第一谓词与所述目标文本信息的语义特征相似度;
从所述多个第二谓词中选取与所述目标文本信息匹配的目标谓词。
4.根据权利要求3所述的方法,其特征在于,所述从所述多个第二谓词中选取与所述目标文本信息匹配的目标谓词,包括:
对于每个第二谓词,获取所述第二谓词对应的至少一个模板文本信息;
基于第二文本匹配模型,获取每个模板文本信息与所述目标文本信息的匹配标识,所述匹配标识用于指示所述目标文本信息与所述模板文本信息是否匹配;
当任一个模板文本信息与所述目标文本信息匹配时,将所述第二谓词确定为所述目标谓词。
5.根据权利要求4所述的方法,其特征在于,所述基于第二文本匹配模型,获取每个模板文本信息与所述目标文本信息的匹配标识,包括:
获取所述每个模板文本信息与所述目标文本信息的相似度对应的特征向量;
将获取的每个特征向量分别输入至所述第二文本匹配模型中,获取所述每个模板文本信息与所述目标文本信息的匹配标识。
6.根据权利要求1所述的方法,其特征在于,所述基于第一文本匹配模型,获取所述目标文本信息的语义特征、所述多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征之前,所述方法还包括:
获取样本问题信息、与所述样本问题信息匹配的正样本谓词及与所述样本问题信息不匹配的负样本谓词;
获取所述样本问题信息与所述正样本谓词的第一相似度、所述样本问题信息与所述负样本谓词的第二相似度,及所述样本问题信息对应的答案信息所属的信息类型;
基于所述第一相似度、第二相似度和所述信息类型,对所述第一文本匹配模型进行训练。
7.根据权利要求6所述的方法,其特征在于,所述第一文本匹配模型采用的损失函数为:
L=αL1+(1-α)L2
Figure FDA0002239758360000022
Figure FDA0002239758360000021
其中,α为第一阈值,为所述正样本谓词的语义特征,
Figure FDA0002239758360000032
为所述负样本谓词的语义特征,yQ为所述目标文本信息的语义特征,n为所述答案信息的信息类型的数量,yi为所述答案信息所属的第i个信息类型的取值,si为所述答案信息属于第i个信息类型的概率,
Figure FDA0002239758360000033
为所述正样本谓词的语义特征与所述目标文本信息的语义特征的余弦相似度,为所述负样本谓词的语义特征与所述目标文本信息的语义特征的余弦相似度,margin为第二阈值。
8.一种谓词识别装置,其特征在于,所述装置包括:
谓词获取模块,用于获取目标文本信息包含的实体类型对应的多个第一谓词;
特征获取模块,用于基于第一文本匹配模型,获取所述目标文本信息的语义特征、所述多个第一谓词中的每个第一谓词对应的至少一个模板文本信息的语义特征;
所述特征获取模块,还用于基于所述第一文本匹配模型,根据所述每个第一谓词对应的至少一个模板文本信息的语义特征,分别获取所述每个第一谓词的语义特征;
相似度获取模块,用于基于所述第一文本匹配模型,获取所述目标文本信息与所述每个第一谓词的语义特征相似度;
选取模块,用于所述目标文本信息与所述每个第一谓词的语义特征相似度,从所述多个第一谓词中选取与所述目标文本信息匹配的目标谓词。
9.一种谓词识别装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至7任一权利要求所述的谓词识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至7任一权利要求所述的谓词识别方法。
CN201910996088.XA 2019-10-18 2019-10-18 谓词识别方法、装置及存储介质 Active CN110807325B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910996088.XA CN110807325B (zh) 2019-10-18 2019-10-18 谓词识别方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910996088.XA CN110807325B (zh) 2019-10-18 2019-10-18 谓词识别方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110807325A true CN110807325A (zh) 2020-02-18
CN110807325B CN110807325B (zh) 2023-05-26

Family

ID=69488611

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910996088.XA Active CN110807325B (zh) 2019-10-18 2019-10-18 谓词识别方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110807325B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583907A (zh) * 2020-04-15 2020-08-25 北京小米松果电子有限公司 信息处理方法、装置及存储介质
CN112163081A (zh) * 2020-10-14 2021-01-01 网易(杭州)网络有限公司 标签确定方法、装置、介质及电子设备
CN112487162A (zh) * 2020-11-25 2021-03-12 腾讯音乐娱乐科技(深圳)有限公司 确定文本语义信息的方法、装置、设备以及存储介质
CN112989037A (zh) * 2021-02-05 2021-06-18 浙江连信科技有限公司 用于识别职业压力源的信息处理方法及装置
CN113536790A (zh) * 2020-04-15 2021-10-22 阿里巴巴集团控股有限公司 基于自然语言处理的模型训练方法及装置
CN114416603A (zh) * 2022-03-31 2022-04-29 北京搜狐新动力信息技术有限公司 Ui元素测试方法、装置、存储介质和设备
CN114611497A (zh) * 2022-05-10 2022-06-10 北京世纪好未来教育科技有限公司 语病诊断模型的训练方法、语病诊断方法、装置及设备
CN114780528A (zh) * 2022-04-22 2022-07-22 深圳计算科学研究院 一种数据实体识别方法、装置、计算机设备及存储介质
WO2023236240A1 (zh) * 2022-06-09 2023-12-14 深圳计算科学研究院 一种基于强化学习的数据筛选方法及其装置

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793273B1 (en) * 2011-06-29 2014-07-29 Google Inc. Parsing framework method and device
WO2014117553A1 (en) * 2013-01-29 2014-08-07 Tencent Technology (Shenzhen) Company Limited Method and system of adding punctuation and establishing language model
US20140350939A1 (en) * 2013-05-24 2014-11-27 Tencent Technology (Shenzhen) Company Limited Systems and Methods for Adding Punctuations
US20150261745A1 (en) * 2012-11-29 2015-09-17 Dezhao Song Template bootstrapping for domain-adaptable natural language generation
CN105244029A (zh) * 2015-08-28 2016-01-13 科大讯飞股份有限公司 语音识别后处理方法及系统
US20160321244A1 (en) * 2013-12-20 2016-11-03 National Institute Of Information And Communications Technology Phrase pair collecting apparatus and computer program therefor
CN107301213A (zh) * 2017-06-09 2017-10-27 腾讯科技(深圳)有限公司 智能问答方法及装置
US20170337474A1 (en) * 2016-05-20 2017-11-23 Disney Enterprises, Inc. Systems and Methods for Determining Semantic Roles of Arguments in Sentences
CN108717441A (zh) * 2018-05-16 2018-10-30 腾讯科技(深圳)有限公司 问题模板所对应的谓词的确定方法及装置
CN108959613A (zh) * 2018-07-17 2018-12-07 杭州电子科技大学 一种面向rdf知识图谱的语义近似查询方法
CN109033305A (zh) * 2018-07-16 2018-12-18 深圳前海微众银行股份有限公司 问题回答方法、设备及计算机可读存储介质
CN109408821A (zh) * 2018-10-22 2019-03-01 腾讯科技(深圳)有限公司 一种语料生成方法、装置、计算设备及存储介质
CN109582949A (zh) * 2018-09-14 2019-04-05 阿里巴巴集团控股有限公司 事件元素抽取方法、装置、计算设备及存储介质
CN110147436A (zh) * 2019-03-18 2019-08-20 清华大学 一种基于教育知识图谱与文本的混合自动问答方法
CN110209781A (zh) * 2018-08-13 2019-09-06 腾讯科技(深圳)有限公司 一种文本处理方法、装置以及相关设备

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793273B1 (en) * 2011-06-29 2014-07-29 Google Inc. Parsing framework method and device
US20150261745A1 (en) * 2012-11-29 2015-09-17 Dezhao Song Template bootstrapping for domain-adaptable natural language generation
WO2014117553A1 (en) * 2013-01-29 2014-08-07 Tencent Technology (Shenzhen) Company Limited Method and system of adding punctuation and establishing language model
US20140350939A1 (en) * 2013-05-24 2014-11-27 Tencent Technology (Shenzhen) Company Limited Systems and Methods for Adding Punctuations
US20160321244A1 (en) * 2013-12-20 2016-11-03 National Institute Of Information And Communications Technology Phrase pair collecting apparatus and computer program therefor
CN105244029A (zh) * 2015-08-28 2016-01-13 科大讯飞股份有限公司 语音识别后处理方法及系统
US20170337474A1 (en) * 2016-05-20 2017-11-23 Disney Enterprises, Inc. Systems and Methods for Determining Semantic Roles of Arguments in Sentences
CN107301213A (zh) * 2017-06-09 2017-10-27 腾讯科技(深圳)有限公司 智能问答方法及装置
CN108717441A (zh) * 2018-05-16 2018-10-30 腾讯科技(深圳)有限公司 问题模板所对应的谓词的确定方法及装置
CN109033305A (zh) * 2018-07-16 2018-12-18 深圳前海微众银行股份有限公司 问题回答方法、设备及计算机可读存储介质
CN108959613A (zh) * 2018-07-17 2018-12-07 杭州电子科技大学 一种面向rdf知识图谱的语义近似查询方法
CN110209781A (zh) * 2018-08-13 2019-09-06 腾讯科技(深圳)有限公司 一种文本处理方法、装置以及相关设备
CN109582949A (zh) * 2018-09-14 2019-04-05 阿里巴巴集团控股有限公司 事件元素抽取方法、装置、计算设备及存储介质
CN109408821A (zh) * 2018-10-22 2019-03-01 腾讯科技(深圳)有限公司 一种语料生成方法、装置、计算设备及存储介质
CN110147436A (zh) * 2019-03-18 2019-08-20 清华大学 一种基于教育知识图谱与文本的混合自动问答方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOICHIRO YOSHINO: "Language modeling for spoken dialogue system based on sentence transformation and filtering using predicate-argument structures", PROCEEDINGS OF THE 2012 ASIA PACIFIC SIGNAL AND INFORMATION PROCESSING ASSOCIATION ANNUAL SUMMIT AND CONFERENCE *
姜芳;李国和;岳翔;尼彬杉;: "语义关系自动抽取方法", 山西大学学报(自然科学版) *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583907B (zh) * 2020-04-15 2023-08-15 北京小米松果电子有限公司 信息处理方法、装置及存储介质
CN113536790A (zh) * 2020-04-15 2021-10-22 阿里巴巴集团控股有限公司 基于自然语言处理的模型训练方法及装置
CN111583907A (zh) * 2020-04-15 2020-08-25 北京小米松果电子有限公司 信息处理方法、装置及存储介质
CN112163081A (zh) * 2020-10-14 2021-01-01 网易(杭州)网络有限公司 标签确定方法、装置、介质及电子设备
CN112487162A (zh) * 2020-11-25 2021-03-12 腾讯音乐娱乐科技(深圳)有限公司 确定文本语义信息的方法、装置、设备以及存储介质
CN112989037A (zh) * 2021-02-05 2021-06-18 浙江连信科技有限公司 用于识别职业压力源的信息处理方法及装置
CN112989037B (zh) * 2021-02-05 2023-05-23 浙江连信科技有限公司 用于识别职业压力源的信息处理方法及装置
CN114416603A (zh) * 2022-03-31 2022-04-29 北京搜狐新动力信息技术有限公司 Ui元素测试方法、装置、存储介质和设备
CN114416603B (zh) * 2022-03-31 2022-07-12 北京搜狐新动力信息技术有限公司 Ui元素测试方法、装置、存储介质和设备
CN114780528A (zh) * 2022-04-22 2022-07-22 深圳计算科学研究院 一种数据实体识别方法、装置、计算机设备及存储介质
CN114780528B (zh) * 2022-04-22 2024-07-09 深圳计算科学研究院 一种数据实体识别方法、装置、计算机设备及存储介质
CN114611497A (zh) * 2022-05-10 2022-06-10 北京世纪好未来教育科技有限公司 语病诊断模型的训练方法、语病诊断方法、装置及设备
CN114611497B (zh) * 2022-05-10 2022-08-16 北京世纪好未来教育科技有限公司 语病诊断模型的训练方法、语病诊断方法、装置及设备
WO2023236240A1 (zh) * 2022-06-09 2023-12-14 深圳计算科学研究院 一种基于强化学习的数据筛选方法及其装置

Also Published As

Publication number Publication date
CN110807325B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
CN110807325B (zh) 谓词识别方法、装置及存储介质
CN111104980B (zh) 确定分类结果的方法、装置、设备及存储介质
CN111243668B (zh) 分子结合位点检测方法、装置、电子设备及存储介质
CN112749728A (zh) 学生模型训练方法、装置、计算机设备及存储介质
CN111897996A (zh) 话题标签推荐方法、装置、设备及存储介质
CN111192262A (zh) 基于人工智能的产品缺陷分类方法、装置、设备及介质
WO2022057435A1 (zh) 基于搜索的问答方法及存储介质
CN113505256B (zh) 特征提取网络训练方法、图像处理方法及装置
CN111324699A (zh) 语义匹配的方法、装置、电子设备及存储介质
CN111581958A (zh) 对话状态确定方法、装置、计算机设备及存储介质
CN113569042A (zh) 文本信息分类方法、装置、计算机设备及存储介质
CN113821658A (zh) 对编码器进行训练的方法、装置、设备及存储介质
CN113516143A (zh) 文本图像匹配方法、装置、计算机设备及存储介质
CN113569052A (zh) 知识图谱的表示学习方法及装置
CN110837557B (zh) 摘要生成方法、装置、设备及介质
CN113836946B (zh) 训练评分模型的方法、装置、终端及存储介质
CN112287070A (zh) 词语的上下位关系确定方法、装置、计算机设备及介质
CN110990549A (zh) 获取答案的方法、装置、电子设备及存储介质
CN111597823B (zh) 中心词提取方法、装置、设备及存储介质
CN112988984B (zh) 特征获取方法、装置、计算机设备及存储介质
CN112560472B (zh) 一种识别敏感信息的方法及装置
CN114281937A (zh) 嵌套实体识别模型的训练方法、嵌套实体识别方法及装置
CN111737415A (zh) 实体关系抽取方法、实体关系学习模型的获取方法及设备
CN114328948A (zh) 文本标准化模型的训练方法、文本标准化方法及装置
CN112035649A (zh) 问答模型处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018287

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant