CN111241285A - 问题回答类型的识别方法、装置、设备及存储介质 - Google Patents

问题回答类型的识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111241285A
CN111241285A CN202010042473.3A CN202010042473A CN111241285A CN 111241285 A CN111241285 A CN 111241285A CN 202010042473 A CN202010042473 A CN 202010042473A CN 111241285 A CN111241285 A CN 111241285A
Authority
CN
China
Prior art keywords
entity
vector
target
coding
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010042473.3A
Other languages
English (en)
Other versions
CN111241285B (zh
Inventor
周环宇
余淼
冯欣伟
戴松泰
田孟
吴学谦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010042473.3A priority Critical patent/CN111241285B/zh
Publication of CN111241285A publication Critical patent/CN111241285A/zh
Application granted granted Critical
Publication of CN111241285B publication Critical patent/CN111241285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本申请公开了问题回答类型的识别方法、装置、设备及存储介质,涉及人工智能,尤其涉及知识图谱、智能搜索领域。具体实现方案为:该方法应用于电子设备,该方法包括:接收用户输入的目标问题;确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量;根据全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量确定目标问题在预设回答类型集中对应的回答类型,预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。能够更全面和准确地对目标问题的回答类型进行解析,即使对于复杂问题及文本较短的信息模糊问题也能够对回答类型进行准确地识别。

Description

问题回答类型的识别方法、装置、设备及存储介质
技术领域
本申请涉及到数据处理技术领域,尤其涉及智能搜索技术。
背景技术
随着人工智能技术的成熟,问答系统也不断进行完善。问答系统涉及问题解析、答案检索及定位等多个环节。在对问题进行解析时,通过对问题回答类型进行识别,能够提高获取问题答案的准确率和召回率,同时能够作为基础特征为后续环节服务。
现有技术中,对问题回答类型进行识别时,主要是对在一个特定领域中的问题的回答类型进行识别的。导致方法不够通用,无法进行大规模的使用。而且由于是使用在特定领域的,所以对于该特定领域的问题,数据比较规整且结构也较为单一,对于稍微复杂一点的问题则无法对回答类型进行正确识别,并且对于一些文本较短带来的信息模糊问题也无法有效解决。
发明内容
本申请实施例提供一种问题回答类型的识别方法、装置、设备及存储介质,解决了现有技术中的问题的回答类型识别方法不够通用,无法进行大规模的使用,对于稍微复杂一点的问题则无法对回答类型进行正确识别,并且对于一些文本较短带来的信息模糊问题也无法有效解决的技术问题。
本申请实施例第一方面提供一种问题回答类型的识别方法,所述方法包括:
接收用户输入的目标问题;确定所述目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量;根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型,所述预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。
本申请实施例中,由于回答类型是与问题中的实体类别是对应的。所以在对问题的回答类型进行识别前,首先对知识图谱中所有的实体类别进行归类,能够形成合理的回答类型的类别和分类数量,并且由于知识图谱能够涵盖所有领域的实体,所以预设回答类型集中的回答类型也涵盖了所有领域中问题的回答类型。使本申请提供的问题回答类型的识别方法更具有通用性,而且由于在对目标问题进行解析确定回答类型时,不仅解析出了表示目标问题自身的全局关键信息的编码向量,而且解析出了表示目标问题句式信息和实体类别信息的编码向量,这些信息均与回答类型具有很强的相关性,所以结合全局关键信息、句式信息和实体类别信息的编码向量,能够更全面和准确地对目标问题的回答类型进行解析,即使对于复杂问题及文本较短的信息模糊问题也能够对回答类型进行准确地识别。
进一步地,如上所述的方法,所述确定所述目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量,包括:
采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量;采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量;采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量。
本申请实施例中,采用已训练至收敛的深度神经网络模型的第一编码网络,第二编码网络及第三编码网络对应确定全局关键信息编码向量,句式信息编码向量及实体类别信息编码向量,由于深度神经网络模型是已训练至收敛的,所以能够准确确定出全局关键信息编码向量,句式信息编码向量及实体类别信息编码向量。
进一步地,如上所述的方法,所述第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络;
所述采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量,包括:
采用所述字编码网络对所述目标问题按照字级别切成目标单字,并对各目标单字进行一对一编码,输出字级别编码向量;采用所述第一双向长短期记忆网络对所述字级别编码向量进行编码,输出字关联信息编码向量;采用所述自注意力网络对所述字关联信息编码向量进行编码,输出所述全局关键信息编码向量。
本申请实施例中,在确定目标问题的全局关键信息编码向量时,首先采用字编码网络对目标单字进行一对一编码,然后采用第一双向长短期记忆网络和自注意力网络再次进行编码,能够使全局关键信息编码向量准确表示出目标问题的全局关键信息。
进一步地,如上所述的方法,所述第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络;
所述采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量,包括:
采用所述目标实体编码网络确定所述目标问题中包括的目标实体,并将所述目标实体编码为目标实体编码向量;采用所述词向量编码网络对所述目标问题中的非实体按照词级别进行分词,将分词后的非实体编码为非实体编码向量,并将所述目标实体编码向量和所述非实体词编码向量进行拼接,输出词编码向量;采用所述第二双向长短期记忆网络对所述词编码向量进行编码,输出所述句式信息编码向量。
本申请实施例中,在确定目标问题的句式信息编码向量时,首先采用目标实体编码网络对目标实体进行编码,然后采用词向量编码网络和第二双向长短期记忆网络再次进行编码,能够使句式信息编码向量准确表示出目标问题的句式信息。
进一步地,如上所述的方法,所述采用所述目标实体编码网络确定所述目标问题中包括的目标实体,包括:
若采用所述目标实体编码网络确定所述目标问题的回答类型为问题回答类型,则将所述目标问题与预设实体库中的待匹配实体进行匹配;根据所述目标问题与待匹配实体的匹配度确定所述目标实体。
本申请实施例中,采用目标实体编码网络确定所述目标问题中包括的目标实体时,将目标问题与知识图谱中的预设实体库的待匹配实体进行匹配的方式来确定目标实体,能够准确确定出目标问题中的目标实体。
进一步地,如上所述的方法,所述将所述目标实体编码为目标实体编码向量,包括:
将所述目标实体编码为随机向量;将所述随机向量确定为目标实体编码向量。
本申请实施例中,将目标实体编码为随机向量,将随机向量确定为目标实体编码向量,能够弱化目标实体,充分体现目标问题的句式信息,进而使句式信息表示的更加准确。
进一步地,如上所述的方法,所述第三编码网络包括:目标实体类别编码网络及第一全连接网络;
所述采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量,包括:
采用所述目标实体类别编码网络确定所述目标问题中包括的目标实体在知识图谱中对应的类别,并对所述目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量;采用所述第一全连接网络对所述初始实体类别信息编码向量进行编码,输出所述实体类别信息编码向量;所述实体类别信息编码向量与所述句式信息编码向量为同维度向量。
本申请实施例中,在确定目标问题的实体类别信息编码向量时,首先采用目标实体类别编码网络对目标实体类别进行一对一编码,然后采用第一全连接网络再次进行编码,能够使实体类别信息编码向量准确表示出目标问题的实体类别信息。
进一步地,如上所述的方法,所述根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型,包括:
采用所述已训练至收敛的深度神经网络模型的第二全连接网络对所述句式信息编码向量及所述实体类别信息编码向量进行合并及编码,输出第一融合编码向量;采用所述已训练至收敛的深度神经网络模型的第三全连接网络对所述全局关键信息编码向量和所述第一融合编码向量进行合并及编码,输出第二融合编码向量;将所述第二融合编码向量输入至所述已训练至收敛的深度神经网络模型的分类网络中,以输出所述目标问题在预设回答类型集中对应的回答类型。
本申请实施例中,采用已训练至收敛的深度神经网络模型的第二全连接网络和第三全连接网络能够将目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量充分融合,并且采用已训练至收敛的深度神经网络模型的分类网络根据融合后的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量对目标问题的回答类型进行分类识别,能够准确识别出目标问题的回答类型。
进一步地,如上所述的方法,所述采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量之前,还包括:
确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型;获取对初始深度神经网络模型进行训练的训练样本,所述训练样本包括:标注回答类型的历史问题;采用所述训练样本对所述初始深度神经网络模型进行训练;将满足训练收敛条件的深度神经网络模型确定为所述已训练至收敛的深度神经网络模型。
本申请实施例中,在采用已训练至收敛的深度神经网络模型对目标问题的回答类型进行识别前,采用与测试样本结构一致的训练样本对初始深度神经网络模型进行训练,使已训练至收敛的深度神经网络模型更加适合于对目标问题的回答类型进行识别,使识别出的回答类型更加准确。
进一步地,如上所述的方法,所述确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型,包括:
确定所述预设回答类型集中的一个回答类型为非问题回答类型;对于问题回答类型,获取所述知识图谱中所有实体对应的类别,将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型。
本申请实施例中,在对问题的回答类型进行识别前,首先对知识图谱中所有的实体类别进行归类,能够形成合理的回答类型的类别和分类数量,并且由于知识图谱能够涵盖所有领域的实体,所以预设回答类型集中的回答类型也涵盖了所有领域中问题的回答类型。使本申请提供的问题回答类型的识别方法更具有通用性。
进一步地,如上所述的方法,所述将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型,包括:
计算任意两个实体对应的类别间的相似度;将相似度大于预设相似度阈值的实体确定为同一实体类别的待归类实体;确定同一实体类别中各待归类实体的搜索量;将搜索量最大的待归类实体对应的类别确定为该同一实体类别。
本申请实施例最后那个根据实体对应的类别的相似度和搜索量来确定所有回答类型,使确定出的回答类型的个数和类别更加合理,并且能够涵盖所有领域中问题的回答类型。
进一步地,如上所述的方法,所述根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型之后,还包括:
在所述对应的回答类型的回答数据中搜索所述目标问题对应的答案;输出所述目标问题对应的答案。
本申请实施例中,在对应的回答类型的回答数据中搜索目标问题对应的答案,能够在对应回答类型的回答数据中快速获取目标问题的答案,进而提高获取目标问题答案的效率。
本申请实施例第二方面提供一种问题回答类型的识别装置,所述装置包括:
目标问题接收模块,用于接收用户输入的目标问题;编码向量确定模块,用于确定所述目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量;回答类型确定模块,用于根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型,所述预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。
进一步地,如上所述的装置,所述编码向量确定模块,具体用于:
采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量;采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量;采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量。
进一步地,如上所述的装置,所述第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络;
所述编码向量确定模块,在采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量时,具体用于:
采用所述字编码网络对所述目标问题按照字级别切成目标单字,并对各目标单字进行一对一编码,输出字级别编码向量;采用所述第一双向长短期记忆网络对所述字级别编码向量进行编码,输出字关联信息编码向量;采用所述自注意力网络对所述字关联信息编码向量进行编码,输出所述全局关键信息编码向量。
进一步地,如上所述的装置,所述第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络;
所述编码向量确定模块,在采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量时,具体用于:
采用所述目标实体编码网络确定所述目标问题中包括的目标实体,并将所述目标实体编码为目标实体编码向量;采用所述词向量编码网络对所述目标问题中的非实体按照词级别进行分词,将分词后的非实体编码为非实体编码向量,并将所述目标实体编码向量和所述非实体词编码向量进行拼接,输出词编码向量;采用所述第二双向长短期记忆网络对所述词编码向量进行编码,输出所述句式信息编码向量。
进一步地,如上所述的装置,所述编码向量确定模块,在采用所述目标实体编码网络确定所述目标问题中包括的目标实体时,具体用于:
若采用所述目标实体编码网络确定所述目标问题的回答类型为问题回答类型,则将所述目标问题与预设实体库中的待匹配实体进行匹配;根据所述目标问题与待匹配实体的匹配度确定所述目标实体。
进一步地,如上所述的装置,所述编码向量确定模块,在所述将所述目标实体编码为目标实体编码向量时,具体用于:
将所述目标实体编码为随机向量;将所述随机向量确定为目标实体编码向量。
进一步地,如上所述的装置,所述第三编码网络包括:目标实体类别编码网络及第一全连接网络;
所述编码向量确定模块,在采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量时,具体用于:
采用所述目标实体类别编码网络确定所述目标问题中包括的目标实体在知识图谱中对应的类别,并对所述目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量;采用所述第一全连接网络对所述初始实体类别信息编码向量进行编码,输出所述实体类别信息编码向量;所述实体类别信息编码向量与所述句式信息编码向量为同维度向量。
进一步地,如上所述的装置,所述第三编码网络包括:目标实体类别编码网络及第一全连接网络;
所述编码向量确定模块,在采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量时,具体用于:
采用所述目标实体类别编码网络确定所述目标问题中包括的目标实体在知识图谱中对应的类别,并对所述目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量;采用所述第一全连接网络对所述初始实体类别信息编码向量进行编码,输出所述实体类别信息编码向量;所述实体类别信息编码向量与所述句式信息编码向量为同维度向量。
进一步地,如上所述的装置,还包括:模型训练模块,用于:
确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型;获取对初始深度神经网络模型进行训练的训练样本,所述训练样本包括:标注回答类型的历史问题;采用所述训练样本对所述初始深度神经网络模型进行训练;将满足训练收敛条件的深度神经网络模型确定为所述已训练至收敛的深度神经网络模型。
进一步地,如上所述的装置,所述模型训练模块,在确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型时,具体用于:
确定所述预设回答类型集中的一个回答类型为非问题回答类型;对于问题回答类型,获取所述知识图谱中所有实体对应的类别;将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型。
进一步地,如上所述的装置,所述模型训练模块,在所述将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型时,具体用于:
计算任意两个实体对应的类别间的相似度;将相似度大于预设相似度阈值的实体确定为同一实体类别的待归类实体;确定同一实体类别中各待归类实体的搜索量;将搜索量最大的待归类实体对应的类别确定为该同一实体类别。
进一步地,如上所述的装置,还包括:答案确定模块,用于:
在所述对应的回答类型的回答数据中搜索所述目标问题对应的答案;输出所述目标问题对应的答案。
本申请实施例第三方面提供一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够第一方面中任一项所述的方法。
本申请实施例第四方面提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面任一项所述的方法。
本申请实施例第五方面提供一种计算机程序,包括程序代码,当计算机运行所述计算机程序时,所述程序代码执行如第一方面所述的方法。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是可以实现本申请实施例的问题回答类型的识别方法的场景图;
图2是根据本申请第一实施例提供的问题回答类型的识别方法的流程示意图;
图3是根据本申请第二实施例提供的问题回答类型的识别方法的流程示意图;
图4是根据本申请第二实施例提供的问题回答类型的识别方法中步骤201的流程示意图;
图5是根据本申请第二实施例提供的问题回答类型的识别方法中步骤2012的流程示意图;
图6是根据本申请第二实施例提供的问题回答类型的识别方法中步骤206的流程示意图;
图7是根据本申请第二实施例提供的问题回答类型的识别方法中已训练至收敛的深度神经网络模型的网络结构图;
图8是根据本申请第二实施例提供的问题回答类型的识别方法中步骤2061的流程示意图;
图9是根据本申请第二实施例提供的问题回答类型的识别方法中步骤2062的流程示意图;
图10是根据本申请第二实施例提供的问题回答类型的识别方法中步骤2063的流程示意图;
图11是根据本申请第二实施例提供的问题回答类型的识别方法中步骤207的流程示意图;
图12为根据本申请第三实施例提供的问题回答类型的识别装置的结构示意图;
图13为根据本申请第四实施例提供的问题回答类型的识别装置的结构示意图;
图14是用来实现本申请实施例的问题回答类型的识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了清楚理解本申请的技术方案,首先对本申请实施例中的术语进行解释。
知识图谱:英文为:Knowledge Graph,又称科学知识图谱。主要是用于描述现实世界中的实体(区别于概念,是指客观世界中的具体实物,如张三,李四等)、概念(人们在认识世界过程中形成的对客观事物的概念化表示,如人、动物等)及事件间的客观关系。知识图谱的构建过程即从非结构化数据(图像等)或半结构化数据(网页等)中抽取信息,构建结构化数据(三元组,实体-属性-关系)的过程。最早知识图谱这一词汇由Google于2012年提出,并利用该项技术增强其搜索服务。知识图谱给互联网语义搜索带来了活力,同时其也在问答系统中展现出了强大的能力。知识图谱可采用图结构进行可视化表示。图结构为一系列三元组的集合。如某三元组可表示为(S,P,O)。其中,第一元素S表示主语,也为实体,第二元素P表示谓词,也为属性,第三元素O表示宾语,也为关系。第一个元素S和第三元素O为图结构中的节点,第二元素P表示第一元素S和第三元素O对应的节点间的关系。如一个三元组可表示为<刘三,出生日期,1961年9月28日>。在知识图谱中由第一元素表示的实体可构成实体库,在实体库中包括知识图谱中所有的实体。
下面对本申请实施例提供的问题回答类型的识别方法的应用场景进行介绍。如图1所示,本申请实施例提供的问题回答类型的识别方法对应的应用场景中,在电子设备中搭载有问答系统或搜索引擎等能够满足回答用户问题功能的应用程序。还可搭载有知识图谱,或者将知识图谱搭载在该功能应用程序的后台服务器中,能够通过与后台服务器进行通信,获取知识图谱中的数据。具体地,用户打开电子设备中该功能的应用程序,并通过该功能的应用程序的操作界面以文字、语音等方式输入目标问题。电子设备接收用户输入的目标问题。对目标问题进行解析,确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量,并根据全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量确定目标问题在预设回答类型集中对应的回答类型。其中,预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。由于回答类型是与问题中的实体类别是对应的。所以在对问题的回答类型进行识别前,首先对知识图谱中所有的实体类别进行归类,能够形成合理的回答类型的类别和分类数量,并且由于知识图谱能够涵盖所有领域的实体,所以预设回答类型集中的回答类型也涵盖了所有领域中问题的回答类型。使本申请提供的问题回答类型的识别方法更具有通用性,而且由于在对目标问题进行解析确定回答类型时,不仅解析出了表示目标问题自身的全局关键信息的编码向量,而且解析出了表示目标问题句式信息和实体类别信息的编码向量,这些信息均与回答类型具有很强的相关性,所以结合全局关键信息、句式信息和实体类别信息的编码向量,能够更全面和准确地对目标问题的回答类型进行解析,即使对于复杂问题及文本较短的信息模糊问题也能够对回答类型进行准确地识别。
在确定出目标问题的回答类型后,从对应回答类型的回答数据中搜索目标问题对应的答案,并通过该功能的应用程序的操作界面输出目标问题的答案。如图1中,用户通过语音方式输入的目标问题为“清朝统治时间时多久?”,在电子设备的该功能的应用程序的操作界面中可显示出“清朝统治时间时多久?”的目标问题,用户通过点击操作界面上的“搜索”按键,电子设备执行本申请提供的问题回答类型的识别方法,确定出该目标问题的回答类型为“时长”,输出的目标问题的答案在操作界面中进行显示,为“267年”。
以下将参照附图来具体描述本申请的实施例。
实施例一
图2是根据本申请第一实施例提供的问题回答类型的识别方法的流程示意图,如图2所示,本申请实施例的执行主体为问题回答类型的识别装置,该问题回答类型的识别装置可以集成在电子设备中。则本实施例提供的问题回答类型的识别方法包括以下几个步骤。
步骤101,接收用户输入的目标问题。
本实施例中,在电子设备中搭载有能够满足回答用户问题功能的应用程序。如可以为问答系统或搜索引擎等。则用户有提问问题的需求时,打开对应的应用程序,进入到应用程序的操作界面。通过语音、文本或其他方式向电子设备发送需要提问的问题。该需要提问的问题为目标问题。
若用户通过文本提出目标问题,则用户在操作界面的文本输入框输入目标问题,使电子设备接收到文本形式的目标问题。
若用户通过语音提出目标问题,则用户通过点击操作界面上收录语音的按键和对应的收音组件进行录音,电子设备接收到语音形式的目标问题,并对语音形式的目标问题进行语义解析,可获取文本形式的目标问题。
步骤102,确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量。
本实施例中,可采用机器学习算法或深度学习算法对目标问题进行全局关键信息的特征提取及编码,获得目标问题的全局关键信息编码向量。并可采用机器学习算法或深度学习算法对目标问题进行句式信息的特征提取及编码,获得目标问题的句式信息编码向量。并可采用机器学习算法或深度学习算法对目标问题进行实体类别信息的特征提取及编码,获得目标问题的实体类别信息编码向量。
可以理解的是,本实施例中,确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量的算法可以为同一算法或不同算法,本实施例中对此不作限定。
其中,全局关键信息编码向量是表示目标问题自身全局关键特征信息的编码向量。句式信息编码向量是表示目标问题句式特征信息的编码向量。实体类别信息编码向量是表示目标问题中包括的实体类别特征信息的编码向量。其中,实体类别信息为目标问题的实体在知识图谱中的类别信息。
为了能够对本申请实施例提供的问题回答类型的识别方法说明对文本较短的信息模糊问题也能够对回答类型进行准确地识别。以文本较短的信息模糊问题为例,对表示文本较短的信息模糊的两个目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量的区别进行说明。
表示文本较短的信息模糊的两个目标问题为“刘三多大?”及“手机多大”。对于上述两个目标问题,“刘三”多大,很明显是询问年龄答案的问题。而“手机多大”是询问手机屏幕尺寸的问题。同样是“XX多大”的问题,它们的回答类型显然是不同的。而在这两个目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量也会有关联或区别。具体地,对于上述两个目标问题,由于对应的实体不同,一个为表示人物的实体,一个为表示电子设备的实体,所以其全局关键信息编码向量是不同的。而去掉两个目标问题中的实体后,其句式均为“xx多大”,所以上述两个目标问题的句式是一致的,所以句式信息编码向量也是类似的。而第一个目标问题对应的实体“刘三”,其在知识图谱中对应的实体类别是“人物、明星、歌星、演员”。而第二个目标问题对应的实体“手机”,其在知识图谱中对应的实体类别是“电子设备、终端”。所以上述两个目标问题对应的实体类别是不同的,所以实体类别信息编码向量也是不同的。对于文本较短的信息模糊的两个目标问题虽然在句式信息编码向量上有相似,但全局关键信息编码向量及实体类别信息编码向量均是不同的。所以利用目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量能够对文本较短的信息模糊问题也能够对回答类型进行准确地识别。
而对于复杂的目标问题,通过机器学习算法或深度学习算法也能够确定复杂目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量,进而通过上述编码向量对复杂目标问题的回答类型进行准确的识别。
步骤103,根据全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量确定目标问题在预设回答类型集中对应的回答类型,预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。
本实施例中,在对目标问题的回答类型进行识别前,可首先对问题的回答类型的所有类别和分类数量进行确定。具体可对知识图谱中所有的实体类别按照预设归类策略进行归类,以确定回答类型的所有类别和分类数量。将确定出的回答类型的所有类别设置在预设回答类型集中。
本实施例中,可将目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量输入到分类算法中,分类算法根据目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量对目标问题的回答类型进行分类识别,输出目标问题的回答类型。
其中,分类算法可以为步骤102中的机器学习算法或深度学习算法的分类网络,或者为另一分类算法,本实施例中对此不作限定。
本实施例提供的问题回答类型的识别方法,通过接收用户输入的目标问题;确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量;根据全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量确定目标问题在预设回答类型集中对应的回答类型,预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。由于回答类型是与问题中的实体类别是对应的。所以在对问题的回答类型进行识别前,首先对知识图谱中所有的实体类别进行归类,能够形成合理的回答类型的类别和分类数量,并且由于知识图谱能够涵盖所有领域的实体,所以预设回答类型集中的回答类型也涵盖了所有领域中问题的回答类型。使本申请提供的问题回答类型的识别方法更具有通用性,而且由于在对目标问题进行解析确定回答类型时,不仅解析出了表示目标问题自身的全局关键信息的编码向量,而且解析出了表示目标问题句式信息和实体类别信息的编码向量,这些信息均与回答类型具有很强的相关性,所以结合全局关键信息、句式信息和实体类别信息的编码向量,能够更全面和准确地对目标问题的回答类型进行解析,即使对于复杂问题及文本较短的信息模糊问题也能够对回答类型进行准确地识别。
实施例二
图3是根据本申请第二实施例提供的问题回答类型的识别方法的流程示意图,如图3所示,本实施例提供的问题回答类型的识别方法,是在本申请实施例一提供的问题回答类型的识别方法的基础上,对步骤102-步骤103的进一步细化。并且还包括了在对应的回答类型的回答数据中搜索目标问题对应的答案,输出目标问题对应的答案的步骤。则本实施例提供的问题回答类型的识别方法包括以下步骤。
步骤201,确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型。
其中,初始深度神经网络模型包括的网络结构与已训练至收敛的深度神经网络模型的网络结构相同,但模型中的参数取值不同。所以如图7所示,初始神经网络模型包括的网络为第一编码网络,第二编码网络,第三编码网络,第二全连接网络,第三全连接网络及分类网络。其中,第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络。第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络。第三编码网络包括:目标实体类别编码网络及第一全连接网络。
可以理解的是,在对初始深度神经网络模型采用训练样本训练至收敛,得到已训练至收敛的深度神经网络后,采用已训练至收敛的深度神经网络模型对目标问题的回答类型进行识别。
在对初始深度神经网络进行训练前,先确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型。其中,预设回答类型集中的所有回答类型即是对目标问题进行回答类型识别时可选择的回答类型。
作为一种可选实施方式,如图4所示,本实施例中,步骤201包括以下步骤:
步骤2011,确定预设回答类型集中的一个回答类型为非问题回答类型。
进一步地,本实施例中,在预设回答类型集中设置一个回答类型为非问题回答类型。即目标问题为非问题对应的回答类型。如目标问题为“朱四漂亮呀!”,则该目标问题是一个非问题,则对应的回答类型为非问题回答类型。
步骤2012,对于问题回答类型,获取知识图谱中所有实体对应的类别,将所有实体对应的类别按照预设归类策略进行归类,以确定问题回答类型中的所有回答类型。
进一步地,本实施例中,在知识图谱中包括有第一元素表示的实体构成的预设实体库,在预设实体库中包括知识图谱的所有实体。并且在知识图谱中,所有实体对应的三元组中,有一个三元组为实体的类别对应的三元组。所以获取知识图谱中所有实体的表示类别的三元组中获取对应的第三个元素,即可获取到所有实体对应的类别。如一个表示实体类别的三元组为<六安皋陶墓,类别,“景点、街口路、地名、旅游景区、地点”>,其中的“景点、街口路、地名、旅游景区、地点”即为实体“六安皋陶墓”的类别信息。
可选地,如图5所示,步骤2012中,将所有实体对应的类别按照预设归类策略进行归类,以确定问题回答类型中的所有回答类型,包括以下步骤。
步骤2012a,计算任意两个实体对应的类别间的相似度。
可选地,本实施例中,可根据语义匹配模型计算任意两个实体对应的类别间的相似度,或者采用其他方式计算任意两个实体对应的类别间的相似度。
步骤2012b,将相似度大于预设相似度阈值的实体确定为同一实体类别的待归类实体。
进一步地,本实施例中,将各相似度分别与预设相似度阈值进行对比,若某相似度大于预设相似度阈值,则将该相似度对应的实体确定为同一实体类别的待归类实体。
比如,实体类别为:“河流”、“母亲河”、“上下游”、“支流”间的任意两个实体间的相似度均大于预设相似度阈值,则“河流”、“母亲河”、“上下游”、“支流”为同一实体类别。
步骤2012c,确定同一实体类别中各待归类实体的搜索量。
本实施例中,在知识图谱中还存储有各实体的搜索量的三元组,从知识图谱中确定每个待归类实体的搜索量。其中,待归类实体的搜索量可以为在预设搜索引擎中的搜索量。
步骤2012d,将搜索量最大的待归类实体对应的类别确定为该同一实体类别。
在上述的同一实体类别的举例中,例如“河流”的搜索量最大,则将“河流”确定为“河流”“母亲河”、“上下游”、“支流”这几个待归类对应的实体类别。
可以理解的是,若搜索量最大的待归类实体“河流”的搜索量也不是很高,则说明将其单独作为一个实体类别是使分类太细,则可定义诸如“河流”“山峰”“湖泊”“海洋”“岛屿”“景点景观”等都定义为一个大类的实体类别,为“景观景点”。
值的说明的是,在步骤201之后,预设回答类型集中的所有回答类型包括的个数可以为50多种,由于知识图谱中包括了所有领域的实体,所以在预设回答类型集中的包括的所有回答类型也为所有领域包括的回答类型。其中,有一个回答类型为非问题回答类型,其他回答类型均属于问题回答类型。
步骤202,获取对初始深度神经网络模型进行训练的训练样本,训练样本包括:标注回答类型的历史问题。
本实施例中,训练样本为标注了回答类型的历史问题,为了充分对初始深度神经网络模型进行训练,则训练样本中可包括所有回答类型的历史问题。
步骤203,采用训练样本对初始深度神经网络模型进行训练。
步骤204,将满足训练收敛条件的深度神经网络模型确定为已训练至收敛的深度神经网络模型。
进一步地,本实施例中,如图7所示,将标注了回答类型的历史问题输入到初始深度神经网络模型中,采用初始深度神经网络模型的第一编码网络确定训练样本的全局关键信息编码向量,采用初始深度神经网络模型的第二编码网络确定训练样本的句式信息编码向量,采用初始深度神经网络模型的第三编码网络确定训练样本的实体类别信息编码向量。然后将训练样本的句式信息编码向量及实体类别信息编码向量输入到初始深度神经网络模型中的第二全连接网络中,对句式信息编码向量及实体类别信息编码向量进行合并及编码,输出训练样本对应的第一融合编码向量;将训练样本的全局关键信息编码向量和第一融合编码向量输入到初始深度神经网络模型中的第三全连接网络中,对训练样本的全局关键信息编码向量和第一融合编码向量进行合并及编码,输出训练样本的第二融合编码向量,将训练样本的第二融合编码向量输入至初始深度神经网络模型的分类网络,以输出训练样本在预设回答类型集中对应的回答类型。如此反复,对初始深度神经网络进行训练,直到达到初始深度神经网络满足训练收敛条件。将满足训练收敛条件的深度神经网络模型确定为已训练至收敛的深度神经网络模型。
其中,可将训练收敛条件设置为交叉熵损失最小。则在对初始深度神经网络模型进行训练时,每次训练均查看交叉熵损失是否达到最小,若达到最小,则将交叉熵损失最小时对应的深度神经网络模型确定为已训练至收敛的深度神经网络模型。
值的说明的是,若深度神经网络在训练至收敛,得到已训练至收敛的深度神经网络模型后,不需再执行步骤201-步骤204。若需要更新预设回答类型集中的所有回答类型,则可再次执行步骤201-步骤204,得到适合于与所有回答类型相匹配的已训练至收敛的深度神经网络模型。
步骤205,接收用户输入的目标问题。
本实施例中,步骤205的实现方式与本申请第一实施例中的步骤101的实现方式类似,在此不再一一赘述。
步骤206,确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量。
作为一种可选实施方式,本实施例中,如图6所示,步骤206包括以下步骤。
步骤2061,采用已训练至收敛的深度神经网络模型的第一编码网络确定目标问题的全局关键信息编码向量。
如图7所示,已训练至收敛的深度神经网络模型中的第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络。第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络。第三编码网络包括:目标实体类别编码网络及第一全连接网络。在已训练至收敛的深度神经网络模型中还包括:第二全连接网络,第三全连接网络及分类网络。
可以理解的是,在已训练至收敛的深度神经网络模型中包括的各网络均已训练收敛。
进一步地,如图8所示,步骤2061包括以下步骤。
步骤2061a,采用字编码网络对目标问题按照字级别切成目标单字,并对各目标单字进行一对一编码,输出字级别编码向量。
进一步地,本实施例中,将目标问题输入到字编码网络中,字编码网络对目标问题按照字级别切成一个个单字,每个单字为目标单字。对于目标问题中的每个目标单字,进行一对一编码,得到目标问题字级别的编码向量,输出编码向量。
可以理解的是,在对每个目标单字进行一对一的编码时,不同的目标单字对应的编码不同。
步骤2061b,采用第一双向长短期记忆网络对字级别编码向量进行编码,输出字关联信息编码向量。
进一步地,将字级别编码向量输入到第一双向长短期记忆网络中,第一双向长短期记忆网络继续对字级别编码向量进行编码,编码后形成的向量能够表示目标问题中前后字的关联信息,所以表示为字关联信息编码向量,并输出字关联信息编码向量。
值的说明的是,第一双向长短期记忆网络和下文中提到的第二双向长短期记忆网络的网络结构相同,但网络中对应的参数取值不同。
步骤2061c,采用自注意力网络对字关联信息编码向量进行编码,输出全局关键信息编码向量。
进一步地,本实施例中,将目标问题的字关联信息编码向量输入到自注意力网络中,自注意力网络继续对字关联信息编码向量进行编码,编码后的向量能够体现目标问题中前后词之间的关键信息,即全局关键信息,所以表示为全局关键信息编码向量。该全局关键信息编码向量可表示为:hc。
步骤2062,采用已训练至收敛的深度神经网络模型的第二编码网络确定目标问题的句式信息编码向量。
进一步地,如图9所示,步骤2062包括以下步骤。
步骤2062a,采用目标实体编码网络确定目标问题中包括的目标实体,并将目标实体编码为目标实体编码向量。
进一步地,步骤2062a中,采用目标实体编码网络确定目标问题中包括的目标实体包括以下步骤:
步骤2062a1,若采用目标实体编码网络确定目标问题的回答类型为问题回答类型,则将目标问题与预设实体库中的待匹配实体进行匹配。
进一步地,本实施例中,采用目标实体编码网络判断目标问题是否满足非问题回答类型条件,若不满足非问题回答类型条件,则初步确定目标问题的回答类型为问题回答类型。其中,采用目标实体编码网络判断目标问题是否满足非问题回答类型条件可以为:判断目标问题是否只包括实体或者仅由实体和停用词组成,则确定仅包括实体,或者仅由实体和停用词组成,则确定满足非问题回答类型条件,确定目标问题的回答类型为非问题回答类型,否则确定不满足非问题回答类型条件,初步确定目标问题的回答类型为问题回答类型。
其中,停用词可以为“呢”“吗”“啊”等词。
在初步确定目标问题的回答类型为问题回答类型后,将目标问题与预设实体库中的待匹配实体进行匹配,其中,预设实体库中包括的待匹配实体包括知识库中的所有实体。
步骤2062a2,根据目标问题与待匹配实体的匹配度确定目标实体。
进一步地,本实施例中,计算目标问题与每个待匹配实体的匹配度,将匹配度最大的待匹配实体确定为目标问题中的目标实体。作为一种具体情况,若目标问题中的目标实体与多个待匹配实体有多重匹配,由于长度最长的待匹配实体与目标问题的匹配度最大,所以选择长度最长相匹配实体作为目标问题中的目标实体。作为另一种情况,若在预设实体库中存在多个相匹配的同名实体,则可从知识库中获取每个同名实体的搜索热度,将搜索热度最高的相匹配的同名实体作为目标实体。
进一步地,步骤2062a中,将目标实体编码为目标实体编码向量,包括以下步骤。
步骤2062a3,将目标实体编码为随机向量。
步骤2062a4,将随机向量确定为目标实体编码向量。
进一步地,本实施例中,为了确定目标问题的句式信息,需要弱化目标问题中的目标实体,所以将目标实体编码为随机向量,形成目标实体编码向量。
步骤2062b,采用词向量编码网络对目标问题中的非实体按照词级别进行分词,将分词后的非实体编码为非实体编码向量,并将目标实体编码向量和非实体词编码向量进行拼接,输出词编码向量。
进一步地,本实施例中,将目标问题中除了目标实体外的文本表示为非实体,将非实体按照词级别进行分词处理,分词处理后的非实体采用词向量编码网络进行编码,形成非实体编码向量,将目标实体编码向量和非实体编码向量按照目标问题中实体和非实体的顺序进行拼接,形成词编码向量,并从词向量编码网络中输出词编码向量。
步骤2062c,采用第二双向长短期记忆网络对词编码向量进行编码,输出句式信息编码向量。
进一步地,本实施例中,将词编码向量输入到第二双向长短期记忆网络中,第二双向长短期记忆网络继续对词编码向量进行编码,编码后的向量能够表示目标问题中的句式信息,所以表示为句式信息编码向量。其中,句式信息编码向量可表示为hlstm。
步骤2063,采用已训练至收敛的深度神经网络模型的第三编码网络确定目标问题的实体类别信息编码向量。
进一步地,如图10所示,步骤2063包括以下步骤。
步骤20631,采用目标实体类别编码网络确定目标问题中包括的目标实体在知识图谱中对应的类别,并对目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量。
进一步地,本实施例中,第三编码网络中的目标实体类别编码网络确定目标问题中包括的目标实体,并从知识图谱中确定目标实体对应的类别。其中,目标实体类别编码网络确定目标问题中包括的目标实体的方式与目标实体编码网络确定目标问题中包括的目标实体类似,在此不再一一赘述。
在确定目标问题中包括的目标实体在知识图谱中对应的类别后,对目标实体在知识图谱中对应的类别进行一对一编码,由于目标实体对应的类别可以为多个,所以将目标实体根据知识图谱中实体的总类别数进行一对一编码,若目标实体有某一类别,则编码为1,没有某一类别,则编码为0。
需要说明的是,由于在知识图谱中,有的实体类别可能为空,所以在进行一对一编码时,增加一个为空的实体类别。
在对目标实体在知识图谱中对应的类别进行一对一编码后,目标实体类别编码网络输出初始实体类别信息编码向量。
步骤20632,采用第一全连接网络对初始实体类别信息编码向量进行编码,输出实体类别信息编码向量;实体类别信息编码向量与句式信息编码向量为同维度向量。
进一步地,本实施例中,将初始实体类别信息编码输入到第一全连接层中,第一全连接层继续对初始实体类别信息编码向量进行编码,将初始实体类别信息编码向量编码成与句式信息编码向量同维度的向量,编码后的初始实体类别信息编码向量表示为实体类别信息编码向量,实体类别信息编码向量可表示为hcat。
步骤207,根据全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量确定目标问题在预设回答类型集中对应的回答类型。
作为一种可选实施方式,本实施例中,如图11所示,步骤207包括以下步骤。
步骤2071,采用已训练至收敛的深度神经网络模型的第二全连接网络对句式信息编码向量及实体类别信息编码向量进行合并及编码,输出第一融合编码向量。
进一步地,将句式信息编码向量及实体类别信息编码向量输入到第二全连接网络中,第二全连接网络对句式信息编码向量及实体类别信息编码向量进行合并,并继续进行编码,输出第一融合编码向量。第一融合编码向量融合了目标问题的句式信息实体类别信息,可表示为:hw1。
步骤2072,采用已训练至收敛的深度神经网络模型的第三全连接网络对全局关键信息编码向量和第一融合编码向量进行合并及编码,输出第二融合编码向量。
进一步地,将第一融合编码向量和目标问题的全局关键信息编码向量输入到第三全连接网络中,第三全连接网络对全局关键信息编码向量和第一融合编码向量进行合并,并继续进行编码,输出第二融合编码向量,第二融合编码向量融合了目标问题的全局关键信息,句式信息及实体类别信息。可表示为hw2。
步骤2073,将第二融合编码向量输入至已训练至收敛的深度神经网络模型的分类网络中,以输出目标问题在预设回答类型集中对应的回答类型。
进一步地,本实施例中,将第二融合编码向量输入到分类网络中,分类网络对目标问题在预设回答类型集中对应的回答类型进行分类识别,输出目标问题对应的回答类型。
步骤208,在对应的回答类型的回答数据中搜索目标问题对应的答案。
进一步地,本实施例中,将每个回答类型的回答数据分类存储,则在确定出目标问题对应的回答类型后,在对应回答类型的回答数据中搜索目标问题对应的答案。
步骤209,输出目标问题对应的答案。
可选地,本实施例中,输出目标问题的答案的方式可以为语音输出,文本输出,或者语音和文本的方式同时输出,本实施例中对此不作限定。
本实施例中,在对应的回答类型的回答数据中搜索目标问题对应的答案,能够在对应回答类型的回答数据中快速获取目标问题的答案,进而提高获取目标问题答案的效率。
实施例三
图12为根据本申请第三实施例提供的问题回答类型的识别装置的结构示意图,如图12所示,本实施例提供的问题回答类型的识别装置位于电子设备中。该问题回答类型的识别装置1200包括:目标问题接收模块1201,编码向量确定模块1202及回答类型确定模块1203。
其中,目标问题接收模块1201,用于接收用户输入的目标问题。编码向量确定模块1202,用于确定目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量。回答类型确定模块1203,用于根据全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量确定目标问题在预设回答类型集中对应的回答类型,预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。
本实施例提供的问题回答类型的识别装置可以执行图2所示方法实施例的技术方案,其实现原理和技术效果与图2所示方法实施例类似,在此不再一一赘述。
图13为根据本申请第四实施例提供的问题回答类型的识别装置的结构示意图,如图13所示,本实施例提供的问题回答类型的识别装置1300在图12所示实施例提供的问题回答类型的识别装置1200的基础上,还包括:模型训练模块1301和答案确定模块1302。
进一步地,编码向量确定模块1202,具体用于:
采用已训练至收敛的深度神经网络模型的第一编码网络确定目标问题的全局关键信息编码向量;采用已训练至收敛的深度神经网络模型的第二编码网络确定目标问题的句式信息编码向量;采用已训练至收敛的深度神经网络模型的第三编码网络确定目标问题的实体类别信息编码向量。
进一步地,第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络。
相应地,编码向量确定模块1202,在采用已训练至收敛的深度神经网络模型的第一编码网络确定目标问题的全局关键信息编码向量时,具体用于:
采用字编码网络对目标问题按照字级别切成目标单字,并对各目标单字进行一对一编码,输出字级别编码向量;采用第一双向长短期记忆网络对字级别编码向量进行编码,输出字关联信息编码向量;采用自注意力网络对字关联信息编码向量进行编码,输出全局关键信息编码向量。
进一步地,第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络。
相应地,编码向量确定模块1202,在采用已训练至收敛的深度神经网络模型的第二编码网络确定目标问题的句式信息编码向量时,具体用于:
采用目标实体编码网络确定目标问题中包括的目标实体,并将目标实体编码为目标实体编码向量;采用词向量编码网络对目标问题中的非实体按照词级别进行分词,将分词后的非实体编码为非实体编码向量,并将目标实体编码向量和非实体词编码向量进行拼接,输出词编码向量;采用第二双向长短期记忆网络对词编码向量进行编码,输出句式信息编码向量。
进一步地,编码向量确定模块1202,在采用目标实体编码网络确定目标问题中包括的目标实体时,具体用于:
若采用目标实体编码网络确定目标问题的回答类型为问题回答类型,则将目标问题与预设实体库中的待匹配实体进行匹配;根据目标问题与待匹配实体的匹配度确定目标实体。
进一步地,编码向量确定模块1202,在将目标实体编码为目标实体编码向量时,具体用于:
将目标实体编码为随机向量;将随机向量确定为目标实体编码向量。
进一步地,第三编码网络包括:目标实体类别编码网络及第一全连接网络;
相应地,编码向量确定模块1202,在采用已训练至收敛的深度神经网络模型的第三编码网络确定目标问题的实体类别信息编码向量时,具体用于:
采用目标实体类别编码网络确定目标问题中包括的目标实体在知识图谱中对应的类别,并对目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量;采用第一全连接网络对初始实体类别信息编码向量进行编码,输出实体类别信息编码向量;实体类别信息编码向量与句式信息编码向量为同维度向量。
进一步地,回答类型确定模块1203,具体用于:
采用已训练至收敛的深度神经网络模型的第二全连接网络对句式信息编码向量及实体类别信息编码向量进行合并及编码,输出第一融合编码向量;采用已训练至收敛的深度神经网络模型的第三全连接网络对全局关键信息编码向量和第一融合编码向量进行合并及编码,输出第二融合编码向量;将第二融合编码向量输入至已训练至收敛的深度神经网络模型的分类网络中,以输出目标问题在预设回答类型集中对应的回答类型。
进一步地,模型训练模块1301,用于:
确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型;获取对初始深度神经网络模型进行训练的训练样本,训练样本包括:标注回答类型的历史问题;采用训练样本对初始深度神经网络模型进行训练;将满足训练收敛条件的深度神经网络模型确定为已训练至收敛的深度神经网络模型。
进一步地,模型训练模块1301,在确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型时,具体用于:
确定预设回答类型集中的一个回答类型为非问题回答类型;对于问题回答类型,获取知识图谱中所有实体对应的类别;将所有实体对应的类别按照预设归类策略进行归类,以确定问题回答类型中的所有回答类型。
进一步地,模型训练模块1301,在将所有实体对应的类别按照预设归类策略进行归类,以确定问题回答类型中所有回答类型时,具体用于:
计算任意两个实体对应的类别间的相似度;将相似度大于预设相似度阈值的实体确定为同一实体类别的待归类实体;确定同一实体类别中各待归类实体的搜索量;将搜索量最大的待归类实体对应的类别确定为该同一实体类别。
进一步地,答案确定模块1302,用于:在对应的回答类型的回答数据中搜索目标问题对应的答案;输出目标问题对应的答案。
本实施例提供的问题回答类型的识别装置可以执行图3-图6,图8-图11所示方法实施例的技术方案,其实现原理和技术效果与图3-图6,图8-图11所示方法实施例类似,在此不再一一赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图14所示,是根据本申请实施例的问题回答类型的识别方法的电子设备的框图。电子设备旨在各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图14所示,该电子设备包括:一个或多个处理器1401、存储器1402,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图14中以一个处理器1401为例。
存储器1402即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的问题回答类型的识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的问题回答类型的识别方法。
存储器1402作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的问题回答类型的识别方法对应的程序指令/模块(例如,附图12所示的目标问题接收模块1201,编码向量确定模块1202及回答类型确定模块1203)。处理器1401通过运行存储在存储器1402中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的问题回答类型的识别方法。
存储器1402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图14的电子设备的使用所创建的数据等。此外,存储器1402可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1402可选包括相对于处理器1401远程设置的存储器,这些远程存储器可以通过网络连接至图14的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图14的电子设备还可以包括:输入装置1403和输出装置1404。处理器1401、存储器1402、输入装置1403和输出装置1404可以通过总线或者其他方式连接,图14中以通过总线连接为例。
输入装置1403可接收输入的语音、数字或字符信息,以及产生与图14的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1404可以包括语音播放设备、显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,由于回答类型是与问题中的实体类别是对应的。所以在对问题的回答类型进行识别前,首先对知识图谱中所有的实体类别进行归类,能够形成合理的回答类型的类别和分类数量,并且由于知识图谱能够涵盖所有领域的实体,所以预设回答类型集中的回答类型也涵盖了所有领域中问题的回答类型。使本申请提供的问题回答类型的识别方法更具有通用性,而且由于在对目标问题进行解析确定回答类型时,不仅解析出了表示目标问题自身的全局关键信息的编码向量,而且解析出了表示目标问题句式信息和实体类别信息的编码向量,这些信息均与回答类型具有很强的相关性,所以结合全局关键信息、句式信息和实体类别信息的编码向量,能够更全面和准确地对目标问题的回答类型进行解析,即使对于复杂问题及文本较短的信息模糊问题也能够对回答类型进行准确地识别。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (26)

1.一种问题回答类型的识别方法,其特征在于,所述方法包括:
接收用户输入的目标问题;
确定所述目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量;
根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型,所述预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。
2.根据权利要求1所述的方法,其特征在于,所述确定所述目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量,包括:
采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量;
采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量;
采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量。
3.根据权利要求2所述的方法,其特征在于,所述第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络;
所述采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量,包括:
采用所述字编码网络对所述目标问题按照字级别切成目标单字,并对各目标单字进行一对一编码,输出字级别编码向量;
采用所述第一双向长短期记忆网络对所述字级别编码向量进行编码,输出字关联信息编码向量;
采用所述自注意力网络对所述字关联信息编码向量进行编码,输出所述全局关键信息编码向量。
4.根据权利要求2所述的方法,其特征在于,所述第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络;
所述采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量,包括:
采用所述目标实体编码网络确定所述目标问题中包括的目标实体,并将所述目标实体编码为目标实体编码向量;
采用所述词向量编码网络对所述目标问题中的非实体按照词级别进行分词,将分词后的非实体编码为非实体编码向量,并将所述目标实体编码向量和所述非实体词编码向量进行拼接,输出词编码向量;
采用所述第二双向长短期记忆网络对所述词编码向量进行编码,输出所述句式信息编码向量。
5.根据权利要求4所述的方法,其特征在于,所述采用所述目标实体编码网络确定所述目标问题中包括的目标实体,包括:
若采用所述目标实体编码网络确定所述目标问题的回答类型为问题回答类型,则将所述目标问题与预设实体库中的待匹配实体进行匹配;
根据所述目标问题与待匹配实体的匹配度确定所述目标实体。
6.根据权利要求4所述的方法,其特征在于,所述将所述目标实体编码为目标实体编码向量,包括:
将所述目标实体编码为随机向量;
将所述随机向量确定为目标实体编码向量。
7.根据权利要求2所述的方法,其特征在于,所述第三编码网络包括:目标实体类别编码网络及第一全连接网络;
所述采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量,包括:
采用所述目标实体类别编码网络确定所述目标问题中包括的目标实体在知识图谱中对应的类别,并对所述目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量;
采用所述第一全连接网络对所述初始实体类别信息编码向量进行编码,输出所述实体类别信息编码向量;所述实体类别信息编码向量与所述句式信息编码向量为同维度向量。
8.根据权利要求2所述的方法,其特征在于,所述根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型,包括:
采用所述已训练至收敛的深度神经网络模型的第二全连接网络对所述句式信息编码向量及所述实体类别信息编码向量进行合并及编码,输出第一融合编码向量;
采用所述已训练至收敛的深度神经网络模型的第三全连接网络对所述全局关键信息编码向量和所述第一融合编码向量进行合并及编码,输出第二融合编码向量;
将所述第二融合编码向量输入至所述已训练至收敛的深度神经网络模型的分类网络中,以输出所述目标问题在预设回答类型集中对应的回答类型。
9.根据权利要求2所述的方法,其特征在于,所述采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量之前,还包括:
确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型;
获取对初始深度神经网络模型进行训练的训练样本,所述训练样本包括:标注回答类型的历史问题;
采用所述训练样本对所述初始深度神经网络模型进行训练;
将满足训练收敛条件的深度神经网络模型确定为所述已训练至收敛的深度神经网络模型。
10.根据权利要求9所述的方法,其特征在于,所述确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型,包括:
确定所述预设回答类型集中的一个回答类型为非问题回答类型;
对于问题回答类型,获取所述知识图谱中所有实体对应的类别,将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型。
11.根据权利要求10所述的方法,其特征在于,所述将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型,包括:
计算任意两个实体对应的类别间的相似度;
将相似度大于预设相似度阈值的实体确定为同一实体类别的待归类实体;
确定同一实体类别中各待归类实体的搜索量;
将搜索量最大的待归类实体对应的类别确定为该同一实体类别。
12.根据权利要求1-11任一项所述的方法,其特征在于,所述根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型之后,还包括:
在所述对应的回答类型的回答数据中搜索所述目标问题对应的答案;
输出所述目标问题对应的答案。
13.一种问题回答类型的识别装置,其特征在于,所述装置包括:
目标问题接收模块,用于接收用户输入的目标问题;
编码向量确定模块,用于确定所述目标问题的全局关键信息编码向量、句式信息编码向量及实体类别信息编码向量;
回答类型确定模块,用于根据所述全局关键信息编码向量、所述句式信息编码向量及所述实体类别信息编码向量确定所述目标问题在预设回答类型集中对应的回答类型,所述预设回答类型集是对知识图谱中所有的实体类别进行归类后确定的。
14.根据权利要求13所述的装置,其特征在于,所述编码向量确定模块,具体用于:
采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量;采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量;采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量。
15.根据权利要求14所述的装置,其特征在于,所述第一编码网络包括:字编码网络,第一双向长短期记忆网络及自注意力网络;
所述编码向量确定模块,在采用已训练至收敛的深度神经网络模型的第一编码网络确定所述目标问题的全局关键信息编码向量时,具体用于:
采用所述字编码网络对所述目标问题按照字级别切成目标单字,并对各目标单字进行一对一编码,输出字级别编码向量;采用所述第一双向长短期记忆网络对所述字级别编码向量进行编码,输出字关联信息编码向量;采用所述自注意力网络对所述字关联信息编码向量进行编码,输出所述全局关键信息编码向量。
16.根据权利要求14所述的装置,其特征在于,所述第二编码网络包括:目标实体编码网络,词向量编码网络及第二双向长短期记忆网络;
所述编码向量确定模块,在采用所述已训练至收敛的深度神经网络模型的第二编码网络确定所述目标问题的句式信息编码向量时,具体用于:
采用所述目标实体编码网络确定所述目标问题中包括的目标实体,并将所述目标实体编码为目标实体编码向量;采用所述词向量编码网络对所述目标问题中的非实体按照词级别进行分词,将分词后的非实体编码为非实体编码向量,并将所述目标实体编码向量和所述非实体词编码向量进行拼接,输出词编码向量;采用所述第二双向长短期记忆网络对所述词编码向量进行编码,输出所述句式信息编码向量。
17.根据权利要求16所述的装置,其特征在于,所述编码向量确定模块,在采用所述目标实体编码网络确定所述目标问题中包括的目标实体时,具体用于:
若采用所述目标实体编码网络确定所述目标问题的回答类型为问题回答类型,则将所述目标问题与预设实体库中的待匹配实体进行匹配;根据所述目标问题与待匹配实体的匹配度确定所述目标实体。
18.根据权利要求16所述的装置,其特征在于,所述编码向量确定模块,在所述将所述目标实体编码为目标实体编码向量时,具体用于:
将所述目标实体编码为随机向量;将所述随机向量确定为目标实体编码向量。
19.根据权利要求14所述的装置,其特征在于,所述第三编码网络包括:目标实体类别编码网络及第一全连接网络;
所述编码向量确定模块,在采用所述已训练至收敛的深度神经网络模型的第三编码网络确定所述目标问题的实体类别信息编码向量时,具体用于:
采用所述目标实体类别编码网络确定所述目标问题中包括的目标实体在知识图谱中对应的类别,并对所述目标实体在知识图谱中对应的类别进行一对一编码,输出初始实体类别信息编码向量;采用所述第一全连接网络对所述初始实体类别信息编码向量进行编码,输出所述实体类别信息编码向量;所述实体类别信息编码向量与所述句式信息编码向量为同维度向量。
20.根据权利要求14所述的装置,其特征在于,所述回答类型确定模块,具体用于:
采用所述已训练至收敛的深度神经网络模型的第二全连接网络对所述句式信息编码向量及所述实体类别信息编码向量进行合并及编码,输出第一融合编码向量;采用所述已训练至收敛的深度神经网络模型的第三全连接网络对所述全局关键信息编码向量和所述第一融合编码向量进行合并及编码,输出第二融合编码向量;将所述第二融合编码向量输入至所述已训练至收敛的深度神经网络模型的分类网络中,以输出所述目标问题在预设回答类型集中对应的回答类型。
21.根据权利要求14所述的装置,其特征在于,还包括:模型训练模块,用于:
确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型;获取对初始深度神经网络模型进行训练的训练样本,所述训练样本包括:标注回答类型的历史问题;采用所述训练样本对所述初始深度神经网络模型进行训练;将满足训练收敛条件的深度神经网络模型确定为所述已训练至收敛的深度神经网络模型。
22.根据权利要求21所述的装置,其特征在于,所述模型训练模块,在确定对初始深度神经网络模型进行训练时预设回答类型集中的所有回答类型时,具体用于:
确定所述预设回答类型集中的一个回答类型为非问题回答类型;对于问题回答类型,获取所述知识图谱中所有实体对应的类别;将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型。
23.根据权利要求22所述的装置,其特征在于,所述模型训练模块,在所述将所述所有实体对应的类别按照预设归类策略进行归类,以确定所述问题回答类型中的所有回答类型时,具体用于:
计算任意两个实体对应的类别间的相似度;将相似度大于预设相似度阈值的实体确定为同一实体类别的待归类实体;确定同一实体类别中各待归类实体的搜索量;将搜索量最大的待归类实体对应的类别确定为该同一实体类别。
24.根据权利要求13-23任一项所述的装置,其特征在于,还包括:答案确定模块,用于:
在所述对应的回答类型的回答数据中搜索所述目标问题对应的答案;输出所述目标问题对应的答案。
25.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-12中任一项所述的方法。
CN202010042473.3A 2020-01-15 2020-01-15 问题回答类型的识别方法、装置、设备及存储介质 Active CN111241285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010042473.3A CN111241285B (zh) 2020-01-15 2020-01-15 问题回答类型的识别方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010042473.3A CN111241285B (zh) 2020-01-15 2020-01-15 问题回答类型的识别方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111241285A true CN111241285A (zh) 2020-06-05
CN111241285B CN111241285B (zh) 2023-09-01

Family

ID=70871096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010042473.3A Active CN111241285B (zh) 2020-01-15 2020-01-15 问题回答类型的识别方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111241285B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112527999A (zh) * 2020-12-22 2021-03-19 江苏省农业科学院 引入农业领域知识的抽取式智能问答方法及系统
CN112598139A (zh) * 2020-12-22 2021-04-02 百度在线网络技术(北京)有限公司 类别编码方法、装置、设备、存储介质及程序产品
CN112613304A (zh) * 2020-12-17 2021-04-06 合肥讯飞数码科技有限公司 问题回答方法以及电子设备、存储装置
CN112732944A (zh) * 2021-01-30 2021-04-30 吉林大学 一种文本检索的新方法
CN112784600A (zh) * 2021-01-29 2021-05-11 北京百度网讯科技有限公司 信息排序方法、装置、电子设备和存储介质
CN113420119A (zh) * 2021-06-24 2021-09-21 平安科技(深圳)有限公司 基于知识卡片的智能问答方法、装置、设备及存储介质
CN112527999B (zh) * 2020-12-22 2024-05-14 江苏省农业科学院 引入农业领域知识的抽取式智能问答方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070011131A1 (en) * 2002-05-17 2007-01-11 Delefevre Patrick Y Neutral sales consultant
US20140006012A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Learning-Based Processing of Natural Language Questions
CN104216913A (zh) * 2013-06-04 2014-12-17 Sap欧洲公司 问题回答框架
KR20160066236A (ko) * 2014-12-02 2016-06-10 주식회사 솔트룩스 지식 데이터베이스 기반 구조화된 질의 생성 방법 및 장치
US20170177715A1 (en) * 2015-12-21 2017-06-22 Adobe Systems Incorporated Natural Language System Question Classifier, Semantic Representations, and Logical Form Templates
CN109189882A (zh) * 2018-08-08 2019-01-11 北京百度网讯科技有限公司 序列内容的回答类型识别方法、装置、服务器和存储介质
CN109241258A (zh) * 2018-08-23 2019-01-18 江苏索迩软件技术有限公司 一种应用税务领域的深度学习智能问答系统
CN109408811A (zh) * 2018-09-29 2019-03-01 联想(北京)有限公司 一种数据处理方法及服务器
CN109710744A (zh) * 2018-12-28 2019-05-03 合肥讯飞数码科技有限公司 一种数据匹配方法、装置、设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070011131A1 (en) * 2002-05-17 2007-01-11 Delefevre Patrick Y Neutral sales consultant
US20140006012A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Learning-Based Processing of Natural Language Questions
CN104216913A (zh) * 2013-06-04 2014-12-17 Sap欧洲公司 问题回答框架
KR20160066236A (ko) * 2014-12-02 2016-06-10 주식회사 솔트룩스 지식 데이터베이스 기반 구조화된 질의 생성 방법 및 장치
US20170177715A1 (en) * 2015-12-21 2017-06-22 Adobe Systems Incorporated Natural Language System Question Classifier, Semantic Representations, and Logical Form Templates
CN109189882A (zh) * 2018-08-08 2019-01-11 北京百度网讯科技有限公司 序列内容的回答类型识别方法、装置、服务器和存储介质
CN109241258A (zh) * 2018-08-23 2019-01-18 江苏索迩软件技术有限公司 一种应用税务领域的深度学习智能问答系统
CN109408811A (zh) * 2018-09-29 2019-03-01 联想(北京)有限公司 一种数据处理方法及服务器
CN109710744A (zh) * 2018-12-28 2019-05-03 合肥讯飞数码科技有限公司 一种数据匹配方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
袁里驰;: "基于配价结构的词汇化句法分析模型" *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613304A (zh) * 2020-12-17 2021-04-06 合肥讯飞数码科技有限公司 问题回答方法以及电子设备、存储装置
CN112527999A (zh) * 2020-12-22 2021-03-19 江苏省农业科学院 引入农业领域知识的抽取式智能问答方法及系统
CN112598139A (zh) * 2020-12-22 2021-04-02 百度在线网络技术(北京)有限公司 类别编码方法、装置、设备、存储介质及程序产品
CN112598139B (zh) * 2020-12-22 2023-08-18 百度在线网络技术(北京)有限公司 类别编码方法、装置、设备、存储介质及程序产品
CN112527999B (zh) * 2020-12-22 2024-05-14 江苏省农业科学院 引入农业领域知识的抽取式智能问答方法及系统
CN112784600A (zh) * 2021-01-29 2021-05-11 北京百度网讯科技有限公司 信息排序方法、装置、电子设备和存储介质
CN112784600B (zh) * 2021-01-29 2024-01-16 北京百度网讯科技有限公司 信息排序方法、装置、电子设备和存储介质
CN112732944A (zh) * 2021-01-30 2021-04-30 吉林大学 一种文本检索的新方法
CN113420119A (zh) * 2021-06-24 2021-09-21 平安科技(深圳)有限公司 基于知识卡片的智能问答方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111241285B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
CN110717339B (zh) 语义表示模型的处理方法、装置、电子设备及存储介质
CN112507715B (zh) 确定实体之间关联关系的方法、装置、设备和存储介质
CN113836333B (zh) 图文匹配模型的训练方法、实现图文检索的方法、装置
CN111241285B (zh) 问题回答类型的识别方法、装置、设备及存储介质
CN111625635A (zh) 问答处理、语言模型的训练方法、装置、设备及存储介质
CN112560912A (zh) 分类模型的训练方法、装置、电子设备和存储介质
KR102565673B1 (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
CN111831813B (zh) 对话生成方法、装置、电子设备及介质
CN111428514A (zh) 语义匹配方法、装置、设备以及存储介质
CN113656582B (zh) 神经网络模型的训练方法、图像检索方法、设备和介质
CN113361578B (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
CN111797226A (zh) 会议纪要的生成方法、装置、电子设备以及可读存储介质
CN112528001B (zh) 一种信息查询方法、装置及电子设备
CN116824278B (zh) 图像内容分析方法、装置、设备和介质
CN112507090A (zh) 用于输出信息的方法、装置、设备和存储介质
CN113836268A (zh) 文档理解方法及装置、电子设备和介质
CN110991183B (zh) 问题的谓词确定方法、装置、设备及存储介质
CN113656587A (zh) 文本分类方法、装置、电子设备及存储介质
CN112232089B (zh) 语义表示模型的预训练方法、设备和存储介质
CN111639234B (zh) 用于挖掘核心实体关注点的方法和装置
CN110738261B (zh) 图像分类和模型训练方法、装置、电子设备及存储介质
CN114281990A (zh) 文档分类方法及装置、电子设备和介质
CN112287159A (zh) 检索方法、电子设备及计算机可读介质
CN117131152B (zh) 信息存储方法、装置、电子设备和计算机可读介质
CN113704460B (zh) 一种文本分类方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant