CN116069911A - 智能问答方法、装置、设备及存储介质 - Google Patents
智能问答方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116069911A CN116069911A CN202310008600.1A CN202310008600A CN116069911A CN 116069911 A CN116069911 A CN 116069911A CN 202310008600 A CN202310008600 A CN 202310008600A CN 116069911 A CN116069911 A CN 116069911A
- Authority
- CN
- China
- Prior art keywords
- information
- machine learning
- learning model
- structured
- preset text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开涉及一种智能问答方法、装置、设备及存储介质。本公开通过对预设文本信息进行分析,得到该预设文本信息对应的结构化信息集合。由于从该结构化信息集合中查询目标结构化信息的速度相比于从预设文本信息中直接寻找答案的速度较快,因此,通过查询目标结构化信息,并根据该目标结构化信息,生成回复信息可提高回复信息的生成效率,有效降低回复信息的延迟,保证用户可以及时获取到回复信息。另外,由于该预设文本信息对应的结构化信息集合是可以预先得到的,因此,可以预先对结构化信息集合中的结构化信息进行补充、修正,保证结构化信息集合中的结构化信息全面、准确。最终确保根据该目标结构化信息生成的回复信息是全面、准确的。
Description
技术领域
本公开涉及信息技术领域,尤其涉及一种智能问答方法、装置、设备及存储介质。
背景技术
随着科技的不断发展,智能问答系统可以与用户进行对话,从而回答用户提出的问题。
但是,目前的一些智能问答系统在接收到用户问题后,需要在线对文本内容进行分析,以便从该文本内容中找出该用户问题的答案,并将答案作为回复。但是,如果文本内容的数据量较大,在线对文本内容进行分析,将导致分析过程耗时,导致回复延迟较大。另外,从该文本内容中找出的答案是该文本内容中的局部原文,而该局部原文的语义可能不够完整,导致回复内容不够全面、准确。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种智能问答方法、装置、设备及存储介质,以便有效降低回复信息的延迟,以及确保回复信息全面、准确。
第一方面,本公开实施例提供一种智能问答方法,包括:
对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合;
获取问题信息;
从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
根据所述目标结构化信息,生成所述问题信息对应的回复信息。
第二方面,本公开实施例提供一种智能问答装置,包括:
分析模块,用于对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合;
获取模块,用于获取问题信息;
查询模块,用于从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
生成模块,用于根据所述目标结构化信息,生成所述问题信息对应的回复信息。
第三方面,本公开实施例提供一种智能问答方法,所述方法包括:
从终端接收问题信息;
从预设文本信息对应的结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
根据所述目标结构化信息,生成所述问题信息对应的回复信息;
向所述终端反馈所述回复信息。
第四方面,本公开实施例提供一种电子设备,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如第一方面或第三方面所述的方法。
第五方面,本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现第一方面或第三方面所述的方法。
第六方面,本公开实施例提供一种服务器,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如第一方面或第三方面所述的方法。
本公开实施例提供的智能问答方法、装置、设备及存储介质,通过对预设文本信息进行分析,得到该预设文本信息对应的结构化信息集合。当用户发问时,从该结构化信息集合中查询与问题信息匹配的目标结构化信息,并根据该目标结构化信息,生成该问题信息对应的回复信息。由于从该结构化信息集合中查询目标结构化信息的速度相比于从预设文本信息中直接寻找答案的速度较快,因此,通过查询目标结构化信息,并根据该目标结构化信息,生成回复信息可提高回复信息的生成效率,有效降低回复信息的延迟,保证用户可以及时获取到回复信息。另外,由于该预设文本信息对应的结构化信息集合是可以预先得到的,因此,可以预先对结构化信息集合中的结构化信息进行补充、修正,保证结构化信息集合中的结构化信息全面、准确。当用户发问时,可以确保从该结构化信息集合中查询到的与问题信息匹配的目标结构化信息是全面、准确的,最终确保根据该目标结构化信息生成的回复信息是全面、准确的。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的智能问答方法流程图;
图2为本公开实施例提供的应用场景的示意图;
图3为本公开实施例提供的智能问答方法流程图;
图4为本公开实施例提供的智能问答方法流程图;
图5为本公开另一实施例提供的智能问答方法流程图;
图6为本公开实施例提供的智能问答装置的结构示意图;
图7为本公开实施例提供的电子设备实施例的结构示意图;
图8为本公开实施例提供的另一种应用场景的示意图;
图9为本公开实施例提供的又一种应用场景的示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
需要说明的是,本申请所涉及的问题信息(包括但不限于用户与人机交互系统进行对话过程中由用户输入的问题、问句、问话、视频等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
另外,本申请提供的智能问答方法会涉及到如下的几个术语解释,详细内容如下:
doc2bot:文档问答服务。
Transformer:基于自注意力机制的文本上下文编码-解码模型。
通常情况下,智能问答系统可以与用户进行对话,从而回答用户提出的问题。但是,目前的一些智能问答系统在接收到用户问题后,基于对文本内容的分析,从文本中找出对应的答案作为回复。这样不仅导致回复延迟较大,而且回复内容不够全面、准确。针对该问题,本公开实施例提供了一种智能问答方法,下面结合具体的实施例对该方法进行介绍。
图1为本公开实施例提供的智能问答方法流程图。该方法可以由智能问答装置执行,该装置可以采用软件和/或硬件的方式实现,该装置可配置于电子设备中,例如服务器或终端,其中,终端具体包括手机、电脑或平板电脑等。该方法可以适用于如图2所示的应用场景,该应用场景中包括终端21和服务器22,终端21可以向服务器22发送问题信息,服务器22可以采用本实施例所述的方法生成该问题信息对应的回复信息,并将该回复信息反馈给终端21,从而实现智能问答。
如图1所示,该方法具体步骤如下:
S101、对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合。
在各行业企业中,80%-90%以上的数据都是非结构化数据,并且非结构化的文档所占的比重最为突出,因此,本实施例主要根据非结构化的文档为用户提供相应的问答服务。具体的,本公开实施例可以将非结构化的文档内容记为预设文本信息,通过对预设文本信息进行分析,得到预设文本信息对应的结构化信息集合。如图3所示,30表示预设文本信息,通过①所示的知识发现,得到该预设文本信息对应的结构化信息集合,该结构化信息集合是如图3所示的文档图(DocGraph)。其中,知识发现包括信息抽取和问答(QuestionAnswer,QA)挖掘。可以理解的是,在一些实施例中,预设文本信息可以是服务器22中预先存储的信息,服务器22可以在离线状态下,对该预设文本信息进行信息抽取和QA挖掘,从而得到DocGraph。DocGraph还可以记为结构化知识集合,具体的,DocGraph由结构化信息或结构化知识构成。如图3所示,(某省研发型企业,要求,在某省内注册成立一年以上)、(某省研发型企业,要求,科技人员占企业当年职工总数比例不低于50%)、(某省研发型企业,要求,拥有核心关键自主产权)、(某省研发企业的技术收入每年最少多少?500万元)分别是该DocGraph中的结构化信息或结构化知识。
S102、获取问题信息。
例如,服务器22可以接收终端21发送的问题信息,该问题信息可以是用户问句,例如图3所示的“某省研发型企业需要多少研发工程师?”。在其他实施例中,该问题信息还可以是陈述式的问题,例如,“查下红色上衣的库存。”
S103、从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息。
例如,服务器22可以通过②所示的知识匹配(Grounding),从DocGraph中选择出与该问题信息匹配的目标结构化信息。例如,该目标结构化信息可以是(某省研发型企业,要求,科技人员占企业当年职工总数比例不低于50%)。其中,知识匹配包括知识选择。
S104、根据所述目标结构化信息,生成所述问题信息对应的回复信息。
例如,服务器22可以通过③所示的回复生成,根据该目标结构化信息,生成该问题信息对应的回复信息,例如,回复信息是如图3所示的“您的公司需要至少50%的研发人员”。
本公开实施例通过对预设文本信息进行分析,得到该预设文本信息对应的结构化信息集合。当用户发问时,从该结构化信息集合中查询与问题信息匹配的目标结构化信息,并根据该目标结构化信息,生成该问题信息对应的回复信息。由于从该结构化信息集合中查询目标结构化信息的速度相比于从预设文本信息中直接寻找答案的速度较快,因此,通过查询目标结构化信息,并根据该目标结构化信息,生成回复信息可提高回复信息的生成效率,有效降低回复信息的延迟,保证用户可以及时获取到回复信息。另外,由于该预设文本信息对应的结构化信息集合是可以预先得到的,因此,可以预先对结构化信息集合中的结构化信息进行补充、修正,保证结构化信息集合中的结构化信息全面、准确。当用户发问时,可以确保从该结构化信息集合中查询到的与问题信息匹配的目标结构化信息是全面、准确的,最终确保根据该目标结构化信息生成的回复信息是全面、准确的。
在一种可能的实现方式中,对预设文本信息进行分析,包括:将所述预设文本信息和预设类型输入机器学习模型,使得所述机器学习模型从所述预设文本信息中抽取与所述预设类型匹配的目标内容,所述预设类型和所述目标内容构成结构化信息。
例如图3所示,本公开实施例可以通过信息抽取的方式,从预设文本信息中解析出结构化信息。如图4所示,对于信息抽取而言,可以将预设文本信息(例如“某公司,2017年10月11日公开成立”)和预设类型(例如“成立时间”)输入机器学习模型(例如文档对话预训练模型SPACE-D)中,使得该机器学习模型从该预设文本信息中抽取与该预设类型匹配的目标内容,该目标内容例如为“2017年10月11日”。进一步,该预设类型(例如“成立时间”)和该目标内容(例如“2017年10月11日”)可以构成结构化信息,该结构化信息可表示为二元组(成立时间,2017年10月11日)。
可选的,将所述预设文本信息和预设类型输入机器学习模型,使得所述机器学习模型从所述预设文本信息中抽取与所述预设类型匹配的目标内容,包括:将第一任务的名称、所述预设文本信息和预设类型构成的序列的表示向量输入机器学习模型,所述第一任务用于实现信息抽取;根据所述机器学习模型中与所述第一任务对应的多个原子能力分别的输出,确定所述预设文本信息中与所述预设类型匹配的目标内容。
在本实施例中,可以将如图3所示的信息抽取记为第一任务,将QA挖掘记为第二任务,将知识选择记为第三任务,将回复生成记为第四任务。每一种任务都可以被拆解为多个原子能力。例如,第一任务和第二任务分别被拆解为文本理解、结构生成、上下文理解、文本生成这4个原子能力。第三任务被拆解为文本理解、对话理解、匹配、文本生成这4个原子能力。第四任务被拆解为对话理解、对话管理、文本生成、知识利用、文本理解这5个原子能力。也就是说,不同的任务可以由不同的原子能力来组合实现,该4种任务一共涉及到8个原子能力,如图5所示,每个原子能力在Transformer网络中对应一个不同的FFN函数。下面分别对该8个原子能力进行介绍:
文本理解:在知识发现任务中,文本理解具体可以指理解预设文本信息中的一句话。在知识选择任务和回复生成任务中,文本理解具体可以指理解问题信息。
结构生成:在知识发现任务中,结构生成具体可以指结构化信息或结构化知识的生成。
上下文理解:在知识发现任务中,上下文理解具体可以指理解整个文档中的内容。
文本生成:在知识发现任务中,文本生成具体可以指在DocGraph中生成问句,例如,“某省研发企业的技术收入每年最少多少?”。在知识选择任务中,文本生成具体可以指生成匹配或不匹配的结果信息,此处的匹配与否是指判断DocGraph中的任一结构化信息和所述问题信息是否匹配。在回复生成任务中,文本生成具体可以指生成问题信息对应的回复信息。
对话理解:在知识选择任务和回复生成任务中,对话理解具体可以指理解人机对话过程中的历史对话。
匹配:在知识选择任务中,匹配是指判断DocGraph中的任一结构化信息和所述问题信息是否匹配。
对话管理:在回复生成任务中,对话管理具体指管理人机对话过程中对话的逻辑性、完整性、连贯性等。
知识利用:在回复生成任务中,知识利用具体指利用知识选择任务匹配出的结构化信息或结构化知识,生成问题信息对应的回复信息。
图5所示的Transformer网络可以是如上所述的机器学习模型,具体的,该Transformer网络包括如图5所示的编码器51和解码器52,编码器51的内部结构和解码器52的内部结构具体如图5所示。其中,解码器52中的原子能力前馈神经网络的内部结构如图5所示的53。可选的,编码器51可以包括N个结构相同的块(block),解码器52也可包括N个结构相同的块(block)。
可以理解的是,由于不同的任务可以由不同的原子能力来组合实现,因此,通过Transformer网络实现不同任务时,该Transformer网络中参与计算的FFN函数可能是不同的。例如,当通过Transformer网络实现信息抽取任务或QA挖掘任务时,文本理解、结构生成、上下文理解、文本生成这4个原子能力分别对应的FFN函数参与解码器52的解码过程。当通过Transformer网络实现知识选择任务时,文本理解、对话理解、匹配、文本生成这4个原子能力分别对应的FFN函数参与解码器52的解码过程。当通过Transformer网络实现回复生成任务时,对话理解、对话管理、文本生成、知识利用、文本理解这5个原子能力分别对应的FFN函数参与解码器52的解码过程。
如图5所示,以信息抽取任务为例,该任务的名称例如“信息抽取”、预设文本信息例如“某公司,2017年10月11日公开成立”、预设类型例如“成立时间”三者构成输入序列,也就是说,将图4所示的41中的内容作为输入序列。另外,还可以通过一些预设字符(例如,<p>…</p>,<d>…</d>,<c>…</c>)将任务名称、预设文本信息、预设类型相互区分开。进一步,通过词向量转化,将该输入序列中的每个词、每个词组或每个字符转换为相应的表示向量,使得各个词、各个词组或各个字符的表示向量拼接在一起,构成该输入序列的表示向量。该输入序列的表示向量依次经过编码器51和解码器52的处理。由于信息抽取任务可以被拆解为文本理解、结构生成、上下文理解、文本生成这4个原子能力,因此,在原子能力前馈神经网络中,文本理解、结构生成、上下文理解、文本生成这4个原子能力分别对应的FFN函数有相应的输出,进一步,通过池化层对该4个原子能力分别对应的FFN函数的输出进行处理,例如,对该4个原子能力分别对应的FFN函数的输出求平均。从而对平均值进行正则化,得到该预设文本信息中与该预设类型匹配的目标内容,该目标内容例如为“2017年10月11日”。可以理解的是,此处所述的从输入序列到目标内容的处理过程,可以是机器学习模型的使用过程或推理过程。在机器学习模型的训练过程中,按照图5所示的过程,由机器学习模型输出的“2017年10月11日”可作为该机器学习模型的预测结果,进一步,根据预测结果和该预设文本信息中预先被标注的标准内容(例如“2017年10月11日”),对该机器学习模型进行训练,特别是对该机器学习模型中的文本理解、结构生成、上下文理解、文本生成这4个原子能力分别对应的FFN函数进行训练,从而使得训练后的机器学习模型可以完成信息抽取任务。
在另一种可能的实现方式中,对预设文本信息进行分析,包括:将所述预设文本信息和所述预设文本信息中的关键字段输入机器学习模型,使得所述机器学习模型生成与所述关键字段对应的问句信息,所述关键字段和所述问句信息构成结构化信息。
例如图3所示,本公开实施例还可以通过QA挖掘的方式,从预设文本信息中解析出结构化信息。如图4所示,对于QA挖掘而言,可以将预设文本信息(例如“某公司,2017年10月11日公开成立”)和该预设文本信息中的关键字段(例如“2017年10月11日”)输入机器学习模型(例如SPACE-D)中,使得该机器学习模型生成与该关键字段对应的问句信息(例如“某公司何时成立?”)。进一步,该关键字段和该问句信息构成结构化信息。也就是说,预设文本信息中的内容可以按照陈述的方式构成结构化信息或结构化知识,也可以按照问答的方式构成结构化信息或结构化知识。
可选的,将所述预设文本信息和所述预设文本信息中的关键字段输入机器学习模型,使得所述机器学习模型生成与所述关键字段对应的问句信息,包括:将第二任务的名称、所述预设文本信息和所述预设文本信息中的关键字段构成的序列的表示向量输入机器学习模型,所述第二任务用于挖掘问答信息;根据所述机器学习模型中与所述第二任务对应的多个原子能力分别的输出,生成与所述关键字段对应的问句信息。
例如,将图5中的输入序列替换为图4所示的42中的内容时,可通过图5所示的机器学习模型实现QA挖掘任务。具体的,通过如图5所示的词向量转化,将该输入序列中的每个词、每个词组或每个字符转换为相应的表示向量,使得各个词、各个词组或各个字符的表示向量拼接在一起,构成该输入序列的表示向量。该输入序列的表示向量依次经过编码器51和解码器52的处理。由于QA挖掘任务可以被拆解为文本理解、结构生成、上下文理解、文本生成这4个原子能力,因此,在原子能力前馈神经网络中,文本理解、结构生成、上下文理解、文本生成这4个原子能力分别对应的FFN函数有相应的输出,进一步,通过池化层对该4个原子能力分别对应的FFN函数的输出进行处理,例如,对该4个原子能力分别对应的FFN函数的输出求平均。从而对平均值进行正则化,生成与所述关键字段对应的问句信息,例如“某公司何时成立?”。同理,该过程可以是通过机器学习模型实现QA挖掘任务的模型使用过程或推理过程。在机器学习模型的训练过程中,可以根据该机器学习模型的输出和预先标注的问句信息,对该机器学习模型进行训练,特别是对该机器学习模型中的文本理解、结构生成、上下文理解、文本生成这4个原子能力分别对应的FFN函数进行训练,从而使得训练后的机器学习模型可以完成QA挖掘任务。
具体的,从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息,包括:将所述结构化信息集合中的任一结构化信息和所述问题信息输入机器学习模型,使得所述机器学习模型判断所述任一结构化信息和所述问题信息是否匹配,若匹配,则所述任一结构化信息是与所述问题信息匹配的目标结构化信息。
如图4所示,对于知识选择而言,可以将DocGraph中的任一结构化信息(例如三元组(某公司,成立时间,2017年10月11日))、以及问题信息(例如“某公开何时成立?”)输入机器学习模型(例如SPACE-D)中,使得该机器学习模型判断该任一结构化信息和该问题信息是否匹配,若匹配,则该机器学习模型可以输出“匹配”,从而使得该任一结构化信息可以作为与该问题信息匹配的目标结构化信息。
或者,如图4所示,对于知识选择而言,还可以将预设文本信息(例如“某公司,2017年10月11日公开成立”)、以及问题信息(例如“某公开何时成立?”)输入机器学习模型(例如SPACE-D)中,使得该机器学习模型判断该预设文本信息和该问题信息是否匹配,若匹配,则该机器学习模型可以输出“匹配”,从而使得该预设文本信息可作为与该问题信息匹配的目标文本信息。
可选的,将所述结构化信息集合中的任一结构化信息和所述问题信息输入机器学习模型,使得所述机器学习模型判断所述任一结构化信息和所述问题信息是否匹配,包括:将第三任务的名称、所述结构化信息集合中的任一结构化信息和所述问题信息构成的序列的表示向量输入机器学习模型,所述第三任务用于选择与所述问题信息匹配的结构化信息;根据所述机器学习模型中与所述第三任务对应的多个原子能力分别的输出,生成所述任一结构化信息和所述问题信息是否匹配的信息。
例如,将图5中的输入序列替换为图4所示的43或44中的内容时,可通过图5所示的机器学习模型实现知识选择任务。由于知识选择任务被拆解为文本理解、对话理解、匹配、文本生成这4个原子能力,因此,在解码过程中,根据文本理解、对话理解、匹配、文本生成这4个原子能力分别对应的FFN函数的输出,可得出任一结构化信息和该问题信息是否匹配、或者该预设文本信息和该问题信息是否匹配的结论。
具体的,根据所述目标结构化信息,生成所述问题信息对应的回复信息,包括:根据所述目标结构化信息和所述问题信息,生成所述问题信息对应的回复信息。
对于回复生成任务而言,可以将匹配出的目标结构化信息(例如(某公司,成立时间,2017年10月11日))和该问题信息(例如“某公司何时成立?”)输入机器学习模型(例如SPACE-D)中,使得该机器学习模型生成与该问题信息对应的回复信息,例如“某公司在2017年10月11日成立”。
或者,如图4所示,对于回复生成任务而言,可以将匹配出的目标文本信息(例如“某公司,2017年10月11日公开成立”)和该问题信息(例如“某公司何时成立?”)输入机器学习模型(例如SPACE-D)中,使得该机器学习模型生成与该问题信息对应的回复信息,例如“某公司在2017年10月11日成立”。
可选的,根据所述目标结构化信息和所述问题信息,生成所述问题信息对应的回复信息,包括:将第四任务的名称、所述目标结构化信息和所述问题信息构成的序列的表示向量输入机器学习模型,所述第四任务用于生成回复信息;根据所述机器学习模型中与所述第四任务对应的多个原子能力分别的输出,生成所述问题信息对应的回复信息。
例如,将图5所示的输入序列替换为图4所示的45中的内容时,可通过图5所示的机器学习模型实现回复生成任务。由于回复生成任务可被拆解为对话理解、对话管理、文本生成、知识利用、文本理解这5个原子能力,因此,在实现回复生成任务时,在解码器52中,根据对话理解、对话管理、文本生成、知识利用、文本理解这5个原子能力分别对应的FFN函数的输出,生成该问题信息对应的回复信息。
可以理解的是,通过机器学习模型实现信息抽取任务、QA挖掘任务、知识选择任务、回复生成任务的过程,可视为该机器学习模型的使用阶段或推理阶段。在对机器学习模型进行训练的过程中,可以针对每个任务被拆解后的多个原子能力进行训练,例如,依次对信息抽取任务、QA挖掘任务、知识选择任务、回复生成任务对应的多个原子能力进行训练,从而通过一个机器学习模型对多个任务进行建模,使得训练后的机器学习模型具备实现多个任务的功能。
本公开实施例通过将多个任务中的每个任务拆解为多个原子能力,使得不同的任务通过稀疏化的能力组合实现模块化的网络设计,能够在少量标注数据下,综合利用多种知识,生成流畅而合理的多轮问答。另外,本实施例还首次实现了基于文档内容进行智能问答所涉及到的多种关键任务的统一建模,即通过一个机器学习模型即可对多种关键任务进行统一建模,提高了建模效率。
图6为本公开实施例提供的智能问答装置的结构示意图。本公开实施例提供的智能问答装置可以执行智能问答方法实施例提供的处理流程,如图6所示,智能问答装置60包括:
分析模块61,用于对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合;
获取模块62,用于获取问题信息;
查询模块63,用于从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
生成模块64,用于根据所述目标结构化信息,生成所述问题信息对应的回复信息。
可选的,分析模块61对预设文本信息进行分析时,具体用于:
将所述预设文本信息和预设类型输入机器学习模型,使得所述机器学习模型从所述预设文本信息中抽取与所述预设类型匹配的目标内容,所述预设类型和所述目标内容构成结构化信息。
可选的,分析模块61将所述预设文本信息和预设类型输入机器学习模型,使得所述机器学习模型从所述预设文本信息中抽取与所述预设类型匹配的目标内容时,具体用于:
将第一任务的名称、所述预设文本信息和预设类型构成的序列的表示向量输入机器学习模型,所述第一任务用于实现信息抽取;
根据所述机器学习模型中与所述第一任务对应的多个原子能力分别的输出,确定所述预设文本信息中与所述预设类型匹配的目标内容。
可选的,分析模块61对预设文本信息进行分析时,具体用于:
将所述预设文本信息和所述预设文本信息中的关键字段输入机器学习模型,
使得所述机器学习模型生成与所述关键字段对应的问句信息,所述关键字段和所5述问句信息构成结构化信息。
可选的,分析模块61将所述预设文本信息和所述预设文本信息中的关键字段输入机器学习模型,使得所述机器学习模型生成与所述关键字段对应的问句信息时,具体用于:
将第二任务的名称、所述预设文本信息和所述预设文本信息中的关键字段构0成的序列的表示向量输入机器学习模型,所述第二任务用于挖掘问答信息;
根据所述机器学习模型中与所述第二任务对应的多个原子能力分别的输出,生成与所述关键字段对应的问句信息。
可选的,查询模块63从所述结构化信息集合中查询与所述问题信息匹配的目
标结构化信息时,具体用于:5将所述结构化信息集合中的任一结构化信息和所述问题信息输入机器学习模
型,使得所述机器学习模型判断所述任一结构化信息和所述问题信息是否匹配,若匹配,则所述任一结构化信息是与所述问题信息匹配的目标结构化信息。
可选的,查询模块63将所述结构化信息集合中的任一结构化信息和所述问题
信息输入机器学习模型,使得所述机器学习模型判断所述任一结构化信息和所述0问题信息是否匹配时,具体用于:
将第三任务的名称、所述结构化信息集合中的任一结构化信息和所述问题信息构成的序列的表示向量输入机器学习模型,所述第三任务用于选择与所述问题信息匹配的结构化信息;
根据所述机器学习模型中与所述第三任务对应的多个原子能力分别的输出,5生成所述任一结构化信息和所述问题信息是否匹配的信息。
可选的,生成模块64根据所述目标结构化信息,生成所述问题信息对应的回复信息时,具体用于:
根据所述目标结构化信息和所述问题信息,生成所述问题信息对应的回复信息。
0可选的,生成模块64根据所述目标结构化信息和所述问题信息,生成所述问
题信息对应的回复信息时,具体用于:
将第四任务的名称、所述目标结构化信息和所述问题信息构成的序列的表示向量输入机器学习模型,所述第四任务用于生成回复信息;
根据所述机器学习模型中与所述第四任务对应的多个原子能力分别的输出,5生成所述问题信息对应的回复信息。
图6所示实施例的智能问答装置可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
以上描述了智能问答装置的内部功能和结构,该装置可实现为一种电子设备。图7为本公开实施例提供的电子设备实施例的结构示意图。如图7所示,该电子设备包括存储器71和处理器72。
存储器71用于存储程序。除上述程序之外,存储器71还可被配置为存储其它各种数据以支持在电子设备上的操作。这些数据的示例包括用于在电子设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
存储器71可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
处理器72与存储器71耦合,执行存储器71所存储的程序,以用于:
对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合;
获取问题信息;
从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
根据所述目标结构化信息,生成所述问题信息对应的回复信息。
或者,处理器72还用于:
从终端接收问题信息;
从预设文本信息对应的结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
根据所述目标结构化信息,生成所述问题信息对应的回复信息;
向所述终端反馈所述回复信息。
进一步,如图7所示,电子设备还可以包括:通信组件73、电源组件74、音频组件75、显示器76等其它组件。图7中仅示意性给出部分组件,并不意味着电子设备只包括图7所示组件。
通信组件73被配置为便于电子设备和其他设备之间有线或无线方式的通信。电子设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件73经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件73还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
电源组件74,为电子设备的各种组件提供电力。电源组件74可以包括电源管理系统,一个或多个电源,及其他与为电子设备生成、管理和分配电力相关联的组件。
音频组件75被配置为输出和/或输入音频信号。例如,音频组件75包括一个麦克风(MIC),当电子设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器71或经由通信组件73发送。在一些实施例中,音频组件75还包括一个扬声器,用于输出音频信号。
显示器76包括屏幕,其屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
另外,本公开实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现上述实施例所述的智能问答方法。
此外,本公开实施例还提供了一种智能问答方法,该方法可以由云端来执行,例如图8所示的云端80,其中,云端80可以包括一个或多个云端服务器,云端服务器即云服务器,是一个服务器集群,有很多服务器,和通用的计算机架构类似,云端服务器的构成包括处理器、硬盘、内存、系统总线等。如图8所示,云端80包括服务器82、服务器83和服务器84,且服务器82、服务器83和服务器84可以构成一个服务器集群。可以理解的是,一个服务器集群中包括的服务器个数不限于图8所示的几个,此处只是示意性说明,并不做具体限制。例如,当云端80执行智能问答方法时,该方法具体包括如下几个步骤:
S81、从终端接收问题信息。
具体的,问题信息可以是用户问句或陈述式的问题。例如图8所示,用户可以在终端81提供的用户界面上输入用户问句或陈述式的问题,进一步,终端81将该用户问句或陈述式的问题发送给云端80,云端80从终端81接收问题信息。
S82、从预设文本信息对应的结构化信息集合中查询与所述问题信息匹配的目标结构化信息。
例如,在云端80从终端81接收问题信息之前,云端80可以在离线状态下对预设文本信息进行分析,得到该预设文本信息对应的结构化信息集合。该预设文本信息可以是预先存储在云端80内的文本。例如,参照图3所示,云端80通过知识发现,得到该预设文本信息对应的结构化信息集合。进一步,通过知识匹配,从该结构化信息集合中查询与该问题信息匹配的目标结构化信息。
S83、根据所述目标结构化信息,生成所述问题信息对应的回复信息。
例如,参照图3所示,云端80可以通过回复生成,根据目标结构化信息,生成该问题信息对应的回复信息。
S84、向所述终端反馈所述回复信息。
例如图8所示,云端80可以将其生成的该问题信息对应的回复信息反馈给终端81,以使终端81将该回复信息展示给用户。
此外,本公开实施例还提供了一种智能问答方法,该方法可以在云上执行,或者在本地执行。具体的,该方法可以通过机器学习模型来实现,具体的,该机器学习模型可以部署在云端或部署在本地。具体的,该方法可以适用于图9所示的应用场景,该场景中包括终端91和云端服务器92,假设该方法由云端服务器92来执行,该机器学习模型部署在云端服务器92上。具体的,云端服务器92包括处理器、硬盘、内存、系统总线等。具体的,终端91可以提供由用户界面,用户可以该用户界面上输入问题信息,例如,用户问句或陈述式的问题。进一步,终端91可以将该问题信息发送给云端服务器92。云端服务器92的内部可以参照图3所示的流程,在离线状态下对其预先存储的非结构化的文档进行分析,得到结构化信息集合,例如,文档图DocGraph。例如,通过①所示的知识发现,得到该结构化信息集合。在知识发现过程中,云端服务器92中部署的机器学习模型的处理过程如图4所示的对框41或框42中的内容进行处理的过程。当云端服务器92接收到问题信息时,可以通过②所示的知识匹配(Grounding),从DocGraph中选择出与该问题信息匹配的目标结构化信息。该知识匹配过程中,云端服务器92中部署的机器学习模型的处理过程如图4所示的对框43中的内容进行处理的过程。进一步,云端服务器92可以通过③所示的回复生成,根据该目标结构化信息,生成该问题信息对应的回复信息。在回复生成过程中,云端服务器92中部署的机器学习模型的处理过程如图4所示的对框44中的内容进行处理的过程。进一步,云端服务器92可以向终端91反馈该问题信息对应的回复信息,从而使得终端91将该回复信息展示给用户。基于本实施例所述的方法,用户可以与云端服务器92进行多轮对话。
可以理解的是,云端服务器92中可预先存储有大量的非结构化文档,经过①所示的知识发现,可以将一个非结构化文档转换为一个结构化信息集合。如此,每个非结构化文档可以对应有一个结构化信息集合。在一些实施例中,云端服务器92还可以将每个非结构化文档分别对应的结构化信息集合融合在一起,从而构成一个更大的结构化信息集合。如此保证云端服务器92在接收到不同的问题信息时,都可以从该更大的结构化信息集合中查询到匹配的目标结构化信息,从而生成该问题信息对应的回复信息。
此外,本公开实施例还提供了一种服务器,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如上所述的智能问答方法。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (14)
1.一种智能问答方法,其中,所述方法包括:
对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合;
获取问题信息;
从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
根据所述目标结构化信息,生成所述问题信息对应的回复信息。
2.根据权利要求1所述的方法,其中,对预设文本信息进行分析,包括:
将所述预设文本信息和预设类型输入机器学习模型,使得所述机器学习模型从所述预设文本信息中抽取与所述预设类型匹配的目标内容,所述预设类型和所述目标内容构成结构化信息。
3.根据权利要求2所述的方法,其中,将所述预设文本信息和预设类型输入机器学习模型,使得所述机器学习模型从所述预设文本信息中抽取与所述预设类型匹配的目标内容,包括:
将第一任务的名称、所述预设文本信息和预设类型构成的序列的表示向量输入机器学习模型,所述第一任务用于实现信息抽取;
根据所述机器学习模型中与所述第一任务对应的多个原子能力分别的输出,确定所述预设文本信息中与所述预设类型匹配的目标内容。
4.根据权利要求1所述的方法,其中,对预设文本信息进行分析,包括:
将所述预设文本信息和所述预设文本信息中的关键字段输入机器学习模型,使得所述机器学习模型生成与所述关键字段对应的问句信息,所述关键字段和所述问句信息构成结构化信息。
5.根据权利要求4所述的方法,其中,将所述预设文本信息和所述预设文本信息中的关键字段输入机器学习模型,使得所述机器学习模型生成与所述关键字段对应的问句信息,包括:
将第二任务的名称、所述预设文本信息和所述预设文本信息中的关键字段构成的序列的表示向量输入机器学习模型,所述第二任务用于挖掘问答信息;
根据所述机器学习模型中与所述第二任务对应的多个原子能力分别的输出,生成与所述关键字段对应的问句信息。
6.根据权利要求1所述的方法,其中,从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息,包括:
将所述结构化信息集合中的任一结构化信息和所述问题信息输入机器学习模型,使得所述机器学习模型判断所述任一结构化信息和所述问题信息是否匹配,若匹配,则所述任一结构化信息是与所述问题信息匹配的目标结构化信息。
7.根据权利要求6所述的方法,其中,将所述结构化信息集合中的任一结构化信息和所述问题信息输入机器学习模型,使得所述机器学习模型判断所述任一结构化信息和所述问题信息是否匹配,包括:
将第三任务的名称、所述结构化信息集合中的任一结构化信息和所述问题信息构成的序列的表示向量输入机器学习模型,所述第三任务用于选择与所述问题信息匹配的结构化信息;
根据所述机器学习模型中与所述第三任务对应的多个原子能力分别的输出,生成所述任一结构化信息和所述问题信息是否匹配的信息。
8.根据权利要求1所述的方法,其中,根据所述目标结构化信息,生成所述问题信息对应的回复信息,包括:
根据所述目标结构化信息和所述问题信息,生成所述问题信息对应的回复信息。
9.根据权利要求8所述的方法,其中,根据所述目标结构化信息和所述问题信息,生成所述问题信息对应的回复信息,包括:
将第四任务的名称、所述目标结构化信息和所述问题信息构成的序列的表示向量输入机器学习模型,所述第四任务用于生成回复信息;
根据所述机器学习模型中与所述第四任务对应的多个原子能力分别的输出,生成所述问题信息对应的回复信息。
10.一种智能问答装置,其中,包括:
分析模块,用于对预设文本信息进行分析,得到所述预设文本信息对应的结构化信息集合;
获取模块,用于获取问题信息;
查询模块,用于从所述结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
生成模块,用于根据所述目标结构化信息,生成所述问题信息对应的回复信息。
11.一种智能问答方法,其中,所述方法包括:
从终端接收问题信息;
从预设文本信息对应的结构化信息集合中查询与所述问题信息匹配的目标结构化信息;
根据所述目标结构化信息,生成所述问题信息对应的回复信息;
向所述终端反馈所述回复信息。
12.一种电子设备,其中,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如权利要求1-9、11中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-9、11中任一项所述的方法。
14.一种服务器,其中,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如权利要求1-9、11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310008600.1A CN116069911A (zh) | 2023-01-04 | 2023-01-04 | 智能问答方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310008600.1A CN116069911A (zh) | 2023-01-04 | 2023-01-04 | 智能问答方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116069911A true CN116069911A (zh) | 2023-05-05 |
Family
ID=86183205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310008600.1A Pending CN116069911A (zh) | 2023-01-04 | 2023-01-04 | 智能问答方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116069911A (zh) |
-
2023
- 2023-01-04 CN CN202310008600.1A patent/CN116069911A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9471666B2 (en) | System and method for supporting natural language queries and requests against a user's personal data cloud | |
US10650818B2 (en) | Semi-supervised question answering machine | |
CN109710739B (zh) | 一种信息处理方法及装置、存储介质 | |
CN111984784B (zh) | 人岗匹配方法、装置、电子设备和存储介质 | |
CN111400465B (zh) | 客服机器人的生成方法、装置、电子设备及介质 | |
Windiatmoko et al. | Developing facebook chatbot based on deep learning using rasa framework for university enquiries | |
CN114328838A (zh) | 事件抽取方法、装置、电子设备及可读存储介质 | |
CN110941708A (zh) | 智能问答库建立方法、智能问答方法及装置、计算机设备 | |
CN114186016A (zh) | 人机对话方法、装置、设备及存储介质 | |
JP2023506087A (ja) | スキルの音声ウェイクアップ方法および装置 | |
CN117455430B (zh) | 基于ai的简历信息处理方法、装置、设备及存储介质 | |
CN113111658A (zh) | 校验信息的方法、装置、设备和存储介质 | |
Balubaid et al. | Ontology based SMS controller for smart phones | |
CN117094690A (zh) | 信息处理方法、电子设备及存储介质 | |
CN109656952B (zh) | 查询处理方法、装置及电子设备 | |
CN115840841A (zh) | 多模态对话方法、装置、设备及存储介质 | |
CN117314139A (zh) | 业务流程的建模方法、装置、终端设备及存储介质 | |
CN116029673A (zh) | 业务审批数据抽样评价方法、装置、设备及存储介质 | |
CN116069911A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN112579753B (zh) | 信息获取方法、装置、设备、介质及产品 | |
CN114138943A (zh) | 对话消息生成方法、装置、电子设备及存储介质 | |
CN112182195B (zh) | 自动问答方法、装置、可读存储介质及电子设备 | |
CN114020896A (zh) | 一种智能问答方法、系统、电子设备及存储介质 | |
CN111443905B (zh) | 业务数据的处理方法、装置、系统及电子设备 | |
WO2024088039A1 (zh) | 人机对话方法、对话网络模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |