CN115129847B - 智能回答方法及装置 - Google Patents
智能回答方法及装置 Download PDFInfo
- Publication number
- CN115129847B CN115129847B CN202211062328.7A CN202211062328A CN115129847B CN 115129847 B CN115129847 B CN 115129847B CN 202211062328 A CN202211062328 A CN 202211062328A CN 115129847 B CN115129847 B CN 115129847B
- Authority
- CN
- China
- Prior art keywords
- answer
- question
- vector
- target
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开涉及数据处理技术领域,提供了智能回答方法及装置。该方法包括:在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表;分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。采用上述技术手段,解决现有技术中,模型训练量与智能回答用户问题的精准度不可兼得的问题。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种智能回答方法及装置。
背景技术
生活中,有许多场景需要提供智能问答或者智能对话的服务,比如智能对话的机器人以及智能客服等。目前为了实现智能问答或者智能对话,常使用的是方法是提取用户语料(用户说的话)的向量和预设的答案集中每个答案的向量,然后利用训练好的神经网络模型实现用户语料与对应的答案之间的映射,以此找到最佳的答案。但是如果要实现用户语料与对应的答案之间精准的映射。则需要大量的训练;如果训练量小,则用户语料与对应的答案之间的映射并不精准,则回答用户的答案的准确度低。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下技术问题:模型训练量与智能回答用户问题的精准度不可兼得的问题。
发明内容
有鉴于此,本公开实施例提供了一种智能回答方法、装置、电子设备和计算机可读的存储介质,以解决现有技术中,模型训练量与智能回答用户问题的精准度不可兼得的问题。
本公开实施例的第一方面,提供了一种智能回答方法,包括:在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。
本公开实施例的第二方面,提供了一种智能回答装置,包括:第一确定模块,被配置为在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;第一处理模块,被配置为分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;第二处理模块,被配置为利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;第二确定模块,被配置为基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;第三确定模块,被配置为将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。采用上述技术手段,可以解决现有技术中,模型训练量与智能回答用户问题的精准度不可兼得的问题,进而在不增加模型训练量的情况下,提高智能回答用户问题的精准度。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例的应用场景的场景示意图;
图2是本公开实施例提供的一种智能回答方法的流程示意图;
图3是本公开实施例提供的一种智能回答装置的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
下面将结合附图详细说明根据本公开实施例的一种智能回答方法和装置。
图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括终端设备1、2和3、服务器4以及网络5。
终端设备1、2和3可以是硬件,也可以是软件。当终端设备1、2和3为硬件时,其可以是具有显示屏且支持与服务器4通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备1、2和3为软件时,其可以安装在如上的电子设备中。终端设备1、2和3可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备1、2和3上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
服务器4可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
需要说明的是,服务器4可以是硬件,也可以是软件。当服务器4为硬件时,其可以是为终端设备1、2和3提供各种服务的各种电子设备。当服务器4为软件时,其可以是为终端设备1、2和3提供各种服务的多个软件或软件模块,也可以是为终端设备1、2和3提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
网络5可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near FieldCommunication,NFC)、红外(Infrared)等,本公开实施例对此不作限制。
目标用户可以通过终端设备1、2和3经由网络5与服务器4建立通信连接,以接收或发送信息等。需要说明的是,终端设备1、2和3、服务器4以及网络5的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
图2是本公开实施例提供的一种智能回答方法的流程示意图。图2的智能回答方法可以由图1的终端设备或服务器执行。如图2所示,该智能回答方法包括:
S201,在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;
S202,分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;
S203,利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;
S204,基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;
S205,将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。
答案打分模型模型和后文中的问答匹配模型可以是常见的任何一种神经网络模型,模型训练可以是深度学习的方法。本公开实施例可以应用于机器人智能回答场景,当然也可以应用到电商的智能客服等场景中。分词处理是将一段话分为多个词语,常见于自然语言处理技术中;词向量模型可以为Word2Vec。基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分,可以是基于第一向量,利用答案打分模型对每个第二向量打分,每个第二向量的得分就是每个第二向量对应候选答案的得分。
本公开实施例在确定出候选答案列表后,引入了答案打分模型对每个候选答案进行打分,所以可以在不增加模型训练量(指后文问答匹配模型的训练量,因为答案打分模型的训练量小,可以忽略不计,或者说答案打分模型的训练量小于要提高答案打分模型精度所增加的训练量)的情况下,提高智能回答用户问题的精准度。
根据本公开实施例提供的技术方案,在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。采用上述技术手段,可以解决现有技术中,模型训练量与智能回答用户问题的精准度不可兼得的问题,进而在不增加模型训练量的情况下,提高智能回答用户问题的精准度。
在步骤S201中,在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,包括:基于目标提问,利用问答匹配模型从问答语料数据库中匹配出多条候选答案,其中,问答语料数据库,包括:多条答案;根据匹配出的多条候选答案,生成候选答案列表。
问答匹配模型已通过训练,学习并保存有提问与候选答案之间的对应关系。因为问答匹配模型的训练量较小,所以其模型精度较低,问答匹配模型并不可以精准找到目标提问对应的目标答案,问答匹配模型找到的是与目标提问接近的多条候选答案。
基于目标提问,利用问答匹配模型从问答语料数据库中匹配出多条候选答案,包括:分别对目标提问和每条答案进行分词处理,得到目标提问对应的第一分词结果和每条答案对应的第三分词结果;利用词向量模型分别处理第一分词结果和每个第三分词结果,得到目标提问对应的第一向量和每条答案对应的第三向量;基于第一向量和每个第三向量,利用问答匹配模型从问答语料数据库中的多条答案中匹配出多条候选答案。
在本公开实施例中,问答匹配模型学习并保存有提问对应的第一向量与答案对应的第三向量之间的对应关系,所以通过问答匹配模型,可以实现提问到候选答案的映射。
在一个可选实施例中,包括:获取多个机器人的历史对话记录,并从多个历史对话记录中确定出多条答案;基于确定出的多条答案组建问答语料数据库;对问答语料数据库中的多条答案进行数据增强处理,以扩展问答语料数据库中的答案的数量。
对答案进行数据增强处理,可以是同义词替换等处理,数据增强处理常见于自然语言处理技术中。
在步骤S203中,利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量,包括:利用词向量模型处理第一分词结果中的每个词语,得到第一分词结果中每个词语的第一词向量;按照第一分词结果中词语的顺序,组合多个第一词向量得到第一向量。
比如第一分词结果包括:第一个词语、第二个词语和第三个词语;每个词语都对应一个第一词向量,按照第一分词结果中词语的顺序,将第一个词语对应的第一词向量,连接第二个词语对应的第一词向量,再连接第三个词语对应的第一词向量,最后得到第一向量。
在步骤S203中,利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量,包括:利用词向量模型处理第二分词结果中的每个词语,得到第二分词结果中每个词语的第二词向量;按照第二分词结果中词语的顺序,组合多个第二词向量得到第二向量。
在步骤S204中,基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分之前,方法还包括:获取问答训练数据集,其中,问答训练数据集,包括:多条问答语料,每条问答语料包括至少两轮对话,每轮对话,包括:用户语料和机器人语料;基于每条问答语料中当前轮对话的后一轮对话中的用户语料对当前轮对话中的机器人语料进行打分;利用经过打分后的问答训练数据集训练答案打分模型。
每轮对话分为用户说的话(用户语料)和机器人回答的话(机器人语料),用户语料可以是用户的提问、要求和对机器人回答表示肯定或者否定的话。比如一条问答语料包括两轮对话,用q表示用户说的话,用a表示机器人说的话,用阿拉伯数字表示该问答语料中说话的次序,该问答语料具体为【q0:“你叫啥”,a0:“我叫格格”,q1:“哈哈,名字挺可爱的”,a1:“谢谢夸奖”】。a0:“我叫格格”为当前轮对话中的机器人语料,q1:“哈哈,名字挺可爱的”为当前轮对话的后一轮对话中的用户语料,很明显,用户很满意机器人的回答,所以该问答语料中机器人的回答a0:“我叫格格”的得分应该较高。
利用经过打分后的问答训练数据集训练答案打分模型,使得答案打分模型可以学习到给机器人的回答打分的能力,或者学习到机器人的回答与得分之间的映射关系。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种智能回答装置的示意图。如图3所示,该智能回答装置包括:
第一确定模块301,被配置为在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;
第一处理模块302,被配置为分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;
第二处理模块303,被配置为利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;
第二确定模块304,被配置为基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;
第三确定模块305,被配置为将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。
答案打分模型模型和后文中的问答匹配模型可以是常见的任何一种神经网络模型,模型训练可以是深度学习的方法。本公开实施例可以应用于机器人智能回答场景,当然也可以应用到电商的智能客服等场景中。分词处理是将一段话分为多个词语,常见于自然语言处理技术中;词向量模型可以为Word2Vec。基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分,可以是基于第一向量,利用答案打分模型对每个第二向量打分,每个第二向量的得分就是每个第二向量对应候选答案的得分。
本公开实施例在确定出候选答案列表后,引入了答案打分模型对每个候选答案进行打分,所以可以在不增加模型训练量(指后文问答匹配模型的训练量,因为答案打分模型的训练量小,可以忽略不计,或者说答案打分模型的训练量小于要提高答案打分模型精度所增加的训练量)的情况下,提高智能回答用户问题的精准度。
根据本公开实施例提供的技术方案,在接收到目标用户的目标提问时,基于目标提问从问答语料数据库中确定出候选答案列表,其中,候选答案列表,包括:多条候选答案;分别对目标提问和每条候选答案进行分词处理,得到目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;利用词向量模型分别处理第一分词结果和每个第二分词结果,得到目标提问对应的第一向量和每条候选答案对应的第二向量;基于第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;将得分最高的候选答案确定为目标提问的目标答案,并用目标答案回答目标用户。采用上述技术手段,可以解决现有技术中,模型训练量与智能回答用户问题的精准度不可兼得的问题,进而在不增加模型训练量的情况下,提高智能回答用户问题的精准度。
可选地,第一确定模块301还被配置为基于目标提问,利用问答匹配模型从问答语料数据库中匹配出多条候选答案,其中,问答语料数据库,包括:多条答案;根据匹配出的多条候选答案,生成候选答案列表。
问答匹配模型已通过训练,学习并保存有提问与候选答案之间的对应关系。因为问答匹配模型的训练量较小,所以其模型精度较低,问答匹配模型并不可以精准找到目标提问对应的目标答案,问答匹配模型找到的是与目标提问接近的多条候选答案。
可选地,第一确定模块301还被配置为分别对目标提问和每条答案进行分词处理,得到目标提问对应的第一分词结果和每条答案对应的第三分词结果;利用词向量模型分别处理第一分词结果和每个第三分词结果,得到目标提问对应的第一向量和每条答案对应的第三向量;基于第一向量和每个第三向量,利用问答匹配模型从问答语料数据库中的多条答案中匹配出多条候选答案。
在本公开实施例中,问答匹配模型学习并保存有提问对应的第一向量与答案对应的第三向量之间的对应关系,所以通过问答匹配模型,可以实现提问到候选答案的映射。
可选地,第一确定模块301还被配置为获取多个机器人的历史对话记录,并从多个历史对话记录中确定出多条答案;基于确定出的多条答案组建问答语料数据库;对问答语料数据库中的多条答案进行数据增强处理,以扩展问答语料数据库中的答案的数量。
对答案进行数据增强处理,可以是同义词替换等处理,数据增强处理常见于自然语言处理技术中。
可选地,第二处理模块303还被配置为利用词向量模型处理第一分词结果中的每个词语,得到第一分词结果中每个词语的第一词向量;按照第一分词结果中词语的顺序,组合多个第一词向量得到第一向量。
比如第一分词结果包括:第一个词语、第二个词语和第三个词语;每个词语都对应一个第一词向量,按照第一分词结果中词语的顺序,将第一个词语对应的第一词向量,连接第二个词语对应的第一词向量,再连接第三个词语对应的第一词向量,最后得到第一向量。
可选地,第二处理模块303还被配置为利用词向量模型处理第二分词结果中的每个词语,得到第二分词结果中每个词语的第二词向量;按照第二分词结果中词语的顺序,组合多个第二词向量得到第二向量。
可选地,第二确定模块304还被配置为获取问答训练数据集,其中,问答训练数据集,包括:多条问答语料,每条问答语料包括至少两轮对话,每轮对话,包括:用户语料和机器人语料;基于每条问答语料中当前轮对话的后一轮对话中的用户语料对当前轮对话中的机器人语料进行打分;利用经过打分后的问答训练数据集训练答案打分模型。
每轮对话分为用户说的话(用户语料)和机器人回答的话(机器人语料),用户语料可以是用户的提问、要求和对机器人回答表示肯定或者否定的话。比如一条问答语料包括两轮对话,用q表示用户说的话,用a表示机器人说的话,用阿拉伯数字表示该问答语料中说话的次序,该问答语料具体为【q0:“你叫啥”,a0:“我叫格格”,q1:“哈哈,名字挺可爱的”,a1:“谢谢夸奖”】。a0:“我叫格格”为当前轮对话中的机器人语料,q1:“哈哈,名字挺可爱的”为当前轮对话的后一轮对话中的用户语料,很明显,用户很满意机器人的回答,所以该问答语料中机器人的回答a0:“我叫格格”的得分应该较高。
利用经过打分后的问答训练数据集训练答案打分模型,使得答案打分模型可以学习到给机器人的回答打分的能力,或者学习到机器人的回答与得分之间的映射关系。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序403可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器402中,并由处理器401执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在电子设备4中的执行过程。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (8)
1.一种基于前后轮对话关系的模型训练的机器人智能回答方法,其特征在于,包括:
在机器人接收到目标用户的目标提问时,基于所述目标提问从问答语料数据库中确定出候选答案列表,其中,所述候选答案列表,包括:多条候选答案;
分别对所述目标提问和每条候选答案进行分词处理,得到所述目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;
利用词向量模型分别处理所述第一分词结果和每个第二分词结果,得到所述目标提问对应的第一向量和每条候选答案对应的第二向量;
基于所述第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;
将得分最高的候选答案确定为所述目标提问的目标答案,并控制所述机器人用所述目标答案回答所述目标用户;
其中,基于所述第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分之前,所述方法还包括:获取问答训练数据集,其中,所述问答训练数据集,包括:多条问答语料,每条问答语料包括至少两轮对话,每轮对话,包括:用户语料和机器人语料;基于每条问答语料中当前轮对话的后一轮对话中的用户语料对当前轮对话中的机器人语料进行打分;利用经过所述打分后的所述问答训练数据集训练所述答案打分模型;
其中,包括:获取多个机器人的历史对话记录,并从多个历史对话记录中确定出多条答案;基于确定出的多条答案组建所述问答语料数据库;对所述问答语料数据库中的多条答案进行数据增强处理,以扩展所述问答语料数据库中的答案的数量。
2.根据权利要求1所述的方法,其特征在于,在接收到目标用户的目标提问时,基于所述目标提问从问答语料数据库中确定出候选答案列表,包括:
基于所述目标提问,利用问答匹配模型从所述问答语料数据库中匹配出多条候选答案,其中,所述问答语料数据库,包括:多条答案;
根据匹配出的多条候选答案,生成所述候选答案列表。
3.根据权利要求2所述的方法,其特征在于,所述基于所述目标提问,利用问答匹配模型从所述问答语料数据库中匹配出多条候选答案,包括:
分别对所述目标提问和每条答案进行分词处理,得到所述目标提问对应的第一分词结果和每条答案对应的第三分词结果;
利用词向量模型分别处理所述第一分词结果和每个第三分词结果,得到所述目标提问对应的第一向量和每条答案对应的第三向量;
基于所述第一向量和每个第三向量,利用所述问答匹配模型从所述问答语料数据库中的多条答案中匹配出多条候选答案。
4.根据权利要求1所述的方法,其特征在于,所述利用词向量模型分别处理所述第一分词结果和每个第二分词结果,得到所述目标提问对应的第一向量和每条候选答案对应的第二向量,包括:
利用所述词向量模型处理所述第一分词结果中的每个词语,得到所述第一分词结果中每个词语的第一词向量;
按照所述第一分词结果中词语的顺序,组合多个第一词向量得到所述第一向量。
5.根据权利要求1所述的方法,其特征在于,所述利用词向量模型分别处理所述第一分词结果和每个第二分词结果,得到所述目标提问对应的第一向量和每条候选答案对应的第二向量,包括:
利用所述词向量模型处理所述第二分词结果中的每个词语,得到所述第二分词结果中每个词语的第二词向量;
按照所述第二分词结果中词语的顺序,组合多个第二词向量得到所述第二向量。
6.一种基于前后轮对话关系的模型训练的机器人智能回答装置,其特征在于,包括:
第一确定模块,被配置为在机器人接收到目标用户的目标提问时,基于所述目标提问从问答语料数据库中确定出候选答案列表,其中,所述候选答案列表,包括:多条候选答案;
第一处理模块,被配置为分别对所述目标提问和每条候选答案进行分词处理,得到所述目标提问对应的第一分词结果和每条候选答案对应的第二分词结果;
第二处理模块,被配置为利用词向量模型分别处理所述第一分词结果和每个第二分词结果,得到所述目标提问对应的第一向量和每条候选答案对应的第二向量;
第二确定模块,被配置为基于所述第一向量和每个第二向量,利用答案打分模型确定每条候选答案对应的得分;
第三确定模块,被配置为将得分最高的候选答案确定为所述目标提问的目标答案,并控制所述机器人用所述目标答案回答所述目标用户;
所述第二确定模块还被配置为获取问答训练数据集,其中,所述问答训练数据集,包括:多条问答语料,每条问答语料包括至少两轮对话,每轮对话,包括:用户语料和机器人语料;基于每条问答语料中当前轮对话的后一轮对话中的用户语料对当前轮对话中的机器人语料进行打分;利用经过所述打分后的所述问答训练数据集训练所述答案打分模型;
所述第一确定模块还被配置为获取多个机器人的历史对话记录,并从多个历史对话记录中确定出多条答案;基于确定出的多条答案组建所述问答语料数据库;对所述问答语料数据库中的多条答案进行数据增强处理,以扩展所述问答语料数据库中的答案的数量。
7.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211062328.7A CN115129847B (zh) | 2022-08-30 | 2022-08-30 | 智能回答方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211062328.7A CN115129847B (zh) | 2022-08-30 | 2022-08-30 | 智能回答方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115129847A CN115129847A (zh) | 2022-09-30 |
CN115129847B true CN115129847B (zh) | 2023-01-06 |
Family
ID=83387384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211062328.7A Active CN115129847B (zh) | 2022-08-30 | 2022-08-30 | 智能回答方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115129847B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858869A (zh) * | 2020-01-03 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种数据匹配方法、装置、电子设备和存储介质 |
CN112182403A (zh) * | 2020-10-23 | 2021-01-05 | 网易(杭州)网络有限公司 | 问题查询方法、装置、设备及存储介质 |
CN112667794A (zh) * | 2020-12-31 | 2021-04-16 | 民生科技有限责任公司 | 一种基于孪生网络bert模型的智能问答匹配方法及系统 |
CN112905768A (zh) * | 2021-02-08 | 2021-06-04 | 中国工商银行股份有限公司 | 一种数据交互方法、装置及存储介质 |
WO2021249528A1 (zh) * | 2020-06-12 | 2021-12-16 | 支付宝(杭州)信息技术有限公司 | 智能对话方法、装置和电子设备 |
CN114722176A (zh) * | 2022-04-15 | 2022-07-08 | 北京东大正保科技有限公司 | 一种智能答疑的方法、装置、介质及电子设备 |
-
2022
- 2022-08-30 CN CN202211062328.7A patent/CN115129847B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858869A (zh) * | 2020-01-03 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种数据匹配方法、装置、电子设备和存储介质 |
WO2021249528A1 (zh) * | 2020-06-12 | 2021-12-16 | 支付宝(杭州)信息技术有限公司 | 智能对话方法、装置和电子设备 |
CN112182403A (zh) * | 2020-10-23 | 2021-01-05 | 网易(杭州)网络有限公司 | 问题查询方法、装置、设备及存储介质 |
CN112667794A (zh) * | 2020-12-31 | 2021-04-16 | 民生科技有限责任公司 | 一种基于孪生网络bert模型的智能问答匹配方法及系统 |
CN112905768A (zh) * | 2021-02-08 | 2021-06-04 | 中国工商银行股份有限公司 | 一种数据交互方法、装置及存储介质 |
CN114722176A (zh) * | 2022-04-15 | 2022-07-08 | 北京东大正保科技有限公司 | 一种智能答疑的方法、装置、介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN115129847A (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2929018C (en) | Natural expression processing method, processing and response method, device and system | |
CN109514586B (zh) | 实现智能客服机器人的方法及系统 | |
WO2022095380A1 (zh) | 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质 | |
CN111339309B (zh) | 一种用户意图的语料扩展方法和系统 | |
CN114969352B (zh) | 文本处理方法、系统、存储介质及电子设备 | |
CN111508472A (zh) | 一种语种切换方法、装置及存储介质 | |
CN117056481A (zh) | 基于大模型技术的云服务行业对话帮助系统及实现方法 | |
CN111625629B (zh) | 任务型对话机器人应答方法、装置及机器人、存储介质 | |
CN115129847B (zh) | 智能回答方法及装置 | |
CN116521832A (zh) | 对话交互方法、装置及系统、电子设备和存储介质 | |
CN115204178A (zh) | 文本排序匹配方法、系统、装置及存储介质 | |
CN111556096B (zh) | 信息推送方法、装置、介质及电子设备 | |
CN111651582B (zh) | 一种模拟用户发言的方法和系统 | |
CN114860910A (zh) | 智能对话方法及系统 | |
CN114138943A (zh) | 对话消息生成方法、装置、电子设备及存储介质 | |
CN112820316A (zh) | 一种智能客服的对话方法和系统 | |
CN115062630B (zh) | 机器人昵称的确认方法及装置 | |
CN112651526A (zh) | 预约目标业务的方法、装置、设备以及存储介质 | |
CN116933800B (zh) | 一种基于模版的生成式意图识别方法及装置 | |
CN116911313B (zh) | 一种语义漂移文本的识别方法及装置 | |
CN115270799B (zh) | 命名实体识别方法及装置 | |
CN113127616B (zh) | 应用于现场对话场景中的智能话术推荐方法及装置 | |
CN116546139A (zh) | 一种虚拟人的通话方法、装置、电子设备及存储介质 | |
CN116110392A (zh) | 语音识别结果的修正方法及装置 | |
CN114005439A (zh) | 确定话术的方法、装置以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |