CN111858862A - 一种答复推荐方法、答复推荐装置及电子设备 - Google Patents
一种答复推荐方法、答复推荐装置及电子设备 Download PDFInfo
- Publication number
- CN111858862A CN111858862A CN201910354558.2A CN201910354558A CN111858862A CN 111858862 A CN111858862 A CN 111858862A CN 201910354558 A CN201910354558 A CN 201910354558A CN 111858862 A CN111858862 A CN 111858862A
- Authority
- CN
- China
- Prior art keywords
- output
- answered
- deep learning
- question
- rnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 claims abstract description 90
- 230000004044 response Effects 0.000 claims abstract description 40
- 230000006870 function Effects 0.000 claims description 53
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims 2
- 238000001514 detection method Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种答复推荐方法、答复推荐装置、电子设备及计算机可读存储介质,其中,该答复推荐方法包括:获取输入的待回答问题;提取所述待回答问题的关键词;基于所述关键词,通过预设的深度学习网络生成与所述待回答问题相关联的目标答复;向用户推荐所述目标答复。一方面,由于向用户推荐的目标答复是基于待回答问题的关键词而生成的,因而可以保障最终生成的目标答复是与待回答问题所密切关联的,减少安全答复出现的可能性;另一方面,在通过深度学习网络生成目标回答时,通过设置零时刻的深度学习网络的输出,减少深度学习网络针对同样的关键词生成雷同答复的可能性。
Description
技术领域
本申请属于人机交互技术领域,尤其涉及一种答复推荐方法、答复推荐装置、电子设备及计算机可读存储介质。
背景技术
在人机对话的过程中,机器端如何应对用户所提出的各种问题显得尤为重要,将直接影响到人机对话过程中用户的操作流畅性。现有的自动聊天系统中,往往采用端到端的深度学习模型生成相关答复。然而,这样的答复生成方式也存在一定问题,例如,其所生成的绝大多数答复均趋于雷同,且经常会生成安全回复。所谓安全答复,也即机器端所生成的“我也觉得”或“我也是这么认为的”等类似答复,这种答复对于用户所输入的任何句子都能够勉强作为答复,因而被称之为安全答复。由于上述问题的存在,采用端到端的深度学习模型来为用户推荐答复的方案往往会使得人机对话难以继续下去。
发明内容
有鉴于此,本申请提供了一种答复推荐方法、答复推荐装置、电子设备及计算机可读存储介质,可减少人机对话过程中出现大量相同答复的可能性,同时可一定程度上减少机器端以安全回复作为应答的可能性,提升人机对话过程中的趣味。
本申请的第一方面提供了一种答复推荐方法,包括:
获取输入的待回答问题;
提取上述待回答问题的关键词;
基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复;
向用户推荐上述目标答复。
本申请的第二方面提供了一种答复推荐装置,包括:
获取单元,用于获取输入的待回答问题;
提取单元,用于提取上述待回答问题的关键词;
生成单元,用于基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复;
推荐单元,用于向用户推荐上述目标答复。
本申请的第三方面提供了一种电子设备,上述电子设备包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时实现如上述第一方面的方法的步骤。
本申请的第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如上述第一方面的方法的步骤。
本申请的第五方面提供了一种计算机程序产品,上述计算机程序产品包括计算机程序,上述计算机程序被一个或多个处理器执行时实现如上述第一方面的方法的步骤。
由上可见,在本申请方案中,首先获取输入的待回答问题,然后提取上述待回答问题的关键词,并基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复,最后向用户推荐上述目标答复。一方面,由于向用户推荐的目标答复是基于待回答问题的关键词而生成的,因而可以保障最终生成的目标答复是与待回答问题所密切关联的,减少安全答复出现的可能性;另一方面,在通过深度学习网络生成目标回答时,通过设置零时刻的深度学习网络的输出,减少深度学习网络针对同样的关键词生成雷同答复的可能性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的答复推荐方法的实现流程示意图;
图2是本申请实施例提供的答复推荐方法中,串联式深度学习网络的结构示意图;
图3是本申请实施例提供的答复推荐方法中,并联式深度学习网络的结构示意图;
图4是本申请实施例提供的答复推荐装置的结构框图;
图5是本申请实施例提供的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
为了说明本申请上述的技术方案,下面通过具体实施例来进行说明。
实施例一
下面对本申请实施例提供的一种答复推荐方法进行描述,请参阅图1,本申请实施例中的答复推荐方法包括:
在步骤101中,获取输入的待回答问题;
在本申请实施例中,首先获取用户输入的待回答问题。具体地,用户可以通过文字输入的方式输入上述待回答问题;或者,用户也可以通过语音输入的方式输入上述待回答问题,此处不对上述待回答问题的输入方式作出限定。
在步骤102中,提取上述待回答问题的关键词;
在本申请实施例中,当获取到用户输入的待回答问题后,从上述待回答问题中提取出关键词,其中,上述关键词的数量为一个以上。具体地,上述步骤102包括:
A1、对上述待回答问题进行分词处理,得到组成上述待回答问题的各个词语;
A2、分别计算各个词语为关键词的概率;
A3、基于各个词语为关键词的概率,确定并提取上述待回答问题的关键词。
其中,上述计算各个词语为关键词的概率所采用的公式如下所示:
其中,上述P(y/X1-N)代表上述待回答问题X1-N中,主题词是y的概率;P(xi,y)代表在预设的问答库中,问题xi与答复y的共现概率,上述共现概率即为在问答库的一对问答中,问题xi与回复y同时出现的概率;P(xi)为xi在问答库的问题中出现的概率,P(y)为y在问答库的答复中出现的概率。上述各概率值均通过上述预设的问答库统计而得。通过上式,可以计算得出组成待回答问题的各个词语为关键词的概率。随后,将通过上式计算得到的概率最高的词语作为关键词。需要注意的是,此处不对关键词的数量作出限制,因而,若出现了两个以上词语的概率一样且均为最高的情况,则将该两个以上词语均确定为上述待回答问题的关键词。
在步骤103中,基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复;
在本申请实施例中,上述深度学习网络可以是串联式,也可以是并联式,此处不作限定。在一种应用场景下,上述深度学习网络具体为串联式深度学习网络;请参阅图2,图2示出了串联式深度学习网络的结构示意图;则步骤103包括:
B1、将循环神经网络RNN上一时刻的输出及上述关键词作为门函数当前时刻的输入,得到上述门函数当前时刻的输出,其中,上述RNN的零时刻的输出为一随机值;
其中,上述门函数的输出具体为:
f=dense(hi-1,keyword)
c=sigmod(f)*keyword
c为门函数的输出,f为门函数计算过程中的中间参数,dense为一个多层感知机,计算中间参数f时,其输入为上一时刻RNN的输出hi-1与关键词keyword的连接,在得到f后,在该f后接一层sigmode函数,使得最终得到的门函数的输出在(0,1)范围内。
B2、将上述RNN上一时刻的输出及上述门函数当前时刻的输出作为上述RNN当前时刻的输入,得到上述RNN当前时刻的输出;
B3、检测上述RNN各个非零时刻的输出中,是否存在结束符;
B4、若存在结束符,则将在上述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与上述待回答问题相关联的目标答复。
其中,上述RNN在零时刻的输出即为h0,该h0为预先设置的值。具体地,上述h0可以是[-1,1]范围内呈现高斯分布的随机数,此处不作限定。通过对h0的不同取值,可以使得同样的关键词被输入至上述深度学习网络中后,能够得到不同的输出。也即,即便两个待回答问题所提取得到的关键词一样,但由于该关键词被输入至上述深度学习网络时的h0有所不同,因而所最终得到的两个答复句子也会有所不同,以此避免雷同答复的生成。
其中,RNN的输出即为该深度学习网络的输出,该RNN的每个非零时刻的输出均为一个字符,通常来说,上述深度学习网络会限制其所输出的最长长度,例如,上述深度学习网络最终一共输出了50个字符,但这50个字符并不一定都是答复句子的组成部分。基于此,通过检测结束符的方式,在上述50个输出中(也即50个字符中)查询是否存在结束符,若存在结束符,则将在结束符之前获得的输出按照获取的先后顺序连接成句子。也即是说,上述预设顺序为获得各个输出的先后顺序。需要注意的是,若所得到的所有深度学习网络(也即RNN)非零时刻的输出中不存在结束符,则将所有非零时刻的输出按照获取的先后顺序连接成句子,作为目标答复。
在另一种应用场景下,上述深度学习网络具体为并联式深度学习网络;请参阅图3,图3示出了并联式深度学习网络的结构示意图;则步骤103包括:
C1、将深度学习网络上一时刻的输出及上述关键词作为wNet函数的输入,得到上述wNet函数当前时刻的输出,其中,上述深度学习网络的零时刻的输出为一随机值;
C2、将上述深度学习网络上一时刻的输出作为循环神经网络RNN的输入,得到上述RNN当前时刻的输出;
C3、根据上述wNet函数当前时刻的输出及上述RNN当前时刻的输出,计算上述深度学习网络当前时刻的输出;
其中,可以分别为上述wNet函数当前时刻的输出及上述RNN当前时刻的输出设置相应的权重,因而,可以将上述wNet函数当前时刻的输出及上述RNN当前时刻的输出作为预设的权重网络的输入,并基于上述权重网络分别计算上述wNet函数当前时刻的输出的权重及上述RNN当前时刻的输出的权重,随后根据上述wNet函数当前时刻的输出、上述RNN当前时刻的输出、上述wNet函数当前时刻的输出的权重及上述RNN当前时刻的输出的权重,计算上述深度学习网络当前时刻的输出。则上述深度学习网络每个时刻的输出为:
yi=w*dense1(rnni)+(1-w)*dense2(wneti)
其中,rnni是在i时刻RNN网络的输出,wneti是i时刻wNet函数的输出;具体地,wNet函数在i时刻的输出为:wneti=dense3(keyword,yi-1),上述keyword即为上述关键词;w及(1-w)是权重weight网络根据rnni及wneti的值所计算得出的权重,该w的取值为(0,1),该权重网络是一个多层感知机,具体地,w=dense4(rnni,wneti)。需要注意的是,上述dense1、dense2、dense3及dense4代表上述深度学习网络中的四个不同的全连接层。
C4、检测上述深度学习网络各个非零时刻的输出中,是否存在结束符;
C5、若存在结束符,则将在上述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与上述待回答问题相关联的目标答复。
其中,上述深度学习网络在零时刻的输出即为y0,该y0为预先设置的值。具体地,上述y0可以是[-1,1]范围内呈现高斯分布的随机数,此处不作限定。通过对y0的不同取值,可以使得同样的关键词被输入至上述深度学习网络中后,能够得到不同的输出。也即,即便两个待回答问题所提取得到的关键词一样,但由于该关键词被输入至上述深度学习网络时的y0有所不同,因而所最终得到的两个答复句子也会有所不同,以此避免雷同答复的生成。
其中,深度学习网络每个非零时刻的输出均为一个字符,通常来说,上述深度学习网络会限制其所输出的最长长度,例如,上述深度学习网络最终一共输出了50个字符,但这50个字符并不一定都是答复句子的组成部分。基于此,通过检测结束符的方式,在上述50个输出中(也即50个字符中)查询是否存在结束符,若存在结束符,则将在结束符之前获得的输出按照获取的先后顺序连接成句子。也即是说,上述预设顺序为获得各个输出的先后顺序。需要注意的是,若所得到的所有深度学习网络非零时刻的输出中不存在结束符,则将所有非零时刻的输出按照获取的先后顺序连接成句子,作为目标答复。
在步骤104中,向用户推荐上述目标答复。
在本申请实施例中,在得到目标答复后,向用户推荐上述目标答复,其中,推荐的形式根据用户输入待回复问题的形式而定,例如,若用户是通过文字输入的方式输入的上述待回答问题,则在步骤105中,同样以文字的方式推荐上述目标答复;若用户是通过语音输入的方式输入的上述待回答问题,则在步骤105中,可以先将上述目标答复转换为语音后,以语音的方式推荐上述目标答复,实现流畅的人机对话。
由上可见,通过本申请实施例,一方面,由于向用户推荐的目标答复是基于待回答问题的关键词而生成的,因而可以保障最终生成的目标答复是与待回答问题所密切关联的,减少安全答复出现的可能性;另一方面,在通过深度学习网络生成目标回答时,通过设置零时刻的深度学习网络的输出,减少深度学习网络针对同样的关键词生成雷同答复的可能性。
实施例二
本申请实施例二提供了一种答复推荐装置,上述答复推荐装置可集成于电子设备中,如图4所示,本申请实施例中的答复推荐装置400包括:
获取单元401,用于获取输入的待回答问题;
提取单元402,用于提取上述待回答问题的关键词;
生成单元403,用于基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复;
推荐单元404,用于向用户推荐上述目标答复。
可选地,上述提取单元402包括:
问题分词子单元,用于对上述待回答问题进行分词处理,得到组成上述待回答问题的各个词语;
概率计算子单元,用于分别计算各个词语为关键词的概率;
关键词确定子单元,用于基于各个词语为关键词的概率,确定并提取上述待回答问题的关键词。
可选地,上述深度学习网络为串联式深度学习网络;上述生成单元403包括:
门函数计算子单元,用于将循环神经网络RNN上一时刻的输出及上述关键词作为门函数当前时刻的输入,得到上述门函数当前时刻的输出,其中,上述RNN的零时刻的输出为一随机值;
第一RNN计算子单元,用于将上述RNN上一时刻的输出及上述门函数当前时刻的输出作为上述RNN当前时刻的输入,得到上述RNN当前时刻的输出;
第一检测子单元,用于检测上述RNN各个非零时刻的输出中,是否存在结束符;
第一连接子单元,用于若存在结束符,则将在上述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与上述待回答问题相关联的目标答复。
可选地,上述深度学习网络为并联式深度学习网络;上述生成单元403包括:
wNet计算子单元,用于将深度学习网络上一时刻的输出及上述关键词作为wNet函数的输入,得到上述wNet函数当前时刻的输出;
第二RNN计算子单元,用于将上述深度学习网络上一时刻的输出作为循环神经网络RNN的输入,得到上述RNN当前时刻的输出;
模型输出子单元,用于根据上述wNet函数当前时刻的输出及上述RNN当前时刻的输出,计算上述深度学习网络当前时刻的输出;
第二检测子单元,用于检测上述深度学习网络各个非零时刻的输出中,是否存在结束符;
第二连接子单元,用于若存在结束符,则将在上述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与上述待回答问题相关联的目标答复。
可选地,上述模型输出子单元包括:
权重计算子单元,用于基于预设的权重网络分别计算上述wNet函数当前时刻的输出的权重及上述RNN当前时刻的输出的权重;
加权输出子单元,用于根据上述wNet函数当前时刻的输出、上述RNN当前时刻的输出、上述wNet函数当前时刻的输出的权重及上述RNN当前时刻的输出的权重,计算上述深度学习网络当前时刻的输出。
由上可见,通过本申请实施例,一方面,由于向用户推荐的目标答复是基于待回答问题的关键词而生成的,因而可以保障最终生成的目标答复是与待回答问题所密切关联的,减少安全答复出现的可能性;另一方面,在通过深度学习网络生成目标回答时,通过设置零时刻的深度学习网络的输出,减少深度学习网络针对同样的关键词生成雷同答复的可能性。
实施例三
本申请实施例三提供了一种电子设备,请参阅图5,本申请实施例中的电子设备5包括:存储器501,一个或多个处理器502(图5中仅示出一个)及存储在存储器501上并可在处理器上运行的计算机程序。其中:存储器501用于存储软件程序以及模块,处理器502通过运行存储在存储器501的软件程序以及单元,从而执行各种功能应用以及数据处理,以获取上述预设事件对应的资源。具体地,处理器502通过运行存储在存储器501的上述计算机程序时实现以下步骤:
获取输入的待回答问题;
提取上述待回答问题的关键词;
基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复;
向用户推荐上述目标答复。
假设上述为第一种可能的实施方式,则在第一种可能的实施方式作为基础而提供的第二种可能的实施方式中,上述提取上述待回答问题的关键词,包括:
对上述待回答问题进行分词处理,得到组成上述待回答问题的各个词语;
分别计算各个词语为关键词的概率;
基于各个词语为关键词的概率,确定并提取上述待回答问题的关键词。
在上述第一种可能的实施方式作为基础,或者上述第二种可能的实施方式作为基础而提供的第三种可能的实施方式中,上述深度学习网络为串联式深度学习网络,上述基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复,包括:
将循环神经网络RNN上一时刻的输出及上述关键词作为门函数当前时刻的输入,得到上述门函数当前时刻的输出,其中,上述RNN的零时刻的输出为一随机值;
将上述RNN上一时刻的输出及上述门函数当前时刻的输出作为上述RNN当前时刻的输入,得到上述RNN当前时刻的输出;
检测上述RNN各个非零时刻的输出中,是否存在结束符;
若存在结束符,则将在上述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与上述待回答问题相关联的目标答复。
在上述第一种可能的实施方式作为基础,或者上述第二种可能的实施方式作为基础而提供的第四种可能的实施方式中,上述深度学习网络为并联式深度学习网络,上述基于上述关键词,通过预设的深度学习网络生成与上述待回答问题相关联的目标答复,包括:
将深度学习网络上一时刻的输出及上述关键词作为wNet函数的输入,得到上述wNet函数当前时刻的输出;
将上述深度学习网络上一时刻的输出作为循环神经网络RNN的输入,得到上述RNN当前时刻的输出;
根据上述wNet函数当前时刻的输出及上述RNN当前时刻的输出,计算上述深度学习网络当前时刻的输出;
检测上述深度学习网络各个非零时刻的输出中,是否存在结束符;
若存在结束符,则将在上述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与上述待回答问题相关联的目标答复。
在上述第一种可能的实施方式作为基础,或者上述第二种可能的实施方式作为基础而提供的第五种可能的实施方式中,上述根据上述wNet函数当前时刻的输出及上述RNN当前时刻的输出,计算上述深度学习网络当前时刻的输出,包括:
基于预设的权重网络分别计算上述wNet函数当前时刻的输出的权重及上述RNN当前时刻的输出的权重;
根据上述wNet函数当前时刻的输出、上述RNN当前时刻的输出、上述wNet函数当前时刻的输出的权重及上述RNN当前时刻的输出的权重,计算上述深度学习网络当前时刻的输出。
应当理解,在本申请实施例中,所称处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器501可以包括只读存储器和随机存取存储器,并向处理器502提供指令和数据。存储器501的一部分或全部还可以包括非易失性随机存取存储器。例如,存储器501还可以存储设备类型的信息。
由上可见,通过本申请实施例,一方面,由于向用户推荐的目标答复是基于待回答问题的关键词而生成的,因而可以保障最终生成的目标答复是与待回答问题所密切关联的,减少安全答复出现的可能性;另一方面,在通过深度学习网络生成目标回答时,通过设置零时刻的深度学习网络的输出,减少深度学习网络针对同样的关键词生成雷同答复的可能性。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者外部设备软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读存储介质可以包括:能够携带上述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机可读存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,上述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括是电载波信号和电信信号。
以上上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种答复推荐方法,其特征在于,包括:
获取输入的待回答问题;
提取所述待回答问题的关键词;
基于所述关键词,通过预设的深度学习网络生成与所述待回答问题相关联的目标答复;
向用户推荐所述目标答复。
2.如权利要求1所述的答复推荐方法,其特征在于,所述提取所述待回答问题的关键词,包括:
对所述待回答问题进行分词处理,得到组成所述待回答问题的各个词语;
分别计算各个词语为关键词的概率;
基于各个词语为关键词的概率,确定并提取所述待回答问题的关键词。
3.如权利要求1或2所述的答复推荐方法,其特征在于,所述深度学习网络为串联式深度学习网络,所述基于所述关键词,通过预设的深度学习网络生成与所述待回答问题相关联的目标答复,包括:
将循环神经网络RNN上一时刻的输出及所述关键词作为门函数当前时刻的输入,得到所述门函数当前时刻的输出,其中,所述RNN的零时刻的输出为一随机值;
将所述RNN上一时刻的输出及所述门函数当前时刻的输出作为所述RNN当前时刻的输入,得到所述RNN当前时刻的输出;
检测所述RNN各个非零时刻的输出中,是否存在结束符;
若存在结束符,则将在所述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与所述待回答问题相关联的目标答复。
4.如权利要求1或2所述的答复推荐方法,其特征在于,所述深度学习网络为并联式深度学习网络,所述基于所述关键词,通过预设的深度学习网络生成与所述待回答问题相关联的目标答复,包括:
将深度学习网络上一时刻的输出及所述关键词作为wNet函数的输入,得到所述wNet函数当前时刻的输出,其中,所述深度学习网络的零时刻的输出为一随机值;
将所述深度学习网络上一时刻的输出作为循环神经网络RNN的输入,得到所述RNN当前时刻的输出;
根据所述wNet函数当前时刻的输出及所述RNN当前时刻的输出,计算所述深度学习网络当前时刻的输出;
检测所述深度学习网络各个非零时刻的输出中,是否存在结束符;
若存在结束符,则将在所述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与所述待回答问题相关联的目标答复。
5.如权利要求4所述的答复推荐方法,其特征在于,所述根据所述wNet函数当前时刻的输出及所述RNN当前时刻的输出,计算所述深度学习网络当前时刻的输出,包括:
基于预设的权重网络分别计算所述wNet函数当前时刻的输出的权重及所述RNN当前时刻的输出的权重;
根据所述wNet函数当前时刻的输出、所述RNN当前时刻的输出、所述wNet函数当前时刻的输出的权重及所述RNN当前时刻的输出的权重,计算所述深度学习网络当前时刻的输出。
6.一种答复推荐装置,其特征在于,包括:
获取单元,用于获取输入的待回答问题;
提取单元,用于提取所述待回答问题的关键词;
生成单元,用于基于所述关键词,通过预设的深度学习网络生成与所述待回答问题相关联的目标答复;
推荐单元,用于向用户推荐所述目标答复。
7.如权利要求6所述的答复推荐装置,其特征在于,所述提取单元包括:
问题分词子单元,用于对所述待回答问题进行分词处理,得到组成所述待回答问题的各个词语;
概率计算子单元,用于分别计算各个词语为关键词的概率;
关键词确定子单元,用于基于各个词语为关键词的概率,确定并提取所述待回答问题的关键词。
8.如权利要求6或7所述的答复推荐装置,其特征在于,所述深度学习网络为串联式深度学习网络,所述生成单元包括:
门函数计算子单元,用于将循环神经网络RNN上一时刻的输出及所述关键词作为门函数当前时刻的输入,得到所述门函数当前时刻的输出,其中,所述RNN的零时刻的输出为一随机值;
RNN计算子单元,用于将所述RNN上一时刻的输出及所述门函数当前时刻的输出作为所述RNN当前时刻的输入,得到所述RNN当前时刻的输出;
结束符检测子单元,用于检测所述RNN各个非零时刻的输出中,是否存在结束符;
第一连接子单元,用于若存在结束符,则将在所述结束符之前获得的各个非零时刻的输出按照预设顺序连接为句子,作为与所述待回答问题相关联的目标答复。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910354558.2A CN111858862B (zh) | 2019-04-29 | 2019-04-29 | 一种答复推荐方法、答复推荐装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910354558.2A CN111858862B (zh) | 2019-04-29 | 2019-04-29 | 一种答复推荐方法、答复推荐装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111858862A true CN111858862A (zh) | 2020-10-30 |
CN111858862B CN111858862B (zh) | 2023-07-18 |
Family
ID=72965504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910354558.2A Active CN111858862B (zh) | 2019-04-29 | 2019-04-29 | 一种答复推荐方法、答复推荐装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858862B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897183A (zh) * | 2022-05-16 | 2022-08-12 | 北京百度网讯科技有限公司 | 问题数据处理方法、深度学习模型的训练方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011186854A (ja) * | 2010-03-09 | 2011-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 質問推薦装置及び方法及びプログラム |
CN106202159A (zh) * | 2016-06-23 | 2016-12-07 | 深圳追科技有限公司 | 一种客服系统的人机交互方法 |
CN107133303A (zh) * | 2017-04-28 | 2017-09-05 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
US20180285739A1 (en) * | 2017-03-29 | 2018-10-04 | University Of Florida Research Foundation, Incorporated | Deep learning for characterizing unseen categories |
CN108628935A (zh) * | 2018-03-19 | 2018-10-09 | 中国科学院大学 | 一种基于端到端记忆网络的问答方法 |
CN108763444A (zh) * | 2018-05-25 | 2018-11-06 | 杭州知智能科技有限公司 | 利用分层编码解码器网络机制来解决视频问答的方法 |
-
2019
- 2019-04-29 CN CN201910354558.2A patent/CN111858862B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011186854A (ja) * | 2010-03-09 | 2011-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 質問推薦装置及び方法及びプログラム |
CN106202159A (zh) * | 2016-06-23 | 2016-12-07 | 深圳追科技有限公司 | 一种客服系统的人机交互方法 |
US20180285739A1 (en) * | 2017-03-29 | 2018-10-04 | University Of Florida Research Foundation, Incorporated | Deep learning for characterizing unseen categories |
CN107133303A (zh) * | 2017-04-28 | 2017-09-05 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN108628935A (zh) * | 2018-03-19 | 2018-10-09 | 中国科学院大学 | 一种基于端到端记忆网络的问答方法 |
CN108763444A (zh) * | 2018-05-25 | 2018-11-06 | 杭州知智能科技有限公司 | 利用分层编码解码器网络机制来解决视频问答的方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114897183A (zh) * | 2022-05-16 | 2022-08-12 | 北京百度网讯科技有限公司 | 问题数据处理方法、深度学习模型的训练方法和装置 |
CN114897183B (zh) * | 2022-05-16 | 2023-06-13 | 北京百度网讯科技有限公司 | 问题数据处理方法、深度学习模型的训练方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111858862B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551007B2 (en) | Determining intent from a historical vector of a to-be-analyzed statement | |
CN108737406B (zh) | 一种异常流量数据的检测方法及系统 | |
CN108334487B (zh) | 缺失语意信息补全方法、装置、计算机设备和存储介质 | |
CN111581966B (zh) | 一种融合上下文特征方面级情感分类方法和装置 | |
CN110427461B (zh) | 智能问答信息处理方法、电子设备及计算机可读存储介质 | |
CN112837676B (zh) | 一种语句生成方法、语句生成装置及智能设备 | |
CN109710744B (zh) | 一种数据匹配方法、装置、设备及存储介质 | |
CN113591902A (zh) | 基于多模态预训练模型的跨模态理解与生成方法和装置 | |
CN106874253A (zh) | 识别敏感信息的方法及装置 | |
CN114757176A (zh) | 一种获取目标意图识别模型的方法以及意图识别方法 | |
CN107357824A (zh) | 信息处理方法、服务平台及计算机存储介质 | |
CN111966811A (zh) | 意图识别和槽填充方法、装置、可读存储介质及终端设备 | |
CN110597968A (zh) | 一种回复选择方法及装置 | |
CN113743522A (zh) | 违规行为的检测方法及装置、电子设备 | |
CN111079433B (zh) | 一种事件抽取方法、装置及电子设备 | |
CN111339772A (zh) | 俄语文本情感分析方法、电子设备和存储介质 | |
WO2024109597A1 (zh) | 文本合并判断模型的训练方法和文本合并判断方法 | |
WO2024148869A1 (zh) | 视觉常识推理方法和装置、非易失性可读存储介质及电子设备 | |
CN111858862B (zh) | 一种答复推荐方法、答复推荐装置及电子设备 | |
CN113779190A (zh) | 事件因果关系识别方法、装置、电子设备与存储介质 | |
CN111401070B (zh) | 词义相似度确定方法及装置、电子设备及存储介质 | |
CN111858863B (zh) | 一种答复推荐方法、答复推荐装置及电子设备 | |
KR102341959B1 (ko) | 문장 데이터의 감성 분석을 처리하는 시스템 및 방법 | |
CN113204973B (zh) | 答非所问识别模型的训练方法、装置、设备和存储介质 | |
CN112434527B (zh) | 一种关键词的确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |