CN109829038A - 基于深度学习的问答反馈方法、装置、设备及存储介质 - Google Patents
基于深度学习的问答反馈方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109829038A CN109829038A CN201811507885.9A CN201811507885A CN109829038A CN 109829038 A CN109829038 A CN 109829038A CN 201811507885 A CN201811507885 A CN 201811507885A CN 109829038 A CN109829038 A CN 109829038A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- target
- probability value
- intended
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000013135 deep learning Methods 0.000 title claims abstract description 55
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000013136 deep learning model Methods 0.000 claims abstract description 134
- 239000013598 vector Substances 0.000 claims description 80
- 238000012549 training Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 abstract description 2
- 239000000203 mixture Substances 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 201000010099 disease Diseases 0.000 description 8
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 8
- 239000003814 drug Substances 0.000 description 7
- 229940079593 drug Drugs 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000002779 inactivation Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于深度学习的问答反馈方法、装置、设备及存储介质,应用于机器学习技术领域,用于解决现有问题自动答复的失败率较高的问题。本发明提供的方法包括:获取用户输入的目标问题;将目标问题作为输入投入至预先训练好的第一深度学习模型,得到第一深度学习模型输出的各个预设用户意图对应的第一概率值;选取第一概率值最高的预设用户意图作为目标用户意图;根据预设的意图模型对应关系确定出目标用户意图对应的第二深度学习模型;将目标问题作为输入投入至确定出的第二深度学习模型,得到目标用户意图下各个预设问题组对应的第二概率值;选取第二概率值最高的预设问题组作为目标问题组;将目标问题组对应的预设答案反馈至用户。
Description
技术领域
本发明涉及机器学习技术领域,尤其涉及基于深度学习的问答反馈方法、装置、设备及存储介质。
背景技术
目前,智能机器人的应用已经越来越广泛,其中,问答型机器人主要服务于医院、公司的前台、咨询台等地方,以供用户咨询。比如,现有很多大型医院在门诊大厅位置设置有问答型机器人,就诊人员可以在机器人前方语音输入自己的问题,机器人通过与后台服务器的通信搜索出问题的答案并提供给就诊人员。其中,机器人回答问题主要依赖于后台服务器对问题的识别和问题答案的匹配、检索,现有后台服务器一般在数据库中预先配置有大量的常见问题,当机器人获取到就诊人员输入的问题时,后台服务器通过将该问题与数据库中的常见问题进行配对,若配对成功,则输出配对成功问题对应的答案,若配对失败,则向就诊人员反馈无法找到答案。
然而,这种问题匹配的方式仅适用于问题较少、用户类型单一的场合,对于大型场合,例如大型医院,由于用户种类较多、不同用户表达同一问题的方式多种多样,且大型医院的问题类型也极其繁多,这就导致该问题匹配的方式难以准确地查找到正确的答案提供给用户,问题答复的失败率也较高,降低了用户对问答型机器人的使用体验。
因此,寻找一种回复率高、答复准确的问题反馈方法成为本领域技术人员亟需解决的问题。
发明内容
本发明实施例提供一种基于深度学习的问答反馈方法、装置、计算机设备及存储介质,以解决现有问题自动答复的失败率较高的问题。
一种基于深度学习的问答反馈方法,包括:
获取用户输入的目标问题;
将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,第一概率值表征了所述目标问题属于对应的预设用户意图的概率;
选取第一概率值最高的预设用户意图作为目标用户意图;
根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;
将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;
选取第二概率值最高的预设问题组作为目标问题组;
将所述目标问题组对应的预设答案反馈至所述用户。
一种基于深度学习的问答反馈装置,包括:
目标问题获取模块,用于获取用户输入的目标问题;
第一概率输出模块,用于将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,第一概率值表征了所述目标问题属于对应的预设用户意图的概率;
目标意图选取模块,用于选取第一概率值最高的预设用户意图作为目标用户意图;
模型确定模块,用于根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;
第二概率输出模块,用于将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;
目标问题组选取模块,用于选取第二概率值最高的预设问题组作为目标问题组;
答案反馈模块,用于将所述目标问题组对应的预设答案反馈至所述用户。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于深度学习的问答反馈方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于深度学习的问答反馈方法的步骤。
上述基于深度学习的问答反馈方法、装置、计算机设备及存储介质,首先,获取用户输入的目标问题;然后,将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值;接着,选取第一概率值最高的预设用户意图作为目标用户意图;再之,根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;次之,将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;选取第二概率值最高的预设问题组作为目标问题组;最后,将所述目标问题组对应的预设答案反馈至所述用户。可见,本发明利用深度学习模型在用户输入问题之后,通过问题识别用户意图,再基于用户意图进一步选取合适的深度学习模型来对用户提出的问题进行分析,选取深度学习模型输出的概率值最高的预设问题组对应的预设答案反馈给用户,在一定程度上提高问题的回复率和准确性,能适用于大型场合下的问答型机器人,且提升用户的提问体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于深度学习的问答反馈方法的一应用环境示意图;
图2是本发明一实施例中基于深度学习的问答反馈方法的一流程图;
图3是本发明一实施例中基于深度学习的问答反馈方法在一个应用场景下训练第一深度学习模型的流程示意图;
图4是本发明一实施例中基于深度学习的问答反馈方法在一个应用场景下进行问题预处理的流程示意图;
图5是本发明一实施例中基于深度学习的问答反馈方法在一个应用场景下训练第二深度学习模型的流程示意图;
图6是本发明一实施例中基于深度学习的问答反馈方法在一个应用场景下结合solr的流程示意图;
图7是本发明一实施例中基于深度学习的问答反馈装置的结构示意图;
图8是本发明一实施例中计算机设备的一示意图;
图9是本发明一实施例中第一深度学习模型的结构示意图;
图10是本发明一实施例中第二深度学习模型的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的基于深度学习的问答反馈方法,可应用在如图1的应用环境中,其中,客户端通过网络与服务器进行通信。其中,该客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种基于深度学习的问答反馈方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
101、获取用户输入的目标问题;
本实施例中,当用户需要咨询时,可以通过客户端输入目标问题,该客户端与服务器通信,将该目标问题上传给服务器,从而服务器可以获取到该用户输入的目标问题。其中,该客户端具体可以是放在门诊大厅、大堂前台等场合的机器人,也可以是用户携带的移动终端等设备,比如用户可以使用手机作为该客户端,通过扫描场所提供的二维码接入该服务器完成目标问题的提交。
需要说明的是,用户可以选择使用多种方式输入该目标问题,比如语音输入、文字输入等方式。特别地,在某些应用场景下,客户端为问答型机器人,该机器人上设置有麦克风等语音信号采集装置,用户靠近机器人并说出自己的问题,该机器人即可通过语音信号采集装置采集用户的语音并转化为该目标问题。
102、将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,第一概率值表征了所述目标问题属于对应的预设用户意图的概率;
可以理解的是,服务器上预先训练好有第一深度学习模型,该第一深度学习模型主要用于通过用户输入的目标问题来判断用户意图,也即得知该用户提问的问题具体属于哪一方面的问题,比如用户提问“儿科在哪里”,该用户的意图可以判别为“儿科位置”,返回与“儿科位置”相对应的答案即回答了用户的问题。该第一深度学习模型在预先训练的时候可以根据实际应用场景的需求预先设置有各个预设用户意图,在训练时针对这几个预设用户意图进行样本标注和训练,使得该第一深度学习模型具备通过问题识别用户意图的能力。需要说明的是,本实施例提供的基于深度学习的问答反馈方法可以应用在几乎所有用户、客户、人员可能提问的场景下,本实施例为了便于表述和理解,在后续的内容中主要以在医院场景下进行举例说明,但需要强调的是,本方法可以应用于包括但不限于医院、酒店、餐厅、机场、公交站场、办公室、旅游接待厅等等场景下。
服务器在获取到该目标问题之后,可以将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,其中,该第一概率值表征了所述目标问题属于对应的预设用户意图的概率。
为便于理解,进一步地,如图3所示,在步骤102之前,所述第一深度学习模型可以通过以下步骤预先训练好:
201、分别收集属于各个预设用户意图的样本问题;
202、对收集到的样本问题分别进行向量化处理,得到各个样本问题对应的问题向量;
203、针对每个预设用户意图,将所述预设用户意图对应的问题向量的标记值记为1,其它问题向量的标记值记为0;
204、针对每个预设用户意图,将所有问题向量作为输入投入至第一深度学习模型,得到输出的各个第一样本概率值;
205、针对每个预设用户意图,以输出的各个第一样本概率值作为调整目标,调整所述第一深度学习模型的参数,以最小化得到的所述各个第一样本概率值与各个问题向量对应的标记值之间的误差;
206、若所述各个第一样本概率值与各个问题向量对应的标记值之间的误差满足预设的第一条件,则确定所述第一深度学习模型为训练好的第一深度学习模型。
对于上述步骤201,本实施例中,针对实际应用场景,技术人员可以预先在服务器上设定好需要训练的各个预设用户意图。例如,在大型医院的场景下,可以设定几个预设用户意图分别为:疾病问询、药品问询、院内导航问询和闲聊。针对这几个预设用户意图,服务器可以通过专业知识库、网络数据库等渠道收集属于各个预设用户意图的样本问题。需要说明的是,每个预设用户意图对应的样本问题应当达到一定的数量级,各个预设用户意图之间样本问题的数量可以有一定差距,但不应相差过远,避免影响对第一深度学习模型的训练效果。例如,可以收集到的样本问题为:疾病问询的问题数量为100万条,药品问询的问题数量为20万条,院内导航问询的问题数量为30万条,闲聊的问题数量为20万条。
对于上述步骤202,可以理解的是,在将样本问题投入训练之前,需要将收集到的样本问题分别进行向量化处理,得到各个样本问题对应的问题向量,将问题转化为向量更便于第一深度学习模型的理解和训练。需要说明的是,考虑到收集到的样本问题来源众多,样本问题的格式往往并不统一,这容易对后续训练造成干扰。因此,服务器在将这些样本问题进行向量化处理之前可以对其进行预处理,包括停用词、标点符号的删除以及字词的切割。例如,假设某个样本问题中的一句文本为“我今天来上班了。”,服务器可以先将其中的“了”等无实际意义的停用词删除,并将“。”等标点符号删除,然后使用第三方分词工具将该文本进行语句分割,转化为“我今天来上班”四个词语。在预处理后,服务器再对该文本进行向量化映射,即可得到该样本问题中该文本的词向量,通过将该样本问题中每个文本进行向量化得到多个词向量,这些词向量组成该样本问题的问题向量。具体地,问题向量可以以数据矩阵的形式记载。
对于上述步骤203,可以理解的是,在训练之前,需要对样本问题进行标记,本实施例中由于需要针对多个预设用户意图进行训练,因此应当针对不同的预设用户意图分别进行标注。举例说明,假设共4个预设用户意图,分别为疾病问询、药品问询、院内导航问询和闲聊,则,针对院内导航问询时,将该院内导航问询下的各个样本问题的标记值记为1,疾病问询、药品问询和闲聊下的各个样本问题的标记值记为0,并用于后续针对该院内导航问询时的第一深度学习模型的训练;同理,针对疾病问询时,将该疾病问询下的各个样本问题的标记值记为1,药品问询、院内导航问询和闲聊下的各个样本问题的标记值记为0,并用于后续针对该院内导航问询时的第一深度学习模型的训练;针对其它两个预设用户意图同理处理,此处不再赘述。
对于上述步骤204,本实施例中,该第一深度学习模型具体可以使用卷积神经网络,在训练时,针对每个预设用户意图,将所有问题向量作为输入投入至第一深度学习模型,得到输出的各个第一样本概率值。可以理解的是,由于针对该预设用户意图,除该预设用户意图下各个问题向量的标记值为1,其它标记值均为0,将一个问题向量输入第一深度学习模型后,该第一深度学习模型输出N个第一样本概率值,这N个第一样本概率值分别表征了该问题向量属于N个预设用户意图的概率。
为便于理解,请参阅图9,在一个应用场景下,将一个问题向量作为输入投入到第一深度学习模型中,首先,该问题向量输入到输入层中,输入层会将该问题向量转换成其所需要的输入格式。本实施例中由于预先对样本问题进行了向量化处理,因此该问题向量可以与输入层所需的输入格式一致。随后,输入成输入的问题向量进入到卷积层中。在卷积层中,一般使用多个不同尺寸的卷积核。卷积核的高度,即窗口值,具体可以设置为2-8左右。卷积核只进行一维的滑动,即卷积核的宽度与问题向量的维度等宽。
向量经过卷积层之后进入池化层,本方法使用最大池化,即采样最大值。卷积层与池化层在分类模型的核心作用就是特征提取的功能,从输入的定长文本序列中,利用局部词序信息,提取初级的特征,并组合初级的特征为高级特征,通过卷积与池化操作,省去了传统机器学习中的特征工程的步骤。
全连接层的作用就是分类器,本方法使用了只有一层隐藏层的全连接网络,相当于把卷积与池化层提取的特征输入到一个逻辑回归分类器中进行分类。而为了避免过拟合,本方法可以加入随机失活层,使某些神经元失活无效,相当于对全量神经元的采样。最后再经过softmax层,根据具体应用场景的需要,可以定义为2分类,即输出为一个介于0和1之间的概率值,从而最终该第一深度学习模型通过输入层输入第一样本概率值。
对于上述步骤205,可以理解的是,在训练第一深度学习模型的过程中,需要调整该第一深度学习模型的参数。比如,假设该第一深度学习模型为卷积神经网络,该卷积神经网络的网络结构主要包括卷积层、池化层、随机失活层、正则化层和softmax层,每层中均设有若干个参数,在一个样本训练过程中,通过调整这些参数可以影响卷积神经网络的输出结果。举例说明,假设针对院内导航问询这一预设用户意图,将院内导航问询下的某个问题向量投入该第一深度学习模型,其输出的结果为:“0.56,0.2,0.75,0.11”,这四个第一样本概率值代表了该问题向量对应的样本问题分别属于疾病问询、药品问询、院内导航问询和闲聊四个预设用户意图的概率,即该样本问题属于疾病问询的概率为0.56;该样本问题属于药品问询的概率为0.2;该样本问题属于院内导航问询的概率为0.75;该样本问题属于闲聊的概率为0.11。通过该问题向量的标记值为1可知,该样本问题属于院内导航问询,因此可以通过调整该第一深度学习模型的参数,尽量使得第一深度学习模型输出的结果为“0,0,1,0”,其中最主要的是尽量使得输出的结果为对应“院内导航问询”的第一样本概率值尽可能接近1。具体地,工作人员在训练该第一深度学习模型时,可以人工对该第一深度学习模型中的各个参数进行微调,在调节参数过程中,可以使得该第一深度学习模型输出的结果越来越接近真实的结果,例如让输出的结果为对应“院内导航问询”的第一样本概率值越来越接近1;当然,也可能使得输出的结果为对应“院内导航问询”的第一样本概率值越来越远离1。所以,工作人员当针对某个参数调整时,观察发现该第一样本概率值接近1,则保持当前趋势对参数调整;反正,若观察发现该第一样本概率值远离1,则停止采用当前趋势调整参数,应当停止对这个参数进行调整,或者反趋势调整该参数。采用上述调整策略对该第一深度学习模型中的各个参数逐个进行调整,即可让该第一深度学习模型输出的各个第一样本概率值与各个问题向量对应的标记值之间的误差最小。
对于步骤206,在针对各个预设用户意图均执行完成上述步骤203-205之后,可以判断所述各个第一样本概率值与各个问题向量对应的标记值之间的误差是否满足预设的第一条件,若满足,则说明该第一深度学习模型中的各个参数已经调整到位,可以确定该第一深度学习模型已训练完成;反之,若不满足,则说明该第一深度学习模型还需要继续训练。其中,该第一条件可以根据实际使用情况预先设定,具体地,可以将该第一条件设定为:若所述各个第一样本概率值与各个问题向量对应的标记值之间的误差均小于指定误差值,则认为其满足该预设的第一条件。假设各个第一样本概率值为Pi,各个标记值为Qi,i为样本问题的编号,即Pi为第i个样本问题对应的问题向量输入到第一深度学习模型的概率值,Qi为第i个样本问题对应的标记值。若i任意值时,均有|Pi-Qi|<y,y为预先设定的指定误差值,则可以认为其满足该预设的第一条件。
或者,也可以将其设为:使用验证集中的样本问题执行上述步骤202-204,若第一深度学习模型输出的第一样本概率值与标记值之间的误差在一定范围内,则认为其满足该预设的第一条件。其中,该验证集中的样本问题的收集与上述步骤201类似,具体地,可以执行上述步骤201收集得到各个预设用户意图的样本问题后,将收集得到的样本问题中的一定比例划分为训练集,剩余的样本问题划分为验证集。比如,可以将收集得到的样本问题中随机划分80%作为后续训练第一深度学习模型的训练集的样本,将其它的20%划分为后续验证第一深度学习模型是否训练完成,也即是否满足预设第一条件的验证集的样本。
考虑到用户的多样性,其输入的目标问题很可能在格式上不符合要求或者存在较多干扰信息,因此,本实施例在将其投入到第一深度学习模型之前还可以对其进行预处理,使得该目标问题在格式和内容上更加便于第一深度学习模型的识别和分析。进一步地,如图4所示,在步骤102之前,本方法还包括:
301、删除所述目标问题中的指定文本,所述指定文本至少包括停用词或标点符号;
302、对删除指定文本后的所述目标问题进行分词处理,得到所述目标问题中的各个词语;
303、将所述目标问题中的各个词语分别进行向量化处理,得到各个词语对应的词向量作为新的目标问题。
对于上述步骤301,这里所说的停用词可以是指使用频率特别高的单汉字,比如“的”、“了”等无实际语言意义的汉字,另外,指定文本还可以包括标点符号,比如逗号、句号等,这些标点符号也没有实际语言意义。执行步骤301时,服务器可以将目标问题中的指定文本删除,举例说明,假设该指定文本包括停用词和标点符号,该目标问题中包括文本“我今天来上班了。”,服务器可以先将其中的“了”等无实际意义的停用词删除,并将“。”等标点符号删除,从而得到删除后的文本“我今天来上班”。再比如,假设该指定文本包括停用词和标点符号,该目标问题中包括文本“我周末好想去旅游啊。”,服务器可以先将其中的“啊”等无实际意义的停用词删除,并将“。”等标点符号删除,从而得到删除后的文本“我周末好想去旅游”。
对于上述步骤302,在删除指定文本后,服务器还可以对该目标问题进行分词处理,承接上述文本“我今天来上班”,服务器可以通过第三方分词工具将该文本进行语句分割,转化为“我今天来上班”四个词语。
对于上述步骤303,在分词得到所述目标问题中的各个词语后,服务器可以将所述目标问题中的各个词语分别进行向量化处理,得到各个词语对应的词向量作为新的目标问题。
103、选取第一概率值最高的预设用户意图作为目标用户意图;
可以理解的是,执行上述步骤102之后,服务器可以得到所述第一深度学习模型输出的各个第一概率值,这些第一概率值分别表征了所述目标问题属于各个预设用户意图的概率。显然,第一概率值越高,说明该目标问题属于该预设用户意图的概率就越高,因此,服务器选取各个预设用户意图中第一概率值最高的预设用户意图作为目标用户意图,这在最大程度上符合用户的实际情况和需求。
104、根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;
本实施例中,服务器可以预先设置有意图模型对应关系,该意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系。也就是说,服务器针对各个预设用户意图分别预先训练好了多个第二深度学习模型,每个预设用户意图至少对应有一个第二深度学习模型。因此,在确定出目标用户意图之后,服务器可以根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型。关于第二深度学习模型的训练过程和使用过程将在后续步骤中详细描述,此处不赘述。
105、将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;
在确定出所述第二深度学习模型之后,服务器可以将该目标问题作为输入投入至该第二深度学习模型中,得到该第二深度学习模型输出的所述目标用户意图下各个预设问题组对应的第二概率值,其中,该第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率。可以理解的是,服务器将一个目标问题投入该第二深度学习模型后,该第二深度学习模型会输出多个第二概率值,这些第二概率值的数量等于预设问题组的数量,也即针对每个预设问题组输出一个对应的第二概率值,某个预设问题组对应的第二概率值越大,表明了该目标问题属于该预设问题组的概率越高。
为便于理解,下面将对第二深度学习模型的训练过程进行详细描述。进一步地,如图5所示,任一预设用户意图对应的第二深度学习模型可以通过以下步骤预先训练好:
401、获取所述预设用户意图下各个预设问题组,每个预设问题组包括多个预先收集的问题语义相同的历史问题;
402、将获取到的各个所述历史问题两两配对,得到各个问题组合;
403、将两个配对的历史问题属于同一预设问题组的问题组合的标记值记为1,并将两个配对的历史问题不属于同一预设问题组的问题组合的标记值记为0;
404、对所述各个问题组合分别进行向量化处理,得到所述各个问题组合对应的组合向量;
405、将所有组合向量作为输入投入至所述预设用户意图对应的第二深度学习模型,得到输出的各个第二样本概率值;
406、以输出的各个第二样本概率值作为调整目标,调整所述第二深度学习模型的参数,以最小化得到的所述各个第二样本概率值与各个问题组合对应的标记值之间的误差;
407、若所述各个第二样本概率值与各个问题组合对应的标记值之间的误差满足预设的第二条件,则确定所述预设用户意图对应的第二深度学习模型为训练好的第二深度学习模型。
对于上述步骤401,可以理解的是,服务器可以针对预设用户意图收集相应的历史问题,这里所说的历史问题是指属于该预设用户意图下的任何用户曾经咨询过的问题。比如,在大型医院的应用场景下,服务器可以通过多种渠道收集曾经的就诊人员在该医院中咨询过的问题,例如针对院内导航问询,可以在门诊大厅的接待处收集、整理得到大量的历史问题,另外,还可以从该医院的网站上收集到网络用户曾经提问的常见医院问题;再者,工作人员可以在这些收集到的历史问题的基础上进行发散、扩展和补充,把每个预设用户意图下的历史问题尽可能补充完整,力求涉及用户可能咨询的方方面面问题。另外,服务器针对这些收集回来的历史问题还需要进行分组,得到各个预设问题组。这是因为,不同问题之间根据是否语义相同可以归类为同一问题和不同问题,问题语义相同的历史问题归为一个预设问题组,从而服务器可以获取到该预设用户意图下各个预设问题组。在大型医院的应用场景下,“院内导航问询”的预设用户意图下便可划分出5大类、20小类的预设问题组,包括但不限于:“预约挂号”、“常规检查”、“挂号时间”等,例如,在“预约挂号”的预设问题组中可以包括“我没有带身份证,只有医保卡,可以挂号吗?”、“我能够帮别人挂号吗?”等历史问题。
对于上述步骤402和步骤403,可以理解的是,在进行第二深度学习模型训练之前,需要进行正负样本标注。由于第二深度学习模型的主要作用是判断目标问题是否与某个预设问题组在问题语义上相同,因此,用于训练该第二深度学习模型的正样本应当是一对问题语义相同的历史问题,而负样本则是一对问题语义不相同的历史问题。因此,服务器可以在各个预设问题组中随机抽取,两两配对历史问题,将两个配对的历史问题属于同一预设问题组的问题组合的标记值记为1,并将两个配对的历史问题不属于同一预设问题组的问题组合的标记值记为0。标记值为1的问题组合即为正样本,标记值为0的问题组合即为负样本。
对于上述步骤404,经过上述步骤402和步骤403,服务器整理出正负样本之后,还需要将这些正负样本向量化。具体地,服务器对所述各个问题组合分别进行向量化处理,得到所述各个问题组合对应的组合向量,特别地,可将每个问题组合对应的组合向量以数据矩阵的形式记载,在数据矩阵中,问题组合中的每句话均映射成一个等长的向量,这样更加有利于第二深度学习模型在训练过程中对组合向量识别。其中,在进行向量化映射时,针对每句话预留足够的向量长度,在每句话的文本均映射为向量之后,长度多出来的部分可以使用指定的常向量填充。
对于上述步骤405,在得到组合向量后,服务器可以将所有组合向量作为输入投入至所述预设用户意图对应的第二深度学习模型,得到输出的各个第二样本概率值。可以理解的是,服务器每投入一个组合向量至该第二深度学习模型中,该第二深度学习模型输出一个对应的第二样本概率值,该第二样本概率值表征了该组合向量对应的两个历史问题之间是否问题语义相同,第二样本概率值越大,则表明这两个历史问题之间问题语义相同的概率越大,反之,第二样本概率值越小,则表明这两个历史问题之间问题语义相同的概率越小。因此,第二样本概率值为介于0-1之间的数值。
特别地,该第二深度学习模型具体为卷积神经网络,该卷积神经网络的网络结构主要为:卷积层、池化层、随机失活层、正则化层和全连接层,在进行模型训练时,将每个问题组合的两个向量在模型层面进行“加”、“减”、“乘”、“除”等运算,以交叉熵为目标函数,最小化交叉熵,持续迭代模型,最终输出第二样本概率值。为便于理解,如图10所示,在一个应用场景中,假设某个问题组包含问句1和问句2,将这两个问句向量化处理后,得到该问题组对应的组合向量。在将该组合向量投入到第二深度学习模型之后,问句1和问句2的向量经过输入层后向量化分别进入6个卷积层,其中,每个卷积层的卷积核的参数设置不同,每层卷积层之后都连接着最大池化层。经过6层卷积和相应的池化之后将得到的6个输出合并为一个向量矩阵,则问句1对应向量矩阵1,问句2对应向量矩阵2。向量矩阵1和2分别跟彼此进行矩阵“减”和“乘”的计算,然后将两个结果矩阵合并。同样的,将合并矩阵依次输入随机失活层,正则化层和全连接层,最终得到一个介于0和1的输出值,该输出值即为第二样本概率值,其表征了问句1和问句2的相似程度。
对于上述步骤406,可以理解的是,在训练第二深度学习模型的过程中,可以通过调整该第二深度学习模型的参数,尽量使得该第二深度学习模型输出的结果与问题组合对应的标记值逼近,也即误差最小。假设当前投入的组合向量对应的问题组合的标记值为1,也就是说这是一个正样本,则执行步骤406时,服务器调整第二深度学习模型中的各个参数,使得其输出的第二样本概率值尽可能接近1,远离0。
对于上述步骤407,在执行上述步骤405和步骤406,将所有组合向量均投入到第二深度学习模型中进行训练之后,为了验证该第二深度学习模型是否训练完成,服务器可以判断所述各个第二样本概率值与各个问题组合对应的标记值之间的误差是否满足预设的第二条件,若满足,则说明该第二深度学习模型中的各个参数已经调整到位,可以确定该第二深度学习模型已训练完成;反之,若不满足,则说明该第二深度学习模型还需要继续训练。其中,该第二条件可以根据实际使用情况预先设定,具体地,可以将该第二条件设定为:若所述各个第二样本概率值与各个问题组合对应的标记值之间的误差均小于指定第二误差值,则认为其满足该预设的第二条件。或者,也可以将其设为:使用第二验证集中的问题组合执行上述步骤404和步骤405,若第二深度学习模型输出的第二样本概率值与标记值之间的误差在一定范围内,则认为其满足该预设的第二条件。其中,该验证集中的问题组合的收集与上述步骤402类似,具体地,可以执行上述步骤402获取到各个问题组合后,将这些问题组合中的一定比例划分为第二训练集,剩余的问题组合划分为第二验证集。比如,可以将两两配对出来的各个问题组合中随机划分80%作为后续训练第二深度学习模型的第二训练集的样本,将其它的20%划分为后续验证第二深度学习模型是否训练完成,也即是否满足预设第二条件的第二验证集的样本。
106、选取第二概率值最高的预设问题组作为目标问题组;
可以理解的是,服务器在得到各个第二概率值之后,由于这些第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率,显然,第二概率值越高,说明该目标问题与该第二概率值对应的预设问题组之间问题语义相同的概率越高,因此,服务器选取各个预设问题组中第二概率值最高的预设问题组作为目标问题组,这是符合客观实际情况的。
107、将所述目标问题组对应的预设答案反馈至所述用户。
本实施例中,服务器针对每个预设问题组均设置有对应的预设答案,在确定出目标问题组后,服务器可以将该目标问题组对应的预设答案反馈至所述用户,从而用户可以得到所提问题的答案。特别地,本实施例中的方法可以结合到问答型机器人上实现,用户通过向机器人提问来发起目标问题,机器人与服务器通信,由服务器获取该目标问题并执行本方法得到该目标问题对应的预设答案,通过机器人反馈给用户,可以带给用户一种与机器人实时交流的使用体验。
在现有技术中,solr(一个独立的企业级搜索应用服务器)常被用于计算语句之间的语义相似度,且准确性较高。本实施例中,为了从整体上提升本方法回答问题的准确性,引入solr来计算目标问题与预设问题之间的相似度(以概率值表示),并与第二深度学习模型输出的概率值进行对比,取值较高的一方作为最终的结果。可见,本方法结合solr的优点,进一步提高了回答问题的准确性。进一步地,如图6所示,在步骤107之前,本方法还可以包括:
501、将所述目标问题输入solr进行相似问题检索,得到solr输出的各个相似问题以及所述各个相似问题对应的第三概率值,其中,所述solr的数据库中预先配置有预先收集的、属于所述目标用户意图下各个问题语义相同的问题;
502、将最高的第三概率值与最高的所述第二概率值进行对比;
503、若最高的第三概率值大于最高的所述第二概率值,则将所述第三概率值最高的相似问题确定为新的目标问题组;
504、若最高的第三概率值小于或等于最高的所述第二概率值,则执行步骤107。
对于上述步骤501,服务器可以将预先收集的、属于所述目标用户意图下各个问题语义相同的问题配置到solr数据库中,在获取到目标问题后,可以将所述目标问题输入solr进行相似问题检索,得到solr输出的各个相似问题以及所述各个相似问题对应的第三概率值。例如,假设配置到solr数据库中共100万个问题,则solr进行相似问题检索后,可以输出其中第三概率值最高的10个问题以及对应的10个概率值,第三概率值越大则表示该相似问题与该目标问题的相似度越高。
对于上述步骤502至504,可以理解的是,可以认为solr计算出的第三概率值与第二深度学习模型输出的第二概率值在评估相似度的效果上是一致的,因此,当最高的第三概率值大于最高的所述第二概率值时,可以认为solr检索出来的最高第三概率值对应的相似问题与目标问题更加接近,因此可以将所述第三概率值最高的相似问题确定为新的目标问题组;而当最高的第三概率值大于最高的所述第二概率值时,可以认为第二深度学习模型输出的最高第二概率值对应的预设问题组与目标问题更加接近,因此可以执行步骤107。
本发明实施例中,首先,获取用户输入的目标问题;然后,将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值;接着,选取第一概率值最高的预设用户意图作为目标用户意图;再之,根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;次之,将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;选取第二概率值最高的预设问题组作为目标问题组;最后,将所述目标问题组对应的预设答案反馈至所述用户。可见,本发明利用深度学习模型在用户输入问题之后,通过问题识别用户意图,再基于用户意图进一步选取合适的深度学习模型来对用户提出的问题进行分析,选取深度学习模型输出的概率值最高的预设问题组对应的预设答案反馈给用户,在一定程度上提高问题的回复率和准确性,能适用于大型场合下的问答型机器人,且提升用户的提问体验。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于深度学习的问答反馈装置,该基于深度学习的问答反馈装置与上述实施例中基于深度学习的问答反馈方法一一对应。如图7所示,该基于深度学习的问答反馈装置包括目标问题获取模块601、第一概率输出模块602、目标意图选取模块603、模型确定模块604、第二概率输出模块605、目标问题组选取模块606和答案反馈模块607。各功能模块详细说明如下:
目标问题获取模块601,用于获取用户输入的目标问题;
第一概率输出模块602,用于将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,第一概率值表征了所述目标问题属于对应的预设用户意图的概率;
目标意图选取模块603,用于选取第一概率值最高的预设用户意图作为目标用户意图;
模型确定模块604,用于根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;
第二概率输出模块605,用于将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;
目标问题组选取模块606,用于选取第二概率值最高的预设问题组作为目标问题组;
答案反馈模块607,用于将所述目标问题组对应的预设答案反馈至所述用户。
进一步地,所述第一深度学习模型可以通过以下模块预先训练好:
样本问题收集模块608,用于分别收集属于各个预设用户意图的样本问题;
问题向量化模块609,用于对收集到的样本问题分别进行向量化处理,得到各个样本问题对应的问题向量;
问题向量标记模块610,用于针对每个预设用户意图,将所述预设用户意图对应的问题向量的标记值记为1,其它问题向量的标记值记为0;
第一模型学习模块611,用于针对每个预设用户意图,将所有问题向量作为输入投入至第一深度学习模型,得到输出的各个第一样本概率值;
第一参数调整模块612,用于针对每个预设用户意图,以输出的各个第一样本概率值作为调整目标,调整所述第一深度学习模型的参数,以最小化得到的所述各个第一样本概率值与各个问题向量对应的标记值之间的误差;
第一模型训练完成模块613,用于若所述各个第一样本概率值与各个问题向量对应的标记值之间的误差满足预设的第一条件,则确定所述第一深度学习模型为训练好的第一深度学习模型。
进一步地,所述基于深度学习的问答反馈装置还可以包括:
指定文本删除模块614,用于删除所述目标问题中的指定文本,所述指定文本至少包括停用词或标点符号;
问题分词处理模块615,用于对删除指定文本后的所述目标问题进行分词处理,得到所述目标问题中的各个词语;
新问题向量化模块616,用于将所述目标问题中的各个词语分别进行向量化处理,得到各个词语对应的词向量作为新的目标问题。
进一步地,任一预设用户意图对应的第二深度学习模型可以通过以下模块预先训练好:
预设问题组获取模块,用于获取所述预设用户意图下各个预设问题组,每个预设问题组包括多个预先收集的问题语义相同的历史问题;
问题配对模块,用于将获取到的各个所述历史问题两两配对,得到各个问题组合;
问题组标记模块,用于将两个配对的历史问题属于同一预设问题组的问题组合的标记值记为1,并将两个配对的历史问题不属于同一预设问题组的问题组合的标记值记为0;
问题组向量化模块,用于对所述各个问题组合分别进行向量化处理,得到所述各个问题组合对应的组合向量;
第二模型学习模块,用于将所有组合向量作为输入投入至所述预设用户意图对应的第二深度学习模型,得到输出的各个第二样本概率值;
第二参数调整模块,用于以输出的各个第二样本概率值作为调整目标,调整所述第二深度学习模型的参数,以最小化得到的所述各个第二样本概率值与各个问题组合对应的标记值之间的误差;
第二模型训练完成模块,用于若所述各个第二样本概率值与各个问题组合对应的标记值之间的误差满足预设的第二条件,则确定所述预设用户意图对应的第二深度学习模型为训练好的第二深度学习模型。
进一步地,所述基于深度学习的问答反馈装置还可以包括:
相似问题检索模块,用于将所述目标问题输入solr进行相似问题检索,得到solr输出的各个相似问题以及所述各个相似问题对应的第三概率值,其中,所述solr的数据库中预先配置有预先收集的、属于所述目标用户意图下各个问题语义相同的问题;
概率值对比模块,用于将最高的第三概率值与最高的所述第二概率值进行对比;
新问题组确定模块,用于若最高的第三概率值大于最高的所述第二概率值,则将所述第三概率值最高的相似问题确定为新的目标问题组;
触发模块,用于若最高的第三概率值小于或等于最高的所述第二概率值,则触发所述答案反馈模块。
关于基于深度学习的问答反馈装置的具体限定可以参见上文中对于基于深度学习的问答反馈方法的限定,在此不再赘述。上述基于深度学习的问答反馈装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于深度学习的问答反馈方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于深度学习的问答反馈方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于深度学习的问答反馈方法的步骤,例如图2所示的步骤101至步骤107。或者,处理器执行计算机程序时实现上述实施例中基于深度学习的问答反馈装置的各模块/单元的功能,例如图7所示模块601至模块607的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于深度学习的问答反馈方法的步骤,例如图2所示的步骤101至步骤107。或者,计算机程序被处理器执行时实现上述实施例中基于深度学习的问答反馈装置的各模块/单元的功能,例如图7所示模块601至模块607的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的问答反馈方法,其特征在于,包括:
获取用户输入的目标问题;
将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,第一概率值表征了所述目标问题属于对应的预设用户意图的概率;
选取第一概率值最高的预设用户意图作为目标用户意图;
根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;
将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;
选取第二概率值最高的预设问题组作为目标问题组;
将所述目标问题组对应的预设答案反馈至所述用户。
2.根据权利要求1所述的基于深度学习的问答反馈方法,其特征在于,所述第一深度学习模型通过以下步骤预先训练好:
分别收集属于各个预设用户意图的样本问题;
对收集到的样本问题分别进行向量化处理,得到各个样本问题对应的问题向量;
针对每个预设用户意图,将所述预设用户意图对应的问题向量的标记值记为1,其它问题向量的标记值记为0;
针对每个预设用户意图,将所有问题向量作为输入投入至第一深度学习模型,得到输出的各个第一样本概率值;
针对每个预设用户意图,以输出的各个第一样本概率值作为调整目标,调整所述第一深度学习模型的参数,以最小化得到的所述各个第一样本概率值与各个问题向量对应的标记值之间的误差;
若所述各个第一样本概率值与各个问题向量对应的标记值之间的误差满足预设的第一条件,则确定所述第一深度学习模型为训练好的第一深度学习模型。
3.根据权利要求1所述的基于深度学习的问答反馈方法,其特征在于,在将所述目标问题作为输入投入至预先训练好的第一深度学习模型之前,还包括:删除所述目标问题中的指定文本,所述指定文本至少包括停用词或标点符号;
对删除指定文本后的所述目标问题进行分词处理,得到所述目标问题中的各个词语;
将所述目标问题中的各个词语分别进行向量化处理,得到各个词语对应的词向量作为新的目标问题。
4.根据权利要求1所述的基于深度学习的问答反馈方法,其特征在于,任一预设用户意图对应的第二深度学习模型通过以下步骤预先训练好:
获取所述预设用户意图下各个预设问题组,每个预设问题组包括多个预先收集的问题语义相同的历史问题;
将获取到的各个所述历史问题两两配对,得到各个问题组合;
将两个配对的历史问题属于同一预设问题组的问题组合的标记值记为1,并将两个配对的历史问题不属于同一预设问题组的问题组合的标记值记为0;
对所述各个问题组合分别进行向量化处理,得到所述各个问题组合对应的组合向量;
将所有组合向量作为输入投入至所述预设用户意图对应的第二深度学习模型,得到输出的各个第二样本概率值;
以输出的各个第二样本概率值作为调整目标,调整所述第二深度学习模型的参数,以最小化得到的所述各个第二样本概率值与各个问题组合对应的标记值之间的误差;
若所述各个第二样本概率值与各个问题组合对应的标记值之间的误差满足预设的第二条件,则确定所述预设用户意图对应的第二深度学习模型为训练好的第二深度学习模型。
5.根据权利要求1至4中任一项所述的基于深度学习的问答反馈方法,其特征在于,在将所述目标问题组对应的预设答案反馈至所述用户之前,还包括:
将所述目标问题输入solr进行相似问题检索,得到solr输出的各个相似问题以及所述各个相似问题对应的第三概率值,其中,所述solr的数据库中预先配置有预先收集的、属于所述目标用户意图下各个问题语义相同的问题;
将最高的第三概率值与最高的所述第二概率值进行对比;
若最高的第三概率值大于最高的所述第二概率值,则将所述第三概率值最高的相似问题确定为新的目标问题组;
若最高的第三概率值小于或等于最高的所述第二概率值,则执行所述将所述目标问题组对应的预设答案反馈至所述用户的步骤。
6.一种基于深度学习的问答反馈装置,其特征在于,包括:
目标问题获取模块,用于获取用户输入的目标问题;
第一概率输出模块,用于将所述目标问题作为输入投入至预先训练好的第一深度学习模型,得到所述第一深度学习模型输出的各个预设用户意图对应的第一概率值,第一概率值表征了所述目标问题属于对应的预设用户意图的概率;
目标意图选取模块,用于选取第一概率值最高的预设用户意图作为目标用户意图;
模型确定模块,用于根据预设的意图模型对应关系确定出所述目标用户意图对应的第二深度学习模型,所述意图模型对应关系记录了各个预设用户意图与各个预先训练好的第二深度学习模型之间的对应关系;
第二概率输出模块,用于将所述目标问题作为输入投入至确定出的所述第二深度学习模型,得到输出的所述目标用户意图下各个预设问题组对应的第二概率值,第二概率值表征了所述目标问题与对应的预设问题组之间问题语义相同的概率;
目标问题组选取模块,用于选取第二概率值最高的预设问题组作为目标问题组;
答案反馈模块,用于将所述目标问题组对应的预设答案反馈至所述用户。
7.根据权利要求6所述的基于深度学习的问答反馈装置,其特征在于,所述第一深度学习模型通过以下模块预先训练好:
样本问题收集模块,用于分别收集属于各个预设用户意图的样本问题;
问题向量化模块,用于对收集到的样本问题分别进行向量化处理,得到各个样本问题对应的问题向量;
问题向量标记模块,用于针对每个预设用户意图,将所述预设用户意图对应的问题向量的标记值记为1,其它问题向量的标记值记为0;
第一模型学习模块,用于针对每个预设用户意图,将所有问题向量作为输入投入至第一深度学习模型,得到输出的各个第一样本概率值;
第一参数调整模块,用于针对每个预设用户意图,以输出的各个第一样本概率值作为调整目标,调整所述第一深度学习模型的参数,以最小化得到的所述各个第一样本概率值与各个问题向量对应的标记值之间的误差;
第一模型训练完成模块,用于若所述各个第一样本概率值与各个问题向量对应的标记值之间的误差满足预设的第一条件,则确定所述第一深度学习模型为训练好的第一深度学习模型。
8.根据权利要求6或7所述的基于深度学习的问答反馈装置,其特征在于,所述基于深度学习的问答反馈装置还包括:
指定文本删除模块,用于删除所述目标问题中的指定文本,所述指定文本至少包括停用词或标点符号;
问题分词处理模块,用于对删除指定文本后的所述目标问题进行分词处理,得到所述目标问题中的各个词语;
新问题向量化模块,用于将所述目标问题中的各个词语分别进行向量化处理,得到各个词语对应的词向量作为新的目标问题。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述基于深度学习的问答反馈方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述基于深度学习的问答反馈方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811507885.9A CN109829038A (zh) | 2018-12-11 | 2018-12-11 | 基于深度学习的问答反馈方法、装置、设备及存储介质 |
PCT/CN2019/088714 WO2020119031A1 (zh) | 2018-12-11 | 2019-05-28 | 基于深度学习的问答反馈方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811507885.9A CN109829038A (zh) | 2018-12-11 | 2018-12-11 | 基于深度学习的问答反馈方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109829038A true CN109829038A (zh) | 2019-05-31 |
Family
ID=66858786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811507885.9A Pending CN109829038A (zh) | 2018-12-11 | 2018-12-11 | 基于深度学习的问答反馈方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109829038A (zh) |
WO (1) | WO2020119031A1 (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390108A (zh) * | 2019-07-29 | 2019-10-29 | 中国工商银行股份有限公司 | 基于深度强化学习的任务型交互方法和系统 |
CN110444292A (zh) * | 2019-07-29 | 2019-11-12 | 北京爱医生智慧医疗科技有限公司 | 信息问答方法及系统 |
CN110516057A (zh) * | 2019-08-23 | 2019-11-29 | 深圳前海微众银行股份有限公司 | 一种信访问题答复方法及装置 |
CN110852426A (zh) * | 2019-11-19 | 2020-02-28 | 成都晓多科技有限公司 | 基于知识蒸馏的预训练模型集成加速方法及装置 |
CN110880141A (zh) * | 2019-12-04 | 2020-03-13 | 中国太平洋保险(集团)股份有限公司 | 一种深度双塔模型智能匹配算法及装置 |
CN111026853A (zh) * | 2019-12-02 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 目标问题的确定方法、装置、服务器和客服机器人 |
CN111079938A (zh) * | 2019-11-28 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 问答阅读理解模型获取方法、装置、电子设备及存储介质 |
CN111368043A (zh) * | 2020-02-19 | 2020-07-03 | 中国平安人寿保险股份有限公司 | 基于人工智能的事件问答方法、装置、设备及存储介质 |
CN112131788A (zh) * | 2020-09-18 | 2020-12-25 | 江西兰叶科技有限公司 | 用于教学的电机设计方法及系统 |
CN112446498A (zh) * | 2019-08-28 | 2021-03-05 | 国际商业机器公司 | 在线部分奖励学习 |
US20210237757A1 (en) * | 2020-01-31 | 2021-08-05 | Toyota Jidosha Kabushiki Kaisha | Information processing device, information processing method, and storage medium storing information processing program |
WO2021174728A1 (zh) * | 2020-03-04 | 2021-09-10 | 平安国际智慧城市科技股份有限公司 | 分诊数据处理方法、装置、计算机设备及存储介质 |
CN113704388A (zh) * | 2021-03-05 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 多任务预训练模型的训练方法、装置、电子设备和介质 |
CN115952274A (zh) * | 2023-03-10 | 2023-04-11 | 北京百度网讯科技有限公司 | 基于深度学习模型的数据生成方法、训练方法和装置 |
CN116127051A (zh) * | 2023-04-20 | 2023-05-16 | 中国科学技术大学 | 基于深度学习的对话生成方法、电子设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382248B (zh) * | 2018-12-29 | 2023-05-23 | 深圳市优必选科技有限公司 | 一种问题回复方法、装置、存储介质及终端设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014159187A2 (en) * | 2013-03-14 | 2014-10-02 | Worldone, Inc. | System and method for concept discovery with online information environments |
CN106803092A (zh) * | 2015-11-26 | 2017-06-06 | 阿里巴巴集团控股有限公司 | 一种标准问题数据的确定方法及装置 |
CN108427722A (zh) * | 2018-02-09 | 2018-08-21 | 卫盈联信息技术(深圳)有限公司 | 智能交互方法、电子装置及存储介质 |
WO2018149326A1 (zh) * | 2017-02-16 | 2018-08-23 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108228559A (zh) * | 2016-12-22 | 2018-06-29 | 苏宁云商集团股份有限公司 | 一种用于用户业务的人机交互实现方法及系统 |
CN107301213A (zh) * | 2017-06-09 | 2017-10-27 | 腾讯科技(深圳)有限公司 | 智能问答方法及装置 |
CN108446322B (zh) * | 2018-02-10 | 2022-03-25 | 灯塔财经信息有限公司 | 一种智能问答系统的实现方法和装置 |
-
2018
- 2018-12-11 CN CN201811507885.9A patent/CN109829038A/zh active Pending
-
2019
- 2019-05-28 WO PCT/CN2019/088714 patent/WO2020119031A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014159187A2 (en) * | 2013-03-14 | 2014-10-02 | Worldone, Inc. | System and method for concept discovery with online information environments |
CN106803092A (zh) * | 2015-11-26 | 2017-06-06 | 阿里巴巴集团控股有限公司 | 一种标准问题数据的确定方法及装置 |
WO2018149326A1 (zh) * | 2017-02-16 | 2018-08-23 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
CN108446286A (zh) * | 2017-02-16 | 2018-08-24 | 阿里巴巴集团控股有限公司 | 一种自然语言问句答案的生成方法、装置及服务器 |
CN108427722A (zh) * | 2018-02-09 | 2018-08-21 | 卫盈联信息技术(深圳)有限公司 | 智能交互方法、电子装置及存储介质 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390108A (zh) * | 2019-07-29 | 2019-10-29 | 中国工商银行股份有限公司 | 基于深度强化学习的任务型交互方法和系统 |
CN110444292A (zh) * | 2019-07-29 | 2019-11-12 | 北京爱医生智慧医疗科技有限公司 | 信息问答方法及系统 |
CN110390108B (zh) * | 2019-07-29 | 2023-11-21 | 中国工商银行股份有限公司 | 基于深度强化学习的任务型交互方法和系统 |
CN110444292B (zh) * | 2019-07-29 | 2022-04-08 | 北京爱医生智慧医疗科技有限公司 | 信息问答方法及系统 |
CN110516057A (zh) * | 2019-08-23 | 2019-11-29 | 深圳前海微众银行股份有限公司 | 一种信访问题答复方法及装置 |
CN110516057B (zh) * | 2019-08-23 | 2022-10-28 | 深圳前海微众银行股份有限公司 | 一种信访问题答复方法及装置 |
CN112446498A (zh) * | 2019-08-28 | 2021-03-05 | 国际商业机器公司 | 在线部分奖励学习 |
CN110852426A (zh) * | 2019-11-19 | 2020-02-28 | 成都晓多科技有限公司 | 基于知识蒸馏的预训练模型集成加速方法及装置 |
CN110852426B (zh) * | 2019-11-19 | 2023-03-24 | 成都晓多科技有限公司 | 基于知识蒸馏的预训练模型集成加速方法及装置 |
CN111079938A (zh) * | 2019-11-28 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 问答阅读理解模型获取方法、装置、电子设备及存储介质 |
CN111026853B (zh) * | 2019-12-02 | 2023-10-27 | 支付宝(杭州)信息技术有限公司 | 目标问题的确定方法、装置、服务器和客服机器人 |
CN111026853A (zh) * | 2019-12-02 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 目标问题的确定方法、装置、服务器和客服机器人 |
CN110880141A (zh) * | 2019-12-04 | 2020-03-13 | 中国太平洋保险(集团)股份有限公司 | 一种深度双塔模型智能匹配算法及装置 |
US20210237757A1 (en) * | 2020-01-31 | 2021-08-05 | Toyota Jidosha Kabushiki Kaisha | Information processing device, information processing method, and storage medium storing information processing program |
US11577745B2 (en) * | 2020-01-31 | 2023-02-14 | Toyota Jidosha Kabushiki Kaisha | Information processing device, information processing method, and storage medium storing information processing program |
CN111368043A (zh) * | 2020-02-19 | 2020-07-03 | 中国平安人寿保险股份有限公司 | 基于人工智能的事件问答方法、装置、设备及存储介质 |
WO2021174728A1 (zh) * | 2020-03-04 | 2021-09-10 | 平安国际智慧城市科技股份有限公司 | 分诊数据处理方法、装置、计算机设备及存储介质 |
CN112131788B (zh) * | 2020-09-18 | 2022-09-02 | 江西兰叶科技有限公司 | 用于教学的电机设计方法及系统 |
CN112131788A (zh) * | 2020-09-18 | 2020-12-25 | 江西兰叶科技有限公司 | 用于教学的电机设计方法及系统 |
CN113704388A (zh) * | 2021-03-05 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 多任务预训练模型的训练方法、装置、电子设备和介质 |
CN115952274B (zh) * | 2023-03-10 | 2023-06-27 | 北京百度网讯科技有限公司 | 基于深度学习模型的数据生成方法、训练方法和装置 |
CN115952274A (zh) * | 2023-03-10 | 2023-04-11 | 北京百度网讯科技有限公司 | 基于深度学习模型的数据生成方法、训练方法和装置 |
CN116127051B (zh) * | 2023-04-20 | 2023-07-11 | 中国科学技术大学 | 基于深度学习的对话生成方法、电子设备及存储介质 |
CN116127051A (zh) * | 2023-04-20 | 2023-05-16 | 中国科学技术大学 | 基于深度学习的对话生成方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020119031A1 (zh) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829038A (zh) | 基于深度学习的问答反馈方法、装置、设备及存储介质 | |
CN109783617A (zh) | 用于答复问题的模型训练方法、装置、设备及存储介质 | |
CN116303980B (zh) | 一种大语言模型知识增强方法、系统、电子设备及介质 | |
CN109829153A (zh) | 基于卷积神经网络的意图识别方法、装置、设备及介质 | |
CN112036154B (zh) | 基于问诊对话的电子病历生成方法、装置和计算机设备 | |
CN110162627A (zh) | 数据增量方法、装置、计算机设备及存储介质 | |
CN110135263A (zh) | 人像属性模型构建方法、装置、计算机设备和存储介质 | |
CN108804677A (zh) | 结合多层级注意力机制的深度学习问题分类方法及系统 | |
CN109766917A (zh) | 面试视频数据处理方法、装置、计算机设备和存储介质 | |
CN108388876A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN113157863B (zh) | 问答数据处理方法、装置、计算机设备及存储介质 | |
CN106682397A (zh) | 一种基于知识的电子病历质控方法 | |
CN109817046A (zh) | 一种基于家教设备的学习辅助方法及家教设备 | |
CN111182162B (zh) | 基于人工智能的电话质检方法、装置、设备和存储介质 | |
CN109325106A (zh) | 一种医美聊天机器人意图识别方法及装置 | |
CN110020426A (zh) | 将用户咨询分配到客服业务组的方法及装置 | |
CN111309887B (zh) | 一种训练文本关键内容提取模型的方法和系统 | |
CN107704453A (zh) | 一种文字语义分析方法、文字语义分析终端及存储介质 | |
CN109299320A (zh) | 一种信息交互方法、装置、计算机设备和存储介质 | |
CN110492480A (zh) | 配电网拓扑识别方法、装置、计算机设备和可读存储介质 | |
CN109858022A (zh) | 一种用户意图识别方法、装置、计算机设备及存储介质 | |
CN106951503A (zh) | 信息提供方法、装置、设备以及存储介质 | |
WO2021151327A1 (zh) | 分诊数据处理方法、装置、设备及介质 | |
CN112016295A (zh) | 症状数据处理方法、装置、计算机设备及存储介质 | |
CN105912712B (zh) | 基于大数据的机器人对话控制方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |