CN109255016A - 基于深度学习的应答方法、装置及计算机可读存储介质 - Google Patents

基于深度学习的应答方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN109255016A
CN109255016A CN201810856602.5A CN201810856602A CN109255016A CN 109255016 A CN109255016 A CN 109255016A CN 201810856602 A CN201810856602 A CN 201810856602A CN 109255016 A CN109255016 A CN 109255016A
Authority
CN
China
Prior art keywords
insurance
sample
data
answer model
enquirement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810856602.5A
Other languages
English (en)
Inventor
顾宝宝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201810856602.5A priority Critical patent/CN109255016A/zh
Priority to PCT/CN2018/111380 priority patent/WO2020024452A1/zh
Publication of CN109255016A publication Critical patent/CN109255016A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • General Business, Economics & Management (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

本发明实施例提供了一种基于深度学习的应答方法、装置及计算机可读存储介质。本发明实施例通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。因此,本发明实施例提供的技术方案能够解决现有技术中人工应答保险提问存在应答效率较低且浪费人力成本的问题。

Description

基于深度学习的应答方法、装置及计算机可读存储介质
【技术领域】
本发明涉及数据处理技术领域,尤其涉及一种基于深度学习的应答方法、装置及计算机可读存储介质。
【背景技术】
在涉及保险交易等场景中,经常涉及到用户终端针对保险条款或保险险种情况介绍等问题的应答场景。由于这类问答较为繁琐,因此,现有技术中一般采取人工应答的方式来回复这些问题,也就是,通过应答人员对这些针对保险信息的提问进行应答。
但是,针对保险信息的提问存在较多的重复性问题,应答人员针对不同的客户可能会重复回答某一保险的情况介绍或保险条款的说明,应答过程繁琐,应答效率较低且造成较大的人力成本的浪费。
【发明内容】
有鉴于此,本发明实施例提供了一种基于深度学习的应答方法、装置及计算机可读存储介质,用以解决现有技术中人工应答保险提问存在应答效率较低且浪费人力成本的问题。
第一方面,本发明实施例提供了一种基于深度学习的应答方法,包括:
获取针对保险信息的样本提问数据与样本应答数据;
对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型;
利用所述保险应答模型,应答针对所述保险信息的提问。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,包括:
将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型,包括:
将所述样本提问数据输入初始保险应答模型,得到初始应答结果,其中,所述初始保险应答模型中包含预设数值的参数;
利用所述初始应答结果与所述样本应答数据,对所述初始保险应答模型进行学习,得到校正后参数的数值;
将所述校正后参数的数值代入所述初始保险应答模型,得到所述保险应答模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述方法还包括:
根据GRU+Attention机制,生成所述初始保险应答模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述利用所述保险应答模型,应答针对所述保险信息的提问,包括:
接收用户终端提出的针对所述保险信息的提问,将所述提问的数据输入所述保险应答模型;
获取所述保险应答模型的处理结果,以作为针对所述提问的应答信息;
输出针对所述提问的应答信息。
上述技术方案中的一个技术方案具有如下有益效果:
本发明实施例中,通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。基于此,针对具备较高重复性问题的保险提问,能够基于深度学习得到准确率更高的保险应答模型,而保险应答模型则是基于样本提问数据与样本应答数据得到的,具有较高的灵活性,如此,可实现针对保险提问的自动应答,提高应答效率,并节约人力成本。
第二方面,本发明实施例提供了一种基于深度学习的应答装置,包括:
获取单元,用于获取针对保险信息的样本提问数据与样本应答数据;
学习单元,用于对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型;
应答单元,用于利用所述保险应答模型,自动应答针对所述保险信息的提问。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述学习单元,具体用于:
将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,学习单元,具体用于:
将所述样本提问数据输入初始保险应答模型,得到初始应答结果,其中,所述初始保险应答模型中包含预设数值的参数;
利用所述初始应答结果与所述样本应答数据,对所述初始保险应答模型进行学习,得到校正后参数的数值;
将所述校正后参数的数值代入所述初始保险应答模型,得到所述保险应答模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,学习单元,还具体用于:
根据GRU+Attention机制,生成所述初始保险应答模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述应答单元,具体用于:
接收用户终端提出的针对所述保险信息的提问,将所述提问的数据输入所述保险应答模型;
获取所述保险应答模型的处理结果,以作为针对所述提问的应答信息;
输出针对所述提问的应答信息。
上述技术方案中的一个技术方案具有如下有益效果:
本发明实施例中,通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。基于此,针对具备较高重复性问题的保险提问,能够基于深度学习得到准确率更高的保险应答模型,而保险应答模型则是基于样本提问数据与样本应答数据得到的,具有较高的灵活性,如此,可实现针对保险提问的自动应答,提高应答效率,并节约人力成本。
第三方面,本发明实时类提供了一种基于深度学习的应答装置,其特征在于,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如第一方面任一项所述方法的步骤。
上述技术方案中的一个技术方案具有如下有益效果:
本发明实施例中,通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。基于此,针对具备较高重复性问题的保险提问,能够基于深度学习得到准确率更高的保险应答模型,而保险应答模型则是基于样本提问数据与样本应答数据得到的,具有较高的灵活性,如此,可实现针对保险提问的自动应答,提高应答效率,并节约人力成本。
第四方面,本发明实施例提供了一种计算机可读存储介质,其特征在于,包括:计算机可执行指令,当所述计算机可执行指令被运行时用以执行如第一方面任一项所述的基于深度学习的应答方法。
上述技术方案中的一个技术方案具有如下有益效果:
本发明实施例中,通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。基于此,针对具备较高重复性问题的保险提问,能够基于深度学习得到准确率更高的保险应答模型,而保险应答模型则是基于样本提问数据与样本应答数据得到的,具有较高的灵活性,如此,可实现针对保险提问的自动应答,提高应答效率,并节约人力成本。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例所提供的基于深度学习的应答方法的实施例一的流程示意图;
图2是本发明实施例所提供的基于深度学习的应答方法的实施例二的流程示意图;
图3是本发明实施例所提供的基于深度学习的应答方法的实施例三的流程示意图;
图4是本发明实施例所提供的基于深度学习的应答装置的功能方块图;
图5是本发明实施例所提供的基于深度学习的应答装置的实体装置示意图。
【具体实施方式】
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
针对现有技术中所存在的人工应答针对保险信息的提问存在的应答效率较低且人力资源成本较高的问题,本发明实施例提供了如下解决思路:通过对样本提问数据与样本应答数据进行深度学习,得到保险应答模型,从而,只需要将用户终端针对保险信息的提问输入至保险应答模型,就可以直接得到针对这个提问的应答,如此,就可以实现针对保险信息提问的自动应答。
在该思路的引导下,本方案实施例提供了以下可行的实施方案。
实施例一
本发明实施例给出一种基于深度学习的应答方法。具体的,请参考图1,该方法包括以下步骤:
S102,获取针对保险信息的样本提问数据与样本应答数据。
其中,样本提问数据的数目为至少一个,样本应答数据的数目为至少一个。
S104,对样本提问数据与样本应答数据进行深度学习,得到保险应答模型。
S106,利用保险应答模型,应答针对保险信息的提问。
本发明实施例针对保险应答这一场景提出,基于此,保险信息为与保险相关的各种信息。
在一个可行的实现场景中,保险信息可以包括但不限于:保险条款与保险险种介绍中的至少一种。
在具体实现过程中,样本提问数据与样本应答数据可以存储于自身或其他的存储位置;此时,执行S102中获取样本提问数据与样本应答数据的步骤可以直接自存储位置调取这些数据;或者,当存储位置为除自身外的其他存储位置时,则可以通过向其他存储位置发送数据调取请求的方式来获取这些数据。
以及,在一个可行的场景中,用户终端也可以通过终端显示的输入框来主动输入这些样本应答数据与样本提问数据。
基于上述各实现方式,可以实现S102中获取样本提问数据与样本应答数据的步骤,之后,在执行S104步骤时,可通过以下步骤实现:
将样本提问数据作为输入,将样本应答数据作为输出,利用神经网络机制进行深度学习,得到保险应答模型。
在实际实现时,可以基于神经网络机制,构建初始保险应答模型。
其中,初始保险应答模型的输入为样本提问数据,初始保险应答模型的输出为样本应答数据。在初始保险应答模型中包含有预设数值的参数,并且,通过上述深度学习算法,来实现对这些参数的校正,从而,将这些校正后的参数数值替代原来预设的参数数值并输入初始保险应答模型,就可以得到深度学习后符合保险应答这一场景的保险应答模型。
基于此,在一个实现场景中,该方法在执行S104步骤之前,还可以包括如下步骤:
根据门限递归单元(gated recurrent unit,GRU)+聚焦(Attention)机制,生成初始保险应答模型。
具体的,GRU循环神经网络模型通常用于描述动态时间行为序列,将状态在自身网络中循环传递,由于存在当前输入与过去状态的连接,GRU具有优秀的记忆功能,使得历史输入信息对当前输出的影响也被考虑在内。门限递归单元包括输入层、隐藏层和输出层。门限递归单元的核心是隐藏层的两个门,这些门可以选择性地让信息通过来控制历史数据对最终结果的影响。
而Attention机制的通用的技巧是将原本不可微的离散数据结合一个attention分布变得可微,从而使得离散数据也可以作为神经网络的输入向量。
由此,通过注意力机制实现对特征序列中的有用信息进行聚焦,长短时记忆网络对特征向量进行识别,从而将深度神经网络和注意力机制结合,当输入提问数据到深度神经网络(保险应答模型)时,可以直接得出最终的识别结果。
基于此,S104步骤的具体的实现过程可以参考图2所示方式:
S1042,将样本提问数据输入初始保险应答模型,得到初始应答结果,其中,初始保险应答模型中包含预设数值的参数。
在具体执行该步骤时,样本提问数据可以直接输入至初始保险应答模型。
或者,在另一个实现场景中,还可以先对样本提问数据进行语义特征的提取,得到每个样本提问数据的至少一个提问数据特征,并将提取出的提问数据特征输入至初始保险应答模型。
S1044,利用初始应答结果与样本应答数据,对初始保险应答模型进行学习,得到校正后参数的数值。
S1046,将校正后参数的数值代入初始保险应答模型,得到保险应答模型。
本发明实施例是针对现有技术中所存在的人工应答针对保险信息的提问存在的应答效率较低且人力资源成本较高的问题提出的,因此,在具体实现时,保险应答模型可以为保险语义应答模型。
基于此,S1044步骤对初始保险应答模型进行深度学习的过程,主要通过样本提问数据与样本应答数据对初始保险应答模型中的各参数的数值进行校正的过程。具体的,该过程可以通过监督学习的方式实现。监督学习是指利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程。
基于此,在执行S1044步骤时,可以为初始保险应答模型预设初始值,然后,将各样本提问数据输入该初始保险应答模型,得到各样本提问数据对应的初始应答结果,然后,基于初始应答结果与样本应答数据的语义匹配程度来对各参数数值进行调整,直至调整后的参数数值代入初始保险应答模型后输出的应答结果能够与各样本应答数据相匹配,或者,匹配程度满足预设要求。
其中,判断保险应答模型输出的应答结果是否与样本应答数据是否相匹配,则可以通过语义分析的方式实现。
具体的,针对保险应答模型每次输出的应答结果进行语义分析,得到应答结果特征;并且,对样本应答数据进行语义分析,得到样本应答特征。
从而,在一个可行的实现场景中,若应答结果特征与样本应答特征的语义均相同时,则确定二者相匹配。反之,若存在一个应答结果特征与样本应答特征的语义不相同,则确定二者不匹配。
或者,在另一个可行的实现场景中,还可以获取应答结果特征与样本应答特征之间的语义匹配度,当语义匹配度大于或者等于预设的匹配度阈值时,则确定二者相匹配;反之,则确定二者不匹配。
在具体实现时,考虑到样本提问数据的数目为至少一个,因此,当样本提问数据为多个时,则执行S1044步骤时则需要多个样本提问数据经初始保险应答模型得到的应答结果与其样本应答模型的语义匹配程度均满足上述要求时,才能够确定各参数的数值。反之,当多个样本提问数据中的一个样本提问数据经初始保险应答模型得到的应答结果与样本应答数据的语义匹配程度不匹配,则需要继续对各参数的数值进行调整。
在实际的实现过程中,当样本提问数据包括多个时,可以同时将各样本提问数据分别输入至上述保险应答模型,并基于语义匹配程度对保险应答模型中的各参数数值进行调整,得到最终的保险应答模型。
或者,当样本提问数据包括多个时,还可以依次将各样本提问数据输入至初始保险应答模型,再基于每次的语义匹配程度对各参数数值进行调整,直至所有样本提问数据经保险应答模型输出的应答结果与样本应答数据相匹配。
基于以上各步骤,即可获得到最终保险应答模型,通过该保险应答模型输出的应答结果与样本应答数据的语义匹配程度能够满足需求,基于此,可以执行S106中利用保险应答模型,自动应答针对保险信息的提问的步骤。
此时,可以参考图3,该方法具体包括以下步骤:
S1062,接收用户终端提出的针对保险信息的提问,将该提问的数据输入保险应答模型。
当接收到用户终端针对保险信息提出的提问数据,则可以将这些提问数据输入S104步骤深度学习得到的保险应答模型,那么,保险应答模型就可以直接输出这些与提问数据对应的处理结果。
S1064,获取保险应答模型的处理结果,以作为针对该提问的应答信息。
S1066,输出针对该提问的应答信息。
其中,输出应答信息的方式可以根据需要预设。例如,可以以输出弹窗的方式,将携带有应答信息的弹窗输出在用户终端当前显示的界面上。或者,又例如,还可以将携带有应答信息的提示信息输出在当前显示界面的顶部提示区域或底部提示区域。或者,又例如,还可以根据应答信息生成应答报告,并将应答报告输出在当前界面上。
本发明实施例的技术方案具有以下有益效果:
本发明实施例中,通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。基于此,针对具备较高重复性问题的保险提问,能够基于深度学习得到准确率更高的保险应答模型,而保险应答模型则是基于样本提问数据与样本应答数据得到的,具有较高的灵活性,如此,可实现针对保险提问的自动应答,提高应答效率,并节约人力成本。
实施例二
基于上述实施例一所提供的基于深度学习的应答方法,本发明实施例进一步给出实现上述方法实施例中各步骤及方法的装置实施例。
本发明实施例提供了一种基于深度学习的应答装置,具体的,请参考图4,该基于深度学习的应答装置400包括:
获取单元41,用于获取针对保险信息的样本提问数据与样本应答数据;
学习单元42,用于对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型;
应答单元43,用于利用所述保险应答模型,自动应答针对所述保险信息的提问。
本发明实施例中,保险信息可以包括但不限于:保险条款与保险险种介绍中的至少一种。
本发明实施例中,所述学习单元42,具体用于:
将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型。
在一个具体的实现场景中,学习单元42,具体用于:
将所述样本提问数据输入初始保险应答模型,得到初始应答结果,其中,所述初始保险应答模型中包含预设数值的参数;
利用所述初始应答结果与所述样本应答数据,对所述初始保险应答模型进行学习,得到校正后参数的数值;
将所述校正后参数的数值代入所述初始保险应答模型,得到所述保险应答模型。
此外,学习单元42,还具体用于:
根据GRU+Attention机制,生成所述初始保险应答模型。
本发明实施例中,应答单元43,具体用于:
接收用户终端提出的针对所述保险信息的提问,将所述提问的数据输入所述保险应答模型;
获取所述保险应答模型的处理结果,以作为针对所述提问的应答信息;
输出针对所述提问的应答信息。
在一个实现场景中,保险应答模型为保险语义应答模型。
此外,本发明实施例还提供了一种基于深度学习的应答装置,请参考图5,该基于深度学习的应答装置500包括:存储器51、处理器52以及存储在存储器51中并可在处理器52上运行的计算机程序,处理器52执行计算机程序时实现如实施例一任一项所述基于深度学习的应答方法的步骤。
以及,本发明实施例还提供了一种计算机可读存储介质,其特征在于,包括:计算机可执行指令,当所述计算机可执行指令被运行时用以执行如实施例一任一项所述的基于深度学习的应答方法。
由于本实施例中的各单元能够执行实施例一所示的方法,本实施例未详细描述的部分,可参考对实施例一的相关说明。
本发明实施例的技术方案具有以下有益效果:
本发明实施例中,通过获取针对保险信息的样本提问数据与样本应答数据,然后,对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,从而,利用所述保险应答模型,自动应答针对所述保险信息的提问。基于此,针对具备较高重复性问题的保险提问,能够基于深度学习得到准确率更高的保险应答模型,而保险应答模型则是基于样本提问数据与样本应答数据得到的,具有较高的灵活性,如此,可实现针对保险提问的自动应答,提高应答效率,并节约人力成本。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(Processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种基于深度学习的应答方法,其特征在于,包括:
获取针对保险信息的样本提问数据与样本应答数据;
对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型;
利用所述保险应答模型,应答针对所述保险信息的提问。
2.根据权利要求1所述的方法,其特征在于,所述对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型,包括:
将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型。
3.根据权利要求2所述的方法,其特征在于,所述将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型,包括:
将所述样本提问数据输入初始保险应答模型,得到初始应答结果,其中,所述初始保险应答模型中包含预设数值的参数;
利用所述初始应答结果与所述样本应答数据,对所述初始保险应答模型进行学习,得到校正后参数的数值;
将所述校正后参数的数值代入所述初始保险应答模型,得到所述保险应答模型。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
根据GRU+Attention机制,生成所述初始保险应答模型。
5.根据权利要求1所述的方法,其特征在于,所述利用所述保险应答模型,应答针对所述保险信息的提问,包括:
接收用户终端提出的针对所述保险信息的提问,将所述提问的数据输入所述保险应答模型;
获取所述保险应答模型的处理结果,以作为针对所述提问的应答信息;
输出针对所述提问的应答信息。
6.一种基于深度学习的应答装置,其特征在于,包括:
获取单元,用于获取针对保险信息的样本提问数据与样本应答数据;
学习单元,用于对所述样本提问数据与所述样本应答数据进行深度学习,得到保险应答模型;
应答单元,用于利用所述保险应答模型,自动应答针对所述保险信息的提问。
7.根据权利要求6所述的装置,其特征在于,所述学习单元,具体用于:
将所述样本提问数据作为输入,将所述样本应答数据作为输出,利用神经网络机制进行深度学习,得到所述保险应答模型。
8.根据权利要求6所述的装置,其特征在于,所述应答单元,具体用于:
接收用户终端提出的针对所述保险信息的提问,将所述提问的数据输入所述保险应答模型;
获取所述保险应答模型的处理结果,以作为针对所述提问的应答信息;
输出针对所述提问的应答信息。
9.一种基于深度学习的应答装置,其特征在于,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,包括:计算机可执行指令,当所述计算机可执行指令被运行时用以执行如权利要求1至5任一项所述的基于深度学习的应答方法。
CN201810856602.5A 2018-07-31 2018-07-31 基于深度学习的应答方法、装置及计算机可读存储介质 Pending CN109255016A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810856602.5A CN109255016A (zh) 2018-07-31 2018-07-31 基于深度学习的应答方法、装置及计算机可读存储介质
PCT/CN2018/111380 WO2020024452A1 (zh) 2018-07-31 2018-10-23 基于深度学习的应答方法、装置及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810856602.5A CN109255016A (zh) 2018-07-31 2018-07-31 基于深度学习的应答方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN109255016A true CN109255016A (zh) 2019-01-22

Family

ID=65049123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810856602.5A Pending CN109255016A (zh) 2018-07-31 2018-07-31 基于深度学习的应答方法、装置及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN109255016A (zh)
WO (1) WO2020024452A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013130A (ja) * 2020-07-03 2022-01-18 第一生命保険株式会社 情報処理装置、プログラム、及び情報処理装置の動作方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112735456B (zh) * 2020-11-23 2024-01-16 西安邮电大学 一种基于dnn-clstm网络的语音增强方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107368547A (zh) * 2017-06-28 2017-11-21 西安交通大学 一种基于深度学习的智能医疗自动问答方法
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法
CN107980130A (zh) * 2017-11-02 2018-05-01 深圳前海达闼云端智能科技有限公司 自动回答方法、装置、存储介质及电子设备
US20180121785A1 (en) * 2016-11-03 2018-05-03 Nec Laboratories America, Inc. Context-aware attention-based neural network for interactive question answering
CN108090174A (zh) * 2017-12-14 2018-05-29 北京邮电大学 一种基于系统功能语法的机器人应答方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107992610A (zh) * 2017-12-15 2018-05-04 泰康保险集团股份有限公司 一种自动问答方法、装置、设备及存储介质
CN108153876B (zh) * 2017-12-26 2021-07-23 爱因互动科技发展(北京)有限公司 智能问答方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180121785A1 (en) * 2016-11-03 2018-05-03 Nec Laboratories America, Inc. Context-aware attention-based neural network for interactive question answering
CN107368547A (zh) * 2017-06-28 2017-11-21 西安交通大学 一种基于深度学习的智能医疗自动问答方法
CN107562792A (zh) * 2017-07-31 2018-01-09 同济大学 一种基于深度学习的问答匹配方法
CN107980130A (zh) * 2017-11-02 2018-05-01 深圳前海达闼云端智能科技有限公司 自动回答方法、装置、存储介质及电子设备
CN108090174A (zh) * 2017-12-14 2018-05-29 北京邮电大学 一种基于系统功能语法的机器人应答方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013130A (ja) * 2020-07-03 2022-01-18 第一生命保険株式会社 情報処理装置、プログラム、及び情報処理装置の動作方法

Also Published As

Publication number Publication date
WO2020024452A1 (zh) 2020-02-06

Similar Documents

Publication Publication Date Title
EP3989104A1 (en) Facial feature extraction model training method and apparatus, facial feature extraction method and apparatus, device, and storage medium
CN110147722A (zh) 一种视频处理方法、视频处理装置及终端设备
CN109299344A (zh) 排序模型的生成方法、搜索结果的排序方法、装置及设备
CN108255555B (zh) 一种系统语言切换方法及终端设备
CN110741387B (zh) 人脸识别方法、装置、存储介质及电子设备
CN110597965B (zh) 文章的情感极性分析方法、装置、电子设备及存储介质
CN110019838A (zh) 智能问答系统及智能终端
CN108805035A (zh) 基于手势识别的教学互动方法以及装置
CN108764369B (zh) 基于数据融合的人物识别方法、装置和计算机存储介质
CN109658120B (zh) 一种业务数据处理方法以及装置
CN109255016A (zh) 基于深度学习的应答方法、装置及计算机可读存储介质
CN111475628A (zh) 会话数据处理方法、装置、计算机设备和存储介质
CN113537248B (zh) 图像识别方法和装置、电子设备和存储介质
CN111222553A (zh) 机器学习模型的训练数据处理方法、装置和计算机设备
CN111191066A (zh) 一种基于图像识别的宠物身份识别方法和装置
CN116756576B (zh) 数据处理方法、模型训练方法、电子设备及存储介质
CN109829821A (zh) 一种数字资产地址转移异常的处理方法、装置及系统
CN113204699B (zh) 信息推荐方法、装置、电子设备及存储介质
CN105610698B (zh) 事件结果的处理方法和装置
CN117435999A (zh) 一种风险评估方法、装置、设备以及介质
CN109587248B (zh) 用户识别方法、装置、服务器及存储介质
CN111539390A (zh) 一种基于Yolov3的小目标图像识别方法、设备和系统
JPH08221429A (ja) 文書自動分類装置
CN108932704A (zh) 图片处理方法、图片处理装置及终端设备
CN110704614B (zh) 对应用中的用户群类型进行预测的信息处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination