CN111858868A - 一种客服应答模型训练方法和系统 - Google Patents
一种客服应答模型训练方法和系统 Download PDFInfo
- Publication number
- CN111858868A CN111858868A CN201911412931.1A CN201911412931A CN111858868A CN 111858868 A CN111858868 A CN 111858868A CN 201911412931 A CN201911412931 A CN 201911412931A CN 111858868 A CN111858868 A CN 111858868A
- Authority
- CN
- China
- Prior art keywords
- model
- customer service
- training
- service response
- network structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 140
- 238000012549 training Methods 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000015654 memory Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 25
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims 2
- 125000004122 cyclic group Chemical group 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000003491 array Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000010977 jade Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例公开了一种客服应答模型的训练方法。所述方法包括:获取多个业务线的语料数据,所述语料数据包括问题和对应的回答;用所述多个业务线的语料数据训练模型的底层网络结构;针对所述多个业务线中的每个业务线:在所述模型的上层网络结构中确定针对所述业务线的子网络;用所述业务线的语料数据训练所述子网络;根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构;根据所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。本申请采用了多业务线的语料同时训练模型的底层网络结构,可以有效改善客服应答模型,使客服应答更准确,从而提升用户体验。
Description
技术领域
本申请涉及人工智能技术领域,特别涉及一种客服应答模型训练方法和系统。
背景技术
随着网约车服务的快速发展,越来越多的人们开始使用在线打车服务或者注册成为司机。网约车给人们出行带来便捷的同时,随之而来对应的问题咨询和投诉也变得较多了。网约车平台一般提供多种业务线,常规的客服问答机器人是基于不同的业务线分别训练对应的业务线模型的,即每个业务线采用自己业务线对应的语料来训练模型。在训练某一个业务线的模型时,其他业务线的语料得不到很好的利用。同时,使用单一的业务线的语料训练得到的模型,在面对同一用户不同领域的问题时,无法灵活变通地回答而造成用户体验不佳。例如,用户反馈“打不到车”时,客服问答机器人的答复只能从派车相关的语料库中抽取,给以用户“对不起,请稍等”等类型的答复,内容较为单一。因此,有必要提出一种可以通过多业务线的语料训练得到的客服问答模型来改善客服问答机器人的答复效果,提高用户咨询体验。
发明内容
本申请实施例之一提供一种客服应答模型的训练方法。所述应答模型训练方法包括:获取多个业务线的语料数据,所述语料数据包括问题和对应的回答;用所述多个业务线的语料数据训练模型的底层网络结构;针对所述多个业务线中的每个业务线:在所述模型的上层网络结构中确定针对所述业务线的子网络;用所述业务线的语料数据训练所述子网络;根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构;根据所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。
本申请实施例之一提供一种客服应答方法。所述客服应答方法包括:获取待应答的对话数据;用训练后的客服问答模型处理所述对话数据,得到所述对话数据对应的回答。
本申请实施例之一提供一种客服应答模型训练系统。所述应答模型训练系统包括:第一获取模块,用于获取多个业务线的语料数据,包括问题和对应的回答;第一训练模块,用于基于所述多个业务线的语料数据训练模型的底层网络结构;第二训练模块,用于针对所述多个业务线中的每个业务线:在所述模型的上层网络结构中确定针对所述业务线的子网络;用所述业务线的语料数据训练所述子网络;根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构;客服应答模型生成模块,用于基于所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。
本申请实施例之一提供一种客服应答系统。所述客服应答系统包括:第二获取模块,用于获取待应答的对话数据;回答确定模块,用于将训练后的客服应答模型处理所述对话数据,得到所述对话数据对应的回答。
本申请实施例之一提供一种客服应答模型训练装置,所述装置包括处理器以及存储器;所述存储器用于存储指令,所述指令被所述处理器执行时,导致所述装置实现如客服应答模型训练方法中一个或多个操作。
本申请实施例之一提供一种客服应答装置,所述装置包括处理器以及存储器;所述存储器用于存储指令,所述指令被所述处理器执行时,导致所述装置实现如上述客服应答方法中一个或多个操作。
本申请实施例之一提供一种计算机可读存储介质,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行本申请任一实施例所述方法。
附图说明
本申请将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本申请一些实施例所示的客服应答系统的应用场景示意图;
图2是根据本申请的一些实施例所示的示例性计算设备的示意图;
图3是根据本申请的一些实施例所示的示例性移动设备的示例性硬件和/或软件组件的示意图;
图4是根据本申请一些实施例所示的一种客服应答模型训练方法的示例性流程图;
图5是根据本申请一些实施例所示的一种客服应答模型训练系统的模块图;
图6是根据本申请一些实施例所示的一种客服应答方法的示例性流程图;以及
图7是根据本申请一些实施例所示的一种客服应答系统的模块图。
具体实施方式
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本申请中所使用的“系统”、“装置”、“单元”和/或“模组”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本申请和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本申请中使用了流程图用来说明根据本申请的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
本申请中的实施例可以应用于不同的运输系统,例如,出租车、专车、顺风车、巴士、代驾等。本申请描述的“乘客”、“乘客端”、“用户终端”、“顾客”、“需求者”、“服务需求者”、“消费者”、“消费方”、“使用需求者”等是可以互换的,是指需要或者订购服务的一方,可以是个人,也可以是工具。同样地,本申请描述的“司机”、“司机端”、“提供者”、“供应者”、“服务提供者”、“服务者”、“服务方”等也是可以互换的,是指提供服务或者协助提供服务的个人、工具或者其他实体等。另外,本申请描述的“用户”可以是需要或者订购服务的一方,也可以是提供服务或者协助提供服务的一方。
图1是根据本申请一些实施例所示的客服应答系统的应用场景示意图。在一些实施例中,该客服应答系统100可以用于基于多业务线的语料库训练客服应答模型,从而使客服应答系统灵活给出精确答复,提升用户使用体验。客服应答系统100可以是用于互联网或者其它网络的服务平台。例如,客服应答系统100可以是为交通运输提供服务的线上服务平台。在一些实施例中,客服应答系统100可以应用于网约车服务,例如出租车呼叫、快车呼叫、专车呼叫、小巴呼叫、拼车、公交服务、司机雇佣和接送服务等。在一些实施例中,客服应答系统100还可以应用于代驾、快递、外卖等。在另一些实施例中,客服应答系统100还可以应用于家政服务、出行(如旅游)服务、教育(如线下教育)服务等领域。如图1所示,客服应答系统100可以包括服务器110、网络120、服务请求者终端130、服务提供者终端140和存储设备150。
服务器110可以用于处理与客服应答相关联的信息和/或数据来执行本申请中揭示的一个或者多个功能。在一些实施例中,服务器110可以基于多个业务线的语料数据训练客服应答模型,并利用训练后的客服应答模型处理待回答的对话数据,得到对话数据对应的回答。例如,服务器110可以用于获取多个业务线的语料数据,所述语料数据包括问题和对应的回答。又例如,服务器110可以用所述多个业务线的语料数据训练模型的底层网络结构。再例如,服务器110可以针对所述多个业务线中的每个业务线,在所述模型的上层网络结构中确定针对所述业务线的子网络,用所述业务线的语料数据训练所述子网络,根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构。还例如,服务器110可以根据所述模型训练后的底层网络结构和训练后的上层网络结构,得到客服应答模型。在一些实施例中,服务器110可以包括一个或多个处理引擎(例如,单核心处理引擎或多核心处理器)。例如,服务器110可以包括处理引擎112。仅作为范例,服务器110可以包括中央处理器(中央处理器)、特定应用集成电路(ASIC)、专用指令集处理器(ASIP)、图像处理器(GPU)、物理运算处理单元(PPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑装置(PLD)、控制器、微控制器单元、精简指令集计算机(RISC)、微处理器等中的一种或多种组合。在一些实施例中,服服务器110可以在与本申请的图2或图3所示的计算设备上实现。例如,处理110可以在如图2所示的一个计算设备200上实现,包括计算设备200中的一个或多个部件。再例如,服务器110可以在如图3所示的一个移动设备300上实现,包括计算设备300中的一个或多个部件。
网络120可以促进信息和/或数据的交换。在一些实施例中,客服应答系统100的一个或者多个组件(例如服务器110、服务请求者终端130、服务提供者终端140和存储设备150)可以通过网络120传送信息至客服应答系统100的其他组件。例如,服务器110可以通过网络120从数据库中获取与客服应答相关联的信息和/或数据。在一些实施例中,网络120可以是任意形式的有线或者无线网络,或其任意组合。仅作为范例,网络120可以是有线网络、光纤网络、远程通信网络、内部网络、互联网、局域网(LAN)、广域网(WAN)、无线局域网(WLAN)、城域网(MAN)、广域网(WAN)、公共交换电话网络(PSTN)、蓝牙网络、紫蜂网络、近场通讯(NFC)网络、全球移动通讯系统(GSM)网络、码分多址(CDMA)网络、时分多址(TDMA)网络、通用分组无线服务(GPRS)网络、增强数据速率GSM演进(EDGE)网络、宽带码分多址接入(WCDMA)网络、高速下行分组接入(HSDPA)网络、长期演进(LTE)网络、用户数据报协议(UDP)网络、传输控制协议/互联网协议(TCP/IP)网络、短讯息服务(SMS)网络、无线应用协议(WAP)网络、超宽带(UWB)网络、移动通信(1G、2G、3G、4G、5G)网络、Wi-Fi、Li-Fi、窄带物联网(NB-IoT)、红外通信等中的一种或多种组合。在一些实施例中,网络120可以包括一个或多个网络接入点。例如,网络120可能包括有线或无线网络接入点,如基站和/或互联网交换点120-1、120-2等等。通过接入点,客服应答系统100的一个或多个部件可能连接到网络120以交换数据和/或信息。
服务请求者终端130可以是带有数据获取、存储和/或发送功能的设备,例如,智能手机。在一些实施例中,服务请求者终端130的使用者可以是服务请求者本人。在一些实施例中,服务请求者终端130的使用者可以是除服务请求者以外的其他人。例如,在网约车服务中,服务请求者终端130的使用者可以是乘车人本人,也可以是乘车人的亲戚、朋友等帮乘车人下单的人。又例如,在外卖服务中,服务请求者终端130的使用者可以是外卖送达的目标对象,也可以是帮助目标对象点外卖的人。再例如,在家政服务中,服务请求者终端130的使用者可以是家政服务的实际需求人,也可以是帮助该需求人购买家政服务的人。在一些实施例中,服务请求者终端130可以包括但不限于移动设备130-1、平板电脑130-2、笔记本电脑130-3、台式电脑130-4等或其任意组合。示例性的移动设备130-1可以包括但不限于智能手机、个人数码助理(Personal Digital Assistance,PDA)、收银机、掌上游戏机、智能眼镜、智能手表、可穿戴设备、虚拟显示设备、显示增强设备等或其任意组合。在一些实施例中,服务请求者终端130可以将获取到的数据发送至客服应答系统100中的一个或多个设备。例如,服务请求者终端130可以将获取到的数据传输至服务器110或存储设备150。在一些实施例中,获取到的数据可以是服务请求者使用网约车业务时与客服应答系统100进行咨询或投诉的对话数据,例如,“下单超过10min还未等到车辆”、“网约车接单地点不在原下单地点”等。
服务提供者终端140可以是带有数据获取、存储和/或发送功能的设备,例如,智能手机。在一些实施例中,服务提供者终端140可以是与服务请求者终端130类似或相同的装置。在一些实施例中,服务提供者终端140的使用者可以是服务提供者本人。在一些实施例中,服务提供者终端140的使用者可以是除服务提供者以外的其他人。例如,在网约车服务中,服务提供者终端140的使用者可以是司机本人,也可以是帮助司机接单的人。又例如,在外卖服务中,服务提供者终端140的使用者可以是外卖派送员本人,也可以是帮助派送员接单的人。再例如,在家政服务中,服务提供者终端140的使用者可以是家政服务的实际服务人员(如维修员、清洁员等),也可以是帮助服务人员接单的人。在一些实施例中,服务提供者终端140可以将获取到的数据发送至客服应答系统100中的一个或多个设备。例如,服务提供者终端140可以将获取到的数据传输至服务器110或存储设备150。在一些实施例中,获取到的数据可以是服务提供者使用网约车业务时向客服应答系统100进行咨询或投诉时的对话数据,例如,“在接单地点等待超过15min未接到乘车人”、“接单地点较拥堵不能在规定时间内到达接单地点”等。
存储设备150可以存储数据和/或指令。在一些实施例中,存储设备150可以存储从服务请求者终端130和/或服务提供者终端140采集的数据。在一些实施例中,所述数据可以是与用户使用客服应答系统相关的数据,例如,用户与客服应答系统的聊天记录、通话记录等。在一些实施例中,存储设备150可以存储供服务器110执行或使用的数据和/或指令,服务器110可以通过执行或使用所述数据和/或指令以实现本申请中的示例性方法。在一些实施例中,存储设备150可以与网络120连接实现与客服应答系统100中的一个或多个部件(例如,服务器110、服务请求者终端130和服务提供者终端140等)之间的通信。客服应答系统100的一个或多个部件可以通过网络120访问存储在存储设备150中的数据或指令。在一些实施例中,存储设备150可以直接与客服应答系统100的一个或多个部件(例如,服务器110、服务请求者终端130和服务提供者终端140等)连接或通信。在一些实施例中,存储设备150可以是服务器110的一部分。在一些实施例中,存储设备150可以包括大容量存储器、可移动存储器、易失性读写存储器、只读存储器(ROM)等或其任意组合。在一些实施例中,存储设备150可以在云平台上实现。仅作为示例,所述云平台可以包括私有云、公共云、混合云、社区云、分布云、内部云、多层云等或其任意组合。例如,本发明中一些算法或者数据可以存储在某个云平台上,定期更新,服务器110通过网络访问这些算法或者数据,以实现整个平台的算法或者数据的统一与交互。特别的,一些历史数据可以统一存储在平台的一个云平台上,以便多个服务器110、服务请求者终端130或服务提供者终端140访问或者更新,以便保证数据的实时性和跨平台使用。例如,服务请求者终端130和/或服务提供者终端140可以随时将使用网约车出行时的对话内容发布到某个云平台上,系统可以根据多个服务请求者终端130和/或服务提供者终端140的数据执行客服应答服务。
图2是根据本申请的一些实施例所示的示例性计算设备200的示意图。服务器110和存储设备150可以在计算设备200上实现。例如,处理引擎112可以在计算设备200上实现并被配置为实现本申请中所披露的功能。
计算设备200可以包括用来实现本申请所描述的系统的任意部件。例如,处理引擎112可以在计算设备200上通过其硬件、软件程序、固件或其组合实现。为了方便起见图中仅绘制了一台计算机,但是本申请所描述的与客服应答系统100相关的计算功能可以以分布的方式、由一组相似的平台所实施,以分散系统的处理负荷。
计算设备200可以包括与网络连接的通信端口250,用于实现数据通信。计算设备200可以包括一个处理器(例如,CPU)220,可以以一个或多个处理器的形式执行程序指令。示例性的电脑平台可以包括一个内部总线210、不同形式的程序存储器和数据存储器包括,例如,硬盘270、只读存储器(ROM)230或随机存取存储器(RAM)240,用于存储由计算机处理和/或传输的各种各样的数据文件。示例性的计算设备可以包括存储在只读存储器230、随机存取存储器240和/或其他类型的非暂时性存储介质中的由处理器220执行的程序指令。本申请的方法和/或流程可以以程序指令的方式实现。计算设备200也包括输入/输出部件260,用于支持电脑与其他部件之间的输入/输出。计算设备200也可以通过网络通讯接收本披露中的程序和数据。
为理解方便,图2中仅示例性绘制了一个处理器。然而,需要注意的是,本申请中的计算设备200可以包括多个处理器,因此本申请中描述的由一个处理器实现的操作和/或方法也可以共同地或独立地由多个处理器实现。例如,如果在本申请中,计算设备200的处理器执行步骤1和步骤2,应当理解的是,步骤1和步骤2也可以由计算设备200的两个不同的处理器共同地或独立地执行(例如,第一处理器执行步骤1,第二处理器执行步骤2,或者第一和第二处理器共同地执行步骤1和步骤2)。
图3所示为根据本申请的一些实施例所示的示例性移动设备的示例性硬件和/或软件组件的示意图。如图3所示,移动设备300可以包括通信单元310、显示单元320、图形处理单元(GPU)330、中央处理单元(CPU)340、输入/输出350、内存360、存储器370和传感器380。在一些实施例中,任何其他合适的组件,包括但不限于系统总线或控制器(未示出),亦可包括于移动设备300内。
在一些实施例中,移动操作系统362(例如,IOSTM、AndroidTM、Windows PhoneTM等)和一个或多个应用程序364可以从存储器370加载到内存360中以便由CPU340执行。应用程序364可以包括浏览器或任何其他合适的移动应用程序,用于发送与交通运输服务相关联的数据/信息,并接收和呈现来自订单访问客服应答系统100的处理或其他相关的信息。例如,应用程序364可以是在线网约车出行平台(例如,滴滴出行TM),用户(例如,服务请求者)可以通过应用程序364请求交通运输服务,并将请求信息发送至后台服务器端。用户与信息流的交互可以经由输入/输出350来实现并且经由网络120被提供给服务器110和/或客服应答系统100的其他组件。
为了实现本申请描述的各种模块、单元及其功能,计算机硬件平台可用作本申请中所描述的一个或以上组件的硬件平台。具有用户接口组件的计算机可用于实施个人计算机(PC)或任何其他类型的工作站或终端装置。若计算机被适当的程序化,计算机亦可充当系统。
图4是根据本申请一些实施例所示的客服应答模型训练方法的示例性流程图。在一些实施例中,流程400可以通过处理逻辑来执行,该处理逻辑可以包括硬件(例如,电路、专用逻辑、可编程逻辑、微代码等)、软件(运行在处理设备上以执行硬件模拟的指令)等或其任意组合。图4所示的用于训练客服应答模型的流程400中的一个或多个操作可以通过图1所示的客服应答系统100实现。例如,流程400可以以指令的形式存储在存储设备150中,并由处理引擎112调用和/或执行(例如,图2所示的计算设备200的处理器220、图3所示的移动设备300的中央处理器340)。
步骤410,获取多个业务线的语料数据,所述语料数据包括问题和对应的回答。在一些实施例中,步骤410可以由第一获取模块510执行。
在一些实施例中,可以获取多个业务线的语料数据作为训练样本。在一些实施例中,多个业务线中每一个业务线的语料数据可以包括多个业务场景下的问题及其对应的待选回答。以使用网约车业务为例,获取到的问题可以包括乘客在上车前场景下进行咨询的问题、乘客在完成订单后进行投诉建议的问题,例如,乘客在上车前场景下进行咨询的问题可能是:“需要等多久时间司机才能接单?”、“下单地点与上车地点不在一起怎么办?”等,乘客在完成订单后进行投诉建议的问题可能是:“司机在行驶过程中进行了言语辱骂,怎么处理?”、“司机绕路了怎么办?”等。再以网络购物业务为例,获取到的问题可以包括消费者在购物前进行咨询的问题、消费者在收到商品后需要进行售后服务的问题。例如,消费者在购物前进行咨询的问题可能是:“什么时候发货?”、“尺码偏大还是偏小?”等,消费者在收到商品后需要进行售后服务的问题可能是:“发货速度过慢”、“商品与照片描述严重不符合”等。在一些实施例中,语料数据中的问题未进行处理前,待选回答数据库中的每一段回答语料都可以作为问题的待选回答,即待选回答库中可以包含多个待选回答。在一些实施例中,语料数据中的问题和回答可以实时更新或定时更新。例如,每隔1天、5天、10天获取服务请求者终端130和/或服务提供者终端140与客服应答系统100的对话聊天记录。在一些实施例中,用户可以在服务请求者终端130和/或服务提供者终端140上通过语音录入或文本输入的方式进行对话内容的输入。在一些实施例中,第一获取模块510可以从服务器110、网络120、服务请求者终端130、服务提供者终端140、存储设备150等设备中获取语料数据。
步骤420,用所述多个业务线的语料数据训练模型的底层网络结构。在一些实施例中,步骤420可以由第一训练模块520执行。
在一些实施例中,可以构建第一训练集训练客服应答模型的底层网络结构。在一些实施例中,第一训练集可以包括多个业务线的语料数据。具体的,语料数据可以包括多个问题及其对应的回答。在一些实施例中,可以提取多个业务线的语料数据中问题语料的关键词。对于超过一个词语构成的问题语料(例如,一个语句或一个段落),其中包含有关键词和非关键词。例如,“我在这里等了10min车都没有来”,其中“等10min”、“车没有来”为两个关键词,而“我”、“在这里”、“都”为非关键词。在一些实施例中,当问题语料过于简短时,关键词提取可能存在一些问题。例如,经常出现的词汇可能语义不相关,可能会导致这些问题所匹配的回答准确率降低,因此,还可以利用同义词词库对每个问题语料中的关键词进行扩展。在一些实施例中,可以基于语义场景(例如,网络购物、网络约车等)对每个问题语料的关键词进行分类,并提取分类后的问题语料的主题。例如,获取到的问题语料关键词为:“等车时间长”、“司机言语辱骂”、“司机绕路”、“环境不整洁”,由于这些问题语料关键词都有涉及到乘车的场景,因此可以基于网络约车的语义场景对获取到的每个问题语料的关键词进行分类,即将这些问题语料都分类到“网络约车”这一类别下,再对这些问题语料进行主题提取,可以提取为“服务态度”、“车内环境”等。基于问题语料的主题、问题语料与回答语料之间的对应关系,获取每个问题语料对应的回答语料。基于分类后的问题语料、问题语料的主题及其对应的回答语料,构建第一训练集用于训练客服应答模型的底层网络结构。在一些实施例中,可以利用第一训练集训练客服应答模型中的共享参数,以获取训练好的客服应答模型的底层网络结构。在一些实施例中,客服应答模型中的共享参数可以是应答模型中底层网络结构的模型参数,即多个业务线共有的底层网络结构模型参数。训练好的客服应答模型的底层网络结构可以用于预测多个业务线中问题语料的一个或多个意图,基于该一个或多个意图获取问题语料对应的回答语料。在一些实施例中,客服应答模型的底层网络结构可以是深度神经网络模型(Deep Neural Networks,DNN)、卷积神经网络模型(Convolutional Neural Networks,CNN)、循环神经网络模型(Recurrent NeuralNetwork,RNN)、长短期记忆网络模型(Long Short-Term Memory,LSTM)等模型。
步骤430,针对所述多个业务线中的每个业务线,在所述模型的上层网络结构中确定针对所述业务线的子网络,用所述业务线的语料数据训练所述子网络,根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构。在一些实施例中,步骤430可以由第二训练模块530执行。
在一些实施例中,可以构建第二训练集训练客服应答模型的上层网络结构。在一些实施例中,第一训练集可以是针对多个业务线收集得到的各个语料数据集的组合,第二训练集可以是针对需要进行精调的一个或以上特定业务线收集得到的语料数据集的组合,也就是说第二训练集可以是第一训练集的一个子集。在一些实施例中,可以提取多个业务线中的一个或以上特定业务线的语料数据中问题语料的关键词。在一些实施例中,也可以利用同义词词库对该一个或多个业务线中每个问题语料中的关键词进行扩展。在一些实施例中,可以基于问题语料中的关键词确定问题语料的主题。基于问题语料的主题、问题语料与回答语料之间的对应关系,获取每个问题语料对应的回答语料。基于问题语料的主题及其对应的回答语料,构建第二训练集用于训练客服应答模型的上层网络结构。在一些实施例中,可以在客服应答模型的上层网络结构中先确定针对一个或以上特定业务线的子网络,利用第二训练集训练该一个或以上特定业务线的子网络的任务参数,以获取训练好的一个或以上特定业务线的子网络。在一些实施例中,任务参数可以是应答模型中上层网络结构的模型参数,即多个业务线中每个业务线各自拥有的子网络结构的模型参数。在一些实施例中,可以基于训练好的一个或多个业务线子网络确定客服应答模型上层网络结构。训练好的客服应答模型的上层网络结构可以用于预测一个或以上特定业务线中问题语料的一个或以上的意图,基于该一个或以上的意图获取一个或多个业务线中问题语料对应的回答语料。在一些实施例中,客服应答模型的上层网络结构可以包括多层感知机分类器(Multi-Layer Perception,MLP)。
步骤440,根据所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。在一些实施例中,步骤440可以由客服应答模型生成模块540执行。
在一些实施例中,在训练过程中可以在第一训练模块520训练得到的模型参数基础上,固定共享参数不变,将第二训练集中的样本数据逐个输入至第一训练模块520训练得到的应答客服模型,并仅更新任务参数,使得多个业务线中的每个业务线的任务参数得到更进一步的优化,得到训练好的客服应答模型,训练好的客服应答模型可以使得客服应答系统回复的答案准确率进一步提高。
应当注意的是,上述有关流程400的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域技术人员来说,在本申请的指导下可以对流程400进行各种修正和改变。然而,这些修正和改变仍在本申请的范围之内。例如,步骤420和步骤430可以合并为一个步骤,用于实现客服应答模型的训练。
图5是根据本申请一些实施例所示的客服应答模型训练系统的模块图。该系统500可以基于训练好的模型底层网络结构和训练好的上层网络结构,获取客服应答模型。如图5所示,系统500可以包括第一获取模块510、第一训练模块520、第二训练模块530以及客服应答模型生成模块540。在一些实施例中,第一获取模块510、第一训练模块520、第二训练模块530和客服应答模型生成模块540可以包含在图1所示的处理引擎112中。
第一获取模块510可以用于获取多个业务线的语料数据,所述语料数据包括问题和对应的回答。
在一些实施例中,在一些实施例中,多个业务线的语料数据可以包括多个业务场景下的问题及其对应的待选回答。在一些实施例中,语料数据中的问题未进行处理前,待选回答库中的每一段回答语料都可以作为问题的待选回答,即待选回答库中可以包含多个待选回答。
第一训练模块520可以用于基于所述多个业务线的语料数据训练模型的底层网络结构。
在一些实施例中,可以构建第一训练集训练客服应答模型的底层网络结构。在一些实施例中,第一训练集可以包括多个业务线的语料数据。利用第一训练集训练客服应答模型中的共享参数,以获取客服应答模型的底层网络结构。训练好的客服应答模型的底层网络结构可以用于预测多个业务线中问题语料的一个或多个意图,基于该一个或多个意图获取问题语料对应的回答语料。在一些实施例中,共享参数可以是应答模型中底层网络结构的模型参数,即多个业务线共有的底层网络结构模型参数。
第二训练模块530可以用于针对所述多个业务线中的每个业务线,在所述模型的上层网络结构中确定针对所述业务线的子网络;用所述业务线的语料数据训练所述子网络;根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构。
在一些实施例中,可以构建第二训练集训练客服应答模型的上层网络结构。在一些实施例中,第一训练集可以是针对多个业务线收集得到的各个语料数据集的组合,第二训练集可以是针对需要进行精调的一个或多个业务线收集得到的语料数据集的组合,也就是说第二训练集可以是第一训练集的一个子集。在一些实施例中,可以在客服应答模型的上层网络结构中确定针对多个业务线中每个业务线的子网络,利用第二训练集训练多个业务线中每个业务线的子网络的任务参数,以获取一个或多个业务线的子网络。根据训练好的一个或多个业务线的子网络确定客服应答模型的上层网络结构。训练好的客服应答模型的上层网络结构可以用于预测多个业务线中每个业务线的问题语料的一个或多个意图,基于该一个或多个意图获取问题语料对应的回答语料。在一些实施例中,客服应答模型的上层网络结构可以包括多层感知机分类器(Multi-Layer Perception,MLP)。
客服应答模型生成模块540可以用于基于所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。
在一些实施例中,可以利用第二训练集对客服应答模型进行再训练,在训练过程中可以在第一训练模块520训练得到的模型参数基础上,固定共享参数不变,将第二训练集中的样本数据逐个输入至第一训练模块520训练得到的应答客服模型,并仅更新任务参数,使得多个业务线中的每个业务线的任务参数得到更进一步的优化,得到训练好的客服应答模型,训练好的客服应答模型可以使得客服应答系统回复的答案准确率进一步提高。
应当理解,图5所示的系统及其模块可以利用各种方式来实现。例如,在一些实施例中,系统及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和系统可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本申请的系统及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
需要注意的是,以上对于客服应答模型训练系统及其模块的描述,仅为描述方便,并不能把本申请限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该系统的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子系统与其他模块连接。例如,在一些实施例中,例如,图5中披露的第一获取模块510、第一训练模块520、第二训练模块530以及客服应答模型生成模块540可以是一个系统中的不同模块,也可以是一个模块实现上述的两个或两个以上模块的功能。例如,发送模块440、接收模块450可以是两个模块,也可以是一个模块同时具有发送和接收功能。例如,各个模块可以共用一个存储模块,各个模块也可以分别具有各自的存储模块。诸如此类的变形,均在本申请的保护范围之内。
图6是根据本申请一些实施例所示的一种客服应答方法的示例性流程图。在一些实施例中,流程600可以通过处理逻辑来执行,该处理逻辑可以包括硬件(例如,电路、专用逻辑、可编程逻辑、微代码等)、软件(运行在处理设备上以执行硬件模拟的指令)等或其任意组合。图6所示的客服应答流程600中的一个或多个操作可以通过图1所示的客服应答系统100实现。例如,流程600可以以指令的形式存储在存储设备150中,并由处理引擎112执行调用和/或执行(例如,图2所示的计算设备200的处理器220、图3所示的移动设备300的中央处理器340)。
步骤610,获取待应答的对话数据。在一些实施例中,步骤610可以由第二获取模块710执行。
在一些实施例中,待应答的对话数据可以是包含有问题的一个词、一个语句或一段话。在一些实施例中,可以在存储设备150中预先存储待选回答数据库。具体的,在该待选回答数据库中,可以存储大量问题语料对应的回答语料。在一些实施例中,在所获取的待应答的对话数据未进行处理之前,待选回答数据库中的每一段回答语料都可以作为问题的待选答案,即待选回答数据库中可以包含多个待选回答。在一些实施例中,待选回答数据库中的数据可以实时更新或定时更新。
步骤620,用上述方法得到的客服应答模型处理所述对话数据,得到所述对话数据对应的回答。
在一些实施例中,可以先提取待应答的对话数据中的问题语料的关键词。在一些实施例中,当待应答的对话数据中的问题语料过于简短时,可以利用同义词词库对每个问题语料中的关键词进行扩展。基于扩展后的关键词提取其特征向量,并将问题关键词对应的特征向量输入到训练好的客服应答模型中,最终输出待应答对话数据中问题对应的回答。在一些实施例中,客服应答模型中的上层网络结构能够对获取的待回答对话数据进行业务场景的分类,获取分类结果,客服应答系统基于分类结果从待选回答数据库中选取对应的回答,最终输出答案。
应当注意的是,上述有关流程600的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域技术人员来说,在本申请的指导下可以对流程600进行各种修正和改变。然而,这些修正和改变仍在本申请的范围之内。
图7是根据本申请一些实施例所示的客服应答系统的模块图。该系统700可以输入待回答的问题,经过训练好的客服应答模型处理后,输出回答。如图7所示,系统700可以包括第二获取模块710、回答确定模块720。在一些实施例中,第二获取模块710、回答确定模块720可以包含在图1所示的处理引擎112中。
第二获取模块710可以用于获取待应答的对话数据。
在一些实施例中,待应答的对话数据可以是包含有问题的一个词、一个语句或一段话。
回答确定模块720可以用于用上述方法获取的客服应答模型处理所述对话数据,得到所述对话数据对应的回答。
在一些实施例中,可以先提取待应答的对话数据中的问题语料的关键词。基于关键词提取其特征向量,并将问题关键词对应的特征向量输入到训练好的客服应答模型中,最终输出待应答对话数据中问题对应的回答。
应当理解,图7所示的系统及其模块可以利用各种方式来实现。例如,在一些实施例中,系统及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和系统可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本申请的系统及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
需要注意的是,以上对于客服应答模型训练系统及其模块的描述,仅为描述方便,并不能把本申请限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该系统的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子系统与其他模块连接。例如,在一些实施例中,例如,图7中披露的第二获取模块710、回答确定模块720可以是一个系统中的不同模块,也可以是一个模块实现上述的两个或两个以上模块的功能。例如,发送模块440、接收模块450可以是两个模块,也可以是一个模块同时具有发送和接收功能。例如,各个模块可以共用一个存储模块,各个模块也可以分别具有各自的存储模块。诸如此类的变形,均在本申请的保护范围之内。
本申请实施例可能带来的有益效果包括但不限于:(1)采用多业务线的语料同时训练模型的底层网络结构,扩大了训练的语料数据库,获得更好的业务场景分类效果;(2)通过共享底层的网络结构、上层网络结构独立运行的模式,改善客服应答模型,使客服应答更准确,从而提升用户体验。需要说明的是,不同实施例可能产生的有益效果不同,在不同的实施例里,可能产生的有益效果可以是以上任意一种或几种的组合,也可以是其他任何可能获得的有益效果。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本申请的限定。虽然此处并没有明确说明,本领域技术人员可能会对本申请进行各种修改、改进和修正。该类修改、改进和修正在本申请中被建议,所以该类修改、改进、修正仍属于本申请示范实施例的精神和范围。
同时,本申请使用了特定词语来描述本申请的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本申请至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本申请中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本申请的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本申请的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本申请的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本申请的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。
计算机存储介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等,或合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。
本申请各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、Visual Basic、Fortran 2003、Perl、COBOL 2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本申请所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本申请流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本申请实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本申请披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本申请实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本申请对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本申请一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本申请引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本申请作为参考。与本申请内容不一致或产生冲突的申请历史文件除外,对本申请权利要求最广范围有限制的文件(当前或之后附加于本申请中的)也除外。需要说明的是,如果本申请附属材料中的描述、定义、和/或术语的使用与本申请所述内容有不一致或冲突的地方,以本申请的描述、定义和/或术语的使用为准。
最后,应当理解的是,本申请中所述实施例仅用以说明本申请实施例的原则。其他的变形也可能属于本申请的范围。因此,作为示例而非限制,本申请实施例的替代配置可视为与本申请的教导一致。相应地,本申请的实施例不仅限于本申请明确介绍和描述的实施例。
Claims (11)
1.一种客服应答模型的训练方法,其特征在于,包括:
获取多个业务线的语料数据,所述语料数据包括问题和对应的回答;
用所述多个业务线的语料数据训练模型的底层网络结构;
针对所述多个业务线中的每个业务线:
在所述模型的上层网络结构中确定针对所述业务线的子网络;
用所述业务线的语料数据训练所述子网络;
根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构;
根据所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。
2.根据权利要求1所述的方法,其特征在于,所述客服应答模型包括共享参数和任务参数,所述共享参数为所述客服应答模型中底层网络结构的模型参数,所述任务参数为所述客服应答模型中上层网络结构的模型参数。
3.根据权利要求2所述方法,其特征在于,所述共享参数为所述多个业务线共有的底层网络结构模型参数,所述任务参数为所述多个业务线中每个业务线各自拥有的子网络结构的模型参数。
4.根据权利要求1所述的方法,其特征在于,所述客服应答模型的底层网络结构至少包括深度神经网络模型、卷积神经网络模型、循环神经网络模型、长短期记忆网络模型。
5.根据权利要求1所述方法,其特征在于,所述客服应答模型中上层网络结构至少包括多层感知机分类器。
6.一种客服应答方法,其特征在于,包括:
获取待应答的对话数据;
用权利要求1-5任一项所述方法得到的客服应答模型处理所述对话数据,得到所述对话数据对应的回答。
7.一种客服应答模型训练系统,其特征在于,包括:
第一获取模块,用于获取多个业务线的语料数据,所述语料数据包括问题和对应的回答;
第一训练模块,用于基于所述多个业务线的语料数据训练模型的底层网络结构;
第二训练模块,用于针对所述多个业务线中的每个业务线:在所述模型的上层网络结构中确定针对所述业务线的子网络;用所述业务线的语料数据训练所述子网络;根据每个业务线对应的训练后的子网络确定所述模型训练后的上层网络结构;
客服应答模型生成模块,用于基于所述模型训练后的底层网络结构和训练后的上层网络结构,得到所述客服应答模型。
8.一种客服应答系统,其特征在于,包括:
第二获取模块,用于获取待应答的对话数据;
回答确定模块,用于用如权利要求1-5中任一项所述的客服应答模型处理所述对话数据,得到所述对话数据对应的回答。
9.一种客服应答模型训练装置,所述装置包括处理器以及存储器;所述存储器用于存储指令,所述指令被所述处理器执行时,导致所述装置实现如权利要求1至5中任一项所述客服应答模型训练方法对应的操作。
10.一种客服应答装置,所述装置包括处理器以及存储器;所述存储器用于存储指令,所述指令被所述处理器执行时,导致所述装置实现如权利要求6中述客服应答方法对应的操作。
11.一种计算机可读存储介质,其特征在于所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机运行如权利要求1至6中任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911412931.1A CN111858868B (zh) | 2019-12-31 | 2019-12-31 | 一种客服应答模型训练方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911412931.1A CN111858868B (zh) | 2019-12-31 | 2019-12-31 | 一种客服应答模型训练方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111858868A true CN111858868A (zh) | 2020-10-30 |
CN111858868B CN111858868B (zh) | 2024-07-23 |
Family
ID=72970792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911412931.1A Active CN111858868B (zh) | 2019-12-31 | 2019-12-31 | 一种客服应答模型训练方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858868B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112596868A (zh) * | 2020-11-27 | 2021-04-02 | 出门问问(武汉)信息科技有限公司 | 模型训练方法及装置 |
CN114881170A (zh) * | 2022-05-27 | 2022-08-09 | 北京百度网讯科技有限公司 | 用于对话任务的神经网络的训练方法和对话任务处理方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108170764A (zh) * | 2017-12-25 | 2018-06-15 | 上海大学 | 一种基于场景上下文的人机多轮对话模型构建方法 |
CN108846126A (zh) * | 2018-06-29 | 2018-11-20 | 北京百度网讯科技有限公司 | 关联问题聚合模型的生成、问答式聚合方法、装置及设备 |
CN109410036A (zh) * | 2018-10-09 | 2019-03-01 | 北京芯盾时代科技有限公司 | 一种欺诈检测模型训练方法和装置及欺诈检测方法和装置 |
CN109447259A (zh) * | 2018-09-21 | 2019-03-08 | 北京字节跳动网络技术有限公司 | 多任务处理及多任务处理模型训练方法、装置和硬件装置 |
CN109558477A (zh) * | 2018-10-23 | 2019-04-02 | 深圳先进技术研究院 | 一种基于多任务学习的社区问答系统、方法及电子设备 |
US20190130904A1 (en) * | 2017-10-26 | 2019-05-02 | Hitachi, Ltd. | Dialog system with self-learning natural language understanding |
CN109992659A (zh) * | 2019-02-12 | 2019-07-09 | 阿里巴巴集团控股有限公司 | 用于文本排序的方法和装置 |
CN110046642A (zh) * | 2019-01-23 | 2019-07-23 | 阿里巴巴集团控股有限公司 | 计算机执行的用户意图预测方法、装置及设备 |
-
2019
- 2019-12-31 CN CN201911412931.1A patent/CN111858868B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130904A1 (en) * | 2017-10-26 | 2019-05-02 | Hitachi, Ltd. | Dialog system with self-learning natural language understanding |
CN108170764A (zh) * | 2017-12-25 | 2018-06-15 | 上海大学 | 一种基于场景上下文的人机多轮对话模型构建方法 |
CN108846126A (zh) * | 2018-06-29 | 2018-11-20 | 北京百度网讯科技有限公司 | 关联问题聚合模型的生成、问答式聚合方法、装置及设备 |
CN109447259A (zh) * | 2018-09-21 | 2019-03-08 | 北京字节跳动网络技术有限公司 | 多任务处理及多任务处理模型训练方法、装置和硬件装置 |
CN109410036A (zh) * | 2018-10-09 | 2019-03-01 | 北京芯盾时代科技有限公司 | 一种欺诈检测模型训练方法和装置及欺诈检测方法和装置 |
CN109558477A (zh) * | 2018-10-23 | 2019-04-02 | 深圳先进技术研究院 | 一种基于多任务学习的社区问答系统、方法及电子设备 |
CN110046642A (zh) * | 2019-01-23 | 2019-07-23 | 阿里巴巴集团控股有限公司 | 计算机执行的用户意图预测方法、装置及设备 |
CN109992659A (zh) * | 2019-02-12 | 2019-07-09 | 阿里巴巴集团控股有限公司 | 用于文本排序的方法和装置 |
Non-Patent Citations (1)
Title |
---|
王彦: "旅游自动应答语义模型分析与实践", 计算机系统应用, 28 February 2017 (2017-02-28), pages 18 - 24 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112596868A (zh) * | 2020-11-27 | 2021-04-02 | 出门问问(武汉)信息科技有限公司 | 模型训练方法及装置 |
CN114881170A (zh) * | 2022-05-27 | 2022-08-09 | 北京百度网讯科技有限公司 | 用于对话任务的神经网络的训练方法和对话任务处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111858868B (zh) | 2024-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ukpabi et al. | Chatbot adoption in tourism services: A conceptual exploration | |
US11782985B2 (en) | Constructing imaginary discourse trees to improve answering convergent questions | |
CN111670435B (zh) | 使用交流话语树来检测对解释的请求 | |
EP3525438B1 (en) | Artificial intelligence based service implementation | |
US20190258722A1 (en) | Personalized deep models for smart suggestions ranking | |
US11102276B2 (en) | System and method for providing more appropriate question/answer responses based upon profiles | |
CN111353033B (zh) | 一种训练文本相似度模型的方法和系统 | |
Lin et al. | The supports provided by artificial intelligence to continuous usage intention of mobile banking: Evidence from China | |
CN110990547A (zh) | 一种话术生成方法和系统 | |
CN112419729B (zh) | 一种根据预测车流量确定决策策略的方法和系统 | |
Arteaga et al. | Design of information system architecture for the recommendation of tourist sites in the city of Manta, Ecuador through a Chatbot | |
CN111433795A (zh) | 一种确定线上到线下服务的预估到达时间的系统和方法 | |
US10950222B2 (en) | Multimodal video system for generating a personality assessment of a user | |
Soufyane et al. | An intelligent chatbot using NLP and TF-IDF algorithm for text understanding applied to the medical field | |
CN115062627B (zh) | 用于基于人工智能的计算机辅助说服系统的方法和装置 | |
CN111861619A (zh) | 一种共享车辆的推荐方法和系统 | |
CN111858868A (zh) | 一种客服应答模型训练方法和系统 | |
CN106844378A (zh) | 一种应答方式确定方法和装置 | |
WO2017182888A2 (en) | System and method for assisting user communications using bots | |
US20190171745A1 (en) | Open ended question identification for investigations | |
US20190385748A1 (en) | System and method for creating a digital virtual sponsor | |
Kortum et al. | Dissection of AI job advertisements: A text mining-based analysis of employee skills in the disciplines computer vision and natural language processing | |
CN113434651A (zh) | 话术推荐方法、装置及相关设备 | |
CN110717785A (zh) | 基于标签分布学习的决策方法、系统及装置 | |
CN111881227A (zh) | 一种确定拼车订单访问地图的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |