CN111858874A - 对话服务处理方法、装置、设备及计算机可读存储介质 - Google Patents
对话服务处理方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111858874A CN111858874A CN202010372991.1A CN202010372991A CN111858874A CN 111858874 A CN111858874 A CN 111858874A CN 202010372991 A CN202010372991 A CN 202010372991A CN 111858874 A CN111858874 A CN 111858874A
- Authority
- CN
- China
- Prior art keywords
- customer service
- user
- semantic understanding
- conversation
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 71
- 238000012545 processing Methods 0.000 claims abstract description 37
- 230000008569 process Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims description 109
- 238000002372 labelling Methods 0.000 claims description 36
- 230000000694 effects Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000009223 counseling Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例提供一种对话服务处理方法、装置、设备及计算机可读存储介质。该方法包括:获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。本申请实施例能够在多轮对话中,使机器人对客服起到很好的辅助作用,提高业务处理效率。
Description
技术领域
本申请实施例涉及人工智能技术领域,尤其涉及一种对话服务处理方法、装置、设备及计算机可读存储介质。
背景技术
随着互联网线上业务的发展,为了保证互联网线上服务质量,客服就变得尤其重要。为了应对用户的询问和投诉等问题,智能客服逐渐发展了起来,智能客服是指由用户和人工客服对话,机器人对人工客服进行辅助。
很多场景下,在一次对话服务过程中,可能需要多轮对话来收集一些信息,才能给出解答方案。然而在多轮对话场景中,目前存在这样一种情形,即机器人给人工客服的参考话术可能是人工客服已经询问过的话术,这样就无法对客服起到很好的辅助作用,导致多轮对话场景下的业务处理效率低。
发明内容
本申请实施例提供一种对话服务处理方法、装置、设备及计算机可读存储介质,以提高多轮对话场景下的业务处理效率。
第一方面,本申请实施例提供一种对话服务处理方法,应用于业务服务平台,该方法包括:获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术。
第二方面,本申请实施例提供一种对话服务处理装置,包括:获取模块,用于获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;生成模块,用于根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;发送模块,用于将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。
第三方面,本申请实施例提供一种对话服务处理设备,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如第一方面所述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现第一方面所述的方法。
本申请实施例提供的对话服务处理方法、装置、设备及计算机可读存储介质,通过由业务服务平台获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;业务服务平台根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;以及业务服务平台将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。由于业务服务平台能够理解用户和客服的前一轮对话,因此,在以人工客服为主导,机器人对人工客服进行辅助的多轮对话场景中,机器人在当前轮对话中不会再将客服已经询问过的话术作为人工客服的参考话术发送至客服,机器人会按照话术库中的话术逻辑生成下一轮的话术,以供客服参考,从而提升业务处理效率。
附图说明
图1为现有技术的多轮对话场景示意图;
图2为本申请实施例提供的对话服务处理系统的示意图;
图3为本申请实施例提供的多轮对话场景示意图;
图4为本申请实施例提供的对话服务处理方法的流程示意图;
图5为本申请实施例提供的对话界面的示意图;
图6为本申请实施例提供的模型训练方法的原理示意图;
图7为本申请实施例提供的对话服务处理装置的结构示意图;
图8为本申请实施例提供的对话服务处理设备的结构示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是现有技术提供的一种多轮对话场景示意图。如图1所示,以“新政”场景举例来说,人工客服询问用户“请问您是在北京吗?”,用户说“对”,而机器人根据用户说的“对”无法抽取到“城市”这一槽位信息,那么在下一轮对话中,机器人在对人工客服进行辅助时,就会再次给出人工客服“请问您的城市是哪里?”这样的参考话术以收集“城市”这一槽位信息。显然,在这种多角色的多轮对话场景下,机器人无法了解人工客服和用户在前一轮对话过程中的交互,造成机器人给人工客服的参考话术可能是人工客服已经询问过的话术,而无法对客服起到很好的辅助作用,导致多轮对话场景下的业务处理效率低。
针对现有技术的如上技术问题,本申请实施例通过对人工客服和用户在前一轮对话过程中的交互进行语义理解,并提供给机器人,使机器人基于前一轮对话的语义理解结果,提供当前轮对话的话术。这样,就不会出现机器人给人工客服的参考话术可能是人工客服已经询问过的话术的情形,从而提高多轮对话场景下的业务处理效率。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2是本申请实施例提供的对话服务处理系统的示意图。如图2所示,该系统包括:用户20、客服21和业务服务平台22;其中,用户20、客服21可以在各自的终端设备上打开对话服务功能,例如,在一些咨询和投诉类场景下,用户20可以在对话界面中提出问题,客服21也可以在对话界面中向用户20发出询问,客服21可以对用户20的问题进行回答,业务服务平台22可以对客服21进行辅助,例如,业务服务平台22为客服21提供参考话术以供客服21参考。需要说明的是,本实施例中所提及的客服均为人工客服。
其中,业务服务平台22可以包括语义理解系统221和对话系统222(以下称为机器人),本实施例是在客服作为主导,机器人作为辅助的多轮对话场景中,语义理解系统221可以实时获取用户20、客服21的一轮对话并进行语义理解,之后将该轮对话的语义理解结果存储。当机器人要在当前轮对话中,为客服提供参考话术的情况下,可以从语义理解系统221中调用用户20、客服21的前一轮对话的语义理解结果,然后机器人就会根据前一轮对话的语义理解结果生成当前轮的话术发送给客服,以使客服作为参考话术,提高客服的业务处理效率。
如图3所示,仍然以“新政”场景举例来说,在第一轮对话A1中,客服直接询问用户“请问您是要咨询服务方面的问题吗?”,用户回答“是”,接下来的第二轮对话A2中,客服会确认用户的槽位信息,如:客服问“请问您是在北京吗?”,用户回答“是的”,在第二轮对话A2中,机器人能够理解第一轮对话的对话语义,即机器人能够理解出来用户的意图信息已经收集到了,接下来该询问“城市”的槽位信息了。这样,机器人能够理解客服和用户在之前轮对话过程中的交互内容,就不会再次通过向客服发送“请问您是要咨询服务方面的问题吗?”的话术来收集意图信息了,而是向客服提供收集“城市”这一槽位信息的话术,例如“请问您是在北京吗?”这样的答复话术发送给客服以供客服参考。因此,在本申请实施例的多轮对话中,机器人的辅助效果将会提升,进而能够提高客服的业务处理效率。
本申请实施例提供的对话服务处理方法,旨在解决现有技术的如上技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图4为本申请实施例提供的对话服务处理方法流程图。本申请实施例针对现有技术的如上技术问题,提供了对话服务处理方法,该方法具体步骤如下:
步骤401、获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果。
本实施例的执行主体可以为如图2所示的机器人。
本实施例中,是由机器人从语义理解系统221中获取对用户和客服的前一轮对话的语义理解结果。
其中,在用户和客服的当前轮对话中,机器人要为客服提供参考话术,机器人就会从语义理解系统中获取该用户和客服的前一轮对话的语义理解结果。
本实施例中,语义理解结果至少包括意图信息和/或槽位信息。其中,槽位信息是指对话系统需要向用户或客服收集的关键信息,在打车场景中,槽位信息包括出发地点槽、目的地槽和出发时间槽,例如,客服询问用户“请问您现在北京吗”则客服的槽位信息为城市,槽位信息的值是北京。
步骤402、根据用户和客服的前一轮对话的语义理解结果,生成当前轮对话的话术。
仍然以“新政”场景为例,如图3所示,在当前轮对话中,机器人在了解到用户的意图信息已经收集到的情况下,就不会再发送收集用户意图信息的话术给客服做参考了,而是按照对话管理的对话逻辑收集用户关于“城市”的槽位信息,那么机器人就会将收集用户关于“城市”的槽位信息的话术,例如“请问您是在北京吗”这样的话术发送至客服进行参考。
步骤403、将当前轮对话的话术作为客服对当前轮对话的话术的参考话术发送至客服所在的终端设备。
可选的,将当前轮对话的话术作为客服对当前轮对话的话术的参考话术发送至客服所在的终端设备,包括:将所述话术以文字或语音消息的形式显示在所述客服与所述用户进行对话的对话界面中。
如图5所示,可以采用区分于对话语言的显示方式来显示该话术,其中,机器人生成的话术可以是一个或多个,例如,当客服在点击输入框的情况下,可以将该一个或多个话术显示在该输入框的下拉框中,以供客服参考,当客服选中该话术的情况下,则将该话术作为对用户的回复话术回复给用户。例如,客服选中了“请问您目前在哪里?”,则可以将该话术在输入框中显示。
可选的,客服可以选择是否采纳机器人在当前轮提供的参考话术,如果客服选择采纳机器人在当前轮提供的参考话术,例如,当客服选中机器人提供的某一个话术的情况下,可以直接将该话术发送至客服,还可以将该话术显示在输入框当中,以供客服进行编辑,再将编辑后的话术发送给用户,如此,能够提高客服与用户的对话效率,进而提高业务处理效率。
本申请实施例通过由业务服务平台获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;业务服务平台根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;以及业务服务平台将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。由于业务服务平台能够理解用户和客服的前一轮对话,因此,在以人工客服为主导,机器人对人工客服进行辅助的多轮对话场景中,机器人在当前轮对话中不会再将客服已经询问过的话术作为人工客服的参考话术发送至客服,机器人会按照话术库中的话术逻辑生成下一轮的话术,以供客服参考,从而提升业务处理效率。
在上述实施例的基础上,在获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果之前,本申请实施例的方法还可以包括如下方法步骤:获取用户和客服的前一轮对话;对用户和/或客服的语言数据进行语义理解,得到前一轮对话的用户语义理解结果和/或客服语义理解结果;根据所述前一轮对话的用户语义理解结果和/或客服语义理解结果,确定所述前一轮对话的语义理解结果。
其中,对用户和/或客服的语言数据进行语义理解,得到前一轮对话的用户语义理解结果和/或客服语义理解结果,可以理解为,其包括三种实施方式:
在第一种实施方式中,对用户和/或客服的语言数据进行语义理解,得到前一轮对话的用户语义理解结果和/或客服语义理解结果,包括:获取用户和客服的前一轮对话,并对用户的语言数据进行语义理解,得到前一轮对话的语义理解结果。例如,客服询问用户“请问您是否在北京?”,用户回答“是的,我在北京”,在这种场景下,语义理解系统根据用户的回答可以收集到“城市”这一槽位信息,以及槽位信息的值是北京。
可选的,对用户的语言数据进行语义理解,得到前一轮对话的语义理解结果,包括:将前一轮对话中用户的语言数据输入预设的用户语义理解模型,以通过所述用户语义理解模型对所述用户的语言数据进行语义理解,得到所述语义理解结果。本实施例中,语义理解系统可以通过预设的用户语义理解模型来对用户的语言进行语义理解,并得到语义理解结果。例如,客服询问用户“请问您是否在北京?”,用户回答“是的,我在北京”,在这种场景下,可以直接将用户的回答语言输入预设的用户语义理解模型,预设的用户语义理解模型就会输出“城市”这一槽位信息,以及槽位信息的值是北京的语义理解结果。
可选的,预设的用户语义理解模型采用如下方法步骤训练得到:
步骤a1、获取用户语料训练数据和对语义理解结果进行标注的用户标注信息;
其中,对用户语料训练数据对应的语义理解结果进行标注的用户标注信息是指,对用户语料训练数据对应的用户意图信息和/或槽位信息进行标注的标注信息。
步骤a2、基于用户语料训练数据对预先建立的待训练模型进行训练;
其中,预先建立的待训练模型可以是RNN(Recurrent Neural Networks),如:LSTM(Long Short-Term Memory)、GRU(Gated Recurrent Unit)、BERT(Bidirectional EncoderRepresentation from Transformers)或者其他模型。其中,RNN模型可以用于学习句子向量语义。
步骤a3、根据待训练模型的输出,以及用户标注信息之间的差异,调整待训练模型的模型参数,直至待训练模型达到期望训练效果。
其中,以神经网络为例,待训练模型达到期望训练效果可以是神经网络的损失函数的值达到期望值,或者小于预设阈值。
本实施例中,例如,用户语料训练数据是“我想咨询服务方面的问题”,则用户标注信息是意图信息,具体的值为咨询服务方面的问题。则对待训练模型进行训练,使待训练模型能够根据输入的用户语料训练数据识别出用户的意图信息,且识别准确度达到预设阈值的情况下,认为该待训练模型已训练好,可以将该训练好的模型存储至语义理解系统中,使语义理解系统通过用户语义理解模型对用户和客服的前一轮对话进行语义理解,能够提高用户和客服的对话的语义理解准确度。
在第二种实施方式中,对用户和/或客服的语言数据进行语义理解,得到前一轮对话的用户语义理解结果和/或客服语义理解结果,包括:获取用户和客服的前一轮对话;对客服的语言数据进行语义理解,得到所述前一轮对话的语义理解结果。例如,客服询问用户“请问您是否在北京?”,在这种场景下,语义理解系统根据客服的询问可以收集到“城市”这一槽位信息,以及槽位信息的值是北京。
可选的,对客服的语言数据进行语义理解,得到前一轮对话的客服语义理解结果,包括:将前一轮对话中客服的语言数据输入预设的客服语义理解模型,以通过客服语义理解模型对客服的语言数据进行语义理解,得到前一轮对话的语义理解结果。本实施例中,语义理解系统可以通过预设的客服语义理解模型来对客服的语言进行语义理解,并得到语义理解结果。例如,客服询问用户“请问您是否在北京?”,在这种场景下,可以直接将客服的询问语言输入预设的客服语义理解模型,预设的客服语义理解模型就会输出“城市”这一槽位信息,以及槽位信息的值是北京的语义理解结果。
可选的,预设的客服语义理解模型采用方法步骤训练得到:
步骤b1、获取客服语料训练数据和对客服语料训练数据对应的语义理解结果进行标注的客服标注信息。
其中,对客服语料训练数据对应的语义理解结果进行标注的客服标注信息是指,对客服语料训练数据对应的客服意图信息和/或槽位信息进行标注的标注信息。
步骤b2、基于客服语料训练数据对预先建立的待训练模型进行训练。
其中,预先建立的待训练模型可以是RNN(Recurrent Neural Networks),如:LSTM(Long Short-Term Memory)、GRU(Gated Recurrent Unit)、BERT(Bidirectional EncoderRepresentation from Transformers)或者其他模型。其中,RNN模型可以用于学习句子向量语义。
步骤b3、根据待训练模型的输出和客服标注信息之间的差异,调整待训练模型的模型参数,直至待训练模型达到期望训练效果。
其中,以神经网络为例,待训练模型达到期望训练效果可以是神经网络的损失函数的值达到期望值,或者小于预设阈值。
本实施例中,例如,客服语料训练数据是“请问您是想咨询服务方面的问题吗”,则客服标注信息是意图信息,具体的值为咨询服务方面的问题。则对待训练模型进行训练,使待训练模型能够根据输入的客服语料训练数据识别出客服的意图信息,且识别准确度达到预设阈值的情况下,认为该待训练模型已训练好,可以将该训练好的模型存储至语义理解系统中,使语义理解系统通过客服语义理解模型对用户和客服的前一轮对话进行语义理解,能够提高用户和客服的对话的语义理解准确度。
在第三种实施方式中,对用户和/或客服的语言数据进行语义理解,得到前一轮对话的用户语义理解结果和/或客服语义理解结果,包括:获取用户和客服的前一轮对话,并对所述用户的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果;以及对所述客服的语言数据进行语义理解,得到所述前一轮对话的客服语义理解结果;之后,根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果。
其中,语义理解结果至少包括客服意图信息和/或客服槽位信息及其对应的值,用户意图信息和/或用户槽位信息及其对应的值。
在多轮对话场景中,客服通常是采用询问的方式对用户提问以及解答用户的问题,客服的回复和提问可以划分为如下四类:第一类,客服确认用户的意图。如:客服问“请问您是要咨询服务方面的问题吗?”,用户回答“是”。第二类,客服确认用户的槽位信息,如:客服问“请问您是在北京吗?”,用户回答“是的”。第三类,客服询问用户的槽位信息,跟第二类的区别是客服没有提供槽位的值,如:客服问“请问您在哪个城市?”,用户回答“北京”。第四类,客服的话跟NLU(Natural Language Understand)信息无关,如:客服问“请问有什么我可以帮助您的?”,“请问还有其他问题吗?”。对于这四种不同类型的对话,本实施例提供了如下三种可选的实施方式进行语义理解,由于第一类和第二类对话类似,因此将第一类对话和第二类对话在一种实施方式中进行解释说明,几种实施方式具体如下:
在一种可选的实施方式中,根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,包括:在对所述客服的语言进行语义理解得到所述客服意图信息和/或客服槽位信息及其对应的值,且所述用户语义理解结果是肯定式答复的情况下,将所述客服意图信息和/或客服槽位信息及其对应的值作为所述前一轮对话的用户意图信息和/或用户槽位信息;在对所述客服的语言进行语义理解得到客服意图信息和/或客服槽位信息及其对应的值,且所述用户语义理解结果是否定式答复的情况下,丢弃所述客服意图信息和/或客服槽位信息及其对应的值。
例如,第一类对话的情况下,需要抽取客服的意图,并结合用户的确认情况选择是否合并到用户的意图。例如,当客服询问用户“请问您是要咨询服务方面的问题吗?”用户回答“是”,则客服的询问语句包括用户的意图信息,并且用户对客服的意图询问时肯定的回复,则表示当前语义理解得到的用户意图信息是可用的,反之,若用户回答“不是”,则表示当前语义理解得到的用户意图信息是不可用的,也不会根据该次理解的用户意图信息生成下一轮的回复话术。
第二类和第一类类似,需要抽取客服的槽位信息,并结合用户的确认情况选择是否合并到用户的槽位。例如,当客服询问用户“请问您是在北京吗?”用户回答“是”,则客服的询问语句包括用户的槽位信息,并且用户对客服的槽位信息的询问是肯定的回复,则表示当前语义理解得到的用户槽位信息是可用的,反之,若用户回答“不是”,则表示当前语义理解得到的用户槽位信息是不可用的,也不会根据该次理解的用户槽位信息生成下一轮的回复话术。
在另一种可选的实施方式中,根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,还包括:在对所述客服的语言进行语义理解得到所述客服意图信息和/或客服槽位信息,以及对所述用户的语言进行语义理解得到与所述客服意图信息和/或客服槽位信息对应的值的情况下,将所述客服意图信息和/或客服槽位信息及其对应的值进行合并,作为所述用户意图信息和/或用户槽位信息。
以第三类对话为例,举例来说,因为客服的询问语句没有具体的槽位值,不能抽取到有用的NLU信息,但是可以作为客服的QUD(Question Under Discussion),在多场景对话中,和对话系统的QUD类似,作为优先选择的条件。也就是说,根据用户对客服的询问语句的回答可以抽取到具体的槽位值,可以将从用户的回答中抽取到的槽位值和从客服的询问中抽取到的槽位信息合并作为语义理解结果。例如,客服询问用户“请问您在哪里?”,用户回答“我在北京”,那么在这种场景下,语义理解系统根据客服的询问和用户的肯定答复可以收集到“城市”这一槽位信息,以及槽位信息的值是北京。
在又一种可选的实施方式中,根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,还包括:在所述客服的语言不包括意图信息和/或槽位信息的情况下,不对所述客服的语言进行语义理解。
在上述第一类至第二类对话场景中,语义理解系统根据客服和用户的对话,能够进行语义理解,了解客服和用户之间的对话,而针对上面四种类型,第四类对话由于没有提供NLU信息,因此对第四类的语义理解结果可以忽略。
可选的,对所述用户的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果,包括:将所述前一轮对话中用户的语言数据输入预设的用户语义理解模型,以通过所述用户语义理解模型对所述用户的语言数据进行语义理解,得到所述用户语义理解结果;所述对所述客服的语言数据进行语义理解,得到所述前一轮对话的客服语义理解结果,包括:将所述前一轮对话中客服的语言数据输入预设的客服语义理解模型,以通过所述客服语义理解模型对所述客服的语言数据进行语义理解,得到所述客服语义理解结果。
可选的,对用户语义理解模型和客服语义理解模型的训练,可以是采用单独训练的方式,也可以是采用交替训练的方式。其中,单独训练的方式可以参考前述实施例的介绍,此处不再赘述。下面将介绍一下交替训练的方式。
可选的,预设的用户语义理解模型和客服语义理解模型采用如下方法步骤对预先建立的待训练模型训练得到,所述预先建立的待训练模型包括共享层、用户网络层和客服网络层;
其中,对待训练模型的训练包括如下方法步骤:
步骤c1、获取用户语料训练数据,以及对用户语料训练数据的用户语义理解结果进行标注的用户标注信息。
步骤c2、基于所述用户语料训练数据训练待训练模型。
步骤c3、基于训练结果与所述用户标注信息之间的差异,以及训练结果与所述用户标注信息之间的差异,调整所述共享层和所述用户网络层的网络参数。
步骤c4、获取客服语料训练数据,以及对客服语料训练数据的客服语义理解结果进行标注的客服标注信息。
步骤c5、基于所述客服语料训练数据训练待训练模型;
步骤c6、基于训练结果与所述客服标注信息之间的差异,以及训练结果与所述客服标注信息之间的差异,调整所述共享层和所述客服网络层的网络参数;
步骤c7、交替地执行客服语义理解和用户语义理解的训练过程,直至待训练模型达到期望训练效果。
本步骤c7可以理解为是交替地执行步骤c1至c3,和步骤c4-c6。
本实施例中,相当于是首先根据用户语料训练数据X1和用户标注信息Y1训练待训练模型,然后再根据客服语料训练数据X2和客服标注信息Y2训练待训练模型。具体的,如图6所示,是首先将用户语料训练数据X1输入共享层,共享层根据X1的输出将会输入到用户网络层,用户网络层根据其输出结果和用户标注信息Y1之间的差异确定损失函数L1的值,进而根据该损失函数L1的值调整共享层和用户网络层的网络参数。接下来的一轮训练中,将客服语料训练数据X2输入共享层,共享层根据X2的输出将会输入到客服网络层,客服网络层根据其输出结果和客服标注信息Y2之间的差异确定损失函数L2的值,进而根据该损失函数L2的值调整共享层和用户网络层的网络参数。
本实施例中,例如,用户语料训练数据X1是“我想咨询服务方面的问题”,则用户标注信息Y1是意图信息,具体的值为咨询服务方面的问题。例如,客服语料训练数据X2是“请问您是想咨询服务方面的问题吗”,则客服标注信息Y2是意图信息,具体的值为咨询服务方面的问题。对神经网络进行训练,使神经网络能够根据输入的用户语料训练数据X1和客服语料训练数据X2识别出用户的意图信息和客服的意图信息,且识别准确度达到预设阈值的情况下,认为该待训练模型已训练好,可以将该训练好的模型存储至语义理解系统中,使语义理解系统分别通过用户语义理解模型和客服语义理解模型对用户和客服的前一轮对话中的用户语言和客服语言进行语义理解,得到用户语义理解结果和客服语义理解结果,这样,能够进一步提高用户和客服的对话的语义理解准确度。
图7为本申请实施例提供的对话服务处理装置的结构示意图。该对话服务处理装置具体可以是上述实施例中的业务服务平台。本申请实施例提供的对话服务处理装置可以执行对话服务处理方法实施例提供的处理流程,如图7所示,对话服务处理装置700包括:获取模块701、生成模块702和发送模块703;其中,获取模块701,用于获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;生成模块702,用于根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;发送模块703,用于将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。
可选的,所述装置700还包括:语义理解模块704,用于对所述用户和/或客服的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果和/或客服语义理解结果;根据所述前一轮对话的用户语义理解结果和/或客服语义理解结果,确定所述前一轮对话的语义理解结果。
可选的,所述语义理解模块704对所述用户的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果,包括:将所述前一轮对话中用户的语言数据输入预设的用户语义理解模型,以通过所述用户语义理解模型对所述用户的语言数据进行语义理解,得到所述用户语义理解结果。
可选的,所述装置700还包括:第一训练模块705,用于采用如下方法步骤训练得到预设的用户语义理解模型:获取用户语料训练数据和对所述用户语料训练数据对应的语义理解结果进行标注的用户标注信息;基于所述用户语料训练数据对预先建立的待训练模型进行训练;根据所述待训练模型的输出,以及所述用户标注信息之间的差异,调整所述待训练模型的模型参数,直至所述待训练模型达到期望训练效果。
可选的,所述语义理解模块704对所述客服的语言数据进行语义理解,得到所述前一轮对话的客服语义理解结果,包括:将所述前一轮对话中客服的语言数据输入预设的客服语义理解模型,以通过所述客服语义理解模型对所述客服的语言数据进行语义理解,得到所述前一轮对话的客服语义理解结果。
可选的,所述装置还包括:第二训练模块706,用于采用如下方法步骤训练得到所述预设的客服语义理解模型:获取客服语料训练数据和对所述客服语料训练数据对应的语义理解结果进行标注的客服标注信息;基于所述客服语料训练数据对预先建立的待训练模型进行训练;根据所述待训练模型的输出和所述客服标注信息之间的差异,调整所述待训练模型的模型参数,直至所述待训练模型达到期望训练效果。
可选的,所述语义理解模块704对所述用户和客服的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果和客服语义理解结果,包括:将所述前一轮对话中用户的语言数据输入预设的用户语义理解模型,以通过所述用户语义理解模型对所述用户的语言数据进行语义理解,得到所述用户语义理解结果;将所述前一轮对话中客服的语言数据输入预设的客服语义理解模型,以通过所述客服语义理解模型对所述客服的语言数据进行语义理解,得到所述客服语义理解结果。
可选的,所述装置还包括:第三训练模块707,用于采用如下方法步骤对预先建立的待训练模型训练得到预设的用户语义理解模型和所述的客服语义理解模型,所述预先建立的待训练模型包括共享层、用户网络层和客服网络层:获取用户语料训练数据,以及对用户语料训练数据的用户语义理解结果进行标注的用户标注信息;基于所述用户语料训练数据训练所述待训练模型;基于训练结果与所述用户标注信息之间的差异,以及训练结果与所述用户标注信息之间的差异,调整所述共享层和所述用户网络层的网络参数;获取客服语料训练数据,以及对客服语料训练数据的客服语义理解结果进行标注的客服标注信息;基于所述客服语料训练数据训练所述待训练模型;基于训练结果与所述客服标注信息之间的差异,以及训练结果与所述客服标注信息之间的差异,调整所述共享层和所述客服网络层的网络参数;交替地执行客服语义理解和用户语义理解的训练过程,直至所述待训练模型达到期望训练效果。
可选的,所述语义理解结果至少包括客服意图信息和/或客服槽位信息及其对应的值,用户意图信息和/或用户槽位信息及其对应的值。
可选的,所述语义理解模块704根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,具体包括:在对所述客服的语言进行语义理解得到所述客服意图信息和/或客服槽位信息及其对应的值,且所述用户语义理解结果是肯定式答复的情况下,将所述客服意图信息和/或客服槽位信息及其对应的值作为所述前一轮对话的用户意图信息和/或用户槽位信息;在对所述客服的语言进行语义理解得到客服意图信息和/或客服槽位信息及其对应的值,且所述用户语义理解结果是否定式答复的情况下,丢弃所述客服意图信息和/或客服槽位信息及其对应的值。
可选的,所述语义理解模块704根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,还包括:在对所述客服的语言进行语义理解得到所述客服意图信息和/或客服槽位信息,以及对所述用户的语言进行语义理解得到与所述客服意图信息和/或客服槽位信息对应的值的情况下,将所述客服意图信息和/或客服槽位信息及其对应的值进行合并,作为所述用户意图信息和/或用户槽位信息。
可选的,所述语义理解模块704根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,还包括:在所述客服的语言不包括意图信息和/或槽位信息的情况下,不对所述客服的语言进行语义理解。
可选的,所述装置700还包括:显示模块708,用于将所述话术以文字或语音消息的形式显示在所述客服与所述用户进行对话的对话界面中。
图7所示实施例的对话服务处理装置可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本申请实施例通过由业务服务平台获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;业务服务平台根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;以及业务服务平台将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。由于业务服务平台能够理解用户和客服的前一轮对话,因此,在以人工客服为主导,机器人对人工客服进行辅助的多轮对话场景中,机器人在当前轮对话中不会再将客服已经询问过的话术作为人工客服的参考话术发送至客服,机器人会按照话术库中的话术逻辑生成下一轮的话术,以供客服参考,从而提升业务处理效率。
图8为本申请实施例提供的对话服务处理设备的结构示意图。该对话服务处理设备具体可以是上述实施例中的业务服务平台。本申请实施例提供的对话服务处理设备可以执行对话服务处理方法实施例提供的处理流程,如图8所示,对话服务处理设备80包括:存储器81、处理器82、计算机程序和通讯接口83;其中,计算机程序存储在存储器81中,并被配置为由处理器82执行以上方法实施例的步骤。
图8所示实施例的对话服务处理设备可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
另外,本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现上述实施例所述的对话服务处理方法。
本申请实施例通过由业务服务平台获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;业务服务平台根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;以及业务服务平台将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。由于业务服务平台能够理解用户和客服的前一轮对话,因此,在以人工客服为主导,机器人对人工客服进行辅助的多轮对话场景中,机器人在当前轮对话中不会再将客服已经询问过的话术作为人工客服的参考话术发送至客服,机器人会按照话术库中的话术逻辑生成下一轮的话术,以供客服参考,从而提升业务处理效率。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (16)
1.一种对话服务处理方法,其特征在于,应用于业务服务平台,所述方法包括:
获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;
根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;
将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。
2.根据权利要求1所述的方法,其特征在于,所述获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果之前,所述方法还包括:
获取用户和客服的前一轮对话;
对所述用户和/或客服的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果和/或客服语义理解结果;
根据所述前一轮对话的用户语义理解结果和/或客服语义理解结果,确定所述前一轮对话的语义理解结果。
3.根据权利要求2所述的方法,其特征在于,所述对所述用户的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果,包括:
将所述前一轮对话中用户的语言数据输入预设的用户语义理解模型,以通过所述用户语义理解模型对所述用户的语言数据进行语义理解,得到所述用户语义理解结果。
4.根据权利要求3所述的方法,其特征在于,所述预设的用户语义理解模型采用如下方法步骤训练得到:
获取用户语料训练数据和对所述用户语料训练数据对应的语义理解结果进行标注的用户标注信息;
基于所述用户语料训练数据对预先建立的待训练模型进行训练;
根据所述待训练模型的输出,以及所述用户标注信息之间的差异,调整所述待训练模型的模型参数,直至所述待训练模型达到期望训练效果。
5.根据权利要求2所述的方法,其特征在于,所述对所述客服的语言数据进行语义理解,得到所述前一轮对话的客服语义理解结果,包括:
将所述前一轮对话中客服的语言数据输入预设的客服语义理解模型,以通过所述客服语义理解模型对所述客服的语言数据进行语义理解,得到所述前一轮对话的客服语义理解结果。
6.根据权利要求5所述的方法,其特征在于,所述预设的客服语义理解模型为采用如下方法步骤训练得到:
获取客服语料训练数据和对所述客服语料训练数据对应的语义理解结果进行标注的客服标注信息;
基于所述客服语料训练数据对预先建立的待训练模型进行训练;
根据所述待训练模型的输出和所述客服标注信息之间的差异,调整所述待训练模型的模型参数,直至所述待训练模型达到期望训练效果。
7.根据权利要求2所述的方法,其特征在于,所述对所述用户和客服的语言数据进行语义理解,得到所述前一轮对话的用户语义理解结果和客服语义理解结果,包括:
将所述前一轮对话中用户的语言数据输入预设的用户语义理解模型,以通过所述用户语义理解模型对所述用户的语言数据进行语义理解,得到所述用户语义理解结果;
将所述前一轮对话中客服的语言数据输入预设的客服语义理解模型,以通过所述客服语义理解模型对所述客服的语言数据进行语义理解,得到所述客服语义理解结果。
8.根据权利要求7所述的方法,其特征在于,所述预设的用户语义理解模型和所述的客服语义理解模型采用如下方法步骤对预先建立的待训练模型训练得到,所述预先建立的待训练模型包括共享层、用户网络层和客服网络层;
对所述待训练模型的训练包括如下方法步骤:
获取用户语料训练数据,以及对用户语料训练数据的用户语义理解结果进行标注的用户标注信息;
基于所述用户语料训练数据训练所述待训练模型;
基于训练结果与所述用户标注信息之间的差异,以及训练结果与所述用户标注信息之间的差异,调整所述共享层和所述用户网络层的网络参数;
获取客服语料训练数据,以及对客服语料训练数据的客服语义理解结果进行标注的客服标注信息;
基于所述客服语料训练数据训练所述待训练模型;
基于训练结果与所述客服标注信息之间的差异,以及训练结果与所述客服标注信息之间的差异,调整所述共享层和所述客服网络层的网络参数;
交替地执行客服语义理解和用户语义理解的训练过程,直至所述待训练模型达到期望训练效果。
9.根据权利要求6-8任一项所述的方法,其特征在于,所述语义理解结果至少包括客服意图信息和/或客服槽位信息及其对应的值,用户意图信息和/或用户槽位信息及其对应的值。
10.根据权利要求9所述的方法,其特征在于,所述根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,包括:
在对所述客服的语言进行语义理解得到所述客服意图信息和/或客服槽位信息及其对应的值,且所述用户语义理解结果是肯定式答复的情况下,将所述客服意图信息和/或客服槽位信息及其对应的值作为所述前一轮对话的用户意图信息和/或用户槽位信息;
在对所述客服的语言进行语义理解得到客服意图信息和/或客服槽位信息及其对应的值,且所述用户语义理解结果是否定式答复的情况下,丢弃所述客服意图信息和/或客服槽位信息及其对应的值。
11.根据权利要求9或10所述的方法,其特征在于,所述根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,还包括:
在对所述客服的语言进行语义理解得到所述客服意图信息和/或客服槽位信息,以及对所述用户的语言进行语义理解得到与所述客服意图信息和/或客服槽位信息对应的值的情况下,将所述客服意图信息和/或客服槽位信息及其对应的值进行合并,作为所述用户意图信息和/或用户槽位信息。
12.根据权利要求9-11任一项所述的方法,其特征在于,所述根据所述前一轮对话的用户语义理解结果和所述前一轮对话的客服语义理解结果,确定所述前一轮对话的语义理解结果,还包括:
在所述客服的语言不包括意图信息和/或槽位信息的情况下,不对所述客服的语言进行语义理解。
13.根据权利要求1-12任一项所述的方法,其特征在于,所述将所述当前轮对话的话术作为客服对当前轮对话的话术的参考话术发送至客服所在的终端设备,包括:
将所述话术以文字或语音消息的形式显示在所述客服与所述用户进行对话的对话界面中。
14.一种对话服务处理装置,其特征在于,包括:
获取模块,用于获取对用户和客服在一次对话服务过程中前一轮对话的语义理解结果;
生成模块,用于根据所述前一轮对话的语义理解结果,生成当前轮对话的话术;
发送模块,用于将所述当前轮对话的话术作为所述客服对当前轮对话的话术的参考话术发送至所述客服所在的终端设备。
15.一种对话服务处理设备,其特征在于,包括:
存储器;
处理器;以及
计算机程序;
其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如权利要求1-13中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-13任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010372991.1A CN111858874B (zh) | 2020-05-06 | 2020-05-06 | 对话服务处理方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010372991.1A CN111858874B (zh) | 2020-05-06 | 2020-05-06 | 对话服务处理方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111858874A true CN111858874A (zh) | 2020-10-30 |
CN111858874B CN111858874B (zh) | 2024-06-28 |
Family
ID=72985241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010372991.1A Active CN111858874B (zh) | 2020-05-06 | 2020-05-06 | 对话服务处理方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858874B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836028A (zh) * | 2021-01-13 | 2021-05-25 | 国家电网有限公司客户服务中心 | 一种基于机器学习的多轮对话方法及系统 |
CN113918698A (zh) * | 2021-10-12 | 2022-01-11 | 北京仁科互动网络技术有限公司 | 一种客服业务处理系统及装置 |
CN115129878A (zh) * | 2022-08-31 | 2022-09-30 | 支付宝(杭州)信息技术有限公司 | 一种对话业务执行方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354835A (zh) * | 2016-08-31 | 2017-01-25 | 上海交通大学 | 基于上下文语义理解的人工对话辅助系统 |
WO2018133761A1 (zh) * | 2017-01-17 | 2018-07-26 | 华为技术有限公司 | 一种人机对话的方法和装置 |
JP2019003319A (ja) * | 2017-06-13 | 2019-01-10 | 株式会社野村総合研究所 | 対話型業務支援システムおよび対話型業務支援プログラム |
CN109361823A (zh) * | 2018-11-01 | 2019-02-19 | 深圳市号互联科技有限公司 | 一种语音与文本相互转化的智能交互方式 |
EP3477638A2 (en) * | 2017-10-26 | 2019-05-01 | Hitachi, Ltd. | Dialog system with self-learning natural language understanding |
CN110166643A (zh) * | 2019-06-18 | 2019-08-23 | 深圳市一号互联科技有限公司 | 人机耦合的坐席控制方法、系统及语音机器人 |
CN110610705A (zh) * | 2019-09-20 | 2019-12-24 | 上海数鸣人工智能科技有限公司 | 一种基于人工智能的语音交互提示器 |
CN110647621A (zh) * | 2019-09-27 | 2020-01-03 | 支付宝(杭州)信息技术有限公司 | 机器人客服引导对话中选择话术的方法和装置 |
-
2020
- 2020-05-06 CN CN202010372991.1A patent/CN111858874B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354835A (zh) * | 2016-08-31 | 2017-01-25 | 上海交通大学 | 基于上下文语义理解的人工对话辅助系统 |
WO2018133761A1 (zh) * | 2017-01-17 | 2018-07-26 | 华为技术有限公司 | 一种人机对话的方法和装置 |
JP2019003319A (ja) * | 2017-06-13 | 2019-01-10 | 株式会社野村総合研究所 | 対話型業務支援システムおよび対話型業務支援プログラム |
EP3477638A2 (en) * | 2017-10-26 | 2019-05-01 | Hitachi, Ltd. | Dialog system with self-learning natural language understanding |
CN109361823A (zh) * | 2018-11-01 | 2019-02-19 | 深圳市号互联科技有限公司 | 一种语音与文本相互转化的智能交互方式 |
CN110166643A (zh) * | 2019-06-18 | 2019-08-23 | 深圳市一号互联科技有限公司 | 人机耦合的坐席控制方法、系统及语音机器人 |
CN110610705A (zh) * | 2019-09-20 | 2019-12-24 | 上海数鸣人工智能科技有限公司 | 一种基于人工智能的语音交互提示器 |
CN110647621A (zh) * | 2019-09-27 | 2020-01-03 | 支付宝(杭州)信息技术有限公司 | 机器人客服引导对话中选择话术的方法和装置 |
Non-Patent Citations (2)
Title |
---|
刘正捷, 史一民, 孙玫, 朱宗元: "开拓面向图象语义的人机对话", 计算机研究与发展, no. 10 * |
陶晓峰;吕朋朋;缪平;娄保东;: "基于深度神经网络的工单采集模型研究", 自动化与仪器仪表, no. 02 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836028A (zh) * | 2021-01-13 | 2021-05-25 | 国家电网有限公司客户服务中心 | 一种基于机器学习的多轮对话方法及系统 |
CN113918698A (zh) * | 2021-10-12 | 2022-01-11 | 北京仁科互动网络技术有限公司 | 一种客服业务处理系统及装置 |
CN115129878A (zh) * | 2022-08-31 | 2022-09-30 | 支付宝(杭州)信息技术有限公司 | 一种对话业务执行方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111858874B (zh) | 2024-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11956187B2 (en) | Natural language processing for information extraction | |
CN112365894B (zh) | 基于ai的复合语音交互方法、装置及计算机设备 | |
KR102348904B1 (ko) | 유인 상담원에 의하여 보조 되는 무인 대화 서비스 제공 방법 | |
CN107818798A (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN111858874A (zh) | 对话服务处理方法、装置、设备及计算机可读存储介质 | |
CN105512228A (zh) | 一种基于智能机器人的双向问答数据处理方法和系统 | |
CN109325091A (zh) | 兴趣点属性信息的更新方法、装置、设备及介质 | |
CN115643341A (zh) | 人工智能客服应答系统 | |
CN110069606A (zh) | 人机会话方法、装置、电子设备及存储介质 | |
CN112199486A (zh) | 一种办公场景的任务型多轮对话方法及系统 | |
CN116821290A (zh) | 面向多任务对话的大语言模型训练方法和交互方法 | |
CN113630309B (zh) | 机器人会话系统、方法、装置、计算机设备和存储介质 | |
CN118113839A (zh) | 一种智能政务客服应用系统 | |
CN117370512A (zh) | 回复对话的方法、装置、设备及存储介质 | |
CN112367494A (zh) | 基于ai的在线会议通讯方法、装置及计算机设备 | |
CN114490994B (zh) | 对话管理方法及装置 | |
CN116009692A (zh) | 虚拟人物交互策略确定方法以及装置 | |
CN110728977A (zh) | 一种基于人工智能的语音对话方法和系统 | |
CN111556096B (zh) | 信息推送方法、装置、介质及电子设备 | |
CN114462376A (zh) | 基于rpa和ai的庭审笔录生成方法、装置、设备及介质 | |
CN111091011B (zh) | 领域预测方法、领域预测装置及电子设备 | |
CN113961680A (zh) | 基于人机交互的会话处理方法及装置、介质、电子设备 | |
CN113782022B (zh) | 基于意图识别模型的通信方法、装置、设备及存储介质 | |
WO2022270603A1 (en) | A system and method for delivering domain or use-case switch suggestion for an ongoing conversation | |
CN118394913A (zh) | 对话处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |