CN113840040B - 一种人机协作的外呼方法、装置、设备及存储介质 - Google Patents
一种人机协作的外呼方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113840040B CN113840040B CN202111113527.1A CN202111113527A CN113840040B CN 113840040 B CN113840040 B CN 113840040B CN 202111113527 A CN202111113527 A CN 202111113527A CN 113840040 B CN113840040 B CN 113840040B
- Authority
- CN
- China
- Prior art keywords
- call
- outbound
- audio
- current
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000004044 response Effects 0.000 claims abstract description 67
- 238000012546 transfer Methods 0.000 claims abstract description 57
- 230000006854 communication Effects 0.000 claims abstract description 26
- 238000004891 communication Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 105
- 230000008569 process Effects 0.000 claims description 36
- 238000010801 machine learning Methods 0.000 claims description 24
- 230000008451 emotion Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 12
- 238000012790 confirmation Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 8
- 230000000875 corresponding effect Effects 0.000 description 83
- 239000003795 chemical substances by application Substances 0.000 description 33
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008909 emotion recognition Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请涉及人工智能领域,公开了一种人机协作的外呼方法、装置、设备及存储介质,该方法包括:在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中外呼对象的对象通话音频,基于对象通话音频检测当前通话是否满足人工转接条件;若不满足,则基于对象通话音频,利用意图识别模型识别当前通话的通话节点以及通话意图类型;根据通话节点以及通话意图类型确定目标响应数据,以使外呼机器人利用目标响应数据与外呼对象的对象终端进行通话;若满足,则将当前通话转接给人工坐席对应的坐席终端。可以利用人机协作的方式进行外呼任务,以提高外呼效率。本申请涉及区块链技术,如可将上述数据写入区块链中,以用于外呼等场景。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种人机协作的外呼方法、装置、设备及存储介质。
背景技术
目前,企业中的催收方式通常采用电话催收,电话催收就是用电话、短信等通信设备作为和客户的沟通工具,例如向债务人传达还款金额和还款时间。若存在大量的业务量,人工催收费时费力,且人工成本高,而导致业务效率较低。随着人工智能的快速发展,语音机器人广泛的应用在各行各业。因此,人机协作的外呼方式成为了当前外呼领域中的研究热点。
发明内容
本申请实施例提供了一种人机协作的外呼方法、装置、设备及存储介质,可以利用人机协作的方式进行外呼任务,以提高外呼效率。
第一方面,本申请实施例公开了一种人机协作的外呼方法,所述方法包括:
在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;
若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;
根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;
若所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端。
第二方面,本申请实施例公开了一种人机协作的外呼装置,所述装置包括:
获取单元,用于在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;
识别单元,用于若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;
确定单元,用于根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;
转接单元,用于若所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端。
第三方面,本申请实施例公开了一种外呼设备,包括处理器、存储器,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行上述第一方面的方法。
第四方面,本申请实施例公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行上述第一方面的方法。
在本申请实施例中,可以在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中外呼对象的对象通话音频,并基于对象通话音频检测当前通话是否满足人工转接条件。若基于对象通话音频检测出当前通话不满足人工转接条件,则基于对象通话音频,利用预训练的意图识别模型识别当前通话的通话节点以及外呼对象的通话意图类型,并根据当前通话的通话节点以及外呼对象的通话意图类型确定目标响应数据,以使外呼机器人利用目标响应数据与外呼对象的对象终端进行通话。若基于对象通话音频检测出当前通话满足人工转接条件,则将当前通话转接给人工坐席对应的坐席终端。通过实施上述方法,可以利用人机协作的方式进行外呼任务,以提高外呼效率;并且,通过先利用智能外呼机器人进行外呼任务,并且可以对意图类型进行更为细致的划分,如可利用不同通话节点所对应的意图类型的话术与外呼对象进行沟通,以提高外呼机器人的沟通效率。同时,利用智能外呼机器人可以有效分担人工外呼的工作量,也可以降低因人工外呼所产生的外呼成本;并且可以在智能外呼机器人无法解决未能有效处理的外呼任务时,在结合人工外呼的方式继续跟进外呼任务,由此可以实现资源合理化配置。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种人机协作的外呼方法的流程示意图;
图2是本申请实施例提供的一种用户操作界面的界面示意图;
图3是本申请实施例提供的另一种人机协作的外呼方法的流程示意图;
图4是本申请实施例提供的一种人机协作的外呼装置的结构示意图;
图5是本申请实施例提供的一种外呼设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的方案涉及人工智能的机器学习等技术,具体通过如下实施例进行说明:
请参阅图1,图1是本申请实施例提供的一种人机协作的外呼方法的流程示意图。本实施例中所描述的人机协作的外呼方法,应用于外呼设备,可由外呼设备执行,该外呼设备可以是服务器,也可以是终端。如图1所示,该人机协作的外呼方法包括以下步骤:
S101:在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中外呼对象的对象通话音频,并基于对象通话音频检测当前通话是否满足人工转接条件。
其中,本申请中的对象可以指用户,因此,外呼对象可以指任意一个用户。
在一种实现方式中,在进行人机协作的外呼任务时,外呼设备可以先调用外呼机器人与外呼对象的对象终端建立通话连接,例如,外呼设备可以调用外呼机器人自动拨打外呼对象的对象终端的电话,以建立通话连接。在外呼机器人与外呼对象的对象终端的通话过程中,可以实时监听通话过程中外呼对象的对象通话音频,以根据外呼对象的对象通话音频,使外呼机器人不断响应(回复)外呼对象,以实现外呼机器人与外呼对象的信息交流。例如,在产品推荐场景中,可以利用外呼机器人向外呼对象推荐产品,在催收场景中,可以利用外呼机器人向外呼对象进行催收。可选的,在外呼机器人与外呼对象的对象终端的通话过程中,可以实时监听通话过程中的通话内容,以根据该通话内容确定是否需要人工介入,并在确定需要人工介入的情况下,可以将当前通话转接给人工坐席对应的坐席终端,从而使得人工坐席对应的话务员可以与外呼对象进行后续的人工通话,以实现在外呼外呼任务中实现人机协作,从而可以合理分配资源。
可选的,如果可以根据对象通话音频识别出外呼对象的情绪类型为目标情绪类型,则可以确定基于对象通话音频检测出当前通话满足人工转接条件。目标情绪类型可以包括愤怒、生气、焦作等负面情绪,当根据对象通话音频识别出外呼对象的情绪类型为目标情绪类型,则可以及时将外呼机器人切换为人工坐席,以通过人工通话(人工服务)的方式响应外呼对象,通过人工服务的方式缓解外呼对象的情绪,从而增加客户体验感。其中,可以通过情绪识别模型来识别外呼对象的情绪类型。例如,可以通过语音识别的方式识别外呼对象的情绪类型,即可以直接基于对象通话音频识别外呼对象的情绪类型。又如,可以通过文本识别的方式识别外呼对象的情绪类型,即可以先将对象通话音频转换为通话文本,以对该通话文本进行情绪识别,如可以将该通话文本输入情绪识别模型,得到该通话文本对应的情绪分类结果,该情绪分类结果即是外呼对象的情绪类型。该情绪识别模型可以是基于文本的对话情绪识别模型HiGRU,也可以是其他情绪识别模型,在本申请不作限定。
可选的,如果可以识别出对象通话音频中存在目标敏感词,则可以确定基于对象通话音频检测出当前通话满足人工转接条件。具体实现中,可以预先设置一个敏感词库,该敏感词库中可以包括多个敏感词,而在外呼机器人与外呼对象的对象终端的通话过程中,可以实时监听外呼对象的对象通话音频,以监听该对象通话音频中是否存在敏感词库中的任一敏感词,如果监听到对象通话音频中存在敏感词库中的敏感词,则可以确定基于对象通话音频检测出当前通话满足人工转接条件。其中,可以将对象通话音频中存在的敏感词称之为目标敏感词。
可选的,如果可以根据对象通话音频识别出外呼对象的人工转接意图,则可以确定基于对象通话音频检测出当前通话满足人工转接条件。具体实现中,在外呼机器人与外呼对象的对象终端的通话过程中,可以实时监听外呼对象的对象通话音频,以监听该对象通话音频中是否存在特定语句,例如,该特定语句可以是例如“需要人工服务”等用于表明外呼对象有人工转接意图的语句,如果监听到对象通话音频中存在特定语句,则可以确定识别出外呼对象的人工转接意图。另一种具体实现中,可以利用意图识别模型对对象通话音频所对应的通话文本进行意图识别,以识别出意图识别结果是否具有人工转接意图。
在一种实现方式中,在进行人机协作的外呼任务之前,人工坐席对应的话务员可以通过在其对应的坐席终端所输出的任务操作界面执行相关操作,以根据自身需求将所需要的外呼案件设置为自动外呼案件。外呼案件可以是指需要利用电话等通信方式与外呼案件所对应的外呼对象进行通话的案件,自动外呼案件可以是指利用人机协作方式的外呼案件。其中,该任务操作界面可以显示话务员对应的所有外呼案件的案件标识,该案件标识可以用于唯一指示外呼案件,例如,案件标识可以是案件名称,案件编号等等,在本申请不作限定。任务操作界面所显示信息可以用于供话务员选择需要进行人机协作的外呼案件(即自动外呼案件),当检测到任一外呼案件的选中操作之后,可以将该选中案件确定为自动外呼案件。可选的,针对每一外呼案件,还可以显示外呼案件的自动外呼风险,以便于话务员可以基于每个外呼案件的自动外呼风险来对外呼案件进行选择。例如,话务员可以选择自动外呼风险较低的外呼案件作为自动外呼案件。例如,自动外呼风险可以基于外呼案件的案件重要性来评估,若某一外呼案件的案件重要性较高,则该外呼案件的自动外呼风险也就较高,对应的,若某一外呼案件的案件重要性较低,该外呼案件的自动外呼风险也就较低。还可以依照其他方式对外呼案件的自动外呼风险进行评估,在本申请不作限定。
在一种实现方式中,针对上述的每一个自动外呼案件,可以为每一个自动外呼案件设置对应的定时外呼任务,该定时任务可以用于指示每一个自动外呼案件被自动外呼的预设外呼时间。那么,可以检测当前时间是否是目标案件的预设外呼时间,该目标案件可以为上述自动外呼案件中的任一案件。如果检测结果为当前时间是目标案件的预设外呼时间,则可以获取目标案件的外呼机器人标识以及目标案件的外呼对象的对象终端标识,以调用外呼机器人标识对应的外呼机器人与对象终端标识对应的对象终端进行外呼。如果检测结果为当前时间不是目标案件的预设外呼时间,则不执行针对目标案件的外呼任务,其中,外呼机器人标识可以用于唯一指示外呼机器人,对象终端标识可以用于唯一指示对象终端。
可选的,在设置自动外呼案件的定时外呼任务时,还可以设置自动外呼案件的外呼次数,外呼时间间隔等信息。例如,在上述调用外呼机器人标识对应的外呼机器人与对象终端标识对应的对象终端进行外呼时,可能会出现对象终端标识对应的对象终端的电话无人接听的情况。在这种情况下,可以基于自动外呼案件进行外呼所对应的外呼时间间隔,对对象终端标识对应的对象终端继续拨打电话,如果电话拨打次数超过外呼次数,则表明该自动外呼案件的外呼任务未成功,进而继续执行对下一个自动外呼案件的外呼任务。可选的,在自动外呼案件的外呼案件未成功的情况下,还可以将案件外呼未成功的原因(例如电话无人接听)记录在预先设置的外呼报告中,以便于后续可以根据外呼报告所记录的信息进行后续的案件处理。
从上述可知,区别于传统人工逐个拨打电话以实现外呼的方式,本申请可以可以通过一键勾选外呼案件,可以节约话务员在初期获取到各自的外呼案件时,过案(了解外呼案件的基本信息)时的所需花费的大量时间,又相当于可以对外呼案件进行一次筛选,帮助话务员筛选出重点案件以进行跟进,并通过设置相关策略(例如上述描述的预设外呼时间,外呼次数等),可以实现对外呼案件进行批量外呼,并且可以通过意图识别以实现外呼对象与外呼机器人的对话,协助人工进行外呼任务,可以以人机协作的方式与外呼对象进行智能对话,从而可以实现智能化、高效化以及合规化的外呼方式。
S102:若当前通话不满足人工转接条件,则基于对象通话音频,利用预训练的意图识别模型识别当前通话的通话节点以及外呼对象的通话意图类型。
在一种实现方式中,如果基于对象通话音频检测出当前通话不满足人工转接条件,则可以利用外呼机器人继续与外呼对象的对象终端进行通话,此时,外呼机器人需要针对外呼对象的对象通话音频向外呼对象进行回复,而为了使外呼机器人与外呼对象进行有效通话,即可以准确回复外呼对象,可以基于外呼对象的对象通话音频,识别出外呼对象的通话意图,以便于后续可以基于该通话意图来响应外呼对象。可选的,可以先将对象通话音频转化为通话文本,以利用该通话文本进行通话意图的识别,识别结果可以包括当前通话的通话节点以及外呼对象的通话意图类型。通话节点可以根据外呼任务的任务进展来划分,例如,针对催收领域,在外呼机器人与外呼对象的过程中,通话节点可以包括身份确认节点、提醒节点、施压节点和追问节点中的一种。
在一种实现方式中,在利用可以通话音频对应的通话文本进行通话意图识别时,可以利用关键词识别、或语义理解识别、或意图识别模型识别等方式。例如,在利用关键词识别方式对通话文本进行意图识别时,可以先提取通话文本中的关键词,以基于关键词确定外呼对象的通话节点以及通话意图类型。又如,在利用意图识别模型识别方式对通话文本进行意图识别时,可以基于通话文本,利用预训练的意图识别模型识别外呼对象的通话节点以及通话意图类型。其中,该意图识别模型可以是例如序列标注模型等可进行意图识别的机器学习模型,在本申请中,对意图识别模型的具体模型不作限定。
S103:根据当前通话的通话节点以及外呼对象的通话意图类型确定目标响应数据,以使外呼机器人利用目标响应数据与外呼对象的对象终端进行通话。
在一种实现方式中,对于同一通话意图类型,在不同通话节点所利用到的响应数据有所区别。例如,在催收领域中,在施压节点中的通话意图类型为还款困难对应的响应数据和提醒节点中的通话意图类型为还款困难对应的响应数据有所不同。在提醒节点中的响应数据可以以提醒为主,而施压节点中的响应数据可以是说明逾期还款的弊处,以给外呼对象一种危机感。可以看出,相比于仅识别出外呼对象的通话意图类型,通过识别当前通话的通话节点以及外呼对象的通话意图类型,可以根据业务需求更加针对性的与外呼对象进行通话,从而可以提高业务外呼效率。
在一种实现方式中,可以获取预先存储的响应数据列表,该响应数据列表可以包括:参考通话节点、参考通话意图类型以及参考响应数据之间的映射关系,其中,任一参考通话节点可以包括多个参考通话意图类型,一参考通话节点中所包括的参考通话意图类型可以与另一参考通话节点中所包括的参考通话意图类型可以相同,也可以不相同。在确定通话节点和通话意图类型之后,可以从响应数据列表中获取与当前通话的通话节点以及外呼对象的通话意图类型对应的参考响应数据,并将获取到的参考响应数据确定为目标响应数据。
举例来说,在催收领域,参考通话节点可包括身份确认节点、提醒节点、施压节点和追问节点,每个参考通话节点下可以包括多个参考通话意图类型,例如,身份确认节点和其对应的参考通话意图类型的相关信息可以如表1所示:
表1
从表1中可以看出,在外呼机器人以外呼对象的外呼终端进行通话时,首先可以是确定外呼对象是否是外呼案件所指示的客户,如果在确认外呼对象不是外呼案件所指示的客户(即非客户本人),可以根据外呼对象在当前时刻的对象通话音频所确定的参考意图类型可以包括认识客户、未知关系、确定客户等,针对在身份确认节点下的参考通话意图类型,可以设置为每一参考通话意图类型预先设置对应的参考响应数据。
又如,提醒节点和其对应的参考通话意图类型的相关信息可以如表2所示:
表2
在通过身份确认节点确认外呼对象时外呼案件所指示的客户之后,通话节点可以转换至提醒节点,如表2所示,提醒节点下也可以包括多个参考通话意图类型。其中,表2中的第3-5列中所显示的信息,均可以表示参考通话意图类型,相比于第3列中所显示参考通话意图类型,第4列中所显示参考通话意图类型的细粒度更高,而第5列中所显示参考通话意图类型的细粒度比第4列中所显示参考通话意图类型的细粒度更高。在每一种参考通话意图类型下均由其对应的响应数据。需要说明的是,表1和表2所显示的参考通话意图类型为示例性范例,还可以包括其他参考通话意图类型,在此处不一一举例。
其中,施压节点和追问节点分别对应的参考通话意图类型可以参考表2所示,施压节点和追问节点分别对应的参考通话意图类型可以与提醒节点下对应的参考通话意图类型一致,也可以不一致,在本申请不作限定。需要说明的是,在施压节点和追问节点分别对应的参考通话意图类型可以与提醒节点下对应的参考通话意图类型一致的情况下,不同通话节点在相同参考通话意图类型下对应的响应数据是不相同的。
S104:若当前通话满足人工转接条件,则将当前通话转接给人工坐席对应的坐席终端。
在一种实现方式中,在基于对象通话音频检测出当前通话满足人工转接条件的情况下,则可以将当前通话转接给人工坐席对应的坐席终端。可选的,人工坐席对应的话务员可以通过在其对应的坐席终端所输出的用户操作界面执行相关操作,以将当前通话转接给人工坐席对应的坐席终端。具体实现中,在基于对象通话音频检测出当前通话满足人工转接条件的情况下,可以在人工坐席对应的坐席终端输出用户操作界面,并在该用户操作界面上显示转接提示信息,该转接提示信息可以用于提示人工坐席与外呼对象进行通话。如果检测到人工坐席对应的坐席终端开启与外呼对象的对象终端的通话,则可以切断外呼机器人与外呼对象的对象终端的通话。例如参见图2所示:人工坐席对应的话务员所使用的坐席终端可在终端屏幕中显示一个用户操作界面,该用户操作界面可以至少包括由201标记的信息显示区域,以及由202标记的转接控件。如用户操作界面上所显示的转接提示信息可以如信息显示区域201中所显示的“案件A需转换为人工服务”,如果人工坐席对应的话务员确定与外呼对象进行后续的沟通,可以对该转接控件202执行触发操作(如点击操作、按压操作等),从而触发外呼设备将当前通话转接给人工坐席对应的坐席终端,并切断外呼机器人与外呼对象的对象终端之间的通话连接。
可选的,如果未检测到人工坐席对应的坐席终端开启与外呼对象的对象终端的通话,例如,在预设时间段内未检测到针对用户操作界面上转接控件的触发操作,则可以确定为未检测到人工坐席对应的坐席终端开启与外呼对象的对象终端的通话。其中,该预设时间段可以预先设置,如可将预设时间段设置为30秒、60秒等时间段。在一种实现中,在人工坐席对应的坐席终端未能成功开启与外呼对象的对象终端的通话的情况下,可以在坐席终端的终端屏幕上显示第一提示信息,该第一提示信息可以用于提示人工坐席错过了人工转接请求,以便于后续人工坐席对应的话务员可以根据该第一提示信息后续可以继续跟进该外呼任务所对应的外呼案件。可选的,在外呼机器人与外呼对象的对象终端的通话结束之后,还获取外呼机器人与外呼对象的对象终端之间的完整通话音频,以从该完整通话音频中确定是否存在外呼对象指定的再次通话时间。如果检测到该完整通话音频中存在再次通话时间,则可以在坐席终端的终端屏幕上显示第二提示信息,该第二提示信息可以用于提示人工坐席需与当前外呼案件对应的外呼对象的对象终端再次通话的时间。
在一种实现方式中,外呼设备可以将外呼过程(外呼机器人和外呼对象的对象终端之间的通话、外呼对象与人工坐席对应的坐席终端和外呼对象的对象终端之间的通话)的通话音频、拨打结果(例如上述描述的外呼未成功、人工坐席错过人工转接请求等)等数据均可以记录在外呼报告中,以便于后续可以根据外呼报告中所记录的数据对外呼案件进行了解或分析。
在本申请实施例中,可以在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中外呼对象的对象通话音频,并基于对象通话音频检测当前通话是否满足人工转接条件。若当前通话不满足人工转接条件,则基于对象通话音频,利用预训练的意图识别模型识别当前通话的通话节点以及外呼对象的通话意图类型,并根据当前通话的通话节点以及外呼对象的通话意图类型确定目标响应数据,以使外呼机器人利用目标响应数据与外呼对象的对象终端进行通话。若当前通话满足人工转接条件,则将当前通话转接给人工坐席对应的坐席终端。通过实施上述方法,可以利用人机协作的方式进行外呼任务,以提高外呼效率;并且,通过先利用智能外呼机器人进行外呼任务,并且可以对意图类型进行更为细致的划分,如可利用不同通话节点所对应的意图类型的话术与外呼对象进行沟通,以提高外呼机器人的沟通效率。同时,利用智能外呼机器人可以有效分担人工外呼的工作量,也可以降低因人工外呼所产生的外呼成本;并且可以在智能外呼机器人无法解决未能有效处理的外呼任务时,在结合人工外呼的方式继续跟进外呼任务,由此可以实现资源合理化配置。
请参阅图3,图3是本申请实施例提供的另一种人机协作的外呼方法的流程示意图。本实施例中所描述的人机协作的外呼方法,应用于外呼设备,可由外呼设备执行,该外呼设备可以是服务器,也可以是终端。如图3所示,该人机协作的外呼方法包括以下步骤:
S301:获取训练数据集,训练数据集包括训练通话文本,并对训练通话文本添加训练标签,训练标签包括训练通话节点标签和训练通话意图类型标签。
在一种实现方式中,训练通话文本可以是在外呼场景中,外呼机器人与客户的通话过程中,客户的通话音频(也就是客户所说的话)对应的文本。训练通话文本可以根据历史通话录音所得到,例如,可以获取历史通话录音中客户的通话音频,并将获取到的通话音频转换为通话文本,则得到的通话文本即可以作为训练通话文本。而在获取到训练通话文本之后,即可以对训练通话文本添加训练通话节点标签和训练通话意图类型标签,以便于后续可以根据添加有训练通话节点标签和训练通话意图类型标签的训练通话文本对预设的机器学习模型进行模型训练,而得到意图识别模型。可选的,每个训练通话文本对应的训练标签可以预先人为的添加,即进行人工标注,后续需要利用时直接获取即可。
其中,训练通话节点标签可以用于指示训练通话文本的通话节点,训练通话意图类型标签可以用于指示训练通话文本的通话意图类型。例如,在催收领域的外呼场景下,在外呼机器人与客户的通话过程中,通话节点可以包括身份确认节点、提醒节点、施压节点和追问节点。每个通话节点下可以包括多种通话意图类型。例如,表1所显示的身份确认节点与多个通话意图类型之间的关系,以及表2所显示的提醒节点和多个通话意图类型之间的关系。
S302:将添加训练通话节点标签和训练通话意图类型标签的训练通话文本输入预设的机器学习模型进行模型训练,得到意图识别模型。
在一种实现方式中,可以将添加训练通话节点标签和训练通话意图类型标签的训练通话文本输入预设的机器学习模型,以得到训练通话文本的预测标签,该预测标签包括训练通话文本对应的预测通话节点标签和预测通话意图类型标签。而在得到预测标签之后,可以根据训练通话文本的预测标签,和该训练通话文本的训练标签对预设的机器学习模型进行训练,以得到意图识别模型。其中,该预设的机器学习模型可以是可用于意图识别的模型,例如序列标注模型,或其他模型,该预设的机器学习模型的具体模型在本申请不作限定。可选的,预设的机器学习模型可以包括特征提取层和识别层。那么,首先,添加有训练通话节点标签和训练通话意图类型标签的训练通话文本可以输入预设的机器学习模型中的特征提取层,以得到训练通话文本的特征向量,而在得到特征向量之后,该特征向量可以输入预设的机器学习模型中的识别层,以得到训练通话样本的预测标签。然后,可以基于预测标签、训练标签以及模型的损失函数对预设的机器学习模型进行模型训练,也就是对预设的机器学习模型中的模型参数进行更新,当损失函数达到收敛条件,即可以得到训练后的机器学习模型,该训练后的机器学习模型即可以是意图识别模型。
可选的,根据预测标签、训练标签以及模型的损失函数对预设的机器学习模型进行模型训练,得到意图识别模型的具体实施方式可以是:根据预测标签、训练标签计算损失函数的梯度,以根据损失函数的梯度对机器学习模型的模型参数进行参数更新,并检测损失函数是否满足预设收敛条件。当检测到该损失函数满足预设收敛条件时,则可以停止模型参数的参数更新,以得到训练后的机器学习模型。其中,在本申请中,对损失函数不作限定,预设收敛条件可以是指损失函数的梯度小于预先设置的一个阈值,或者是两次迭代之间的权值变化已经很小,且小于预先设置的一个阈值,或者模型的迭代次数达到了预先设置的最大迭代次数,在满足上述任一条件时,可以停止对预设的机器学习模型的训练。
S303:在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中外呼对象的对象通话音频,并基于对象通话音频检测当前通话是否满足人工转接条件。
S304:若当前通话不满足人工转接条件,则基于对象通话音频,利用预训练的意图识别模型识别当前通话的通话节点以及外呼对象的通话意图类型。
S305:根据当前通话的通话节点以及外呼对象的通话意图类型确定目标响应数据,以使外呼机器人利用目标响应数据与外呼对象的对象终端进行通话。
S306:若当前通话满足人工转接条件,则将当前通话转接给人工坐席对应的坐席终端。
在一种实现方式中,在将当前通话转接给人工坐席对应的坐席终端之后,且在人工坐席对应的坐席终端和外呼对象的对象终端进行通话时,还可以进行音色转换,例如可以将坐席终端对应的通话音色调整为与外呼机器人对应的通话音色,以保证坐席终端对应的通话音色和外呼机器人对应的通话音色一致,使外呼对象对人机之间的切换无感知,从而可以加强用户的体验感。可选的,可以获取人工坐席对应的音频数据,并提取音频数据中的人工音色信息和内容信息。还可以获取外呼机器人的机器人音色信息,以将音频数据中的人工音色信息转换为机器人音色信息,从而得到包括该机器人音色信息以及内容信息的目标音频数据,以使在人工坐席对应的坐席终端与外呼对象的对象终端通话的过程中,利用目标音频数据响应外呼对象。可选的,获取外呼机器人的机器人音色信息的具体实现方式可以是:获取外呼机器人与外呼对象的对象终端的通话过程中的通话音频,以从该通话音频中提取外呼机器人的机器人音色信息。或者还可以是:预先存储了各个外呼机器人的机器人音色信息,并将各个外呼机器人的机器人标识与外呼机器人的机器人音色信息进行关联存储。在这种情况下,则可以从存储中获取当前外呼机器人的机器人音色信息,例如,可以根据当前外呼机器人的机器人标识,从存储中获取当前外呼机器人的机器人标识对应的机器人音色信息。
其中,步骤S303-S306的具体实施方式可以参见上述实施例步骤S101-S104的具体描述,此处不再赘述。
本申请实施例中,获取包括训练通话文本的训练数据集,并对训练通话文本添加训练通话节点标签和训练通话意图类型标签,以将添加训练通话节点标签和训练通话意图类型标签的训练通话文本输入预设的机器学习模型进行模型训练,从而得到意图识别模型。可以在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中外呼对象的对象通话音频,并基于对象通话音频检测当前通话是否满足人工转接条件。若当前通话不满足人工转接条件,则基于对象通话音频,利用预训练的意图识别模型识别当前通话的通话节点以及外呼对象的通话意图类型,并根据当前通话的通话节点以及外呼对象的通话意图类型确定目标响应数据,以使外呼机器人利用目标响应数据与外呼对象的对象终端进行通话。若当前通话满足人工转接条件,则将当前通话转接给人工坐席对应的坐席终端。通过实施上述方法,可以利用人机协作的方式进行外呼任务,以提高外呼效率;并且,通过先利用智能外呼机器人进行外呼任务,可以有效分担人工外呼的工作量;在智能外呼机器人进行外呼任务时,也可以有效识别外呼对象的意图,并能自动化的输出针对外呼对象的意图的响应数据;同时,也可以降低因人工外呼所产生的外呼成本;并且可以在智能外呼机器人无法解决未能有效处理的外呼任务时,在结合人工外呼的方式继续跟进外呼任务,由此可以实现资源合理化配置。
请参阅图4,图4是本申请实施例提供的一种人机协作的外呼装置的结构示意图。所述人机协作的外呼装置包括:
获取单元401,用于在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;
识别单元402,用于若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;
确定单元403,用于根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;
转接单元404,用于若基于所述对象通话音频检测出所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端。
在一种实现方式中,所述识别单元402,具体用于:
获取训练数据集,其中,所述训练数据集包括训练通话文本,并对所述训练通话文本添加训练标签,所述训练标签包括训练通话节点标签和训练通话意图类型标签,所述训练通话节点标签用于指示所述训练通话文本的通话节点,所述训练通话意图类型标签用于指示所述训练通话文本的通话意图类型;
将添加所述训练通话节点标签和所述训练通话意图类型标签的所述训练通话文本输入预设的机器学习模型进行模型训练,得到所述意图识别模型;
将所述对象通话音频转化为通话文本;
调用所述意图识别模型对所述通话文本进行识别处理,得到所述当前通话的通话节点以及所述外呼对象的通话意图类型。
在一种实现方式中,所述确定单元403,具体用于:
获取存储的响应数据列表,其中,所述响应数据列表包括:参考通话节点、参考通话意图类型以及参考响应数据之间的映射关系,任一所述参考通话节点包括多个所述参考通话意图类型;
从所述响应数据列表中获取与所述当前通话的通话节点以及所述外呼对象的通话意图类型对应的参考响应数据,并将获取到的参考响应数据确定为目标响应数据。
在一种实现方式中,所述获取单元401,具体用于:
若根据所述对象通话音频识别出所述外呼对象的情绪类型为目标情绪类型,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件;
或者,若识别出所述对象通话音频中存在目标敏感词,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件;
或者,若根据所述对象通话音频识别出所述外呼对象的人工转接意图,则基于所述对象通话音频检测出所述当前通话满足所述人工转接条件。
在一种实现方式中,所述转接单元404,还用于:
获取所述人工坐席对应的音频数据,并提取所述音频数据中的人工音色信息和内容信息;
获取所述外呼机器人的机器人音色信息;
将所述音频数据中的人工音色信息转换为所述机器人音色信息,得到包括所述内容信息和所述机器人音色信息的目标音频数据,以使在所述人工坐席对应的坐席终端与所述外呼对象的对象终端通话的过程中,利用所述目标音频数据响应所述外呼对象。
在一种实现方式中,所述获取单元401,还用于:
检测当前时间是否是目标案件的预设外呼时间;
若检测结果为所述当前时间是所述目标案件的预设外呼时间,则获取所述目标案件的外呼机器人标识以及所述目标案件的外呼对象的对象终端标识;
调用所述外呼机器人标识对应的外呼机器人与所述对象终端标识对应的对象终端进行外呼。
在一种实现方式中,所述转接单元404,具体用于:
输出用户操作界面,并在所述用户操作界面上显示转接提示信息,其中,所述转接提示信息用于提示人工坐席与所述外呼对象进行通话;
若检测到所述人工坐席对应的坐席终端开启与所述外呼对象的对象终端的通话,则切断所述外呼机器人与所述外呼对象的对象终端的通话。
可以理解的是,本申请实施例所描述的人机协作的外呼装置的各功能单元的功能可根据图1或图3所述的方法实施例中的方法具体实现,其具体实现过程可以参照图1或图3的方法实施例的相关描述,此处不再赘述。
本申请实施例中,在外呼机器人与外呼对象的对象终端的通话过程中,获取单元401获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;若所述当前通话不满足所述人工转接条件,则识别单元402基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;确定单元403根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;若所述当前通话满足所述人工转接条件,则转接单元404将所述当前通话转接给人工坐席对应的坐席终端。可以利用人机协作的方式进行外呼任务,以提高外呼效率
请参阅图5,图5是本申请实施例提供的一种外呼设备的结构示意图。该外呼设备包括:处理器501、存储器502以及网络接口503。上述处理器501、存储器502以及网络接口503之间可以交互数据。
上述处理器501可以是中央处理单元(Central Processing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述存储器502可以包括只读存储器和随机存取存储器,并向处理器501提供程序指令和数据。存储器502的一部分还可以包括随机存取存储器。其中,所述处理器501调用所述程序指令时用于执行:
在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;
若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;
根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;
若所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端。
在一种实现方式中,所述处理器501,具体用于:
获取训练数据集,其中,所述训练数据集包括训练通话文本,并对所述训练通话文本添加训练标签,所述训练标签包括训练通话节点标签和训练通话意图类型标签,所述训练通话节点标签用于指示所述训练通话文本的通话节点,所述训练通话意图类型标签用于指示所述训练通话文本的通话意图类型;
将添加所述训练通话节点标签和所述训练通话意图类型标签的所述训练通话文本输入预设的机器学习模型进行模型训练,得到所述意图识别模型;
将所述对象通话音频转化为通话文本;
调用所述意图识别模型对所述通话文本进行识别处理,得到所述当前通话的通话节点以及所述外呼对象的通话意图类型。
在一种实现方式中,所述处理器501,具体用于:
获取存储的响应数据列表,其中,所述响应数据列表包括:参考通话节点、参考通话意图类型以及参考响应数据之间的映射关系,任一所述参考通话节点包括多个所述参考通话意图类型;
从所述响应数据列表中获取与所述当前通话的通话节点以及所述外呼对象的通话意图类型对应的参考响应数据,并将获取到的参考响应数据确定为目标响应数据。
在一种实现方式中,所述处理器501,具体用于:
若根据所述对象通话音频识别出所述外呼对象的情绪类型为目标情绪类型,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件;
或者,若识别出所述对象通话音频中存在目标敏感词,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件;
或者,若根据所述对象通话音频识别出所述外呼对象的人工转接意图,则基于所述对象通话音频检测出所述当前通话满足所述人工转接条件。
在一种实现方式中,所述处理器501,还用于:
获取所述人工坐席对应的音频数据,并提取所述音频数据中的人工音色信息和内容信息;
获取所述外呼机器人的机器人音色信息;
将所述音频数据中的人工音色信息转换为所述机器人音色信息,得到包括所述内容信息和所述机器人音色信息的目标音频数据,以使在所述人工坐席对应的坐席终端与所述外呼对象的对象终端通话的过程中,利用所述目标音频数据响应所述外呼对象。
在一种实现方式中,所述处理器501,还用于:
检测当前时间是否是目标案件的预设外呼时间;
若检测结果为所述当前时间是所述目标案件的预设外呼时间,则获取所述目标案件的外呼机器人标识以及所述目标案件的外呼对象的对象终端标识;
调用所述外呼机器人标识对应的外呼机器人与所述对象终端标识对应的对象终端进行外呼。
在一种实现方式中,所述处理器501,具体用于:
输出用户操作界面,并在所述用户操作界面上显示转接提示信息,其中,所述转接提示信息用于提示人工坐席与所述外呼对象进行通话;
若检测到所述人工坐席对应的坐席终端开启与所述外呼对象的对象终端的通话,则切断所述外呼机器人与所述外呼对象的对象终端的通话。
具体实现中,本申请实施例中所描述的处理器501和存储器502可执行本申请实施例图1或图3提供的人机协作的外呼方法中所描述的实现方式,也可执行本申请实施例图4所描述的人机协作的外呼装置的实现方式,在此不再赘述。
本申请实施例中,处理器501可以在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;若所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端。可以利用人机协作的方式进行外呼任务,以提高外呼效率
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有程序指令,所述程序执行时可包括如图1或图3对应实施例中的人机协作的外呼方法的部分或全部步骤。
需要说明的是,对于前述的各个方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某一些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random AccessMemory,RAM)、磁盘或光盘等。
需要强调的是,为进一步保证上述数据的私密和安全性,上述数据还可以存储于一区块链的节点中。其中,本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
以上对本申请实施例所提供的一种人机协作的外呼方法、装置、设备及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种人机协作的外呼方法,其特征在于,包括:
在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;
若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;
根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;其中,通话节点根据外呼任务的任务进展来划分,通话节点包括身份确认节点、提醒节点、施压节点和追问节点;每个通话节点下包括多种通话意图类型,且对于同一通话意图类型,在不同通话节点所利用到的响应数据存在区别;
若所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端;
在外呼机器人与外呼对象的对象终端的通话结束之后,获取外呼机器人与外呼对象的对象终端之间的完整通话音频,并从所述完整通话音频中确定是否存在外呼对象指定的再次通话时间;
如果检测到所述完整通话音频中存在再次通话时间,在坐席终端的终端屏幕上显示第二提示信息,所述第二提示信息用于提示人工坐席与当前外呼案件对应的外呼对象的对象终端再次通话的时间。
2.根据权利要求1所述的方法,其特征在于,所述基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型之前,还包括:
获取训练数据集,其中,所述训练数据集包括训练通话文本,并对所述训练通话文本添加训练标签,所述训练标签包括训练通话节点标签和训练通话意图类型标签,所述训练通话节点标签用于指示所述训练通话文本的通话节点,所述训练通话意图类型标签用于指示所述训练通话文本的通话意图类型;
将添加所述训练通话节点标签和所述训练通话意图类型标签的所述训练通话文本输入预设的机器学习模型进行模型训练,得到所述意图识别模型;
所述基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型,包括:
将所述对象通话音频转化为通话文本;
调用所述意图识别模型对所述通话文本进行识别处理,得到所述当前通话的通话节点以及所述外呼对象的通话意图类型。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,包括:
获取存储的响应数据列表,其中,所述响应数据列表包括:参考通话节点、参考通话意图类型以及参考响应数据之间的映射关系,任一所述参考通话节点包括多个所述参考通话意图类型;
从所述响应数据列表中获取与所述当前通话的通话节点以及所述外呼对象的通话意图类型对应的参考响应数据,并将获取到的参考响应数据确定为目标响应数据。
4.根据权利要求1所述的方法,其特征在于,所述基于所述对象通话音频检测所述当前通话是否满足人工转接条件,包括:
若根据所述对象通话音频识别出所述外呼对象的情绪类型为目标情绪类型,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件;
或者,若识别出所述对象通话音频中存在目标敏感词,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件;
或者,若根据所述对象通话音频识别出所述外呼对象的人工转接意图,则确定基于所述对象通话音频检测出所述当前通话满足所述人工转接条件。
5.根据权利要求1所述的方法,其特征在于,所述将所述当前通话转接给人工坐席对应的坐席终端之后,还包括:
获取所述人工坐席对应的音频数据,并提取所述音频数据中的人工音色信息和内容信息;
获取所述外呼机器人的机器人音色信息;
将所述音频数据中的人工音色信息转换为所述机器人音色信息,得到包括所述内容信息和所述机器人音色信息的目标音频数据,以使在所述人工坐席对应的坐席终端与所述外呼对象的对象终端通话的过程中,利用所述目标音频数据响应所述外呼对象。
6.根据权利要求1所述的方法,其特征在于,所述在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频之前,还包括:
检测当前时间是否是目标案件的预设外呼时间;
若检测结果为所述当前时间是所述目标案件的预设外呼时间,则获取所述目标案件的外呼机器人标识以及所述目标案件的外呼对象的对象终端标识;
调用所述外呼机器人标识对应的外呼机器人与所述对象终端标识对应的对象终端进行外呼。
7.根据权利要求1所述的方法,其特征在于,所述将所述当前通话转接给人工坐席对应的坐席终端,包括:
输出用户操作界面,并在所述用户操作界面上显示转接提示信息,其中,所述转接提示信息用于提示人工坐席与所述外呼对象进行通话;
若检测到所述人工坐席对应的坐席终端开启与所述外呼对象的对象终端的通话,则切断所述外呼机器人与所述外呼对象的对象终端的通话。
8.一种人机协作的外呼装置,其特征在于,包括:
获取单元,用于在外呼机器人与外呼对象的对象终端的通话过程中,获取当前通话的过程中所述外呼对象的对象通话音频,并基于所述对象通话音频检测所述当前通话是否满足人工转接条件;
识别单元,用于若所述当前通话不满足所述人工转接条件,则基于所述对象通话音频,利用预训练的意图识别模型识别所述当前通话的通话节点以及所述外呼对象的通话意图类型;
确定单元,用于根据所述当前通话的通话节点以及所述外呼对象的通话意图类型确定目标响应数据,以使所述外呼机器人利用所述目标响应数据与所述外呼对象的对象终端进行通话;其中,通话节点根据外呼任务的任务进展来划分,通话节点包括身份确认节点、提醒节点、施压节点和追问节点;每个通话节点下包括多种通话意图类型,且对于同一通话意图类型,在不同通话节点所利用到的响应数据存在区别;
转接单元,用于若所述当前通话满足所述人工转接条件,则将所述当前通话转接给人工坐席对应的坐席终端;
获取单元,还用于在外呼机器人与外呼对象的对象终端的通话结束之后,获取外呼机器人与外呼对象的对象终端之间的完整通话音频,并从所述完整通话音频中确定是否存在外呼对象指定的再次通话时间;如果检测到所述完整通话音频中存在再次通话时间,在坐席终端的终端屏幕上显示第二提示信息,所述第二提示信息用于提示人工坐席与当前外呼案件对应的外呼对象的对象终端再次通话的时间。
9.一种外呼设备,其特征在于,包括处理器、存储器,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111113527.1A CN113840040B (zh) | 2021-09-22 | 2021-09-22 | 一种人机协作的外呼方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111113527.1A CN113840040B (zh) | 2021-09-22 | 2021-09-22 | 一种人机协作的外呼方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113840040A CN113840040A (zh) | 2021-12-24 |
CN113840040B true CN113840040B (zh) | 2022-11-08 |
Family
ID=78969213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111113527.1A Active CN113840040B (zh) | 2021-09-22 | 2021-09-22 | 一种人机协作的外呼方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113840040B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114528386A (zh) * | 2022-01-14 | 2022-05-24 | 北京健康之家科技有限公司 | 机器人的外呼控制方法、装置、存储介质和终端 |
CN115460323A (zh) * | 2022-09-06 | 2022-12-09 | 上海浦东发展银行股份有限公司 | 一种智能外呼转人工的方法、装置、设备和存储介质 |
CN115442480A (zh) * | 2022-09-19 | 2022-12-06 | 京东科技控股股份有限公司 | 外呼方法、装置、介质、服务器及智能机器人 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111246031A (zh) * | 2020-02-27 | 2020-06-05 | 大连即时智能科技有限公司 | 人机协同的电话客服方法及系统 |
CN111696558A (zh) * | 2020-06-24 | 2020-09-22 | 深圳壹账通智能科技有限公司 | 智能外呼方法、装置、计算机设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11159679B2 (en) * | 2019-02-26 | 2021-10-26 | Cigna Taiwan Life Assurance Co. Ltd. | Automated systems and methods for natural language processing with speaker intention inference |
WO2021048572A1 (en) * | 2019-09-09 | 2021-03-18 | Citrix Systems, Inc | Conversational ai platform using declarative graph model |
-
2021
- 2021-09-22 CN CN202111113527.1A patent/CN113840040B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111246031A (zh) * | 2020-02-27 | 2020-06-05 | 大连即时智能科技有限公司 | 人机协同的电话客服方法及系统 |
CN111696558A (zh) * | 2020-06-24 | 2020-09-22 | 深圳壹账通智能科技有限公司 | 智能外呼方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113840040A (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113840040B (zh) | 一种人机协作的外呼方法、装置、设备及存储介质 | |
CN109760041B (zh) | 基于聊天机器人的云管理系统及其操作方法 | |
CN110347863B (zh) | 话术推荐方法和装置及存储介质 | |
CN112037799B (zh) | 语音中断处理方法、装置、计算机设备和存储介质 | |
CN111597818B (zh) | 呼叫质检方法、装置、计算机设备和计算机可读存储介质 | |
CN115665325B (zh) | 一种智能外呼的方法、装置、电子设备及存储介质 | |
CN110442697B (zh) | 一种人机交互方法、系统、计算机设备和存储介质 | |
CN112199474B (zh) | 一种语音客服服务方法及系统 | |
CN109271503A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN111611365A (zh) | 一种对话系统的流程控制方法、装置、设备及存储介质 | |
CN113591463A (zh) | 意图识别方法、装置、电子设备及存储介质 | |
CN110489519B (zh) | 基于会话预测模型的会话方法及相关产品 | |
CN110047473B (zh) | 一种人机协作交互方法及系统 | |
CN113630309B (zh) | 机器人会话系统、方法、装置、计算机设备和存储介质 | |
CN107832342B (zh) | 机器人聊天方法及系统 | |
CN114202363B (zh) | 基于人工智能的话术调用方法、装置、计算机设备及介质 | |
CN111553171B (zh) | 语料处理方法、装置及存储介质 | |
US8051026B2 (en) | Rules collector system and method with user interaction | |
CN114626557A (zh) | 一种运维业务的处理方法、装置、设备及产品 | |
CN113868396A (zh) | 基于知识图谱的任务类智能对话构建方法及系统 | |
CN114254088A (zh) | 自动应答模型的构建方法和自动应答方法 | |
CN112632241A (zh) | 智能会话的方法、装置、设备和计算机可读介质 | |
CN114221920B (zh) | 基于人工智能的自动接触方法、装置、计算机设备及介质 | |
CN111369985A (zh) | 语音交互方法、装置、设备和介质 | |
CN117909557B (zh) | 基于大语言模型的人机交互方法、系统、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |