CN112492111B - 一种智能语音外呼方法、装置、计算机设备和存储介质 - Google Patents
一种智能语音外呼方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112492111B CN112492111B CN202011341486.7A CN202011341486A CN112492111B CN 112492111 B CN112492111 B CN 112492111B CN 202011341486 A CN202011341486 A CN 202011341486A CN 112492111 B CN112492111 B CN 112492111B
- Authority
- CN
- China
- Prior art keywords
- voice
- text
- user
- outbound
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000003860 storage Methods 0.000 title claims abstract description 13
- 238000012937 correction Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 15
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 claims description 5
- 230000008676 import Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000011218 segmentation Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种智能语音外呼方法、装置、计算机设备和存储介质,属于语音外呼技术领域,方法包括:根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景;当语音外呼任务被调度执行时,根据业务场景对应的话术配置信息,对用户数据对应的用户进行外呼,以实时获得用户语音数据;将用户语音数据转换为语音文本,对语音文本进行识别,得到意图文本;对意图文本在业务场景预先关联的话术文本库中匹配出话术文本,并将话术文本对应的语音与用户进行对话。本发明能够提高语音外呼工作的效率与准确度,极大地降低了语音外呼的人力成本。
Description
技术领域
本发明涉及语音外呼技术领域,尤其涉及一种智能语音外呼方法、装置、计算机设备和存储介质。
背景技术
在企业在进行现有产品的推广时,势必会遇到产品的售后、客服交流等业务功能。如客服产品、呼叫中心等,即对当前企业的产品进行一对一、专业的,有效的咨询与服务。那么当用户越来越多,产品范围越来越庞大时,则大量的用户对产品的疑问、售后问题要进行有效的回复、处理。商家企业需要对这些用户的疑问进行有效的回答,解决用户在使用本企业生产的产品时遇到的问题进行妥当处理。
传统的语音呼叫依赖于人工操作,尤其是针对于语音外呼的业务,都是需要人工获取外呼任务并通过人工操作完成语音外呼,从而增加了语音外呼的人力成本,造成语音外呼的工作效率低下。
发明内容
为了解决上述背景技术中提到的至少一个问题,本发明提供了一种智能语音外呼方法、装置及设备。
本发明实施例提供的具体技术方案如下:
第一方面,提供了一种智能语音外呼方法,所述方法包括:
根据语音外呼任务的配置信息,配置所述语音外呼任务进行呼叫的用户数据以及所述用户数据所属的业务场景;
当所述语音外呼任务被执行时,根据所述业务场景对应的话术配置信息,对所述用户数据对应的用户进行外呼,以实时获得用户语音数据;
将所述用户语音数据转换为语音文本,对所述语音文本进行识别,得到意图文本;
对所述意图文本在所述业务场景预先关联的话术文本库中匹配出话术文本,并将所述话术文本对应的语音与所述用户进行对话。
进一步地,所述方法还包括:
在接收到外部应用系统上传的业务数据后,根据所述业务数据的业务场景抽取用户数据,并将所述用户数据按照所述业务场景对应存储到数据仓库中。
进一步地,所述语音外呼任务被调度至分布式集群中的目标服务器进行执行,所述方法还包括:
当所述语音外呼任务被执行时,在预设的任务状态表中记录所述语音外呼任务的执行状态,以禁止重复调度所述语音外呼任务。
进一步地,所述对所述语音文本进行识别,得到意图文本,包括:
根据预设知识库,识别所述语音文本中的中心词,根据识别出的中心词对所述语音文本进行格式化处理,得到标记了各所述中心词的格式化文本;
识别并标记所述格式化文本中的关键词;
对标记了各所述关键词的所述格式化文本中的词语进行分组标记;
对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
进一步地,所述对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本,包括:
根据所述预设知识库中的历史问题库以及行业词典对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
第二方面,提供了一种智能语音外呼装置,所述装置包括:
任务管理模块,用于根据语音外呼任务的配置信息,配置所述语音外呼任务进行呼叫的用户数据以及所述用户数据所属的业务场景;
语音外呼模块,用于当所述语音外呼任务被执行时,根据所述业务场景对应的话术配置信息,对所述用户数据对应的用户进行外呼,以实时获得用户语音数据;
语音识别模块,用于将所述用户语音数据转换为语音文本,对所述语音文本进行识别,得到意图文本;
话术匹配模块,用于对所述意图文本在所述业务场景预先关联的话术文本库中匹配出话术文本;
所述语音外呼模块,还用于将所述话术文本对应的语音与所述用户进行对话。
进一步地,所述装置还包括:
数据导入模块,用于在接收到外部应用系统上传的业务数据后,根据所述业务数据的业务场景抽取用户数据,并将所述用户数据按照所述业务场景对应存储到数据仓库中。
进一步地,所述语音外呼任务被调度至分布式集群中的目标服务器进行执行,所述任务管理模块具体还用于:
当所述语音外呼任务被执行时,在预设的任务状态表中记录所述语音外呼任务的执行状态,以禁止重复调度所述语音外呼任务。
进一步地,所述语音识别模块包括:
格式化单元,用于根据预设知识库,识别所述语音文本中的中心词,根据识别出的中心词对所述语音文本进行格式化处理,得到标记了各所述中心词的格式化文本;
关键词识别单元,用于识别并标记所述格式化文本中的关键词;
分组标记单元,用于对标记了各所述关键词的所述格式化文本中的词语进行分组标记;
词语纠错单元,用于对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
进一步地,所述词语纠错单元具体用于:
根据所述预设知识库中的历史问题库以及行业词典对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
第三方面,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如下操作步骤:
根据语音外呼任务的配置信息,配置所述语音外呼任务进行呼叫的用户数据以及所述用户数据所属的业务场景;
当所述语音外呼任务被执行时,根据所述业务场景,通过语音外呼系统呼叫所述用户数据对应的用户,以获得用户语音;
将所述用户语音转换为语音文本,对所述语音文本进行识别,得到意图文本;
对所述意图文本在所述业务场景预先关联的话术文本库中匹配出话术文本,并将所述话术文本对应的语音通过所述语音外呼系统与所述用户进行对话。
第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如下操作步骤:
根据语音外呼任务的配置信息,配置所述语音外呼任务进行呼叫的用户数据以及所述用户数据所属的业务场景;
当所述语音外呼任务被执行时,根据所述业务场景,通过语音外呼系统呼叫所述用户数据对应的用户,以获得用户语音;
将所述用户语音转换为语音文本,对所述语音文本进行识别,得到意图文本;
对所述意图文本在所述业务场景预先关联的话术文本库中匹配出话术文本,并将所述话术文本对应的语音通过所述语音外呼系统与所述用户进行对话。
本发明提供一种智能语音外呼方法、装置、计算机设备和存储介质,通过配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景,并在语音外呼任务被执行时,根据业务场景对应的话术配置信息,对所述用户数据对应的用户进行外呼,以实时获得用户语音数据;并通过对用户语音数据进行语音文本识别,得到用户意图,以及基于用户意图进行匹配相应业务场景下的话术文本,并将话术文本对应的语音与用户进行对话,由此提高了语音外呼工作的效率与准确度,极大地降低了语音外呼的人力成本。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提供的一种智能语音外呼方法的应用环境图;
图2示出了本发明实施例提供的一种智能语音外呼方法的流程图;
图3示出了图2所示步骤203的流程图;
图4示出了本发明实施例提供的一种智能语音外呼装置的结构图;
图5为本发明实施例提供的一种计算机设备的内部结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,除非上下文明确要求,否则整个说明书和权利要求书中的“包括”、“包含”等类似词语应当解释为包含的含义而不是排他或穷举的含义;也就是说,是“包括但不限于”的含义。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请提供的一种智能语音外呼方法,可以应用于如图1所示的应用环境中。其中,执行语音外呼方法的语音外呼平台100与至少一个业务系统200通信连接。业务系统200例如:营销CRM系统、催收机器人系统、智能客服系统、监控告警系统等。语音外呼平台100还与数据仓库300通信连接。语音外呼平台100从至少一个业务系统200传入的业务数据中抽取相应业务场景下的用户数据,并将用户数据按照业务场景存储到数据库300中。语音外呼平台100还用于与用户终端400通信以实现对用户终端400进行语音外呼。其中,语音外呼平台100可以提供各种功能,包括但不限于场景管理功能、话术管理功能、任务管理功能、录音管理功能等。语音外呼平台100可以根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景,并对语音外呼任务进行定时调度,当语音外呼任务被调度执行时,从数据仓库300中读取语音外呼任务进行呼叫的用户数据,根据业务场景对应的话术配置信息对用户数据对应的用户终端500进行语音外呼,并通过识别用户意图与用户进行语音交互。其中,语音外呼平台100可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,提供了一种智能语音外呼方法,以该方法应用于图1中的语音外呼平台100为例进行说明,如图2所示,该方法可以包括如下步骤:
201,根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景。
具体地,语音外呼平台接收语音外呼任务的配置信息,语音外呼任务的配置信息包括对语音外呼任务指定的数据批次号以及业务场景参数,语音外呼平台根据语音外呼任务的配置信息来配置语音外呼任务,并将语音外呼任务添加到任务队列中。
其中,数据批次号用于指示用户数据,数据批次号是在包含用户数据的业务数据批量上传到语音外呼平台时自动生成。用户数据可以包括用户的关键信息,关键信息例如用户姓名、用户年龄、电话号码以及用户相关的业务信息。业务场景参数用于指示用户数据所属的业务场景,业务场景可以包括但不限于:金融催收场景、金融营销场景、各类系统的告警场景、CRM会员营销场景等。
此外,语音外呼任务的配置信息还可以包括业务场景对应的话术配置信息,话术配置信息包括业务场景的开场白话术以及具有上下级交互关联关系的多个话术,以引导用户完成语音交互时的交互流程。其中,可以预先通过语音外呼平台的话术管理功能进行管理业务场景对应的话术配置信息,具体来说,话术管理功能可以支持用户在话术列表中指定某个业务场景所关联的话术文本,可以根据业务场景对应的话术配置信息确定业务场景关联的话术文本。
进一步地,可以在话术列表中配置每段话术对应的录音文件,形成话术与录音文件之间的配置关系,录音文件可以保存在FTP服务器或OSS服务器中。话术列表可以采用html的audio标签,并支持调用语音合成服务来进行试听录音。
本实施例中,通过根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景,进而后续自动执行语音外呼任务进行语音外呼,由此提高了语音外呼工作的效率,极大地降低了语音外呼的人力成本。
202,当语音外呼任务被调度执行时,根据业务场景对应的话术配置信息,对用户数据对应的用户进行外呼,以实时获得用户语音数据。
具体地,语音外呼平台对任务队列中的语音外呼任务进行定时调度与管理,当任务队列中的语音外呼任务被调度执行时,语音外呼平台根据语音外呼任务进行呼叫的用户数据所属的业务场景,从数据仓库中读取语音外呼任务进行呼叫的用户数据,通过语音外呼系统(VOIP)对用户数据对应的用户终端(例如手机、固定电话等)进行语音外呼,当用户终端接通后,根据业务场景对应的话术配置信息将开场白话术对应的语音播放给用户,以实时获取用户回复的语音,其中,可以通过创建匿名线程进行监听用户的语音消息。可以理解的是,当确定出进行呼叫的用户未接听,可以间隔预设时间重复拨打用户终端,若达到预设次数的拨打结果均指示用户未接听,则对该用户进行标记为拨打失败。
其中,不同业务场景的话术配置信息包括不同的开场白话术,开场白话术中配置有话术变量。例如,以金融催收场景为例,当需要对用户数据对应的用户进行语音催收时,可以将用户中的用户姓名、用户性别以及业务信息作为话术变量填入到开场白话术中,并转换成话术语音播放给用户,其中业务信息包括业务类型、偿还金额、偿还时间等。例如,播放给用户话术语音为“张先生您好,您的2020年09月的任性贷应还金额为2万元”。
在具体实施过程中,语音外呼平台可以通过spring的qz组件来完成任务队列中的语音外呼任务的定时调度与管理,并将调度结果记录到指定的结果表,其中可采用Echart或其他函数来进行分析任务的执行结果。
203,将用户语音数据转换为语音文本,对语音文本进行识别,得到意图文本。
具体地,语音外呼平台在通过语音外呼系统接入到用户语音后,可以通过调用语音识别引擎将用户语音转换成可识别的语音文本,之后可以通过自然语言处理(NLP)和预设知识库对语音文本进行识别处理,得到意图文本。
204,对意图文本在业务场景预先关联的话术文本库中匹配出话术文本,并将话术文本对应的语音与用户进行对话。
具体地,语音外呼平台可以利用预设知识库对用户语音进行语音文本识别出意图文本,对意图文本在业务场景预设的话术文本库中进行匹配出话术文本,并将话术文本对应的录音通过语音外呼系统播放给用户,实现语音外呼平台与用户的语音交互。
需要说明的是,在执行步骤204得到用户语音后,返回执行步骤203至步骤204,直至对话结束。
本发明实施例提供了一种智能语音外呼方法,通过配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景,并在语音外呼任务被执行时,根据业务场景对应的话术配置信息,对用户数据对应的用户进行外呼,以实时获得用户语音数据;并通过对用户语音数据进行语音文本识别,得到用户意图,以及基于用户意图进行匹配相应业务场景下的话术文本,并将话术文本对应的语音与用户进行对话,由此提高了语音外呼工作的效率与准确度,极大地降低了语音外呼的人力成本。
在一个实施例中,方法还包括:
在接收到外部应用系统上传的业务数据后,根据业务数据的业务场景抽取用户数据,并将用户数据按照业务场景对应存储到数据仓库中。
本实施例中,语音外呼平台可以提供数据上报接口,接口层采用http/tcp方式对外提供服务,接收外部应用系统通过Kafka实时方式或离线方式上传的业务数据,在接收到业务数据后,将业务数据通过业务参数分离,得到用户数据,生成待处理业务表(例如fisp_call_data)并导入到数据仓库中,并将待处理业务表中的用户数据的处理状态记录为未处理状态。
在一个实施例中,语音外呼任务被调度至分布式集群中的目标服务器进行执行,方法还可以包括:
当语音外呼任务被调度执行时,在预设的任务状态表中记录语音外呼任务的执行状态,以禁止重复调度语音外呼任务。
本实施例中,可以通过Spring的多线程并发调度执行语音外呼任务,在语音外呼任务并发过程中,即多台服务器在进行分布式调度语音外呼任务时,通过预设的任务状态表来记录语音外呼任务的执行状态。当执行一个语音外呼任务时,任务状态表中会记录该语音外呼任务的当前状态,若读取到该语音外呼任务的当前状态处于执行中,则不会执行该语音外呼任务,以此保证事务执行的一致性,从而保证语音外呼任务在执行过程中对外呼的用户只会执行一次,确保了数据执行的准确和有效性。
在一个实施例中,如图3所示,上述步骤203中对语音文本进行识别,得到意图文本,该过程可以包括步骤:
301,根据预设知识库,识别语音文本中的中心词,根据识别出的中心词对语音文本进行格式化处理,得到标记了各中心词的格式化文本。
具体地,步骤301的实现过程可以包括:
3011,对语音文本进行预处理。
本实施例中,为了简化处理过程以及便于快速地搜索特定的关键字信息可以根据需要对语音文本进行预处理,例如将语音文本中的空白串全部变为空或忽略,以句号为分界等,本实施例对具体的预处理过程不作限定。
3012,根据预设知识库从预处理后的语音文本中识别出中心词。
其中,预设知识库中包含通用词典、关键词词典、行业词典等。其中,行业词典为针对某个领域的词典,比如“借贷”,“基金”,“保险”等等,在每个行业词典中均包括该领域的词汇、词频、词频等级和词性等信息。
本实施例中,基于预设知识库使用python结巴分词工具对预处理后的语音文本进行分词处理,得到语音文本的分词结果。对分词结果中的各个词语在预设知识库中进行搜索匹配,确定出中心词。如此,通过分词处理并识别出中心词,将语音文本进行整体分析切割,分成“主谓宾”结构。
此外,当分词结果中的某个或某些词汇中的某几个汉字可以构成其他词汇时,可以以分词结果中的原词汇和构成的其他词汇为搜索词在预设知识库中进行搜索匹配,根据搜索匹配结果识别出语音文本中的中心词。
本实施例中,通过根据预设知识库从预处理后的语音文本中识别出中心词,相比较于使用通用词典而言,更能准确识别出中心词,进而提高后续用户意图识别的准确性。
3013,根据识别到的中心词对语音文本进行格式化处理,得到格式化文本,并标记格式化文本中的各个中心词。
其中,格式化处理包括但不限于顺序处理和文字纠错处理,例如对顺序颠倒的中心词进行调整顺序,对文字错误的中心词进行纠错,得到格式化文本,并对格式化文本中的各个中心词进行标记。本实施例对具体的格式化过程不作限定。
302,识别并标记格式化文本中的关键词。
具体地,在得到语音文本的格式化文本后,需要对格式化文本中的词汇进行关键字分析,以便于将不同格式化文本进行分类处理。在分析过程中,通过连接Elasticsearch引擎在预设知识库的行业关键词典中进行查询搜索,以识别出格式化文本中的关键词,并对关键词进行二次标记,即一次标记了格式化文本中的中心词,二次标记了格式化文本中的行业关键词。
303,对标记了各关键词的格式化文本中的词语进行分组标记。
具体地,经过关键字分析后,可以得到动词大多数情况,包括了格式化文本中的目标介词,以及大部分情况包括了格式化文本中的补充信息。而格式化文本中的约束主要根据关键字宾语和中心词判断的,剩下部分可处理为目标信息或补充信息,并利用分组标记的方法处理自然语言描述的格式化文本。在分组标记过程中可以将格式化文本的组成部分分为目标组块、服务组块、描述组块。其中:针对目标组块,将格式化文本中的约束根据关键词分析标记处理完成后,分组标记程序会标记出目标组块,包括将词语中的一元组数据与预设知识库中的目标组块库进行匹配形成矩阵数据。将目标组块在进行回归二元组的处理,迭代三次后,将一句话进行三份目标组块分析。并将三次的元组标记数据入知识库中的目标组块库保存,方便下次快速处理;针对服务组块,目标组块流程处理完成后,需要根据目标组块库的标记,判断一元、二元、三元标记的分组词语的服务组块,这里所谓的服务,是为了判断出基于这些词语可以为后续服务的短语词,可以快速处理,如“我需要贷款XX付”,那么这边经过三元处理后,为“我、需要贷款、XX付”,其中“XX付”为需要服务的词,在这边需要进行标记服务组块,为后续描述匹配做铺垫;针对描述组块:词语分词处理的每个标记环节,都会完成描述组块的处理,描述组块主要是对标记服务组块进行详细的说明以及变量处理,对变量级X处理的过程进行详细的逻辑描述,描述过程期间会使用算法查询知识库中的历史标记词组的描述信息,相同则会更新覆盖。
304,对分组标记后的格式化文本进行词语纠错,得到意图文本。
具体地,根据所述预设知识库中的历史问题库以及行业词典对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
本实施例中,在完成分组标记后,目前语句通顺,中心词清晰,若格式化过程有标记的错误文本,则对其结合知识库中用户问过的历史问题进行判断纠错,并结合行业词典来二次纠错。若没有相关的知识点存在,则会把纠错后的数据,放入到金融未标记的某分类的知识库中,后续通过人工、或是离线学习的方式进行自动标记或是人工标记,从而形成新的知识库体系。最终将语音识别后处理正确的文本反馈给下游。
本实施例中,由于智能语音外呼平台在语音识别过程中通过对语音文本进行格式化、关键词识别、分组标记以及纠错处理,相比于通过关键词匹配出语音文本中所表达的含义,能够确保语音文本识别具有较高的准确率。
综上,智能语音外呼平台通过语音外呼任务的用户数据配置、场景配置以及话术管理,每月外呼的用户数可达到400万,提供语音外呼服务可达5000万次,解决了18个语音交互场景,实现了对用户进行语音外呼的自动化处理,节省了人力资源,提高了语音外呼的工作效率,并提高了用户语音文本识别的准确率,提高了用户语音交互体验。
在一个实施例中,提供了一种智能语音外呼装置,如图4所示,该装置可以包括:
任务管理模块41,用于根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景;
语音外呼模块42,用于当语音外呼任务被调度执行时,根据业务场景对应的话术配置信息,对用户数据对应的用户进行外呼,以实时获得用户语音数据;
语音识别模块43,用于将用户语音数据转换为语音文本,对语音文本进行识别,得到意图文本;
话术匹配模块44,用于对意图文本在业务场景预先关联的话术文本库中匹配出话术文本;
语音外呼模块42,还用于将话术文本对应的语音与用户进行对话。
在一个实施例中,装置还包括:
数据导入模块40,用于在接收到外部应用系统上传的业务数据后,根据业务数据的业务场景抽取用户数据,并将用户数据按照业务场景对应存储到数据仓库中。
在一个实施例中,语音外呼任务被调度至分布式集群中的目标服务器进行执行,任务管理模块41具体还用于:
当语音外呼任务被调度执行时,在预设的任务状态表中记录语音外呼任务的执行状态,以禁止重复调度语音外呼任务。
在一个实施例中,语音识别模块43包括:
格式化单元,用于根据预设知识库,识别语音文本中的中心词,根据识别出的中心词对语音文本进行格式化处理,得到标记了各中心词的格式化文本;
关键词识别单元,用于识别并标记格式化文本中的关键词;
分组标记单元,用于对标记了各关键词的格式化文本中的词语进行分组标记;
词语纠错单元,用于对分组标记后的格式化文本进行词语纠错,得到意图文本。
在一个实施例中,词语纠错单元具体用于:
根据预设历史问题库和/或预设知识库对分组标记后的格式化文本进行词语纠错,得到意图文本。
需要说明的是:本实施例提供的智能语音外呼装置中,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,本实施例的智能语音外呼装置与上述实施例中的智能语音外呼方法实施例属于同一构思,其具体实现过程和有益效果详见智能语音外呼方法实施例,这里不再赘述。
图5为本发明实施例提供的计算机设备的内部结构图。该计算机设备可以是服务器,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种文本识别模型训练方法,或者,该计算机程序被处理器执行时以实现一种智能语音外呼方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景;
当语音外呼任务被调度执行时,根据业务场景对应的话术配置信息,对用户数据对应的用户进行外呼,以实时获得用户语音数据;
将用户语音数据转换为语音文本,对语音文本进行识别,得到意图文本;
对意图文本在业务场景预先关联的话术文本库中匹配出话术文本,并将话术文本对应的语音与用户进行对话。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,程序被处理器执行时实现如下操作步骤:
根据语音外呼任务的配置信息,配置语音外呼任务进行呼叫的用户数据以及用户数据所属的业务场景;
当语音外呼任务被调度执行时,根据业务场景对应的话术配置信息,对用户数据对应的用户进行外呼,以实时获得用户语音数据;
将用户语音数据转换为语音文本,对语音文本进行识别,得到意图文本;
对意图文本在业务场景预先关联的话术文本库中匹配出话术文本,并将话术文本对应的语音与用户进行对话。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种智能语音外呼方法,其特征在于,所述方法包括:
根据语音外呼任务的配置信息,配置所述语音外呼任务进行呼叫的用户数据以及所述用户数据所属的业务场景;
当所述语音外呼任务被执行时,根据所述业务场景对应的话术配置信息,对所述用户数据对应的用户进行外呼,以实时获得用户语音数据;
将所述用户语音数据转换为语音文本,对所述语音文本进行识别,得到意图文本,所述意图文本通过如下步骤得到:
根据预设知识库,识别所述语音文本中的中心词,根据识别出的中心词对所述语音文本进行格式化处理,得到标记了各所述中心词的格式化文本,
识别并标记所述格式化文本中的关键词,
对标记了各所述关键词的所述格式化文本中的词语进行分组标记,
对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本;对所述意图文本在所述业务场景预先关联的话术文本库中匹配出话术文本,并将所述话术文本对应的语音与所述用户进行对话。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在接收到外部应用系统上传的业务数据后,根据所述业务数据的业务场景抽取用户数据,并将所述用户数据按照所述业务场景对应存储到数据仓库中。
3.根据权利要求1所述的方法,其特征在于,所述语音外呼任务被调度至分布式集群中的目标服务器进行执行,所述方法还包括:
当所述语音外呼任务被执行时,在预设的任务状态表中记录所述语音外呼任务的执行状态,以禁止重复调度所述语音外呼任务。
4.根据权利要求1所述的方法,其特征在于,所述对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本,包括:
根据所述预设知识库中的历史问题库以及行业词典对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
5.一种智能语音外呼装置,其特征在于,所述装置包括:
任务管理模块,用于根据语音外呼任务的配置信息,配置所述语音外呼任务进行呼叫的用户数据以及所述用户数据所属的业务场景;
语音外呼模块,用于当所述语音外呼任务被执行时,根据所述业务场景对应的话术配置信息,对所述用户数据对应的用户进行外呼,以实时获得用户语音数据;
语音识别模块,用于将所述用户语音数据转换为语音文本,对所述语音文本进行识别,得到意图文本,所述意图文本通过如下步骤得到:
根据预设知识库,识别所述语音文本中的中心词,根据识别出的中心词对所述语音文本进行格式化处理,得到标记了各所述中心词的格式化文本,
识别并标记所述格式化文本中的关键词,
对标记了各所述关键词的所述格式化文本中的词语进行分组标记,
对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本;
话术匹配模块,用于对所述意图文本在所述业务场景预先关联的话术文本库中匹配出话术文本;
所述语音外呼模块,还用于将所述话术文本对应的语音与所述用户进行对话。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
数据导入模块,用于在接收到外部应用系统上传的业务数据后,根据所述业务数据的业务场景抽取用户数据,并将所述用户数据按照所述业务场景对应存储到数据仓库中。
7.根据权利要求5或6所述的装置,其特征在于,所述语音识别模块包括:
格式化单元,用于根据预设知识库,识别所述语音文本中的中心词,根据识别出的中心词对所述语音文本进行格式化处理,得到标记了各所述中心词的格式化文本;
关键词识别单元,用于识别并标记所述格式化文本中的关键词;
分组标记单元,用于对标记了各所述关键词的所述格式化文本中的词语进行分组标记;
词语纠错单元,用于对分组标记后的所述格式化文本进行词语纠错,得到所述意图文本。
8.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述的智能语音外呼方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4任一所述的智能语音外呼方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011341486.7A CN112492111B (zh) | 2020-11-25 | 2020-11-25 | 一种智能语音外呼方法、装置、计算机设备和存储介质 |
CA3140472A CA3140472A1 (en) | 2020-11-25 | 2021-11-25 | Intelligent voice calling out method, apparatus, computer device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011341486.7A CN112492111B (zh) | 2020-11-25 | 2020-11-25 | 一种智能语音外呼方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112492111A CN112492111A (zh) | 2021-03-12 |
CN112492111B true CN112492111B (zh) | 2022-09-06 |
Family
ID=74934455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011341486.7A Active CN112492111B (zh) | 2020-11-25 | 2020-11-25 | 一种智能语音外呼方法、装置、计算机设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112492111B (zh) |
CA (1) | CA3140472A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783439B (zh) * | 2020-06-28 | 2022-10-04 | 平安普惠企业管理有限公司 | 人机交互对话处理方法、装置、计算机设备及存储介质 |
CN113422877B (zh) * | 2021-06-22 | 2022-11-15 | 中国平安财产保险股份有限公司 | 基于业务场景实现号码外呼的方法及装置、电子设备 |
CN113452853B (zh) * | 2021-07-06 | 2022-11-18 | 中国电信股份有限公司 | 语音交互方法及装置、电子设备、存储介质 |
CN113610628A (zh) * | 2021-07-28 | 2021-11-05 | 浙江惠瀜网络科技有限公司 | 贷前风险事件调查方法、装置及电子设备 |
CN113779217A (zh) * | 2021-09-03 | 2021-12-10 | 科大国创云网科技有限公司 | 一种基于人机交互的智能语音外呼业务方法及系统 |
CN113992806A (zh) * | 2021-10-25 | 2022-01-28 | 百融至信(北京)征信有限公司 | 一种智能语音rpa机器人外呼方法及装置 |
CN113824828B (zh) * | 2021-10-29 | 2024-03-08 | 河北科燃信息科技股份有限公司 | 一种拨话方法、装置、电子设备及计算机可读存储介质 |
CN113905137A (zh) * | 2021-11-11 | 2022-01-07 | 北京沃东天骏信息技术有限公司 | 一种通话方法及装置、存储介质 |
CN114338926A (zh) * | 2021-12-29 | 2022-04-12 | 同道精英(天津)信息技术有限公司 | 一种用于寻访目标人员的智能语音呼叫系统 |
CN114611486B (zh) * | 2022-03-09 | 2022-12-16 | 上海弘玑信息技术有限公司 | 信息抽取引擎的生成方法及装置、电子设备 |
CN115134466B (zh) * | 2022-06-07 | 2024-08-09 | 马上消费金融股份有限公司 | 意图识别方法、装置及电子设备 |
CN115567645A (zh) * | 2022-08-10 | 2023-01-03 | 科大讯飞华南有限公司 | 基于智能外呼机器人的语音数据处理方法及装置 |
CN115514848A (zh) * | 2022-09-21 | 2022-12-23 | 平安银行股份有限公司 | 通话方法、装置、计算机设备及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696558A (zh) * | 2020-06-24 | 2020-09-22 | 深圳壹账通智能科技有限公司 | 智能外呼方法、装置、计算机设备及存储介质 |
CN111967885A (zh) * | 2020-08-18 | 2020-11-20 | 中国银行股份有限公司 | 智能外呼处理方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110351443A (zh) * | 2019-06-17 | 2019-10-18 | 深圳壹账通智能科技有限公司 | 智能外呼处理方法、装置、计算机设备及存储介质 |
CN111949784A (zh) * | 2020-08-14 | 2020-11-17 | 中国工商银行股份有限公司 | 基于意图识别的外呼方法及装置 |
-
2020
- 2020-11-25 CN CN202011341486.7A patent/CN112492111B/zh active Active
-
2021
- 2021-11-25 CA CA3140472A patent/CA3140472A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696558A (zh) * | 2020-06-24 | 2020-09-22 | 深圳壹账通智能科技有限公司 | 智能外呼方法、装置、计算机设备及存储介质 |
CN111967885A (zh) * | 2020-08-18 | 2020-11-20 | 中国银行股份有限公司 | 智能外呼处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112492111A (zh) | 2021-03-12 |
CA3140472A1 (en) | 2022-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112492111B (zh) | 一种智能语音外呼方法、装置、计算机设备和存储介质 | |
US7606714B2 (en) | Natural language classification within an automated response system | |
CN111105782B (zh) | 会话交互处理方法、装置、计算机设备和存储介质 | |
US10965812B1 (en) | Analysis and classification of unstructured computer text for generation of a recommended conversation topic flow | |
CN110287297A (zh) | 对话答复方法、装置、计算机设备及计算机可读存储介质 | |
CN111739519B (zh) | 基于语音识别的对话管理处理方法、装置、设备及介质 | |
CN115665325B (zh) | 一种智能外呼的方法、装置、电子设备及存储介质 | |
CN111597818A (zh) | 呼叫质检方法、装置、计算机设备和计算机可读存储介质 | |
US11880666B2 (en) | Generating conversation descriptions using neural networks | |
CN111182162A (zh) | 基于人工智能的电话质检方法、装置、设备和存储介质 | |
CN110890088A (zh) | 语音信息反馈方法、装置、计算机设备和存储介质 | |
CN112235470B (zh) | 基于语音识别的来电客户跟进方法、装置及设备 | |
CN111858854A (zh) | 一种基于历史对话信息的问答匹配方法及相关装置 | |
CN113297365A (zh) | 一种用户意向判定方法、装置、设备及存储介质 | |
CN116631412A (zh) | 一种通过声纹匹配判断语音机器人的方法 | |
CN113111157B (zh) | 问答处理方法、装置、计算机设备和存储介质 | |
CN113709313B (zh) | 客服通话数据智能质检方法、装置、设备及介质 | |
CN112860873B (zh) | 智能应答方法、装置及存储介质 | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
CN114091477A (zh) | 一种数据处理方法及装置 | |
CN117875292A (zh) | 金融知识智能问答方法、系统、终端设备和存储介质 | |
CN111552785A (zh) | 人机交互系统数据库更新方法、装置、计算机设备和介质 | |
CN108959327B (zh) | 一种业务处理方法、装置及计算机可读存储介质 | |
CN114239602A (zh) | 会话方法、装置和计算机程序产品 | |
US11064072B1 (en) | Caller state determination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 834, Yingying building, No.99, Tuanjie Road, yanchuangyuan, Jiangbei new district, Nanjing, Jiangsu Province Applicant after: Nanjing Xingyun Digital Technology Co.,Ltd. Address before: Room 834, Yingying building, No.99, Tuanjie Road, yanchuangyuan, Jiangbei new district, Nanjing, Jiangsu Province Applicant before: Suning financial technology (Nanjing) Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |