CN117411970B - 一种基于声音处理的人机耦合客服控制方法及系统 - Google Patents
一种基于声音处理的人机耦合客服控制方法及系统 Download PDFInfo
- Publication number
- CN117411970B CN117411970B CN202311341325.1A CN202311341325A CN117411970B CN 117411970 B CN117411970 B CN 117411970B CN 202311341325 A CN202311341325 A CN 202311341325A CN 117411970 B CN117411970 B CN 117411970B
- Authority
- CN
- China
- Prior art keywords
- customer service
- time
- service
- machine
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008878 coupling Effects 0.000 title claims abstract description 154
- 238000010168 coupling process Methods 0.000 title claims abstract description 154
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 154
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 title claims abstract description 37
- 238000006243 chemical reaction Methods 0.000 claims abstract description 76
- 230000008451 emotion Effects 0.000 claims description 79
- 210000001260 vocal cord Anatomy 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000008909 emotion recognition Effects 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 7
- 238000005215 recombination Methods 0.000 claims description 6
- 230000006798 recombination Effects 0.000 claims description 6
- 230000001502 supplementing effect Effects 0.000 claims description 6
- 230000008447 perception Effects 0.000 abstract description 2
- 230000009286 beneficial effect Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000036651 mood Effects 0.000 description 4
- 206010027951 Mood swings Diseases 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/527—Centralised call answering arrangements not requiring operator intervention
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Business, Economics & Management (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Marketing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明提供了一种基于声音处理的人机耦合客服控制方法包括:将可服务项目相同的机器客服和人工客服建立人机耦合客服组,分别采集每一人个工组长客服对应的声音特征,为对应的人机耦合客服组中的机器客服建立语音转换模型,根据呼入用户的服务需求为呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户切换服务客服,将目标人机耦合客服组发出的实时音频输入到语音转换模型中进行音频转换生成服务音频并播放,通过在客服组中建立一个语音转换模型,将人耦合客服组的发出的音频转换为固定人员的声音,使得用户无法察觉到机器和人工之间的切换,形成客服系统语音无感知人工耦合工作模式,提升客服质量和体验感及满意度。
Description
技术领域
本发明涉及人机耦合技术领域,特别涉及一种基于声音处理的人机耦合客服控制方法及系统。
背景技术
客服(Clientele Services)是指客户服务工作(接受顾客咨询,帮顾客解答疑惑以及服务内容推广和推送服务等),或者是承担客户服务工作的机构,随着互联网的飞速发展,人们服务意识的提高,通讯客服及网络客服已经普及到各行各业,深入到日常商业服务的各个环节。
目前的客服系统,通常由机器客服和人工客服组成,其中机器客服一般是用来引导顾客进行操作的;或者播放式无对话及低对话能力的语音进行,人工客服是通常是用来实际解答顾客疑问的,当机器客服完成引导或者由用户按下选择键后接入人工客服,也就是顾客在与客服通话前期是与机器通话,后期是与人工通话,这样的情况会使客户在前期等待的过程中产生不耐烦的心理;以及由于机器客服低对话能力导致业务流失和客服满意度下降,且不同的人工客服在说话时的声音也不同,容易影响顾客对人工客服的第一印象。
因此,本发明提供了一种基于声音处理的人机耦合客服控制方法及系统。
发明内容
本发明一种基于声音处理的人机耦合客服控制方法,通过在客服组中建立一个语音转换模型,将人耦合客服组的发出的音频转换为固定人员的声音,使得用户无法察觉到机器和人工之间的切换,形成客服系统语音无感知人工耦合工作模式,提升客服质量和体验感及满意度。
本发明提供了一种基于声音处理的人机耦合客服控制方法,包括:
步骤1:将可服务项目相同的机器客服和人工客服归为同一服务类,并分别为每一服务类配置一名人工组长客服建立人机耦合客服组;
步骤2:分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型;
步骤3:根据呼入用户的服务需求为所述呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户实施机/人和人/机切换服务客服;
步骤4:将目标人机耦合客服组发出的实时音频输入到所述语音转换模型中进行音频转换生成服务音频,向所述呼入用户播放所述服务音频。
在一种可实施的方式中,
所述步骤1,包括:
步骤1-1:获取每一机器客服对应的第一可服务项目,以及获取每一人工客服对应的第二可服务项目,将客服务项目相同的机器客服和人工记作同一服务类,分别统计每一服务类包含的机器客服的第一数量,以及每一服务类包含的人工客服的第二数量;
步骤1-2:分别获取每一所述服务类对应的呼入频率,基于所述呼入频率由高到低的顺序为每一服务类建立第一重要权重,分别获取每一服务类对应的平均呼入时长,基于所述平均呼入时长由高到低的顺序为每一服务类建立第二重要权重;
步骤1-3:基于所述第一重要权重估测每一所述服务类对应的需求数量范围,结合所述第一数量,为每一服务类匹配相应数量的机器客服,建立机器客服组;
步骤1-4:根据所述第二重要权重结合所述第二数量,为所述机器客服组配置相应的数量人工客服,生成人机耦合客服组。
在一种可实施的方式中,
所述步骤2,包括:
步骤2-1:分别获取并解析每一人工客服对应的声音特征,建立每一人工客服对应的特征基频曲线,在所述特征基频曲线中获取对应人工客服的声带开启点并进行第一标记,以及在所述特征基频曲线中获取对应人工客服的声带闭合点并进行第二标记,
步骤2-2:根据同一特征基频曲线中包含的所有的第一标记建立第一曲线,根据同一特征基频曲线中包含的所有的第二标记建立第二曲线,在所述第一曲线中获取相邻两个第一标记之间的时间差,建立对应人工客服的语速信息,在所述第二曲线中获取每一第二标记对应的持续时长,建立对应人工客服的语调信息;
步骤2-3:根据所述语速信息和语调信息建立对应的人工客服的基础语音模型,控制所述基础语音模型朗读预设文本,得到所述基础语音模型的朗读信息,根据所述朗读信息对对应人工客服进行发音标准评价,得到每一人工客服对应的发音评价表;
步骤2-4:基于所述发音评价表修正所述基础语音模型,得到每一人工客服对应的语音模型,分别提取每一人机耦合客服组中人工组长客服,基于每一人工组长客服的语音模型分别为每一人工组长客服建立对应的语音转换模型,分别为每一人机耦合客服组匹配相应的语音转换模型。
在一种可实施的方式中,
所述步骤3,包括:
步骤3-1:当呼入用户接入客服系统时,采集所述呼入用户的实时语音,对所述实时语音进行文字识别得到所述呼入用户的语音关键词,对语音关键词进行重组得到对应呼入用户的服务需求,基于所述服务需求为所述呼入用户匹配相应的目标人机耦合客服组;
步骤3-2:将所述呼入用户接入目标人机耦合客服组,对所述实时语音进行文字转换以及情绪识别得到实时文字和实时情绪特征,基于时间顺序对所述实时文字进行排序得到所述呼入用户的实时文字序列,基于所述实时情绪特征建立所述呼入用户的情绪波动信息;
步骤3-3:对所述实时文字序列进行分词处理得到若干个实时词语,利用单位时长将所述情绪波动信息划分为若干个短时情绪,根据每一实时词语对应的生成时间,将所述实时词语和短时情绪进行匹配,得到若干个情绪词;
步骤3-4:对所述情绪词进行语句重组得到重组语句,对所述重组语句进行语义分析,得到所述呼入用户的实时需求,当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
在一种可实施的方式中,
所述步骤4,包括:
步骤4-1:当所述呼入用户接入所述目标人机耦合客服组中时,获取所述目标人机耦合客服组发出的实时音频以及所述实时音频的音频来源;
步骤4-2:当所述音频来源为机器客服时,将所述实时音频输入到所述音频转换模型中进行音频转换,生成服务音频;
步骤4-3:当所述音频来源为人工客服时,对所述实时音频进行降噪处理,将降噪后的实时音频输入到所述音频转换模型中进行音频转换,生成服务音频;
步骤4-4:向所述呼入用户播放所述服务音频,以及获取所述呼入用户与目标人机耦合客服组的对话信息,将所述对话信息进行存储。
在一种可实施的方式中,
还包括:
分别为每一所述人机耦合客服组建立候补组长客服;
当所述人机耦合客服组对应的人工组长客服离线时,获取对应候补组长客服对应的候补语音模型;
基于所述候补语音模型为对应的人机耦合客服组建立候补转换模型,为对应的人机耦合客服组匹配相应的候补转换模型。
在一种可实施的方式中,
所述步骤3-4,包括:
步骤3-41:分别获取每一情绪词对应的词性,根据词性分别为每一情绪词建立词性标签,根据每一实时词语在所述实时文字序列中的序列位置,将具有相邻关系的第一情绪词和第二情绪词建立匹配标签;
步骤3-42:解析所述实时文字序列得到若干个语句,分别获取每一语句对应的语句格式,建立语句框架,将所述情绪词输入到所述语句框架中得到若干个第一语句,基于匹配标签分别调节每一情绪词在对应第一语句中的位置得到若干个第二语句;
步骤3-43:基于所述第二语句中每一情绪词对应的词性标签,对所述第二语句进行语义分析,得到所述呼入用户的实时需求;
步骤3-44:当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
在一种可实施的方式中,
包括:
在预设时间段内采集呼入用户接入不同人机耦合客服组对应的等待时长,基于所述等待时长建立补充重要权重;
提取补充重要权重大于预设重要权重的待补充人机耦合客服组,为所述待补充人机耦合客服组补充相应的机器客服。
本发明提供了一种基于声音处理的人机耦合客服控制系统,包括:
分类配置模块,用于将可服务项目相同的机器客服和人工客服归为同一服务类,并分别为每一服务类配置一名人工组长客服建立人机耦合客服组;
模型建立模块,用于分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型;
服务执行模块,用于根据呼入用户的服务需求为所述呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户切换服务客服;
语音转换模块,用于将目标人机耦合客服组发出的实时音频输入到所述语音转换模型中进行音频转换生成服务音频,向所述呼入用户播放所述服务音频。
在一种可实施的方式中,
所述服务执行模块,包括:
第一执行单元,用于当呼入用户接入客服系统时,采集所述呼入用户的实时语音,对所述实时语音进行文字识别得到所述呼入用户的语音关键词,对语音关键词进行重组得到对应呼入用户的服务需求,基于所述服务需求为所述呼入用户匹配相应的目标人机耦合客服组;
第二执行单元,用于将所述呼入用户接入目标人机耦合客服组,对所述实时语音进行文字转换以及情绪识别得到实时文字和实时情绪特征,基于时间顺序对所述实时文字进行排序得到所述呼入用户的实时文字序列,基于所述实时情绪特征建立所述呼入用户的情绪波动信息;
第三执行单元,用于对所述实时文字序列进行分词处理得到若干个实时词语,利用单位时长将所述情绪波动信息划分为若干个短时情绪,根据每一实时词语对应的生成时间,将所述实时词语和短时情绪进行匹配,得到若干个情绪词;
第四执行单元,用于对所述情绪词进行语句重组得到重组语句,对所述重组语句进行语义分析,得到所述呼入用户的实时需求,当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
本发明可以实现的有益效果为:首先将可以进行相同服务的机器客服和人工客服进行归类,并选取一名人工组长客服,从而建立人机耦合客服组,为了提高呼入用户的体验感和满意度,根据人工组长客服的声音特征为人机耦合客服组建立语音转换模型,从而在人机耦合客服组和呼入用户对话时通过语音转换模型将人机耦合客服组发出的实时音频转换为人工组长客服的声音,并且在通过过程中还可以根据呼入用户的服务需求随时切换服务客服,这样一来由于在通话过程中人机耦合客服组发出的声音是不变的,所以在切换客服的过程中用户无法察觉到已经进行了切换,从而形成了客服语音无感知人工耦合工作模式,给提升呼入用户对人机耦合客服组的第一印象,从而提高了沟通的效率,促进了沟通的有效性。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于声音处理的人机耦合客服控制方法的工作流程示意图;
图2为本发明实施例中一种基于声音处理的人机耦合客服控制系统的组成示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1
本实施例提供了一种基于声音处理的人机耦合客服控制方法,如图1所示,包括:
一种基于声音处理的人机耦合客服控制方法,其特征在于,包括:
步骤1:将可服务项目相同的机器客服和人工客服归为同一服务类,并分别为每一服务类配置一名人工组长客服建立人机耦合客服组;
步骤2:分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型;
步骤3:根据呼入用户的服务需求为所述呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户切换服务客服;
步骤4:将目标人机耦合客服组发出的实时音频输入到所述语音转换模型中进行音频转换生成服务音频,向所述呼入用户播放所述服务音频。
该实例中,可服务项目表示机器客服或人工客服可以执行的服务项目;
该实例中,每一个人机耦合客服组中含有若干个人工客服和若干个机器客服,但是人工组长客服有且仅有一个;
该实例中,人工组长客服表示人机耦合客服组中一个特定的人工客服;
该实例中,一个人工组长客服对应一个声音特征;
该实例中,语音转换模型可以将机器客服的声音转换为人工组长客服的声音,还可以将人工客服的声音转换为人工组长客服的声音;
该实例中,根据呼入用户的实时需求为呼入用户切换服务客服包括:将机器客服切换为人工客服以及将人工客服切换为机器客服;
该实例中,实时音频表示目标人机耦合客服组发出的音频,可以为机器客服发出,也可以为人工客服发出。
上述技术方案的工作原理以及有益效果:首先将可以进行相同服务的机器客服和人工客服进行归类,并选取一名人工组长客服,从而建立人机耦合客服组,为了提高呼入用户的体验感和满意度,根据人工组长客服的声音特征为人机耦合客服组建立语音转换模型,从而在人机耦合客服组和呼入用户对话时通过语音转换模型将人机耦合客服组发出的实时音频转换为人工组长客服的声音,并且在通过过程中还可以根据呼入用户的服务需求随时切换服务客服,这样一来由于在通话过程中人机耦合客服组发出的声音是不变的,所以在切换客服的过程中用户无法察觉到已经进行了切换,从而形成了客服语音无感知人工耦合工作模式,给提升呼入用户对人机耦合客服组的第一印象,从而提高了沟通的效率,促进了沟通的有效性。
实施例2
在实施例1的基础上,所述一种基于声音处理的人机耦合客服控制方法,所述步骤1,包括:
步骤1-1:获取每一机器客服对应的第一可服务项目,以及获取每一人工客服对应的第二可服务项目,将客服务项目相同的机器客服和人工记作同一服务类,分别统计每一服务类包含的机器客服的第一数量,以及每一服务类包含的人工客服的第二数量;
步骤1-2:分别获取每一所述服务类对应的呼入频率,基于所述呼入频率由高到低的顺序为每一服务类建立第一重要权重,分别获取每一服务类对应的平均呼入时长,基于所述平均呼入时长由高到低的顺序为每一服务类建立第二重要权重;
步骤1-3:基于所述第一重要权重估测每一所述服务类对应的需求数量范围,结合所述第一数量,为每一服务类匹配相应数量的机器客服,建立机器客服组;
步骤1-4:根据所述第二重要权重结合所述第二数量,为所述机器客服组配置相应的数量人工客服,生成人机耦合客服组。
该实例中,第一可服务项目表示机器客服可以执行的服务,第二可服务项目表示人工客服可以执行的服务,其中的“第一”“第二”是用来区分两个不同的可服务项目,不具有比较或者排序的作用;
该实例中,呼入频率表示一个服务类在24小时内被呼入的平均次数;
该实例中,第一重要权重越大对应服务类的呼入频率越高;
该实例中,平均呼入时长表示一个服务类在24小时内的多次服务过程中的平均通话时长;
该实例中,第二重要权重越大对应服务类的平均呼入时长越长。
该实例中,为每一服务类匹配相应数量的机器客服的过程包括:判断第一所述数量是否在对应的需求数量范围内,若在,为对应的服务类匹配与所述第一数量相等的机器客服,若不在,则判断所述第一数量是否大于对应的需求数量范围,若所述第一数量大于对应的需求数量范围,获取所述需求数量范围的中位数,为对应的服务类匹配与所述中位数相等的机器客服,若所述第一数量小于对应的需求数量范围,解析对应的服务类,得到对应服务类对应的若干个子可服务项目,获取可执行所述子可服务项目的候补机器客服,以及对应需求数量范围的下限值,为对应的服务类匹配与所述下限值相等的机器客服。
上述技术方案的工作原理以及有益效果:为了进一步保证客服服务的有效性,最大限度的减少呼入用户的等待时长,先根据机器客服和人工客服的可服务项目将机器客服和人工客服进行分类,然后根据不同服务类的呼入频率来为该服务类匹配相应数量的机器客服,根据不同服务类的平均呼入时长来为该服务类匹配相应数量的人工客服,从而将机器客服和人工客服的资源进行合理运用,避免出现客服不足或客服冗余的现象。
实施例3
在实施例1的基础上,所述一种基于声音处理的人机耦合客服控制方法,所述步骤2,包括:
步骤2-1:分别获取并解析每一人工客服对应的声音特征,建立每一人工客服对应的特征基频曲线,在所述特征基频曲线中获取对应人工客服的声带开启点并进行第一标记,以及在所述特征基频曲线中获取对应人工客服的声带闭合点并进行第二标记,
步骤2-2:根据同一特征基频曲线中包含的所有的第一标记建立第一曲线,根据同一特征基频曲线中包含的所有的第二标记建立第二曲线,在所述第一曲线中获取相邻两个第一标记之间的时间差,建立对应人工客服的语速信息,在所述第二曲线中获取每一第二标记对应的持续时长,建立对应人工客服的语调信息;
步骤2-3:根据所述语速信息和语调信息建立对应的人工客服的基础语音模型,控制所述基础语音模型朗读预设文本,得到所述基础语音模型的朗读信息,根据所述朗读信息对对应人工客服进行发音标准评价,得到每一人工客服对应的发音评价表;
步骤2-4:基于所述发音评价表修正所述基础语音模型,得到每一人工客服对应的语音模型,分别提取每一人机耦合客服组中人工组长客服,基于每一人工组长客服的语音模型分别为每一人工组长客服建立对应的语音转换模型,分别为每一人机耦合客服组匹配相应的语音转换模型。
该实例中,特征基频曲线表示将人工客服发出的声音分解为若干个正弦波所得到的曲线;
该实例中,声带开启点表示人工客服在开始发声时声带开启时对应的时间点,声带闭合点表示人工客服在停止发声时声带关闭时对应的时间点;
该实例中,第一标记表示将声带开启点标记为红色,第二标记表示将声带闭合点标记为绿色;
该实例中,第一曲线表示将所有的第一标记进行连接所生成的曲线,第二曲线表示将所有的第二标记进行连接所生成的曲线;
该实例中,时间差越大对应人工客服的语速越慢;
该实例中,持续时长越长对应人工客服的语调越低;
该实例中,每一个人工客服对应一个语音模型;
该实例中,看着基础语音模型朗读预设文本,然后对人工客服进行发音标准平均的目的是:判断人工客服的发音是否准确,若发音不标准,后续进行发音纠正。
上述技术方案的工作原理以及有益效果:为了保障服务质量,给呼入用户提供良好的体验,先采集每一人工客服的声音特征,进而对人工客服的声音特征进行处理建立一个基础语音模型,然后由基础语音模型朗读预设文本,对人工客服的发音进行评价,进而根据发音评价表来修正基础语音模型,建立人工客服的语音模型,为了达到服务语音统一的目的,根据每一人机耦合客服组中人工组长客服的语音模型来建立语音转换模型,由此便可以为每一人机都和客服组匹配相应的语音转换模型,在人机耦合客服组与呼入人员通话时,可以将通话音频转换为人工组长客服的声音,给呼入用户一个全新的体验。
实施例4
在实施例1的基础上,所述一种基于声音处理的人机耦合客服控制方法,所述步骤3,包括:
步骤3-1:当呼入用户接入客服系统时,采集所述呼入用户的实时语音,对所述实时语音进行文字识别得到所述呼入用户的语音关键词,对语音关键词进行重组得到对应呼入用户的服务需求,基于所述服务需求为所述呼入用户匹配相应的目标人机耦合客服组;
步骤3-2:将所述呼入用户接入目标人机耦合客服组,对所述实时语音进行文字转换以及情绪识别得到实时文字和实时情绪特征,基于时间顺序对所述实时文字进行排序得到所述呼入用户的实时文字序列,基于所述实时情绪特征建立所述呼入用户的情绪波动信息;
步骤3-3:对所述实时文字序列进行分词处理得到若干个实时词语,利用单位时长将所述情绪波动信息划分为若干个短时情绪,根据每一实时词语对应的生成时间,将所述实时词语和短时情绪进行匹配,得到若干个情绪词;
步骤3-4:对所述情绪词进行语句重组得到重组语句,对所述重组语句进行语义分析,得到所述呼入用户的实时需求,当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
该实例中,实时文字序列是根据呼入用户发出的声音实时变化的;
该实例中,情绪波动信息是将实时情绪特征按照时间进行排序后所得到的;
该实例中,分词处理表示将实时文字序列划分为若干个词语的过程;
该实例中,实时词语是实时文字序列中的一个词语;
该实例中,单位时长可以为10秒;
该实例中,每一个实时词语对应一个生成时间;
该实例中,生成情绪词的目的是:便于更精确的分析呼入用户的需求。
上述技术方案的工作原理以及有益效果:为了给呼入用户更好的体验,当呼入用户接入到客服系统时,采集呼入用户的实时语音,对实时语音进行文字识别,从而可以得到呼入用户的语音关键词,将语音关键词进行重组可以得到呼入用户的服务需求,然后根据服务需求为呼入用户接入相应的目标人机耦合客服组中,为了快速解决呼入用户的问题,达到呼入用户的目的,对呼入用户的实时语音进行文字转换以及进行情绪识别,然后再通过排序的方式来建立实时文字序列和情绪波动信息,然后对实时文字序列进行分词处理,对情绪波动信息进行分割,再将二者进行重组可生成若干个情绪词,最后对情绪词进行重组,可以得到重组语句,通过对重组语句进行语义分析来确定呼入用户的实时需求,根据呼入用户的实时需求对呼入用户进行相应的服务,这样一来可以根据呼入用户的需求在短时间内切换相应的客服来进行服务,提高了服务的效率。
实施例5
在实施例1的基础上,所述一种基于声音处理的人机耦合客服控制方法,所述步骤4,包括:
步骤4-1:当所述呼入用户接入所述目标人机耦合客服组中时,获取所述目标人机耦合客服组发出的实时音频以及所述实时音频的音频来源;
步骤4-2:当所述音频来源为机器客服时,将所述实时音频输入到所述音频转换模型中进行音频转换,生成服务音频;
步骤4-3:当所述音频来源为人工客服时,对所述实时音频进行降噪处理,将降噪后的实时音频输入到所述音频转换模型中进行音频转换,生成服务音频;
步骤4-4:向所述呼入用户播放所述服务音频,以及获取所述呼入用户与目标人机耦合客服组的对话信息,将所述对话信息进行存储。
该实例中,音频来源包含机器客服来源和人工客服来源;
该实例中,对实时音频进行降噪处理的目的是:避免外界环境影响对话效果。
上述技术方案的工作原理以及有益效果:当呼入用户接入到目标人机耦合客服组中后,若呼入用户正在与机器客服对话,那么将机器客服发出的实时音频输入到音频转换模型中进行音频转换,从而生成服务音频,若呼入用户正在与人工客服对话,那么将人工客服发出的实时音频先进行降噪再进行音频转换,生成服务音频,同时为了进一步保证服务质量,将呼入用户与目标人机都和客服组之间的对话信息进行存储,便于后续进行二次服务。
实施例6
在实施例3的基础上,所述一种基于声音处理的人机耦合客服控制方法,还包括:
分别为每一所述人机耦合客服组建立候补组长客服;
当所述人机耦合客服组对应的人工组长客服离线时,获取对应候补组长客服对应的候补语音模型;
基于所述候补语音模型为对应的人机耦合客服组建立候补转换模型,为对应的人机耦合客服组匹配相应的候补转换模型。
该实例中,每一个人机耦合客服组可以配置多名候补组长客服。
上述技术方案的工作原理以及有益效果:为了进一步切合实际通话,避免人工组长客服离线导致对应的人机耦合客服组的服务音频失灵,提前为每一人机耦合客服组建立候补组长客服,当人工组长客服离线时,获取候补组长客服对应的候补语音模型,进而由该候补语音模型代替原来的语音转换模型,进行相应的语音转换工作。
实施例7
在实施例4的基础上,所述一种基于声音处理的人机耦合客服控制方法,其特征在于,所述步骤3-4,包括:
步骤3-41:分别获取每一情绪词对应的词性,根据词性分别为每一情绪词建立词性标签,根据每一实时词语在所述实时文字序列中的序列位置,将具有相邻关系的第一情绪词和第二情绪词建立匹配标签;
步骤3-42:解析所述实时文字序列得到若干个语句,分别获取每一语句对应的语句格式,建立语句框架,将所述情绪词输入到所述语句框架中得到若干个第一语句,基于匹配标签分别调节每一情绪词在对应第一语句中的位置得到若干个第二语句;
步骤3-43:基于所述第二语句中每一情绪词对应的词性标签,对所述第二语句进行语义分析,得到所述呼入用户的实时需求;
步骤3-44:当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
实施例8
在实施例2的基础上,所述一种基于声音处理的人机耦合客服控制方法,还包括:
在预设时间段内采集呼入用户接入不同人机耦合客服组对应的等待时长,基于所述等待时长建立补充重要权重;
提取补充重要权重大于预设重要权重的待补充人机耦合客服组,为所述待补充人机耦合客服组补充相应的机器客服。
该实例中,预设重要权重可以为最大权重的50%。
上述技术方案的工作原理以及有益效果:为了避免呼入用户长时间等待,在实际工作的过程中根据呼入用户的等待时长来调整人机耦合客服组中机器客服的数量,减少等待时长,提高呼入用户的使用感受。
实施例9
本实施例提供了一种基于声音处理的人机耦合客服控制系统,如图2所示,包括:
分类配置模块,用于将可服务项目相同的机器客服和人工客服归为同一服务类,并分别为每一服务类配置一名人工组长客服建立人机耦合客服组;
模型建立模块,用于分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型;
服务执行模块,用于根据呼入用户的服务需求为所述呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户切换服务客服;
语音转换模块,用于将目标人机耦合客服组发出的实时音频输入到所述语音转换模型中进行音频转换生成服务音频,向所述呼入用户播放所述服务音频。
该实例中,可服务项目表示机器客服或人工客服可以执行的服务项目;
该实例中,每一个人机耦合客服组中含有若干个人工客服和若干个机器客服,但是人工组长客服有且仅有一个;
该实例中,人工组长客服表示人机耦合客服组中一个特定的人工客服;
该实例中,一个人工组长客服对应一个声音特征;
该实例中,语音转换模型可以将机器客服的声音转换为人工组长客服的声音,还可以将人工客服的声音转换为人工组长客服的声音;
该实例中,根据呼入用户的实时需求为呼入用户切换服务客服包括:将机器客服切换为人工客服以及将人工客服切换为机器客服;
该实例中,实时音频表示目标人机耦合客服组发出的音频,可以为机器客服发出,也可以为人工客服发出。
上述技术方案的工作原理以及有益效果:首先将可以进行相同服务的机器客服和人工客服进行归类,并选取一名人工组长客服,从而建立人机耦合客服组,为了提高呼入用户的体验感和满意度,根据人工组长客服的声音特征为人机耦合客服组建立语音转换模型,从而在人机耦合客服组和呼入用户对话时通过语音转换模型将人机耦合客服组发出的实时音频转换为人工组长客服的声音,并且在通过过程中还可以根据呼入用户的服务需求随时切换服务客服,这样一来由于在通话过程中人机耦合客服组发出的声音是不变的,所以在切换客服的过程中用户无法察觉到已经进行了切换,从而形成了客服语音无感知人工耦合工作模式,给提升呼入用户对人机耦合客服组的第一印象,从而提高了沟通的效率,促进了沟通的有效性。
实施例10
在实施例9的基础上,所述一种基于声音处理的人机耦合客服控制方法,所述服务执行模块,包括:
第一执行单元,用于当呼入用户接入客服系统时,采集所述呼入用户的实时语音,对所述实时语音进行文字识别得到所述呼入用户的语音关键词,对语音关键词进行重组得到对应呼入用户的服务需求,基于所述服务需求为所述呼入用户匹配相应的目标人机耦合客服组;
第二执行单元,用于将所述呼入用户接入目标人机耦合客服组,对所述实时语音进行文字转换以及情绪识别得到实时文字和实时情绪特征,基于时间顺序对所述实时文字进行排序得到所述呼入用户的实时文字序列,基于所述实时情绪特征建立所述呼入用户的情绪波动信息;
第三执行单元,用于对所述实时文字序列进行分词处理得到若干个实时词语,利用单位时长将所述情绪波动信息划分为若干个短时情绪,根据每一实时词语对应的生成时间,将所述实时词语和短时情绪进行匹配,得到若干个情绪词;
第四执行单元,用于对所述情绪词进行语句重组得到重组语句,对所述重组语句进行语义分析,得到所述呼入用户的实时需求,当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
该实例中,实时文字序列是根据呼入用户发出的声音实时变化的;
该实例中,情绪波动信息是将实时情绪特征按照时间进行排序后所得到的;
该实例中,分词处理表示将实时文字序列划分为若干个词语的过程;
该实例中,实时词语是实时文字序列中的一个词语;
该实例中,单位时长可以为10秒;
该实例中,每一个实时词语对应一个生成时间;
该实例中,生成情绪词的目的是:便于更精确的分析呼入用户的需求。
上述技术方案的工作原理以及有益效果:为了给呼入用户更好的体验,当呼入用户接入到客服系统时,采集呼入用户的实时语音,对实时语音进行文字识别,从而可以得到呼入用户的语音关键词,将语音关键词进行重组可以得到呼入用户的服务需求,然后根据服务需求为呼入用户接入相应的目标人机耦合客服组中,为了快速解决呼入用户的问题,达到呼入用户的目的,对呼入用户的实时语音进行文字转换以及进行情绪识别,然后再通过排序的方式来建立实时文字序列和情绪波动信息,然后对实时文字序列进行分词处理,对情绪波动信息进行分割,再将二者进行重组可生成若干个情绪词,最后对情绪词进行重组,可以得到重组语句,通过对重组语句进行语义分析来确定呼入用户的实时需求,根据呼入用户的实时需求对呼入用户进行相应的服务,这样一来可以根据呼入用户的需求在短时间内切换相应的客服来进行服务,提高了服务的效率。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种基于声音处理的人机耦合客服控制方法,其特征在于,包括:
步骤1:将可服务项目相同的机器客服和人工客服归为同一服务类,并分别为每一服务类配置一名人工组长客服建立人机耦合客服组;
步骤2:分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型;
步骤3:根据呼入用户的服务需求为所述呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户切换服务客服;
步骤4:将目标人机耦合客服组发出的实时音频输入到所述语音转换模型中进行音频转换生成服务音频,向所述呼入用户播放所述服务音频;
所述步骤2,包括:
步骤2-1:分别获取并解析每一人工客服对应的声音特征,建立每一人工客服对应的特征基频曲线,在所述特征基频曲线中获取对应人工客服的声带开启点并进行第一标记,以及在所述特征基频曲线中获取对应人工客服的声带闭合点并进行第二标记;
步骤2-2:根据同一特征基频曲线中包含的所有的第一标记建立第一曲线,根据同一特征基频曲线中包含的所有的第二标记建立第二曲线,在所述第一曲线中获取相邻两个第一标记之间的时间差,建立对应人工客服的语速信息,在所述第二曲线中获取每一第二标记对应的持续时长,建立对应人工客服的语调信息;
步骤2-3:根据所述语速信息和语调信息建立对应的人工客服的基础语音模型,控制所述基础语音模型朗读预设文本,得到所述基础语音模型的朗读信息,根据所述朗读信息对对应人工客服进行发音标准评价,得到每一人工客服对应的发音评价表;
步骤2-4:基于所述发音评价表修正所述基础语音模型,得到每一个人工客服对应的语音模型,分别提取每一人机耦合客服组中人工组长客服,基于每一个人工组长客服的语音模型分别为每一个人工组长客服建立对应的语音转换模型,分别为每一人机耦合客服组匹配相应的语音转换模型。
2.如权利要求1所述的一种基于声音处理的人机耦合客服控制方法,其特征在于,所述步骤1,包括:
步骤1-1:获取每一机器客服对应的第一可服务项目,以及获取每一人工客服对应的第二可服务项目,将可服务项目相同的机器客服和人工客服记作同一服务类,分别统计每一服务类包含的机器客服的第一数量,以及每一服务类包含的人工客服的第二数量;
步骤1-2:分别获取每一所述服务类对应的呼入频率,基于所述呼入频率由高到低的顺序为每一服务类建立第一重要权重,分别获取每一服务类对应的平均呼入时长,基于所述平均呼入时长由高到低的顺序为每一服务类建立第二重要权重;
步骤1-3:基于所述第一重要权重估测每一所述服务类对应的需求数量范围,结合所述第一数量,为每一服务类匹配相应数量的机器客服,建立机器客服组;
步骤1-4:根据所述第二重要权重结合所述第二数量,为所述机器客服组配置相应的数量人工客服,生成人机耦合客服组。
3.如权利要求1所述的一种基于声音处理的人机耦合客服控制方法,其特征在于,所述步骤3,包括:
步骤3-1:当呼入用户接入客服系统时,采集所述呼入用户的实时语音,对所述实时语音进行文字识别得到所述呼入用户的语音关键词,对语音关键词进行重组得到对应呼入用户的服务需求,基于所述服务需求为所述呼入用户匹配相应的目标人机耦合客服组;
步骤3-2:将所述呼入用户接入目标人机耦合客服组,对所述实时语音进行文字转换以及情绪识别得到实时文字和实时情绪特征,基于时间顺序对所述实时文字进行排序得到所述呼入用户的实时文字序列,基于所述实时情绪特征建立所述呼入用户的情绪波动信息;
步骤3-3:对所述实时文字序列进行分词处理得到若干个实时词语,利用单位时长将所述情绪波动信息划分为若干个短时情绪,根据每一实时词语对应的生成时间,将所述实时词语和短时情绪进行匹配,得到若干个情绪词;
步骤3-4:对所述情绪词进行语句重组得到重组语句,对所述重组语句进行语义分析,得到所述呼入用户的实时需求,当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
4.如权利要求1所述的一种基于声音处理的人机耦合客服控制方法,其特征在于,所述步骤4,包括:
步骤4-1:当所述呼入用户接入所述目标人机耦合客服组中时,获取所述目标人机耦合客服组发出的实时音频以及所述实时音频的音频来源;
步骤4-2:当所述音频来源为机器客服时,将所述实时音频输入到所述音频转换模型中进行音频转换,生成服务音频;
步骤4-3:当所述音频来源为人工客服时,对所述实时音频进行降噪处理,将降噪后的实时音频输入到所述音频转换模型中进行音频转换,生成服务音频;
步骤4-4:向所述呼入用户播放所述服务音频,以及获取所述呼入用户与目标人机耦合客服组的对话信息,将所述对话信息进行存储。
5.如权利要求1所述的一种基于声音处理的人机耦合客服控制方法,其特征在于,还包括:
分别为每一所述人机耦合客服组建立候补组长客服;
当所述人机耦合客服组对应的人工组长客服离线时,获取对应候补组长客服对应的候补语音模型;
基于所述候补语音模型为对应的人机耦合客服组建立候补转换模型,为对应的人机耦合客服组匹配相应的候补转换模型。
6.如权利要求3所述的一种基于声音处理的人机耦合客服控制方法,其特征在于,所述步骤3-4,包括:
步骤3-41:分别获取每一情绪词对应的词性,根据词性分别为每一情绪词建立词性标签,根据每一实时词语在所述实时文字序列中的序列位置,将具有相邻关系的第一情绪词和第二情绪词建立匹配标签;
步骤3-42:解析所述实时文字序列得到若干个语句,分别获取每一语句对应的语句格式,建立语句框架,将所述情绪词输入到所述语句框架中得到若干个第一语句,基于匹配标签分别调节每一情绪词在对应第一语句中的位置得到若干个第二语句;
步骤3-43:基于所述第二语句中每一情绪词对应的词性标签,对所述第二语句进行语义分析,得到所述呼入用户的实时需求;
步骤3-44:当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
7.如权利要求2所述的一种基于声音处理的人机耦合客服控制方法,其特征在于,还包括:
在预设时间段内采集呼入用户接入不同人机耦合客服组对应的等待时长,基于所述等待时长建立补充重要权重;
提取补充重要权重大于预设重要权重的待补充人机耦合客服组,为所述待补充人机耦合客服组补充相应的机器客服。
8.一种基于声音处理的人机耦合客服控制系统,其特征在于,包括:
分类配置模块,用于将可服务项目相同的机器客服和人工客服归为同一服务类,并分别为每一服务类配置一名人工组长客服建立人机耦合客服组;
模型建立模块,用于分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型;
服务执行模块,用于根据呼入用户的服务需求为所述呼入用户匹配相应的目标人机耦合客服组,根据呼入用户的实时需求为呼入用户切换服务客服;
语音转换模块,用于将目标人机耦合客服组发出的实时音频输入到所述语音转换模型中进行音频转换生成服务音频,向所述呼入用户播放所述服务音频;
所述模型建立模块用于分别采集每一所述人工组长客服对应的声音特征,基于所述声音特征为对应的人机耦合客服组中的机器客服建立语音转换模型的方法,包括:
步骤2-1:分别获取并解析每一人工客服对应的声音特征,建立每一人工客服对应的特征基频曲线,在所述特征基频曲线中获取对应人工客服的声带开启点并进行第一标记,以及在所述特征基频曲线中获取对应人工客服的声带闭合点并进行第二标记,
步骤2-2:根据同一特征基频曲线中包含的所有的第一标记建立第一曲线,根据同一特征基频曲线中包含的所有的第二标记建立第二曲线,在所述第一曲线中获取相邻两个第一标记之间的时间差,建立对应人工客服的语速信息,在所述第二曲线中获取每一第二标记对应的持续时长,建立对应人工客服的语调信息;
步骤2-3:根据所述语速信息和语调信息建立对应的人工客服的基础语音模型,控制所述基础语音模型朗读预设文本,得到所述基础语音模型的朗读信息,根据所述朗读信息对对应人工客服进行发音标准评价,得到每一人工客服对应的发音评价表;
步骤2-4:基于所述发音评价表修正所述基础语音模型,得到每一个人工客服对应的语音模型,分别提取每一人机耦合客服组中人工组长客服,基于每一个人工组长客服的语音模型分别为每一个人工组长客服建立对应的语音转换模型,分别为每一人机耦合客服组匹配相应的语音转换模型。
9.如权利要求8所述的一种基于声音处理的人机耦合客服控制系统,其特征在于,所述服务执行模块,包括:
第一执行单元,用于当呼入用户接入客服系统时,采集所述呼入用户的实时语音,对所述实时语音进行文字识别得到所述呼入用户的语音关键词,对语音关键词进行重组得到对应呼入用户的服务需求,基于所述服务需求为所述呼入用户匹配相应的目标人机耦合客服组;
第二执行单元,用于将所述呼入用户接入目标人机耦合客服组,对所述实时语音进行文字转换以及情绪识别得到实时文字和实时情绪特征,基于时间顺序对所述实时文字进行排序得到所述呼入用户的实时文字序列,基于所述实时情绪特征建立所述呼入用户的情绪波动信息;
第三执行单元,用于对所述实时文字序列进行分词处理得到若干个实时词语,利用单位时长将所述情绪波动信息划分为若干个短时情绪,根据每一实时词语对应的生成时间,将所述实时词语和短时情绪进行匹配,得到若干个情绪词;
第四执行单元,用于对所述情绪词进行语句重组得到重组语句,对所述重组语句进行语义分析,得到所述呼入用户的实时需求,当所述实时需求与所述目标人机耦合客服组中的目标机器客服对应的目标第一可服务项目一致时,将所述呼入用户接入所述目标机器客服,反之将所述呼入用户接入所述目标人机耦合客服组中的目标人工客服。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311341325.1A CN117411970B (zh) | 2023-10-17 | 2023-10-17 | 一种基于声音处理的人机耦合客服控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311341325.1A CN117411970B (zh) | 2023-10-17 | 2023-10-17 | 一种基于声音处理的人机耦合客服控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117411970A CN117411970A (zh) | 2024-01-16 |
CN117411970B true CN117411970B (zh) | 2024-06-07 |
Family
ID=89488231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311341325.1A Active CN117411970B (zh) | 2023-10-17 | 2023-10-17 | 一种基于声音处理的人机耦合客服控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117411970B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111193834A (zh) * | 2019-12-16 | 2020-05-22 | 北京淇瑀信息科技有限公司 | 基于用户声音特征分析的人机交互方法、装置和电子设备 |
CN111246027A (zh) * | 2020-04-28 | 2020-06-05 | 南京硅基智能科技有限公司 | 一种实现人机协同的语音通讯系统及方法 |
CN111988476A (zh) * | 2020-09-25 | 2020-11-24 | 南京酷朗电子有限公司 | 客户服务系统的自动语音协同工作方法 |
CN112669863A (zh) * | 2020-12-28 | 2021-04-16 | 科讯嘉联信息技术有限公司 | 一种基于变声能力的人机接力服务方法 |
CN114242069A (zh) * | 2021-12-15 | 2022-03-25 | 平安科技(深圳)有限公司 | 人机客服的切换方法、装置、设备及存储介质 |
CN114724569A (zh) * | 2022-03-08 | 2022-07-08 | 北京三快在线科技有限公司 | 客服语音优化方法、装置、电子设备 |
WO2023097745A1 (zh) * | 2021-12-03 | 2023-06-08 | 山东远联信息科技有限公司 | 一种基于深度学习的智能交互方法、系统及终端 |
KR102558407B1 (ko) * | 2022-10-19 | 2023-07-24 | 씨에스쉐어링 주식회사 | 숙련자 상담 데이터 및 자유 발화 감정 분석에 기반한 ai 기능이 부가된 cs를 위한 지식 관리 시스템 |
CN116884430A (zh) * | 2023-07-31 | 2023-10-13 | 平安银行股份有限公司 | 一种虚拟音色转换方法、装置、系统及存储介质 |
-
2023
- 2023-10-17 CN CN202311341325.1A patent/CN117411970B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111193834A (zh) * | 2019-12-16 | 2020-05-22 | 北京淇瑀信息科技有限公司 | 基于用户声音特征分析的人机交互方法、装置和电子设备 |
CN111246027A (zh) * | 2020-04-28 | 2020-06-05 | 南京硅基智能科技有限公司 | 一种实现人机协同的语音通讯系统及方法 |
CN111988476A (zh) * | 2020-09-25 | 2020-11-24 | 南京酷朗电子有限公司 | 客户服务系统的自动语音协同工作方法 |
CN112669863A (zh) * | 2020-12-28 | 2021-04-16 | 科讯嘉联信息技术有限公司 | 一种基于变声能力的人机接力服务方法 |
WO2023097745A1 (zh) * | 2021-12-03 | 2023-06-08 | 山东远联信息科技有限公司 | 一种基于深度学习的智能交互方法、系统及终端 |
CN114242069A (zh) * | 2021-12-15 | 2022-03-25 | 平安科技(深圳)有限公司 | 人机客服的切换方法、装置、设备及存储介质 |
CN114724569A (zh) * | 2022-03-08 | 2022-07-08 | 北京三快在线科技有限公司 | 客服语音优化方法、装置、电子设备 |
KR102558407B1 (ko) * | 2022-10-19 | 2023-07-24 | 씨에스쉐어링 주식회사 | 숙련자 상담 데이터 및 자유 발화 감정 분석에 기반한 ai 기능이 부가된 cs를 위한 지식 관리 시스템 |
CN116884430A (zh) * | 2023-07-31 | 2023-10-13 | 平安银行股份有限公司 | 一种虚拟音色转换方法、装置、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117411970A (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11380327B2 (en) | Speech communication system and method with human-machine coordination | |
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
US8676586B2 (en) | Method and apparatus for interaction or discourse analytics | |
CN111739516A (zh) | 一种针对智能客服通话的语音识别系统 | |
CN107818798A (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN107886949A (zh) | 一种内容推荐方法及装置 | |
CN113239147B (zh) | 基于图神经网络的智能会话方法、系统及介质 | |
US20110172989A1 (en) | Intelligent and parsimonious message engine | |
JP2017146587A (ja) | 音声翻訳装置、音声翻訳方法及びプログラム | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN111785275A (zh) | 语音识别方法及装置 | |
CN110610705A (zh) | 一种基于人工智能的语音交互提示器 | |
CN111177350A (zh) | 智能语音机器人的话术形成方法、装置和系统 | |
CN110265008A (zh) | 智能回访方法、装置、计算机设备及存储介质 | |
CN112131359A (zh) | 一种基于图形化编排智能策略的意图识别方法及电子设备 | |
CN114818649A (zh) | 基于智能语音交互技术的业务咨询处理方法及装置 | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
CN109618067A (zh) | 外呼对话处理方法和系统 | |
CN117411970B (zh) | 一种基于声音处理的人机耦合客服控制方法及系统 | |
CN111949777A (zh) | 一种基于人群分类的智能语音对话方法、装置及电子设备 | |
CN113990288B (zh) | 一种语音客服自动生成部署语音合成模型的方法 | |
KR102407055B1 (ko) | 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법 | |
CN113782010B (zh) | 机器人响应方法、装置、电子设备及存储介质 | |
CN115831125A (zh) | 语音识别方法、装置、设备、存储介质及产品 | |
CN112017668B (zh) | 一种基于实时情感检测的智能语音对话方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |