CN116737914A - 用于云客服中心的交互数据处理方法及系统 - Google Patents

用于云客服中心的交互数据处理方法及系统 Download PDF

Info

Publication number
CN116737914A
CN116737914A CN202311022731.1A CN202311022731A CN116737914A CN 116737914 A CN116737914 A CN 116737914A CN 202311022731 A CN202311022731 A CN 202311022731A CN 116737914 A CN116737914 A CN 116737914A
Authority
CN
China
Prior art keywords
user
data
result
dialogue
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311022731.1A
Other languages
English (en)
Other versions
CN116737914B (zh
Inventor
孙立彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong Huashidai Information Technology Co ltd
Original Assignee
Nantong Huashidai Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong Huashidai Information Technology Co ltd filed Critical Nantong Huashidai Information Technology Co ltd
Priority to CN202311022731.1A priority Critical patent/CN116737914B/zh
Publication of CN116737914A publication Critical patent/CN116737914A/zh
Application granted granted Critical
Publication of CN116737914B publication Critical patent/CN116737914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Computational Linguistics (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了用于云客服中心的交互数据处理方法及系统,涉及数据处理技术领域,方法包括:读取用户的交互信号,并建立与用户的初始交互,提取所述用户的用户关键特征,基于所述用户关键特征和所述对话数据库生成交互对话,并与用户进行对话交互,接收用户的声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合,根据关联整合结果生成反馈交互控制数据,通过反馈交互控制数据对交互对话更新,本发明解决了现有技术中由于缺乏与用户在进行交互对话时的管控,导致客服与用户的交互效率低的技术问题,实现了对与用户交互的过程进行合理化精准管控,进而提高客服与用户的交互效率。

Description

用于云客服中心的交互数据处理方法及系统
技术领域
本发明涉及数据处理技术领域,具体涉及用于云客服中心的交互数据处理方法及系统。
背景技术
随着数据交互领域的发展,特别是客服与用户之间的交互操作,智能客服的交互方法通常利用自然语言处理对用户语音转换的文本进行处理,得到用户意图,根据用户意图通过相关行业知识库或辅助话术,匹配获得与用户意图最相关的标准提示或问题答案,例如,面向会议室预定的智能客服,可以定义时间、地点,人数等作为定制化交互问题,让用户依次填充这些内容,从而完成会议室预定的功能,而在现有技术中由于缺乏与用户在进行交互对话时的管控,导致客服与用户的交互效率低的技术问题。
发明内容
本申请提供了用于云客服中心的交互数据处理方法及系统,用于针对解决现有技术中存在的由于缺乏与用户在进行交互对话时的管控,导致客服与用户的交互效率低的技术问题。
鉴于上述问题,本申请提供了用于云客服中心的交互数据处理方法及系统。
第一方面,本申请提供了用于云客服中心的交互数据处理方法,所述方法包括:读取用户的交互信号,并建立与所述用户的初始交互;对所述用户进行用户数据读取,并提取所述用户的用户关键特征;构建对话数据库,其中,所述对话数据库包括话术数据库、声音数据库、方言数据库,基于所述用户关键特征和所述对话数据库生成交互对话;通过所述交互对话与所述用户进行对话交互,并接收所述用户的声音数据;对所述声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合;根据关联整合结果生成反馈交互控制数据,通过所述反馈交互控制数据对所述交互对话更新。
第二方面,本申请提供了用于云客服中心的交互数据处理系统,所述系统包括:初始交互模块,所述初始交互模块用于读取用户的交互信号,并建立与所述用户的初始交互;用户数据读取模块,所述用户数据读取模块用于对所述用户进行用户数据读取,并提取所述用户的用户关键特征;数据库构建模块,所述数据库构建模块用于构建对话数据库,其中,所述对话数据库包括话术数据库、声音数据库、方言数据库,基于所述用户关键特征和所述对话数据库生成交互对话;对话交互模块,所述对话交互模块用于通过所述交互对话与所述用户进行对话交互,并接收所述用户的声音数据;关联整合模块,所述关联整合模块用于对所述声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合;更新模块,所述更新模块用于根据关联整合结果生成反馈交互控制数据,通过所述反馈交互控制数据对所述交互对话更新。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请提供的用于云客服中心的交互数据处理方法及系统,涉及数据处理技术领域,解决了现有技术中由于缺乏与用户在进行交互对话时的管控,导致客服与用户的交互效率低的技术问题,实现了对与用户交互的过程进行合理化精准管控,进而提高客服与用户的交互效率。
附图说明
图1为本申请提供了用于云客服中心的交互数据处理方法流程示意图;
图2为本申请提供了用于云客服中心的交互数据处理方法中获得用户关键特征流程示意图;
图3为本申请提供了用于云客服中心的交互数据处理方法中生成关联整合结果流程示意图;
图4为本申请提供了用于云客服中心的交互数据处理方法中将关联整合结果发送至匹配工作人员流程示意图;
图5为本申请提供了用于云客服中心的交互数据处理系统结构示意图。
附图标记说明:初始交互模块1,用户数据读取模块2,数据库构建模块3,对话交互模块4,关联整合模块5,更新模块6。
具体实施方式
本申请通过提供用于云客服中心的交互数据处理方法及系统,用于解决现有技术中由于缺乏与用户在进行交互对话时的管控,导致客服与用户的交互效率低的技术问题。
实施例一
如图1所示,本申请实施例提供了用于云客服中心的交互数据处理方法,该方法包括:
步骤S100:读取用户的交互信号,并建立与所述用户的初始交互;
具体而言,本申请实施例提供的用于云客服中心的交互数据处理方法应用在用于云客服中心的交互数据处理系统,为保证当前云客服中心与目标用户的连通性,因此需要对目标用户的交互信号进行读取,目标用户的交互信号是指在云客服中心端与用户端之间互相存在反映的数据,在此基础上,对云客服中心建立与目标用户的交互通道,并将其记作与目标用户的初始交互,为后期实现对云客服中心进行交互数据的处理作为重要参考依据。
步骤S200:对所述用户进行用户数据读取,并提取所述用户的用户关键特征;
进一步而言,如图2所示,本申请步骤S200还包括:
步骤S210:交互获得所述用户的通话数据库;
步骤S220:对所述通话数据库进行数据标识,获得第一数据集、第二数据集和第三数据集;
步骤S230:通过模型子模块分别对所述第一数据集、所述第二数据集和所述第三数据集进行特征提取;
步骤S240:对子模块提取特征进行关联融合,获得所述用户关键特征。
进一步而言,本申请步骤S240包括:
步骤S241:通过基础特征提取子模块进行所述第三数据集的数据特征提取,构建基础特征集;
步骤S242:设置第一模型子模块和第二模型子模块的特征比例系数,其中,所述第一模型子模块为提取所述第一数据集的模块,所述第二模型子模块为提取所述第二数据集的模块,所述特征比例系数包括关键词特征比例系数、语言方式比例系数、音量比例系数;
步骤S243:通过所述第一模型子模块和所述第二模型子模块进行所述用户的特征提取,并通过所述特征比例系数进行特征提取结果的特征整合;
步骤S244:通过特征整合结果进行所述基础特征集的特征偏向修正,获得所述用户关键特征。
具体而言,为提高在与不同用户进行交互时的准确性,首先需要对目标用户的用户数据进行读取,该用户数据中包含目标用户的关键特征,从而对目标用户的用户关键特征进行提取,对用户关键特征进行提取的过程可以首先通过交互对用户的通话数据库进行获取,对目标用户的信息进行采集,其中对所采集的信息包含但不仅限于目标用户的语言习惯特征、方言特征、音色特征、音量特征、以及通话常用的通信设备特征等,在此基础上完成对通话数据库的构建,进一步的,可以根据所构建的通话数据库中包含的用户特征为后续对目标用户进行语言识别提供数据支持,例如,对于不同关键词的敏感度完成对目标用户的语言识别,是指需要对通话数据库中的数据进行数据划分与标识,分别对第一数据集、第二数据集和第三数据集进行获取,其第一数据集可以是强关联数据集,强关联数据集是指与目标业务关联度高,比重占比高的数据集,在此基础上,对目标用户在目标业务中所包含的用户常用业务进行提取,且所提取的常用业务中存在附带语言方式的情况,但其所附带的语言方式的关联度较低,其第二数据集可以是弱关联数据集,弱关联数据集是指与目标业务关联度低,比重占比低的数据集,其表征了目标用户在进行语音通话时,所习惯的语言方式,第三数据集可以是混合数据集,混合数据集是指将上述强关联数据集与弱关联数据集直接进行混合所组成的数据集,组成该混合数据集是为了完成对目标用户基础特征的构建,既可以在强关联数据集中将目标用户的音色特征、音量特征等进行提取,也可以在弱关联数据集中将目标用户的语言习惯特征、方言特征等进行提取,将所提取的所有基础特征进行整合汇总后记作目标用户的基础特征。
进一步的,为保证所提取特征的准确度,因此需要基于第一数据集、第二数据集和第三数据集对神经网络模型中的子模块进行构建,
模型子模块为机器学习中可不断自我迭代优化的神经网络模块,所述模型子模块通过训练数据集和监督数据集训练获得,其中,所述训练数据集中的每组训练数据均包括第一数据集、第二数据集和第三数据集,监督数据集为与训练数据集一一对应的监督数据,同时模型子模块构建过程为:将训练数据集中每一组训练数据输入模型子模块,通过这组训练数据对应的监督数据进行模型子模块的输出监督调整,当模型子模块的输出结果与监督数据一致,则当前组训练结束,将训练数据集中全部的训练数据均训练结束,则模型子模块训练完成,为了保证模型子模块的准确性,可以通过测试数据集进行模型子模块的测试处理,举例而言,测试准确率可以设定为80%,当测试数据集的测试准确率满足80%时,则模型子模块构建完成。
进一步的,通过所构建的模型子模块分别对第一数据集、第二数据集和第三数据集进行目标用户的特征提取,是指首先通过基础特征提取子模块进行第三数据集的数据特征提取,是将通过子模块中第三数据集所包含的数据特征与基础特征中所吻合的数据特征进行提取,并将所提取出的数据特征进行整合汇总后记作基础特征集,再对第一模型子模块和第二模型子模块的特征比例系数进行设定,其中,第一模型与第二模型均为相同结构但所包含特征不同的神经网络模型,其特征比例系数是指目标用户在通话过程中的关键词特征、语言习惯特征等占总对话的比例,同时第一模型子模块为提取第一数据集的模块,第二模型子模块为提取第二数据集的模块,特征比例系数中分别包括关键词特征比例系数、语言方式比例系数、音量比例系数等,进一步的,在第一模型子模块与第二模型子模块的基础上,完成对目标用户在第一数据集、第二数据集中所存在的特征进行提取的操作,同时通过特征比例系数对所获特征提取结果进行特征整合,特征整合是把特征提取结果中具有不同特征比例系数的特征进行特征收集、特征整理、特征清洗,在此基础上,完成对所有子模块所提取特征的关联融合,并将特征整合结果与基础特征集进行对应特征匹配,将特征整合结果中与基础特征集不吻合的特征记为偏离特征,同时以基础特征集作为基准,对偏离特征进行偏向修正,是指将偏离特征向基础特征集进行靠近,由此完成对特征整合结果的偏向修正,并将偏向修正后的特征整合结果记作用户关键特征进行输出,进而为实现对云客服中心进行交互数据的处理做保障。
步骤S300:构建对话数据库,其中,所述对话数据库包括话术数据库、声音数据库、方言数据库,基于所述用户关键特征和所述对话数据库生成交互对话;
具体而言,为提高云客服与目标用户交互对话的精准度,首先需要对当前的对话数据库进行构建,且在对话数据库中包含话术数据库、声音数据库、方言数据库,话术数据库、声音数据库、方言数据库为并列关联关系,根据话术数据库、声音数据库、方言数据库之间的关联关系,由于每个数据库所支持的通信协议不同,依据相关的通话行业标准对上述话术数据库、声音数据库、方言数据库进行关联分析,示例性的,若目标用户的方言为山东话,则将根据方言数据库中的山东话语音进行提取,再根据目标用户声音中所包含的音调、响度、音色在声音数据库中进行声音提取,同时将所提取出的山东话方言语音以及声音作为数据索引在话术数据库中进行检索,即山东话的倒装句多,因此需要在话术数据库中以倒装句为基准进行检索,进一步的将话术数据库、声音数据库、方言数据库以及三者之间的关联性进行数据整合,由此完成对话数据库的构建,最终在上述所提取的用户关键特征以及所构建的对话数据库的基础上,生成与目标用户关键特征所吻合的交互对话,为后续实现对云客服中心进行交互数据的处理夯实基础。
步骤S400:通过所述交互对话与所述用户进行对话交互,并接收所述用户的声音数据;
具体而言,以上述所获的交互对话作为基础,通过云客服中心根据所生成的交互对话完成与目标用户的对话交互,并在云客服中心与目标用户进行对话交互的过程中,对目标用户对话时的声音数据进行接收,目标用户对话时的声音数据可以包含对话声音的音调、对话声音的响度、对话声音的音色,对话声音的音调是指云客服中心与目标用户进行对话时,目标用户声音的高低,其声音高低是由单位时间内完成振动的次数所决定的,所接收到的振动快,则目标用户发出声音音调就高,所接收到的振动慢,则目标用户发出声音的音调就低,对话声音的响度是由振幅和目标用户对话声音离通信设备的距离所决定,振幅越大则目标用户对话声音的响度越大,目标用户对话声音离通信设备的距离越小,响度也越大,对话声音的音色是指目标用户的声音因不同物体材料的特性而具有不同特性,在此基础上完成对目标用户的声音数据,实现对云客服中心进行交互数据的处理有着推进的作用。
步骤S500:对所述声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合;
进一步而言,如图3所示,本申请步骤S500还包括:
步骤S510:基于所述通话数据库构建所述用户的声纹模型;
步骤S520:基于所述声纹模型设置声纹识别通道,且所述声纹识别通道包括稳定宽容模块;
步骤S530:通过所述声纹识别通道进行所述声音数据的声纹比对,输出声纹比对结果;
步骤S540:根据所述声纹比对结果生成关联整合结果。
进一步而言,本申请步骤S540包括:
步骤S541:当所述声纹比对结果为比对通过时,则调用所述用户关键特征,并基于所述用户关键特征设置分隔定位关键词;
步骤S542:通过所述分隔定位关键词和所述用户关键特征初始化关键词提取通道;
步骤S543:通过所述关键词提取通道进行所述声音数据的关键词提取,输出关键词提取结果;
步骤S544:根据所述关键词提取结果和所述声纹比对结果生成关联整合结果。
进一步而言,本申请步骤S544包括:
步骤S5441:当所述声纹比对结果为比对通过时,通过所述用户关键特征构建用户状态判别单元和语气识别通道;
步骤S5442:通过所述语气识别通道对所述声音数据进行语气特征提取,获得语气提取结果;
步骤S5443:通过所述用户状态判别单元对所述语气提取结果进行用户状态判别,输出用户状态判别结果;
步骤S5444:根据所述用户状态判别结果、所述关键词提取结果和所述声纹比对结果生成关联整合结果。
具体而言,在上述所获目标用户声音数据的基础上,对其进行多通道的数据识别,同时根据多通道的数据识别结果对声音数据进行关联整合,是指首先在交互所获的通话数据库的基础上,对目标用户的声纹模型进行构建,该声纹模型可以是根据目标用户的对话特征,对目标用户声纹的宽容数值进行设置,所设置的宽容数值可以是根据相关技术人员由声纹波动数据范围进行预设,在此基础上,能够更准确的对是否为用户本人进行认证,进一步的,在所构建的声纹模型的基础上对声纹识别通道进行设置,同时在该声纹识别通道中包含稳定宽容模块,声纹识别通道是指将目标用户进行对话时的声信号转换成电信号,再使用计算机进行识别的通道,且目标用户的声纹应处于声纹识别通道中所包含的稳定宽容模块内,进一步的,通过声纹识别通道对目标用户声音数据中的声纹进行比对,其比对目的是为对当前对话内容是否为目标用户本人进行判断,当声纹比对结果为非目标用户本人时,则当前的语言习惯特征、方言特征等均视为无效数据,从而将对话声音进行适应性处理,即当对话声音的声纹与目标用户相吻合时,做进一步处理,当声纹比对结果为比对通过时,即当前对话声音中所包含的声纹与声纹识别通道吻合,则对目标用户的关键特征进行调用,同时在当前目标用户关键特征的基础上对分隔定位关键词进行设置,分割定位关键词是指当目标客户存在特定语言习惯时,且该语言习惯中存在多个重复词汇,而重复词汇中存在其他功能性子句,则将多个重复性词汇视为分隔定位关键词,进一步的,通过分隔定位关键词和用户关键特征对关键词提取通道进行初始化,其初始化过程是把关键词提取通道中的变量赋为默认值,把关键词设为默认状态,以保证在对目标用户语言习惯中关键词提取的准确性,继而通过初始化后的关键词提取通道对目标用户声音数据中所包含的关键词进行提取,并将目标用户声音数据中所提取出的关键词记作关键词提取结果进行输出,进一步的,为保证最终对目标用户声音数据关联整合的精准性,在声纹比对结果为比对通过的情况下,通过目标用户的关联特征对用户状态判别单元以及语气识别通道进行构建,示例性的,可以将目标用户在正常状态下陈述语句的语气设为默认语气,语气识别通道可以进行语气特征的提取,即可以识别出陈述句、疑问句、祈使句、感叹句等,若语气识别通道识别出目标用户的语气为连续疑问句或连续感叹句时,则可以在用户状态判别单元中初步判定用户状态为着急、生气等状态,最终将用户状态判别结果、关键词提取结果和声纹比对结果进行整合后,将整合结果记作关联整合结果进行输出,以便为后期对云客服中心进行交互数据的处理时作为参照数据。
步骤S600:根据关联整合结果生成反馈交互控制数据,通过所述反馈交互控制数据对所述交互对话更新。
具体而言,在上述多通道的数据识别结果进行关联整合后所获的关联整合结果的基础上,对云服务中心的交互数据进行反馈交互控制,从而对反馈交互控制数据进行生成,所进行的反馈交互控制是指对目标用户的状态、目标用户对话中所提取的关键词、以及根据目标用户的声纹判断当前对话目标是否为目标用户本人,在此基础上,完成对云客服中心的反馈交互控制,最终通过反馈交互控制数据对上述所生成的交互对话进行更新,实现了对与用户交互的过程进行合理化精准管控,进而提高客服与用户的交互效率。
进一步而言,如图4所示,本申请步骤S600还包括:
步骤S550:基于所述关键词提取结果和所述用户状态判别结果进行用户任务解析,获得任务解析结果;
步骤S560:当所述任务解析结果的任务值满足预设阈值时,则生成转人工指令;
步骤S570:通过所述转人工指令执行人工匹配,其中,所述人工匹配包括所述任务解析结果的任务匹配和用户状态判别结果的人员匹配;
步骤S580:根据人工匹配结果进行所述用户的人工转接,并将所述关联整合结果发送至匹配工作人员。
具体而言,为保证云服务中心与目标用户的对话交互效率,因此需要在关键词提取结果与用户状态判别结果的基础上,对目标用户的任务进行解析,是指根据所提取的目标用户对话内容的关键词、以及目标用户当前的状态对目标用户的对话目标以及需求进行获取,继而将任务解析结果中所包含的任务值与预设阈值进行比较,其预设阈值由相关技术人员根据历史任务解析结果中所包含的任务值的数据进行取均值,由此完成预设阈值的预设,当任务解析结果的任务值满足预设阈值时,则视为当前目标用户的对话目标以及需求无法由算法满足,需要进行人工干预,因此对转人工指令进行生成,进一步的,通过所生成的转人工指令对人工匹配的操作进行执行,其人工匹配的操作中包括任务解析结果的任务匹配和用户状态判别结果的人员匹配,是指将目标用户的状态与人工状态进行适配,示例性的,若目标用户处于情绪激动的状态,则需要将目标用户转至人工服务评分高的员工,人工服务评分越高人工服务态度越好,目标用户的满意度越高,最终根据人工匹配结果完成对目标用户的人工转接,同时将上述所生成的关联整合结果对应发送至所匹配的工作人员,在此基础上完成目标用户与工作人员的适配,由此提高解决目标用户的对话目标以及需求的准确性。
综上所述,本申请实施例提供的用于云客服中心的交互数据处理方法,至少包括如下技术效果,实现了对与用户交互的过程进行合理化精准管控,进而提高客服与用户的交互效率。
实施例二
基于与前述实施例中用于云客服中心的交互数据处理方法相同的发明构思,如图5所示,本申请提供了用于云客服中心的交互数据处理系统,系统包括:
初始交互模块1,所述初始交互模块1用于读取用户的交互信号,并建立与所述用户的初始交互;
用户数据读取模块2,所述用户数据读取模块2用于对所述用户进行用户数据读取,并提取所述用户的用户关键特征;
数据库构建模块3,所述数据库构建模块3用于构建对话数据库,其中,所述对话数据库包括话术数据库、声音数据库、方言数据库,基于所述用户关键特征和所述对话数据库生成交互对话;
对话交互模块4,所述对话交互模块4用于通过所述交互对话与所述用户进行对话交互,并接收所述用户的声音数据;
关联整合模块5,所述关联整合模块5用于对所述声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合;
更新模块6,所述更新模块6用于根据关联整合结果生成反馈交互控制数据,通过所述反馈交互控制数据对所述交互对话更新。
进一步而言,系统还包括:
通话数据库模块,所述通话数据库模块用于交互获得所述用户的通话数据库;
数据标识模块,所述数据标识模块用于对所述通话数据库进行数据标识,获得第一数据集、第二数据集和第三数据集;
第一特征提取模块,所述第一特征提取模块用于通过模型子模块分别对所述第一数据集、所述第二数据集和所述第三数据集进行特征提取;
关联融合模块,所述关联融合模块用于对子模块提取特征进行关联融合,获得所述用户关键特征。
进一步而言,系统还包括:
数据特征提取模块,所述数据特征提取模块用于通过基础特征提取子模块进行所述第三数据集的数据特征提取,构建基础特征集;
特征比例系数模块,所述特征比例系数模块用于设置第一模型子模块和第二模型子模块的特征比例系数,其中,所述第一模型子模块为提取所述第一数据集的模块,所述第二模型子模块为提取所述第二数据集的模块,所述特征比例系数包括关键词特征比例系数、语言方式比例系数、音量比例系数;
第二特征提取模块,所述第二特征提取模块用于通过所述第一模型子模块和所述第二模型子模块进行所述用户的特征提取,并通过所述特征比例系数进行特征提取结果的特征整合;
特征偏向修正模块,所述特征偏向修正模块用于通过特征整合结果进行所述基础特征集的特征偏向修正,获得所述用户关键特征。
进一步而言,系统还包括:
声纹模型构建模块,所述声纹模型构建模块用于基于所述通话数据库构建所述用户的声纹模型;
声纹识别通道模块,所述声纹识别通道模块用于基于所述声纹模型设置声纹识别通道,且所述声纹识别通道包括稳定宽容模块;
声纹比对模块,所述声纹比对模块用于通过所述声纹识别通道进行所述声音数据的声纹比对,输出声纹比对结果;
第一结果获取模块,所述第一结果获取模块用于根据所述声纹比对结果生成关联整合结果。
进一步而言,系统还包括:
调用模块,所述调用模块用于当所述声纹比对结果为比对通过时,则调用所述用户关键特征,并基于所述用户关键特征设置分隔定位关键词;
初始化模块,所述初始化模块用于通过所述分隔定位关键词和所述用户关键特征初始化关键词提取通道;
第一输出模块,所述第一输出模块用于通过所述关键词提取通道进行所述声音数据的关键词提取,输出关键词提取结果;
第二结果获取模块,所述第二结果获取模块用于根据所述关键词提取结果和所述声纹比对结果生成关联整合结果。
进一步而言,系统还包括:
通道构建模块,所述通道构建模块用于当所述声纹比对结果为比对通过时,通过所述用户关键特征构建用户状态判别单元和语气识别通道;
第三特征提取模块,所述第三特征提取模块用于通过所述语气识别通道对所述声音数据进行语气特征提取,获得语气提取结果;
第二输出模块,所述第二输出模块用于通过所述用户状态判别单元对所述语气提取结果进行用户状态判别,输出用户状态判别结果;
第三结果获取模块,所述第三结果获取模块用于根据所述用户状态判别结果、所述关键词提取结果和所述声纹比对结果生成关联整合结果。
进一步而言,系统还包括:
用户任务解析模块,所述用户任务解析模块用于基于所述关键词提取结果和所述用户状态判别结果进行用户任务解析,获得任务解析结果;
判断模块,所述判断模块用于当所述任务解析结果的任务值满足预设阈值时,则生成转人工指令;
匹配模块,所述匹配模块用于通过所述转人工指令执行人工匹配,其中,所述人工匹配包括所述任务解析结果的任务匹配和用户状态判别结果的人员匹配;
发送模块,所述发送模块用于根据人工匹配结果进行所述用户的人工转接,并将所述关联整合结果发送至匹配工作人员。
本说明书通过前述对用于云客服中心的交互数据处理方法的详细描述,本领域技术人员可以清楚的知道本实施例中用于云客服中心的交互数据处理系统,对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其他实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (8)

1.用于云客服中心的交互数据处理方法,其特征在于,所述方法包括:
读取用户的交互信号,并建立与所述用户的初始交互;
对所述用户进行用户数据读取,并提取所述用户的用户关键特征;
构建对话数据库,其中,所述对话数据库包括话术数据库、声音数据库、方言数据库,基于所述用户关键特征和所述对话数据库生成交互对话;
通过所述交互对话与所述用户进行对话交互,并接收所述用户的声音数据;
对所述声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合;
根据关联整合结果生成反馈交互控制数据,通过所述反馈交互控制数据对所述交互对话更新。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
交互获得所述用户的通话数据库;
对所述通话数据库进行数据标识,获得第一数据集、第二数据集和第三数据集;
通过模型子模块分别对所述第一数据集、所述第二数据集和所述第三数据集进行特征提取;
对子模块提取特征进行关联融合,获得所述用户关键特征。
3.如权利要求2所述的方法,其特征在于,所述方法还包括:
通过基础特征提取子模块进行所述第三数据集的数据特征提取,构建基础特征集;
设置第一模型子模块和第二模型子模块的特征比例系数,其中,所述第一模型子模块为提取所述第一数据集的模块,所述第二模型子模块为提取所述第二数据集的模块,所述特征比例系数包括关键词特征比例系数、语言方式比例系数、音量比例系数;
通过所述第一模型子模块和所述第二模型子模块进行所述用户的特征提取,并通过所述特征比例系数进行特征提取结果的特征整合;
通过特征整合结果进行所述基础特征集的特征偏向修正,获得所述用户关键特征。
4.如权利要求2所述的方法,其特征在于,所述方法还包括:
基于所述通话数据库构建所述用户的声纹模型;
基于所述声纹模型设置声纹识别通道,且所述声纹识别通道包括稳定宽容模块;
通过所述声纹识别通道进行所述声音数据的声纹比对,输出声纹比对结果;
根据所述声纹比对结果生成关联整合结果。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
当所述声纹比对结果为比对通过时,则调用所述用户关键特征,并基于所述用户关键特征设置分隔定位关键词;
通过所述分隔定位关键词和所述用户关键特征初始化关键词提取通道;
通过所述关键词提取通道进行所述声音数据的关键词提取,输出关键词提取结果;
根据所述关键词提取结果和所述声纹比对结果生成关联整合结果。
6.如权利要求5所述的方法,其特征在于,所述方法还包括:
当所述声纹比对结果为比对通过时,通过所述用户关键特征构建用户状态判别单元和语气识别通道;
通过所述语气识别通道对所述声音数据进行语气特征提取,获得语气提取结果;
通过所述用户状态判别单元对所述语气提取结果进行用户状态判别,输出用户状态判别结果;
根据所述用户状态判别结果、所述关键词提取结果和所述声纹比对结果生成关联整合结果。
7.如权利要求6所述的方法,其特征在于,所述方法还包括:
基于所述关键词提取结果和所述用户状态判别结果进行用户任务解析,获得任务解析结果;
当所述任务解析结果的任务值满足预设阈值时,则生成转人工指令;
通过所述转人工指令执行人工匹配,其中,所述人工匹配包括所述任务解析结果的任务匹配和用户状态判别结果的人员匹配;
根据人工匹配结果进行所述用户的人工转接,并将所述关联整合结果发送至匹配工作人员。
8.用于云客服中心的交互数据处理系统,其特征在于,所述系统包括:
初始交互模块,所述初始交互模块用于读取用户的交互信号,并建立与所述用户的初始交互;
用户数据读取模块,所述用户数据读取模块用于对所述用户进行用户数据读取,并提取所述用户的用户关键特征;
数据库构建模块,所述数据库构建模块用于构建对话数据库,其中,所述对话数据库包括话术数据库、声音数据库、方言数据库,基于所述用户关键特征和所述对话数据库生成交互对话;
对话交互模块,所述对话交互模块用于通过所述交互对话与所述用户进行对话交互,并接收所述用户的声音数据;
关联整合模块,所述关联整合模块用于对所述声音数据进行多通道的数据识别,并对多通道的数据识别结果进行关联整合;
更新模块,所述更新模块用于根据关联整合结果生成反馈交互控制数据,通过所述反馈交互控制数据对所述交互对话更新。
CN202311022731.1A 2023-08-15 2023-08-15 用于云客服中心的交互数据处理方法及系统 Active CN116737914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311022731.1A CN116737914B (zh) 2023-08-15 2023-08-15 用于云客服中心的交互数据处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311022731.1A CN116737914B (zh) 2023-08-15 2023-08-15 用于云客服中心的交互数据处理方法及系统

Publications (2)

Publication Number Publication Date
CN116737914A true CN116737914A (zh) 2023-09-12
CN116737914B CN116737914B (zh) 2023-11-17

Family

ID=87911855

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311022731.1A Active CN116737914B (zh) 2023-08-15 2023-08-15 用于云客服中心的交互数据处理方法及系统

Country Status (1)

Country Link
CN (1) CN116737914B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118246432A (zh) * 2024-05-28 2024-06-25 江苏洛尧智慧通信科技有限公司 基于ai分析的自然语言智能大模型交互系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115022471A (zh) * 2022-05-18 2022-09-06 北京互连众信科技有限公司 一种智能机器人语音交互系统和方法
CN115766947A (zh) * 2023-01-09 2023-03-07 广东电网有限责任公司 电网客服中心智能管控方法及系统
CN116415591A (zh) * 2021-12-31 2023-07-11 云米互联科技(广东)有限公司 基于用户意图识别的设备控制方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116415591A (zh) * 2021-12-31 2023-07-11 云米互联科技(广东)有限公司 基于用户意图识别的设备控制方法及装置
CN115022471A (zh) * 2022-05-18 2022-09-06 北京互连众信科技有限公司 一种智能机器人语音交互系统和方法
CN115766947A (zh) * 2023-01-09 2023-03-07 广东电网有限责任公司 电网客服中心智能管控方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118246432A (zh) * 2024-05-28 2024-06-25 江苏洛尧智慧通信科技有限公司 基于ai分析的自然语言智能大模型交互系统及方法

Also Published As

Publication number Publication date
CN116737914B (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
CN110136727B (zh) 基于说话内容的说话者身份识别方法、装置及存储介质
CN100351899C (zh) 网络环境中语音处理的中间体
EP1881443B1 (en) Data processing unit, method and control program
US7043429B2 (en) Speech recognition with plural confidence measures
US7933775B2 (en) Method of and system for providing adaptive respondent training in a speech recognition application based upon the inherent response of the respondent
CN109543020B (zh) 问询处理方法及系统
CN109313892A (zh) 稳健的语言识别方法和系统
KR20130128716A (ko) 어학 학습 시스템 및 학습 방법
CN108074576A (zh) 审讯场景下的说话人角色分离方法及系统
KR20030013855A (ko) 음성등록방법 및 음성등록시스템과 이에 기초한음성인식방법 및 음성인식시스템
CN110674276B (zh) 机器人自学习方法、机器人终端、装置及可读存储介质
CN110827803A (zh) 方言发音词典的构建方法、装置、设备及可读存储介质
US11615787B2 (en) Dialogue system and method of controlling the same
CN111986675A (zh) 语音对话方法、设备及计算机可读存储介质
CN109545202A (zh) 一种调整语义逻辑混乱的语料的方法及系统
US10957318B2 (en) Dynamic voice authentication
CN108806691B (zh) 语音识别方法及系统
CN116737914B (zh) 用于云客服中心的交互数据处理方法及系统
CN113990288B (zh) 一种语音客服自动生成部署语音合成模型的方法
Krsmanovic et al. Have we met? MDP based speaker ID for robot dialogue.
CN111161718A (zh) 语音识别方法、装置、设备、存储介质及空调
CN114297450A (zh) 一种基于深度学习的对话系统及其对话方法
CN111382230B (zh) 用于法律咨询选项的模糊识别方法
CN109271482A (zh) 一种研究生英语口语教学语音自动评估平台的实现方法
CN109559739B (zh) 一种基于语音搜索的内容推荐方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant