CN116597821A - 一种基于深度学习的智能客服语音识别方法和系统 - Google Patents
一种基于深度学习的智能客服语音识别方法和系统 Download PDFInfo
- Publication number
- CN116597821A CN116597821A CN202310870636.0A CN202310870636A CN116597821A CN 116597821 A CN116597821 A CN 116597821A CN 202310870636 A CN202310870636 A CN 202310870636A CN 116597821 A CN116597821 A CN 116597821A
- Authority
- CN
- China
- Prior art keywords
- voice
- data
- emotion
- recognized
- keywords
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 230000008451 emotion Effects 0.000 claims abstract description 86
- 230000008909 emotion recognition Effects 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000013136 deep learning model Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 16
- 230000005236 sound signal Effects 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 4
- 238000010801 machine learning Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/527—Centralised call answering arrangements not requiring operator intervention
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于深度学习的智能客服语音识别方法和系统,该方法包括:接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;对音频数据和多个关键词进行语音情感识别,得到情感标签;依据文字数据和情感标签进行分析整合得到语音识别结果。该发明通过提取待识别语音的关键词,并依据关键词和声学特征识别情感标签,可以更为精确的识别语音情感,从而有助于客服做出有效答复,提升用户满意度。
Description
技术领域
本发明涉及数据处理技术领域,具体涉及一种基于深度学习的智能客服语音识别方法和系统。
背景技术
随着智能客服机器人产业的迅速发展,尤其是伴随着人工智能 (ArtificialIntelligence,AI)的风潮,在智能客服机器人领域中对电话信道语音进行端点检测处理的应用正在不断扩展和深化,通过智能客服机器人识别用户语音,并通过AI依据用户语音给出对应的反馈,从而迅速为用户提供服务是现今广泛被应用的技术。
然而现实应用环境中,智能客服的应用场景十分广泛,获取到的语音数据除了用户的表达语句以外,还包括了语音情感。只能客服听懂人类语言的同时,如何建立一种能够从语音中分析和识别人类情感的计算系统,实现人与机器的人性化交流,是亟待解决的技术问题。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种基于深度学习的智能客服语音识别方法和系统。
根据本发明的一个方面,提供了一种基于深度学习的智能客服语音识别方法,包括:
接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;
对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;
对音频数据和多个关键词进行语音情感识别,得到情感标签;
依据文字数据和情感标签进行分析整合得到语音识别结果。
根据本发明的另一方面,提供了一种基于深度学习的智能客服语音识别系统,包括:
数据预处理模块,用于接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;
关键词提取模块,用于对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;
情感识别模块,用于对音频数据和多个关键词进行语音情感识别,得到情感标签;
识别模块,用于依据文字数据和情感标签进行分析整合得到语音识别结果。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述一种基于深度学习的智能客服语音识别方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述一种基于深度学习的智能客服语音识别方法对应的操作。
根据本发明的一种基于深度学习的智能客服语音识别方法和系统,通过接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;对音频数据和多个关键词进行语音情感识别,得到情感标签;依据文字数据和情感标签进行分析整合得到语音识别结果。该发明在对待识别语音数据进行语义识别的同时,通过提取待识别语音的关键词,并依据关键词和声学特征识别情感标签,可以精确的识别语音情感,从而有助于客服做出有效答复,提升用户满意度。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种基于深度学习的智能客服语音识别方法流程图;
图2示出了本发明实施例提供的一种基于深度学习的智能客服语音识别装置的结构示意图;
图3示出了本发明实施例提供的计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
深度学习(Deep Learning, DL)是机器学习(Machine Learning, ML)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标,即人工智能。 DL是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 DL是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。 DL在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。
图1示出了本发明一种基于深度学习的智能客服语音识别方法实施例的流程图,如图1所示,该方法包括以下步骤:
步骤S101:接收待识别语音数据,对所述待识别语音数据进行数据预处理后,得到音频数据。
在一种可选的方式中,步骤S101进一步包括:对所述待识别语音数据依次进行背景去噪处理和无效语音数据过滤处理,提取得到音频数据。
本实施例可应用于智能语音客服应用场景,用户接通电话后,通过话音活动发出待识别语音数据,但是话音活动检测面临的噪声环境种类多样,一方面是外在环境的复杂,外在环境复杂包括噪声、混响、回声等,而且噪音又分为不同的会议室、户外、商场等不同环境,因此,可以先对待识别语音数据进行背景去噪处理,具体地,可以对待识别语音数据能量进行检测来判定背景噪音,从而去除背景杂音,另外针对待识别语音数据中的一些无效语音数据,例如重复的语句、以及大量停顿的语句等,可以进行无效语音识别,并过滤处理,从而提升系统资源利用率,以及造成响应不及时。
步骤S102:对所述音频数据通过语音识别得到文字数据,对所述文字数据进行特征提取,得到多个关键词。
在一种可选的方式中,步骤S102进一步包括:将所述音频数据输入预先构建的深度学习模型中,通过语音端点技术监测音频信号;对监测到的音频信号通过自动语音识别得到文字数据。
在本步骤中,将音频数据输入预先构建的深度学习模型中转化为音频信号,音频信号处理中检测出语音的端点是相当重要的,语音端点技术可以从包含语音的一段信号中确定出音频的起始点和结束点位置,虽然已经在步骤S101中去除了背景噪音,但实际处理中音频信号往往处于复杂的噪声环境中,因此可以通过语音端点技术监测音频信号,一旦检测到音频信号,对监测到的音频信号通过自动语音识别(Automatic SpeechRecognition,ASR)得到文字数据。
在一种可选的方式中,步骤S102进一步包括:将所述文字数据进行分词处理后得到多个分词;将所述多个分词通过所述预先构建的深度学习模型进行关键词提取,得到多个关键词。
针对一段文字数据,可以通过自然语言处理技术(NLP)进行分词处理后,得到多个分词,针对每个分词进行词性标注,词性表可以包括:形容词、名词、连词等词性,将标注后的多个分词通过所述预先构建的深度学习模型进行关键词提取,例如,针对一段文字数据“今天的天气怎么样”进行分词处理后 ,可以得到“今天”、“的”、“天气”、“怎么样”这四个分词,对着四个分词进行词性标注后,进行关键词提取,可以提取到“今天”、 “天气”、“怎么样”这三个关键词。
需要说明的是,关键词提取可以依据词性表中的词性来筛选,例如,连词不能作为关键词、副词不能作为关键词等。
步骤S103:对所述音频数据和所述多个关键词进行语音情感识别,得到情感标签。
在一种可选的方式中,步骤S103进一步包括:将所述多个关键词依次通过预先构建的深度学习模型进行情感标注,依据多个关键词的情感标注整合得到第一情感标签;将所述音频数据中通过预先构建的深度学习模型提取声学特征,依据所述声学特征确定第二情感标签;综合所述第一情感标签和所述第二情感标签确定待识别语音的情感标签;其中,所述声学特征至少包括所述音频数据的音高属性、音调属性、声音抖动属性。
首先,针对提取到的关键词依次进行情感标注得到第一情感标签;其次,一段音频数据中可以提取情感标签的包括词汇特征(使用的词汇即提取到的关键词)和声学特征(音高、音调、抖动等声音属性),在本实施例中,可以通过公开数据集RAVDESS来训练深度学习模型,RAVDESS 数据集语音情绪包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶等。每种情绪都包含2种不同的程度(正常,强烈),可以通过海量音频样本来训练模型,例如,针对海量音频样本,该音频样本中可以包括重复文本,也就是说对相同的文本赋以不同的情感来阅读,这些语料可以利用对比分析不同的情感状态下的声学和韵律表现;这些文本从字面意思就可以修剪其情感归属,以便录音人更准确地表现出情感;可以通过神经网络来对音频数据进行理解和分析预估,有不同的神经网络可以使用(例如多层感知器、卷积神经网络等都可以处理音频时序数据),通过神经网络提取声学特征,进而输入预先构建的深度学习模型中,输出得到第二情感标签;综合第一情感标签和第二情感标签,可以得到每一段音频数据的情感标签。
例如,可以将情感标签分为:六种情绪生气,高兴,害怕,悲伤,其他和中性,每个关键词对应一个情感标签,每段音频文本对应一个情感标签,一段音频数据可能产生多个情感标签,也就是说,第一情感标签和第二情感标签都可能是多个,那么在得到多个情感标签后,可以综合每种类别情感标签的个数,从高到低进行排序,选取排序靠前的作为最终情感标签。
步骤S104:依据文字数据和情感标签进行分析整合得到语音识别结果。
在一种可选的方式中,步骤S103进一步包括:对文字数据进行语义识别,依据语义识别结果和情感标签确定待识别语音数据的语音识别结果。
智能语音客服在接收到待识别语音后,服务端可以先对转换后的文字数据进行语义识别,并综合情感标签,确定待识别语音数据的语音识别结果。例如,语义识别结果是用户要求查询天气,情感标签是生气,则在进行回复时,可以针对生气的情感标签做出反馈后,再回答语义识别结果。
在一种可选的方式中,该方法还可以包括:将语音识别结果输入预先构建的深度学习模型中,以供深度学习模型启用对话模型,确定客服反馈内容;并依据客服反馈内容通过智能语音客服向用户提供反馈。
采用本实施例的方法,通过接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;对音频数据和多个关键词进行语音情感识别,得到情感标签;依据文字数据和情感标签进行分析整合得到语音识别结果。该方法在对待识别语音数据进行语义识别的同时,通过提取待识别语音的关键词,并依据关键词和声学特征识别情感标签,可以精确的识别语音情感,从而有助于客服做出有效答复,提升用户满意度。
图2示出了本发明一种基于深度学习的智能客服语音识别系统实施例的结构示意图。如图2所示,该装置包括:数据预处理模块201、关键词提取模块202、情感识别模块203、识别模块204和反馈模块205。
数据预处理模块201,用于接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据。
在一种可选的方式中,数据预处理模块201进一步用于:对待识别语音数据依次进行背景去噪处理和无效语音数据过滤处理,提取得到音频数据。
关键词提取模块202,用于对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词。
在一种可选的方式中,关键词提取模块202进一步用于:将音频数据输入预先构建的深度学习模型中,通过语音端点技术监测音频信号;对监测到的音频信号通过自动语音识别得到文字数据。
在一种可选的方式中,关键词提取模块202进一步用于:将文字数据进行分词处理后得到多个分词;将多个分词通过预先构建的深度学习模型进行关键词提取,得到多个关键词。
情感识别模块203,用于对音频数据和多个关键词进行语音情感识别,得到情感标签。
在一种可选的方式中,情感识别模块203进一步用于:将多个关键词依次通过预先构建的深度学习模型进行情感标注,依据多个关键词的情感标注整合得到第一情感标签;将音频数据中通过预先构建的深度学习模型提取声学特征,依据声学特征确定第二情感标签;综合第一情感标签和第二情感标签确定待识别语音的情感标签;其中,声学特征至少包括音频数据的音高属性、音调属性、声音抖动属性。
识别模块204,用于依据文字数据和情感标签进行分析整合得到语音识别结果。
在一种可选的方式中,识别模块204进一步用于:对文字数据进行语义识别,依据语义识别结果和情感标签确定待识别语音数据的语音识别结果。
在一种可选的方式中,该系统还包括反馈模块205,用于将语音识别结果输入预先构建的深度学习模型中,以供深度学习模型启用对话模型,确定客服反馈内容;并依据客服反馈内容通过智能语音客服向用户提供反馈。
采用本实施例的系统,通过接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;对音频数据和多个关键词进行语音情感识别,得到情感标签;依据文字数据和情感标签进行分析整合得到语音识别结果。该系统在对待识别语音数据进行语义识别的同时,通过提取待识别语音的关键词,并依据关键词和声学特征识别情感标签,可以精确的识别语音情感,从而有助于客服做出有效答复,提升用户满意度。
本发明实施例提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的一种基于深度学习的智能客服语音识别方法。
可执行指令具体可以用于使得处理器执行以下操作:
接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;
对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;
对音频数据和多个关键词进行语音情感识别,得到情感标签;
依据文字数据和情感标签进行分析整合得到语音识别结果。
图3示出了本发明计算设备实施例的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图3所示,该计算设备可以包括:
处理器(processor)、通信接口(Communications Interface)、存储器(memory)、以及通信总线。
其中:处理器、通信接口、以及存储器通过通信总线完成相互间的通信。通信接口,用于与其它设备比如客户端或其它服务器等的网元通信。处理器,用于执行程序,具体可以执行上述一种基于深度学习的智能客服语音识别方法实施例中的相关步骤。
具体地,程序可以包括程序代码,该程序代码包括计算机操作指令。
处理器可能是中央处理器CPU,或者是特定集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。服务器包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器,用于存放程序。存储器可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序具体可以用于使得处理器执行以下操作:
接收待识别语音数据,对待识别语音数据进行数据预处理后,得到音频数据;
对音频数据通过语音识别得到文字数据,对文字数据进行特征提取,得到多个关键词;
对音频数据和多个关键词进行语音情感识别,得到情感标签;
依据文字数据和情感标签进行分析整合得到语音识别结果。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如随附的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在随附的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (10)
1.一种基于深度学习的智能客服语音识别方法,其特征在于,包括:
接收待识别语音数据,对所述待识别语音数据进行数据预处理后,得到音频数据;
对所述音频数据通过语音识别得到文字数据,对所述文字数据进行特征提取,得到多个关键词;
对所述音频数据和所述多个关键词进行语音情感识别,得到情感标签;
依据所述文字数据和所述情感标签进行分析整合得到语音识别结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述待识别语音数据进行数据预处理进一步包括:
对所述待识别语音数据依次进行背景去噪处理和无效语音数据过滤处理,提取得到音频数据。
3.根据权利要求2所述的方法,其特征在于,对所述音频数据通过语音识别得到文字数据进一步包括:
将所述音频数据输入预先构建的深度学习模型中,通过语音端点技术监测音频信号;
对监测到的音频信号通过自动语音识别得到文字数据。
4.根据权利要求3所述的方法,其特征在于,对所述文字数据进行特征提取,得到多个关键词进一步包括:
将所述文字数据进行分词处理后得到多个分词;
将所述多个分词通过所述预先构建的深度学习模型进行关键词提取,得到多个关键词。
5.根据权利要求4所述的方法,其特征在于,所述对所述音频数据和所述多个关键词进行语音情感识别,得到情感标签进一步包括:
将所述多个关键词依次通过预先构建的深度学习模型进行情感标注,依据多个关键词的情感标注整合得到第一情感标签;
将所述音频数据中通过预先构建的深度学习模型提取声学特征,依据所述声学特征确定第二情感标签;
综合所述第一情感标签和所述第二情感标签确定待识别语音的情感标签;
其中,所述声学特征至少包括所述音频数据的音高属性、音调属性、声音抖动属性。
6.根据权利要求5所述的方法,其特征在于,所述依据所述文字数据和所述情感标签进行分析整合得到语音识别结果进一步包括:
对所述文字数据进行语义识别,依据所述语义识别结果和所述情感标签确定所述待识别语音数据的语音识别结果。
7.根据权利要求3-6任一项中所述的方法,其特征在于,所述方法还包括:
将所述语音识别结果输入所述预先构建的深度学习模型中,以供所述深度学习模型启用对话模型,确定客服反馈内容;
并依据所述客服反馈内容通过智能语音客服向用户提供反馈。
8.一种基于深度学习的智能客服语音识别系统,其特征在于,包括:
数据预处理模块,用于接收待识别语音数据,对所述待识别语音数据进行数据预处理后,得到音频数据;
关键词提取模块,用于对所述音频数据通过语音识别得到文字数据,对所述文字数据进行特征提取,得到多个关键词;
情感识别模块,用于对所述音频数据和所述多个关键词进行语音情感识别,得到情感标签;
识别模块,用于依据所述文字数据和所述情感标签进行分析整合得到语音识别结果。
9.一种计算设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的一种基于深度学习的智能客服语音识别方法对应的操作。
10.一种计算机存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的一种基于深度学习的智能客服语音识别方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310870636.0A CN116597821A (zh) | 2023-07-17 | 2023-07-17 | 一种基于深度学习的智能客服语音识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310870636.0A CN116597821A (zh) | 2023-07-17 | 2023-07-17 | 一种基于深度学习的智能客服语音识别方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116597821A true CN116597821A (zh) | 2023-08-15 |
Family
ID=87604842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310870636.0A Pending CN116597821A (zh) | 2023-07-17 | 2023-07-17 | 一种基于深度学习的智能客服语音识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116597821A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180032884A1 (en) * | 2016-07-27 | 2018-02-01 | Wipro Limited | Method and system for dynamically generating adaptive response to user interactions |
CN108334583A (zh) * | 2018-01-26 | 2018-07-27 | 上海智臻智能网络科技股份有限公司 | 情感交互方法及装置、计算机可读存储介质、计算机设备 |
CN109767791A (zh) * | 2019-03-21 | 2019-05-17 | 中国—东盟信息港股份有限公司 | 一种针对呼叫中心通话的语音情绪识别及应用系统 |
US20210192332A1 (en) * | 2019-12-19 | 2021-06-24 | Sling Media Pvt Ltd | Method and system for analyzing customer calls by implementing a machine learning model to identify emotions |
CN114203177A (zh) * | 2021-12-06 | 2022-03-18 | 深圳市证通电子股份有限公司 | 一种基于深度学习与情绪识别的智能语音问答方法和系统 |
CN114842835A (zh) * | 2022-04-19 | 2022-08-02 | 河南中原动力智能制造有限公司 | 一种基于深度学习模型的语音交互系统 |
CN114999533A (zh) * | 2022-06-09 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于情绪识别的智能问答方法、装置、设备及存储介质 |
CN115240655A (zh) * | 2022-07-19 | 2022-10-25 | 深圳市灵镜技术有限公司 | 一种基于深度学习的中文语音识别系统及方法 |
-
2023
- 2023-07-17 CN CN202310870636.0A patent/CN116597821A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180032884A1 (en) * | 2016-07-27 | 2018-02-01 | Wipro Limited | Method and system for dynamically generating adaptive response to user interactions |
CN108334583A (zh) * | 2018-01-26 | 2018-07-27 | 上海智臻智能网络科技股份有限公司 | 情感交互方法及装置、计算机可读存储介质、计算机设备 |
CN109767791A (zh) * | 2019-03-21 | 2019-05-17 | 中国—东盟信息港股份有限公司 | 一种针对呼叫中心通话的语音情绪识别及应用系统 |
US20210192332A1 (en) * | 2019-12-19 | 2021-06-24 | Sling Media Pvt Ltd | Method and system for analyzing customer calls by implementing a machine learning model to identify emotions |
CN114203177A (zh) * | 2021-12-06 | 2022-03-18 | 深圳市证通电子股份有限公司 | 一种基于深度学习与情绪识别的智能语音问答方法和系统 |
CN114842835A (zh) * | 2022-04-19 | 2022-08-02 | 河南中原动力智能制造有限公司 | 一种基于深度学习模型的语音交互系统 |
CN114999533A (zh) * | 2022-06-09 | 2022-09-02 | 平安科技(深圳)有限公司 | 基于情绪识别的智能问答方法、装置、设备及存储介质 |
CN115240655A (zh) * | 2022-07-19 | 2022-10-25 | 深圳市灵镜技术有限公司 | 一种基于深度学习的中文语音识别系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829039B (zh) | 智能聊天方法、装置、计算机设备及存储介质 | |
US11475897B2 (en) | Method and apparatus for response using voice matching user category | |
CN104598644B (zh) | 喜好标签挖掘方法和装置 | |
CN111046656A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN106847279A (zh) | 基于机器人操作系统ros的人机交互方法 | |
CN107862058B (zh) | 用于生成信息的方法和装置 | |
CN110851650B (zh) | 一种评论输出方法、装置、以及计算机存储介质 | |
CN114298121A (zh) | 基于多模态的文本生成方法、模型训练方法和装置 | |
WO2023137922A1 (zh) | 语音消息生成方法和装置、计算机设备、存储介质 | |
CN110909131A (zh) | 模型的生成方法、情绪识别方法、系统、设备和存储介质 | |
CN111210824B (zh) | 语音信息处理方法、装置、电子设备及存储介质 | |
CN108962226B (zh) | 用于检测语音的端点的方法和装置 | |
CN113053361B (zh) | 语音识别方法、模型训练方法、装置、设备及介质 | |
CN112735479A (zh) | 语音情绪识别方法、装置、计算机设备和存储介质 | |
CN110931002B (zh) | 人机交互方法、装置、计算机设备和存储介质 | |
CN116882418A (zh) | 为对话数据生成情景任务的方法、装置、计算设备和介质 | |
CN117275466A (zh) | 一种业务意图识别方法、装置、设备及其存储介质 | |
CN116978367A (zh) | 语音识别方法、装置、电子设备和存储介质 | |
CN111401069A (zh) | 会话文本的意图识别方法、意图识别装置及终端 | |
CN112233648B (zh) | 结合rpa及ai的数据的处理方法、装置、设备及存储介质 | |
CN116597821A (zh) | 一种基于深度学习的智能客服语音识别方法和系统 | |
WO2022262080A1 (zh) | 一种对话关系处理方法、计算机及可读存储介质 | |
CN110717020B (zh) | 语音问答方法、装置、计算机设备和存储介质 | |
CN114925206A (zh) | 人工智能体、语音信息识别方法、存储介质和程序产品 | |
CN114595314A (zh) | 融合情绪的对话应答方法、装置、终端及存储装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |