CN111246026A - 一种基于卷积神经网络和连接性时序分类的录音处理方法 - Google Patents

一种基于卷积神经网络和连接性时序分类的录音处理方法 Download PDF

Info

Publication number
CN111246026A
CN111246026A CN202010164390.1A CN202010164390A CN111246026A CN 111246026 A CN111246026 A CN 111246026A CN 202010164390 A CN202010164390 A CN 202010164390A CN 111246026 A CN111246026 A CN 111246026A
Authority
CN
China
Prior art keywords
file
voice
model
neural network
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010164390.1A
Other languages
English (en)
Inventor
王贤达
乔树彬
陈强
祝佳云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lanzhou Feitian Netscape Information Industry Co ltd
Original Assignee
Lanzhou Feitian Netscape Information Industry Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lanzhou Feitian Netscape Information Industry Co ltd filed Critical Lanzhou Feitian Netscape Information Industry Co ltd
Priority to CN202010164390.1A priority Critical patent/CN111246026A/zh
Publication of CN111246026A publication Critical patent/CN111246026A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5175Call or contact centers supervision arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开一种基于卷积神经网络和连接性时序分类的录音处理方法,属于语音通信技术领域。该录音处理方法包含以下步骤:S1:利用现有的语音素材,建立数据模型;S2:获取源服务器录音文件,并进行预处理;S3:利用模型文件,对录音文件进行二次识别处理;S4:将输出的处理结果记录存储到数据库中。本发明借助于人工智能语音识别,极大的提高了质检工作效率和覆盖范围,丰富了呼叫中心的处理能力;覆盖面广、节约资源,针对性强。

Description

一种基于卷积神经网络和连接性时序分类的录音处理方法
技术领域
本发明涉及语音通信技术领域,具体涉及一种基于卷积神经网络和连接性时序分类的呼叫中心录音处理方法。
背景技术
当前呼叫中心技术已经广泛应用于各个行业,在实际使用中,会产生大量的录音文件,这些录音文件对于提升呼叫中心的服务水平有非常重要的作用。因此,对于录音文件的质检是日常的重要工作。目前,质检工作存在两大缺陷:1、质检过程基本采用人工的模式,对于录音文件的调取基本采用抽样的方式,存在覆盖面小、无法事先拦截等问题,并且费时费力;2、每次质检只能调取部分录音,无法对整体情况进行分析,对于整体的把握只能通过话务员操作的业务系统,而话务员自身,由于能力、责任感等因素,水平参差不齐,可能无法完整的描述每次通话所涉及的业务过程。
因此,需要一种可以替代人工处理录音文件的方法。在不影响质检工作质量的前提下,达到提高工作效率的的目的。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷或不足,提供一种基于卷积神经网络和连接性时序分类的呼叫中心录音处理方法,该方法采用卷积神经网络和连接性时序分类技术,利用计算机替代人工对录音文件进行预处理,通过对录音文件的自动语音识别,对录音文件所对应的业务事态等预先进行分类和预处理,以便呼叫中心更好的对外提供服务,从而在不影响质检工作质量的前提下,达到了提高工作效率的目的。
为了达到上述目的,本发明提供的技术方案是一种基于卷积神经网络和连接性时序分类的录音处理方法,包含以下步骤:
S1:利用现有的语音素材,建立数据模型;
S2:获取源服务器录音文件,并进行预处理;
S3:利用模型文件,对录音文件进行二次识别处理;
S4:将输出的处理结果记录存储到数据库中。
所述步骤S1包含以下步骤:
S101:下载建立模型所需的语音文件数据集,采用双份的数据集,即THCHS30中文语音数据集和OpenSLR提供的免费ST-CMDS中文语音数据集;
S102:对下载语音文件进行整理,存放在统一的目录下,语音文件全部是标准的wav文件,以标准普通话为主;
S103:如果有需求,根据实际情况准备方言版本,并保存为标准的wav文件;
S104:将语音文件中的语音信号通过分帧加窗操作转换为卷积神经网络需要的二维频谱图像信号,也就是语谱图;
S105:提取语音文件语谱图中的特征;
S106:将提取的特征与神经网络相结合,将输入的特征图数量作为单个神经网络的通道数目;
S107:截取特征所对应的信息时间为时间序列;
S108:部署人工神经网络库Keras和开源的深度学习框架TensorFlow;
S109:采用开源的深度学习框架TensorFlow作为转化工具,将上述语谱图训练数据集转化为TensorFlow训练网络所需的训练集,使用开源的人工神经网络库Keras对这种参考了VGG的深层的深度卷积神经网络进行处理,建立语音深度神经网络模型;
S110:利用TensorFlow训练命令调用配置方案,以训练模型至最优性能;
S111:对模型进行测试,以检查训练效果。如果不满意,可以调整参数,返回S102,重新训练。
所述步骤S2包含以下步骤:
S201:利用FTP协议,将录音文件从源服务器复制到处理服务器,并保存到特定目录下;
S202:利用自开发的音频转换库把VOX音频文件转化为WAV格式,以符合处理格式要求;
S203:对WAV文件的音频信道加以处理,以实现数据增强,并消除背景杂音,以提高识别准确率。
所述步骤S3包含以下步骤:
S301:读取并加载S1步骤生成的模型文件;
S302:对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,对其进行时频分析并获取其时间频率频谱,进而获得频谱图;
S303:调用库python_speech_features,对频谱图进行处理,借助模型进行分析,获得声学模型输出;
S304:利用连接性时序分类技术,将连续相同的符合合并为同一个符号,然后再去除静音分隔标记符,得到最终实际的语音拼音符号序列;
S305:借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出。
基于以上阐述,与现有技术相比,本发明的有益效果在于:
1、借助于人工智能语音识别,极大的提高了质检工作效率和覆盖范围,丰富了呼叫中心的处理能力。
2、覆盖面广,由于采用自动处理技术,可以每天定时对全量的录音文件进行识别并处理,可以避免抽检带来的覆盖面偏低问题;
3、节约人力物力,免除了人工进行抽检的步骤,可以显著减少日常质检工作所需的人力物力。
4、针对性强,在质检员人工介入前,已经预先对语音文件进行了自动筛选,可以根据需要进行有针对性的处理。
附图说明
图1为本发明的模型建立流程图;
图2为本发明的业务处理流程图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合具体实施例对本发明作进一步的详细说明。
实施例
请参照附图1,为本发明提供的数据模型的建立方法,包括以下步骤:
S101:下载建立模型所需的语音文件数据集,为保证效果,采用了双份的数据集,即THCHS30中文语音数据集和OpenSLR提供的免费ST-CMDS中文语音数据集;
S102:对下载语音文件进行整理,存放在统一的目录下,语音文件全部是标准的wav文件,以标准普通话为主;
S103:如果有需求,根据实际情况准备方言版本,并保存为标准的wav文件;
S104:将语音文件中的语音信号通过分帧加窗等操作转换为卷积神经网络需要的二维频谱图像信号,也就是语谱图;
S105:提取语音文件语谱图中的特征;
S106:将提取的特征与神经网络相结合,将输入的特征图数量作为单个神经网络的通道数目;
S107:截取特征所对应的信息时间为时间序列;
S108:部署人工神经网络库Keras和开源的深度学习框架TensorFlow;
S109:采用开源的深度学习框架TensorFlow作为转化工具,将上述语谱图训练数据集转化为TensorFlow训练网络所需的训练集,使用开源的人工神经网络库Keras对这种参考了VGG的深层的深度卷积神经网络进行处理,建立语音深度神经网络模型;
S110:利用TensorFlow训练命令调用配置方案,以训练模型至最优性能;
S111:对模型进行测试,以检查训练效果。如果不满意,可以调整参数,返回S102,重新训练。
在本发明的一些实施例中,步骤S103的方法应用在客服呼叫中心场景中,由于本地方言流行,需要准备本地版的语音文件。
请参照附图2,本发明提供的录音文件识别的方法,包括以下步骤:
S2:获取源服务器录音文件,并进行预处理。
所述步骤S2包含以下具体步骤:
S201:利用FTP协议,将录音文件从源服务器复制到处理服务器,并保存到特定目录下;
S202:利用自开发的音频转换库把VOX音频文件转化为WAV格式,以符合处理格式要求;
S203:对WAV文件的音频信道加以处理,以实现数据增强,并消除背景杂音等,以提高识别准确率。
S3:利用模型文件,对录音文件进行二次识别处理。
所述步骤S3包含以下步骤:
S301:读取并加载S1步骤生成的模型文件;
S302:对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,对其进行时频分析并获取其时间频率频谱,进而获得频谱图;
S303:调用库python_speech_features,对频谱图进行处理,借助模型进行分析,获得声学模型输出;
S304:由于语音识别系统的声学模型的输出中,往往包含了大量连续重复的符号。因此,利用连接性时序分类技术,将连续相同的声学符号合并为同一个符号,然后再去除静音分隔标记符,得到最终实际的语音拼音符号序列;
S305:借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出。
S4:将输出的处理结果记录存储到数据库中。
本发明的工作原理为:通过对语音文件数据集的处理,建立人类发音向量与对应的文本之间的映射模型。通过对录音文件的预处理,提取出音频特征,并且和模型进行映射对比,获取发音序列。最后借助马尔可夫模型将发音转换为文本。首先是模型的建立。根据需求,准备对应的语音文件和与之对应的语音文本。如果是普通话需求,可使用公共的免费语音文件集。对语音文件进行预处理后,调用开源的深度学习框架TensorFlow和开源的人工神经网络库Keras对语音文件进行特征提取,最终形成模型;接着从源服务器获取录音文件,借助于FTP协议从源服务器下载录音文件,并保存在特定处理目录下。使用自研发的转换库把录音文件从VOX格式转换为WAV格式,并对其进行预处理,以增强数据消除背景杂音等;接着对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,获得频谱图。借助模型文件对频谱图进行处理,获得声学模型输出。把相同的声学符号合并为同一个符号,去除静音分隔标记符,得到最终实际的语音拼音符号序列。借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出;最后,把输出的处理结果记录存储到数据库中。本发明的软件采用Python语言开发。
以上仅是本发明的优选实施方式,应当指出的是,上述优选实施方式不应视为对本发明的限制,本发明的保护范围应当以权利要求所限定的范围为准。对于本技术领域的普通技术人员来说,在不脱离本发明的精神和范围内,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种基于卷积神经网络和连接性时序分类的录音处理方法,其特征在于,包含以下步骤:
S1:利用现有的语音素材,建立数据模型;
S2:获取源服务器录音文件,并进行预处理;
S3:利用模型文件,对录音文件进行二次识别处理;
S4:将输出的处理结果记录存储到数据库中。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包含以下步骤:
S101:下载建立模型所需的语音文件数据集;
S102:对下载语音文件进行整理,存放在统一的目录下,语音文件全部是标准的wav文件,以标准普通话为主;
S103:如果有需求,根据实际情况准备方言版本,并保存为标准的wav文件;
S104:将语音文件中的语音信号通过分帧加窗操作转换为卷积神经网络需要的二维频谱图像信号,也就是语谱图;
S105:提取语音文件语谱图中的特征;
S106:将提取的特征与神经网络相结合,将输入的特征图数量作为单个神经网络的通道数目;
S107:截取特征所对应的信息时间为时间序列;
S108:部署人工神经网络库Keras和开源的深度学习框架TensorFlow;
S109:采用开源的深度学习框架TensorFlow作为转化工具,将上述语谱图训练数据集转化为TensorFlow训练网络所需的训练集,使用开源的人工神经网络库Keras对这种参考了VGG的深层的深度卷积神经网络进行处理,建立语音深度神经网络模型;
S110:利用TensorFlow训练命令调用配置方案,以训练模型至最优性能;
S111:对模型进行测试,以检查训练效果。如果不满意,可以调整参数,返回S102,重新训练。
3.根据权利要求2所述的方法,其特征在于:所述语音文件数据集采用双份的数据集,即THCHS30中文语音数据集和OpenSLR提供的免费ST-CMDS中文语音数据集。
4.根据权利要求3所述的方法,其特征在于,所述步骤S2包含以下步骤:
S201:利用FTP协议,将录音文件从源服务器复制到处理服务器,并保存到特定目录下;
S202:利用自开发的音频转换库把VOX音频文件转化为WAV格式,以符合处理格式要求;
S203:对WAV文件的音频信道加以处理,以实现数据增强,并消除背景杂音,以提高识别准确率。
5.根据权利要求4所述的方法,其特征在于,所述步骤S3包含以下步骤:
S301:读取并加载S1步骤生成的模型文件;
S302:对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,对其进行时频分析并获取其时间频率频谱,进而获得频谱图;
S303:调用库python_speech_features,对频谱图进行处理,借助模型进行分析,获得声学模型输出;
S304:利用连接性时序分类技术,将连续相同的符合合并为同一个符号,然后再去除静音分隔标记符,得到最终实际的语音拼音符号序列;
S305:借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出。
CN202010164390.1A 2020-03-11 2020-03-11 一种基于卷积神经网络和连接性时序分类的录音处理方法 Pending CN111246026A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010164390.1A CN111246026A (zh) 2020-03-11 2020-03-11 一种基于卷积神经网络和连接性时序分类的录音处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010164390.1A CN111246026A (zh) 2020-03-11 2020-03-11 一种基于卷积神经网络和连接性时序分类的录音处理方法

Publications (1)

Publication Number Publication Date
CN111246026A true CN111246026A (zh) 2020-06-05

Family

ID=70866350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010164390.1A Pending CN111246026A (zh) 2020-03-11 2020-03-11 一种基于卷积神经网络和连接性时序分类的录音处理方法

Country Status (1)

Country Link
CN (1) CN111246026A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205798A (zh) * 2021-05-10 2021-08-03 北京航空航天大学 一种无人机集群控制方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107408384A (zh) * 2015-11-25 2017-11-28 百度(美国)有限责任公司 部署的端对端语音识别
CN108510985A (zh) * 2017-02-24 2018-09-07 百度(美国)有限责任公司 用于减小生产语音模型中的原则性偏差的系统和方法
CN109272988A (zh) * 2018-09-30 2019-01-25 江南大学 基于多路卷积神经网络的语音识别方法
CN109272990A (zh) * 2018-09-25 2019-01-25 江南大学 基于卷积神经网络的语音识别方法
CN110853629A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于深度学习的语音识别数字的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107408384A (zh) * 2015-11-25 2017-11-28 百度(美国)有限责任公司 部署的端对端语音识别
CN108510985A (zh) * 2017-02-24 2018-09-07 百度(美国)有限责任公司 用于减小生产语音模型中的原则性偏差的系统和方法
CN109272990A (zh) * 2018-09-25 2019-01-25 江南大学 基于卷积神经网络的语音识别方法
CN109272988A (zh) * 2018-09-30 2019-01-25 江南大学 基于多路卷积神经网络的语音识别方法
CN110853629A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于深度学习的语音识别数字的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
潘粤成: "《一种基于CNN/CTC 的端到端普通话语音识别方法》", 《现代信息科技》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113205798A (zh) * 2021-05-10 2021-08-03 北京航空航天大学 一种无人机集群控制方法及系统

Similar Documents

Publication Publication Date Title
CN112804400B (zh) 客服呼叫语音质检方法、装置、电子设备及存储介质
CN109256150B (zh) 基于机器学习的语音情感识别系统及方法
WO2021128741A1 (zh) 语音情绪波动分析方法、装置、计算机设备及存储介质
CN107562760B (zh) 一种语音数据处理方法及装置
CN110853649A (zh) 基于智能语音技术的标签提取方法、系统、设备及介质
CN111477216A (zh) 一种用于对话机器人的音意理解模型的训练方法及系统
CN103700370A (zh) 一种广播电视语音识别系统方法及系统
CN107886951B (zh) 一种语音检测方法、装置及设备
CN103065620A (zh) 在手机上或网页上接收用户输入的文字并实时合成为个性化声音的方法
CN111489765A (zh) 一种基于智能语音技术的话务服务质检方法
CN111785275A (zh) 语音识别方法及装置
CN116665676B (zh) 一种用于智能语音外呼系统的语义识别方法
CN111489743A (zh) 一种基于智能语音技术的运营管理分析系统
CN114818649A (zh) 基于智能语音交互技术的业务咨询处理方法及装置
CN113611286B (zh) 一种基于共性特征提取的跨语种语音情感识别方法和系统
CN111159334A (zh) 用于房源跟进信息处理的方法及系统
CN110852075A (zh) 自动添加标点符号的语音转写方法、装置及可读存储介质
CN110705218A (zh) 一种基于深度学习的外呼状态识别方式
CN111246026A (zh) 一种基于卷积神经网络和连接性时序分类的录音处理方法
CN109618067A (zh) 外呼对话处理方法和系统
CN110933236B (zh) 一种基于机器学习的空号识别方法
CN115831125A (zh) 语音识别方法、装置、设备、存储介质及产品
CN114707515A (zh) 话术判别方法、装置、电子设备及存储介质
CN115022471A (zh) 一种智能机器人语音交互系统和方法
CN114582328A (zh) 语音标注系统、方法、终端及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200605