CN111246026A - 一种基于卷积神经网络和连接性时序分类的录音处理方法 - Google Patents
一种基于卷积神经网络和连接性时序分类的录音处理方法 Download PDFInfo
- Publication number
- CN111246026A CN111246026A CN202010164390.1A CN202010164390A CN111246026A CN 111246026 A CN111246026 A CN 111246026A CN 202010164390 A CN202010164390 A CN 202010164390A CN 111246026 A CN111246026 A CN 111246026A
- Authority
- CN
- China
- Prior art keywords
- file
- voice
- model
- neural network
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开一种基于卷积神经网络和连接性时序分类的录音处理方法,属于语音通信技术领域。该录音处理方法包含以下步骤:S1:利用现有的语音素材,建立数据模型;S2:获取源服务器录音文件,并进行预处理;S3:利用模型文件,对录音文件进行二次识别处理;S4:将输出的处理结果记录存储到数据库中。本发明借助于人工智能语音识别,极大的提高了质检工作效率和覆盖范围,丰富了呼叫中心的处理能力;覆盖面广、节约资源,针对性强。
Description
技术领域
本发明涉及语音通信技术领域,具体涉及一种基于卷积神经网络和连接性时序分类的呼叫中心录音处理方法。
背景技术
当前呼叫中心技术已经广泛应用于各个行业,在实际使用中,会产生大量的录音文件,这些录音文件对于提升呼叫中心的服务水平有非常重要的作用。因此,对于录音文件的质检是日常的重要工作。目前,质检工作存在两大缺陷:1、质检过程基本采用人工的模式,对于录音文件的调取基本采用抽样的方式,存在覆盖面小、无法事先拦截等问题,并且费时费力;2、每次质检只能调取部分录音,无法对整体情况进行分析,对于整体的把握只能通过话务员操作的业务系统,而话务员自身,由于能力、责任感等因素,水平参差不齐,可能无法完整的描述每次通话所涉及的业务过程。
因此,需要一种可以替代人工处理录音文件的方法。在不影响质检工作质量的前提下,达到提高工作效率的的目的。
发明内容
本发明的目的在于针对上述现有技术存在的缺陷或不足,提供一种基于卷积神经网络和连接性时序分类的呼叫中心录音处理方法,该方法采用卷积神经网络和连接性时序分类技术,利用计算机替代人工对录音文件进行预处理,通过对录音文件的自动语音识别,对录音文件所对应的业务事态等预先进行分类和预处理,以便呼叫中心更好的对外提供服务,从而在不影响质检工作质量的前提下,达到了提高工作效率的目的。
为了达到上述目的,本发明提供的技术方案是一种基于卷积神经网络和连接性时序分类的录音处理方法,包含以下步骤:
S1:利用现有的语音素材,建立数据模型;
S2:获取源服务器录音文件,并进行预处理;
S3:利用模型文件,对录音文件进行二次识别处理;
S4:将输出的处理结果记录存储到数据库中。
所述步骤S1包含以下步骤:
S101:下载建立模型所需的语音文件数据集,采用双份的数据集,即THCHS30中文语音数据集和OpenSLR提供的免费ST-CMDS中文语音数据集;
S102:对下载语音文件进行整理,存放在统一的目录下,语音文件全部是标准的wav文件,以标准普通话为主;
S103:如果有需求,根据实际情况准备方言版本,并保存为标准的wav文件;
S104:将语音文件中的语音信号通过分帧加窗操作转换为卷积神经网络需要的二维频谱图像信号,也就是语谱图;
S105:提取语音文件语谱图中的特征;
S106:将提取的特征与神经网络相结合,将输入的特征图数量作为单个神经网络的通道数目;
S107:截取特征所对应的信息时间为时间序列;
S108:部署人工神经网络库Keras和开源的深度学习框架TensorFlow;
S109:采用开源的深度学习框架TensorFlow作为转化工具,将上述语谱图训练数据集转化为TensorFlow训练网络所需的训练集,使用开源的人工神经网络库Keras对这种参考了VGG的深层的深度卷积神经网络进行处理,建立语音深度神经网络模型;
S110:利用TensorFlow训练命令调用配置方案,以训练模型至最优性能;
S111:对模型进行测试,以检查训练效果。如果不满意,可以调整参数,返回S102,重新训练。
所述步骤S2包含以下步骤:
S201:利用FTP协议,将录音文件从源服务器复制到处理服务器,并保存到特定目录下;
S202:利用自开发的音频转换库把VOX音频文件转化为WAV格式,以符合处理格式要求;
S203:对WAV文件的音频信道加以处理,以实现数据增强,并消除背景杂音,以提高识别准确率。
所述步骤S3包含以下步骤:
S301:读取并加载S1步骤生成的模型文件;
S302:对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,对其进行时频分析并获取其时间频率频谱,进而获得频谱图;
S303:调用库python_speech_features,对频谱图进行处理,借助模型进行分析,获得声学模型输出;
S304:利用连接性时序分类技术,将连续相同的符合合并为同一个符号,然后再去除静音分隔标记符,得到最终实际的语音拼音符号序列;
S305:借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出。
基于以上阐述,与现有技术相比,本发明的有益效果在于:
1、借助于人工智能语音识别,极大的提高了质检工作效率和覆盖范围,丰富了呼叫中心的处理能力。
2、覆盖面广,由于采用自动处理技术,可以每天定时对全量的录音文件进行识别并处理,可以避免抽检带来的覆盖面偏低问题;
3、节约人力物力,免除了人工进行抽检的步骤,可以显著减少日常质检工作所需的人力物力。
4、针对性强,在质检员人工介入前,已经预先对语音文件进行了自动筛选,可以根据需要进行有针对性的处理。
附图说明
图1为本发明的模型建立流程图;
图2为本发明的业务处理流程图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合具体实施例对本发明作进一步的详细说明。
实施例
请参照附图1,为本发明提供的数据模型的建立方法,包括以下步骤:
S101:下载建立模型所需的语音文件数据集,为保证效果,采用了双份的数据集,即THCHS30中文语音数据集和OpenSLR提供的免费ST-CMDS中文语音数据集;
S102:对下载语音文件进行整理,存放在统一的目录下,语音文件全部是标准的wav文件,以标准普通话为主;
S103:如果有需求,根据实际情况准备方言版本,并保存为标准的wav文件;
S104:将语音文件中的语音信号通过分帧加窗等操作转换为卷积神经网络需要的二维频谱图像信号,也就是语谱图;
S105:提取语音文件语谱图中的特征;
S106:将提取的特征与神经网络相结合,将输入的特征图数量作为单个神经网络的通道数目;
S107:截取特征所对应的信息时间为时间序列;
S108:部署人工神经网络库Keras和开源的深度学习框架TensorFlow;
S109:采用开源的深度学习框架TensorFlow作为转化工具,将上述语谱图训练数据集转化为TensorFlow训练网络所需的训练集,使用开源的人工神经网络库Keras对这种参考了VGG的深层的深度卷积神经网络进行处理,建立语音深度神经网络模型;
S110:利用TensorFlow训练命令调用配置方案,以训练模型至最优性能;
S111:对模型进行测试,以检查训练效果。如果不满意,可以调整参数,返回S102,重新训练。
在本发明的一些实施例中,步骤S103的方法应用在客服呼叫中心场景中,由于本地方言流行,需要准备本地版的语音文件。
请参照附图2,本发明提供的录音文件识别的方法,包括以下步骤:
S2:获取源服务器录音文件,并进行预处理。
所述步骤S2包含以下具体步骤:
S201:利用FTP协议,将录音文件从源服务器复制到处理服务器,并保存到特定目录下;
S202:利用自开发的音频转换库把VOX音频文件转化为WAV格式,以符合处理格式要求;
S203:对WAV文件的音频信道加以处理,以实现数据增强,并消除背景杂音等,以提高识别准确率。
S3:利用模型文件,对录音文件进行二次识别处理。
所述步骤S3包含以下步骤:
S301:读取并加载S1步骤生成的模型文件;
S302:对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,对其进行时频分析并获取其时间频率频谱,进而获得频谱图;
S303:调用库python_speech_features,对频谱图进行处理,借助模型进行分析,获得声学模型输出;
S304:由于语音识别系统的声学模型的输出中,往往包含了大量连续重复的符号。因此,利用连接性时序分类技术,将连续相同的声学符号合并为同一个符号,然后再去除静音分隔标记符,得到最终实际的语音拼音符号序列;
S305:借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出。
S4:将输出的处理结果记录存储到数据库中。
本发明的工作原理为:通过对语音文件数据集的处理,建立人类发音向量与对应的文本之间的映射模型。通过对录音文件的预处理,提取出音频特征,并且和模型进行映射对比,获取发音序列。最后借助马尔可夫模型将发音转换为文本。首先是模型的建立。根据需求,准备对应的语音文件和与之对应的语音文本。如果是普通话需求,可使用公共的免费语音文件集。对语音文件进行预处理后,调用开源的深度学习框架TensorFlow和开源的人工神经网络库Keras对语音文件进行特征提取,最终形成模型;接着从源服务器获取录音文件,借助于FTP协议从源服务器下载录音文件,并保存在特定处理目录下。使用自研发的转换库把录音文件从VOX格式转换为WAV格式,并对其进行预处理,以增强数据消除背景杂音等;接着对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,获得频谱图。借助模型文件对频谱图进行处理,获得声学模型输出。把相同的声学符号合并为同一个符号,去除静音分隔标记符,得到最终实际的语音拼音符号序列。借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出;最后,把输出的处理结果记录存储到数据库中。本发明的软件采用Python语言开发。
以上仅是本发明的优选实施方式,应当指出的是,上述优选实施方式不应视为对本发明的限制,本发明的保护范围应当以权利要求所限定的范围为准。对于本技术领域的普通技术人员来说,在不脱离本发明的精神和范围内,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于卷积神经网络和连接性时序分类的录音处理方法,其特征在于,包含以下步骤:
S1:利用现有的语音素材,建立数据模型;
S2:获取源服务器录音文件,并进行预处理;
S3:利用模型文件,对录音文件进行二次识别处理;
S4:将输出的处理结果记录存储到数据库中。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包含以下步骤:
S101:下载建立模型所需的语音文件数据集;
S102:对下载语音文件进行整理,存放在统一的目录下,语音文件全部是标准的wav文件,以标准普通话为主;
S103:如果有需求,根据实际情况准备方言版本,并保存为标准的wav文件;
S104:将语音文件中的语音信号通过分帧加窗操作转换为卷积神经网络需要的二维频谱图像信号,也就是语谱图;
S105:提取语音文件语谱图中的特征;
S106:将提取的特征与神经网络相结合,将输入的特征图数量作为单个神经网络的通道数目;
S107:截取特征所对应的信息时间为时间序列;
S108:部署人工神经网络库Keras和开源的深度学习框架TensorFlow;
S109:采用开源的深度学习框架TensorFlow作为转化工具,将上述语谱图训练数据集转化为TensorFlow训练网络所需的训练集,使用开源的人工神经网络库Keras对这种参考了VGG的深层的深度卷积神经网络进行处理,建立语音深度神经网络模型;
S110:利用TensorFlow训练命令调用配置方案,以训练模型至最优性能;
S111:对模型进行测试,以检查训练效果。如果不满意,可以调整参数,返回S102,重新训练。
3.根据权利要求2所述的方法,其特征在于:所述语音文件数据集采用双份的数据集,即THCHS30中文语音数据集和OpenSLR提供的免费ST-CMDS中文语音数据集。
4.根据权利要求3所述的方法,其特征在于,所述步骤S2包含以下步骤:
S201:利用FTP协议,将录音文件从源服务器复制到处理服务器,并保存到特定目录下;
S202:利用自开发的音频转换库把VOX音频文件转化为WAV格式,以符合处理格式要求;
S203:对WAV文件的音频信道加以处理,以实现数据增强,并消除背景杂音,以提高识别准确率。
5.根据权利要求4所述的方法,其特征在于,所述步骤S3包含以下步骤:
S301:读取并加载S1步骤生成的模型文件;
S302:对预处理过的WAV格式录音文件的音频数据进行短时傅里叶变换,对其进行时频分析并获取其时间频率频谱,进而获得频谱图;
S303:调用库python_speech_features,对频谱图进行处理,借助模型进行分析,获得声学模型输出;
S304:利用连接性时序分类技术,将连续相同的符合合并为同一个符号,然后再去除静音分隔标记符,得到最终实际的语音拼音符号序列;
S305:借助基于概率图的最大熵隐马尔可夫模型,使用统计语言模型,将语音拼音符号转换为最终的识别文本并输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010164390.1A CN111246026A (zh) | 2020-03-11 | 2020-03-11 | 一种基于卷积神经网络和连接性时序分类的录音处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010164390.1A CN111246026A (zh) | 2020-03-11 | 2020-03-11 | 一种基于卷积神经网络和连接性时序分类的录音处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111246026A true CN111246026A (zh) | 2020-06-05 |
Family
ID=70866350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010164390.1A Pending CN111246026A (zh) | 2020-03-11 | 2020-03-11 | 一种基于卷积神经网络和连接性时序分类的录音处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111246026A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113205798A (zh) * | 2021-05-10 | 2021-08-03 | 北京航空航天大学 | 一种无人机集群控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107408384A (zh) * | 2015-11-25 | 2017-11-28 | 百度(美国)有限责任公司 | 部署的端对端语音识别 |
CN108510985A (zh) * | 2017-02-24 | 2018-09-07 | 百度(美国)有限责任公司 | 用于减小生产语音模型中的原则性偏差的系统和方法 |
CN109272988A (zh) * | 2018-09-30 | 2019-01-25 | 江南大学 | 基于多路卷积神经网络的语音识别方法 |
CN109272990A (zh) * | 2018-09-25 | 2019-01-25 | 江南大学 | 基于卷积神经网络的语音识别方法 |
CN110853629A (zh) * | 2019-11-21 | 2020-02-28 | 中科智云科技有限公司 | 一种基于深度学习的语音识别数字的方法 |
-
2020
- 2020-03-11 CN CN202010164390.1A patent/CN111246026A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107408384A (zh) * | 2015-11-25 | 2017-11-28 | 百度(美国)有限责任公司 | 部署的端对端语音识别 |
CN108510985A (zh) * | 2017-02-24 | 2018-09-07 | 百度(美国)有限责任公司 | 用于减小生产语音模型中的原则性偏差的系统和方法 |
CN109272990A (zh) * | 2018-09-25 | 2019-01-25 | 江南大学 | 基于卷积神经网络的语音识别方法 |
CN109272988A (zh) * | 2018-09-30 | 2019-01-25 | 江南大学 | 基于多路卷积神经网络的语音识别方法 |
CN110853629A (zh) * | 2019-11-21 | 2020-02-28 | 中科智云科技有限公司 | 一种基于深度学习的语音识别数字的方法 |
Non-Patent Citations (1)
Title |
---|
潘粤成: "《一种基于CNN/CTC 的端到端普通话语音识别方法》", 《现代信息科技》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113205798A (zh) * | 2021-05-10 | 2021-08-03 | 北京航空航天大学 | 一种无人机集群控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN109256150B (zh) | 基于机器学习的语音情感识别系统及方法 | |
WO2021128741A1 (zh) | 语音情绪波动分析方法、装置、计算机设备及存储介质 | |
CN107562760B (zh) | 一种语音数据处理方法及装置 | |
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
CN111477216A (zh) | 一种用于对话机器人的音意理解模型的训练方法及系统 | |
CN103700370A (zh) | 一种广播电视语音识别系统方法及系统 | |
CN107886951B (zh) | 一种语音检测方法、装置及设备 | |
CN103065620A (zh) | 在手机上或网页上接收用户输入的文字并实时合成为个性化声音的方法 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN111785275A (zh) | 语音识别方法及装置 | |
CN116665676B (zh) | 一种用于智能语音外呼系统的语义识别方法 | |
CN111489743A (zh) | 一种基于智能语音技术的运营管理分析系统 | |
CN114818649A (zh) | 基于智能语音交互技术的业务咨询处理方法及装置 | |
CN113611286B (zh) | 一种基于共性特征提取的跨语种语音情感识别方法和系统 | |
CN111159334A (zh) | 用于房源跟进信息处理的方法及系统 | |
CN110852075A (zh) | 自动添加标点符号的语音转写方法、装置及可读存储介质 | |
CN110705218A (zh) | 一种基于深度学习的外呼状态识别方式 | |
CN111246026A (zh) | 一种基于卷积神经网络和连接性时序分类的录音处理方法 | |
CN109618067A (zh) | 外呼对话处理方法和系统 | |
CN110933236B (zh) | 一种基于机器学习的空号识别方法 | |
CN115831125A (zh) | 语音识别方法、装置、设备、存储介质及产品 | |
CN114707515A (zh) | 话术判别方法、装置、电子设备及存储介质 | |
CN115022471A (zh) | 一种智能机器人语音交互系统和方法 | |
CN114582328A (zh) | 语音标注系统、方法、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200605 |