CN111916106A - 一种提高英语教学中发音质量的方法 - Google Patents

一种提高英语教学中发音质量的方法 Download PDF

Info

Publication number
CN111916106A
CN111916106A CN202010825951.8A CN202010825951A CN111916106A CN 111916106 A CN111916106 A CN 111916106A CN 202010825951 A CN202010825951 A CN 202010825951A CN 111916106 A CN111916106 A CN 111916106A
Authority
CN
China
Prior art keywords
voice
information
standard
content
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010825951.8A
Other languages
English (en)
Other versions
CN111916106B (zh
Inventor
刘瑛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mudanjiang Medical University
Original Assignee
Mudanjiang Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mudanjiang Medical University filed Critical Mudanjiang Medical University
Priority to CN202010825951.8A priority Critical patent/CN111916106B/zh
Publication of CN111916106A publication Critical patent/CN111916106A/zh
Application granted granted Critical
Publication of CN111916106B publication Critical patent/CN111916106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供了一种提高英语教学中发音质量的方法,获取用户输入的语音信息;对语音信息进行识别,获取语音信息的特征参数,并将特征参数向语音评估模型传输;语音评估模型,用于根据特征参数对语音信息进行评估,获取语音评估结果;当语音评估结果为标准时,通过输出设备提醒用户发音标准;当语音评估结果为不标准时,获取语音信息对应的语音内容,并将语音内容向标准语音模型传输;标准语音模型,用于根据语音内容,获取标准语音信息,并通过输出设备将标准语音信息输出;将语音信息与标准语音信息进行比对,获取相应的语音指导信息;并通过输出设备将语音指导信息向用户传输,以辅助用户进行发音训练,从而有效地提高了用户的发音练习效果。

Description

一种提高英语教学中发音质量的方法
技术领域
本发明涉及语音技术领域,特别涉及一种提高英语教学中发音质量的方法。
背景技术
随着近些年的发展,我国与国际交往的日益频繁,英语是世界交流的通用语言之一,我国虽然注重英语的教学,但是经常忽略对英语口语的教学,使得大部分学生的口语能力较差。
传统教学方式中,一般通过教师人工进行英语发音教学,学生对于发音的练习完全依赖于教师在上课期间的教学;学生在课堂外练习发音时,没有正确的发音指导,使得学生的发音练习效果不佳。
因此,急需一种提高英语教学中发音质量的方法。
发明内容
为解决上述技术问题,本发明提供一种提高英语教学中发音质量的方法,用以辅助用户提高英语发音质量。
本发明实施例提供一种提高英语教学中发音质量的方法,所述方法,包括:
获取用户输入的语音信息;
对所述语音信息进行识别,获取所述语音信息的特征参数,并将所述特征参数向语音评估模型传输;
所述语音评估模型,用于根据所述特征参数对所述语音信息进行评估,获取语音评估结果;
当所述语音评估结果满足预设标准条件时,通过输出设备提醒用户发音标准;
否则,获取所述语音信息对应的语音内容,并将所述语音内容向标准语音模型传输;
基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出;
将所述语音信息与所述标准语音信息进行比对,获取相应的语音指导信息;并通过所述输出设备将所述语音指导信息向用户端传输。
在一个实施例中,在对所述语音信息进行识别,获取所述语音信息的特征参数,并将所述特征参数向语音评估模型传输的过程中包括:
对所述语音信息进行预处理,获取预处理后的所述语音信息;具体包括:
对所述语音信息进行模数转换,获取所述语音信息相对应的语音数字信息;
对所述语音数字信息进行分帧处理,获取所述语音数据信息中的语音帧信息和去语音帧信息;
分别对所述语音帧信息和所述去语音帧信息所包含的噪声进行分析,获取所述语音帧信息中的噪声信息和所述去语音帧信息中的噪声信息;
并根据所述语音帧信息中的噪声信息和所述去语音帧信息中的噪声信息,获取所述语音数字信息的噪声分布值,并将所述噪声分布值向滤波器传输;
所述滤波器,用于根据所述噪声分布值,获取对所述语音数字信息的降噪权重,并根据所述降噪权重对所述语音数字信息进行降噪处理,获取降噪处理后的所述语音数字信息,并将降噪处理后的所述语音数字信息作为预处理后的语音信息;
将预处理后的语音信息进行傅里叶变换,获取对应的频谱信息,并通过卷积神经网络对所述频谱信息进行分析,获取所述语音信息的梅尔频率倒谱参数、感知线性预测参数以及语音能量参数;
所述特征参数包括:所述梅尔频率倒谱参数、所述感知线性预测参数以及所述语音能量参数。
在一个实施例中,在所述语音评估模型根据所述特征参数对所述语音信息进行评估,获取语音评估结果的过程中包括:
基于所述语音评估模型对所述语音信息进行解析,获取所述语音信息包含的词组;
从网络获取所述词组对应的标准词组语音,并根据所述词组在所述语音信息中的分布情况,将所述标准词组语音进行排序,生成所述语音信息对应的标准语句信息;
对所述标准语句信息进行识别,获取所述标准语句信息的标准特征参数,根据所述标准特征参数,采用预设误差值,获取所述标准特征参数的阈值范围;
基于所述语音评估模型将所述语音信息的所述特征参数与所述标准特征参数的阈值范围进行比对,当所述特征参数落在所述标准特征参数的阈值范围内时,则评估所述语音信息为标准;
当所述特征参数未落在所述标准特征参数的阈值范围内时,则评估所述语音信息为不标准。
在一个实施例中,所述标准特征参数,包括标准梅尔频率倒谱参数、标准感知线性预测参数以及标准语音能量参数;
所述标准特征参数的阈值范围,包括标准梅尔频率倒谱参数范围、标准感知线性预测参数范围以及标准语音能量参数范围。
在一个实施例中,当所述语音评估结果满足预设标准条件时,通过输出设备提醒用户发音标准;否则,获取所述语音信息对应的语音内容,并将所述语音内容向标准语音模型传输;基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出的过程中包括:
将所述语音信息中不包含语音的部分删除,获取所述语音信息中的语音部分;
对所述语音部分的语义进行分析,获取所述语音部分的语音内容;
基于所述标准语音模型获取所述语音内容中用户发出所述语音信息所处的标准场景信息、用户发出所述语音信息的标准情绪信息、用户发出所述语音信息的标准语气信息以及用户发出所述语音信息的标准语速信息;
基于所述标准语音模型提取所述语音信息对应的用户的音色信息;
基于所述标准语音模型获取所述语音内容相应的标准语音信息,并根据所述音色信息、所述标准场景信息、所述标准情绪信息、所述标准语气信息和所述标准语速信息,对获取的所述标准语音信息进行调整,获取调整处理后的所述标准语音信息,并将调整处理后的所述标准语音信息通过所述输出设备输出。
在一个实施例中,基于所述标准语音模型获取所述语音内容相应的标准语音信息的过程中包括:
将所述语音内容转换为语音文本;
对所述语音文本的语法进行分析,获取对所述语音文本的分析结果;
当所述分析结果为语法错误时,对所述语音文本进行修改,并保留修改痕迹;
获取修改后的所述语音文本对应的标准语音信息,并根据所述修改痕迹通过所述输出设备向用户传输语音修改信息。
在一个实施例中,还包括:对所述语音评估模型进行特征提取训练,其包括:
将预设的训练语音样本向所述语音评估模型传输;
基于所述语音评估模型对所述训练语音样本的特征参数进行提取;
将对所述训练语音样本提取的特征参数与所述训练语音样本对应的标准特征参数比对,当比对不一致时,对所述语音评估模型的特征提取参数进行调整,使所述语音评估模型根据所述训练语音样本提取的特征参数拟合于所述训练语音样本对应的所述标准特征参数。
在一个实施例中,将所述语音信息与所述标准语音信息进行比对,获取相应的语音指导信息,并通过所述输出设备将所述语音指导信息向用户传输的过程中包括:
根据所述语音信息,获取用户发出所述语音信息时的情绪信息、用户发出所述语音信息时的语气信息和用户发出所述语音信息时的语速信息;
分别将所述情绪信息与所述标准情绪信息、所述语气信息与所述标准语气信息、所述语速信息与所述标准语速信息进行比对,当所述情绪信息与所述标准情绪信息比对不一致时,获取情绪指导信息;当所述语气信息与所述标准语气信息比对不一致时,获取语气指导信息;当所述语速信息与所述标准语速信息进行比对不一致时,获取语速指导信息;
提取所述语音信息中所包含的每个词组的发音信息;根据所述发音信息在所述标准语音信息中获取相应的标准发音信息;将所述发音信息与所述标准发音信息进行比对,当比对不一致时,获取所述发音信息对应的词组,提取所述词组对应的所述标准发音信息,生成发音指导信息;
所述语音指导信息,包括所述情绪指导信息、所述语气指导信息、所述语速指导信息以及所述发音指导信息。
在一个实施例中,基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出之前,还包括:对所述语音内容对应的待保留信息进行合格性验证,其验证步骤包括:
步骤A1:对所述语音内容进行帧节噪声估计,获得每帧节的噪声类型,同时,根据所述噪声类型以及每帧节对应的噪声能量,从噪声抑制数据库中调取每帧节对应的噪音抑制因子;
步骤A2:对所述语音内容进行文本词汇识别,并获取每帧节对应的词汇识别结果,同时,将所述词汇识别结果与预设结果进行比较,获取每帧节词汇识别的准确率;
步骤A3:确定所述语音内容中每帧节词汇的权重值;
步骤A4:基于所述噪声抑制因子、每帧节词汇识别的准确率、每帧节词汇的权重值以及如下公式,计算每帧节内容是否合格;
Figure BDA0002636216160000061
其中,S1表示第i个帧节内容的第一判断值,N表示所述语音内容的帧节总数;χi表示第i个帧节内容的噪声抑制因子,且取值范围为[0.2,0.9];Ri表示第i帧节内容对应的词汇识别的准确率;Wi表示第i帧节内容对应的词汇的权重值;
当第一判断值S1大于或等于第一预设值S01时,表明对应帧节内容合格,同时,当所述帧节内容都合格时,根据如下公式,计算所述语音内容是否合格;
Figure BDA0002636216160000062
其中,δ1表示第i帧内容的缺失词汇的概率;δ2表示第i帧内容的缺失词汇的词汇权重值;
当第二判断值S2大于或等于第二预设值S02时,表明所述语音内容合格,此时,所述语音内容即为筛选的待保留信息,且判定所述待保留信息合格;
否则,从所有合格的帧节内容中提取待处理帧节内容,并基于标准调整规则,获取所述待处理帧节内容的语音调整参数,基于所述语音调整参数对所述待处理帧节内容进行调整,当所有待处理帧节内容都调整结束后,获得调整后的语音内容,此时,调整后的语音内容即为筛选的待保留信息,且判定所述待保留信息合格;
当所述第一判断值小于第一预设值时,表明对应帧节内容不合格,同时,基于英语音频分析数据库,对所述帧节内容进行预分析,获得分析结果,进而根据分析结果,从音频补偿数据中,获取对应的补偿因子对对应的帧节内容进行补偿处理,当所有不合格的帧节内容都补偿处理后,基于步骤A4计算补偿处理后的语音内容是否合格;
步骤A5:当补偿处理后的语音内容合格时,筛选并判定所述补偿处理后的语音内容为待保留信息。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明所提供一种提高英语教学中发音质量的方法的结构示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供了一种提高英语教学中发音质量的方法,如图1所示,方法,包括:
步骤1:获取用户输入的语音信息;
步骤2:对语音信息进行识别,获取语音信息的特征参数,并将特征参数向语音评估模型传输;
步骤3:语音评估模型基于特征参数对语音信息进行评估,获取语音评估结果;当语音评估结果满足预设标准条件时,通过输出设备提醒用户发音标准;否则,获取语音信息对应的语音内容,并将语音内容向标准语音模型传输;
步骤4:基于标准语音模型获取语音内容的标准语音信息,并通过输出设备将标准语音信息输出;
步骤5:将语音信息与标准语音信息进行比对,获取相应的语音指导信息;并通过输出设备将语音指导信息向用户端传输。
上述方法的工作原理在于:获取用户输入的语音信息;对语音信息进行识别,获取语音信息的特征参数,并将特征参数向语音评估模型传输;语音评估模型根据特征参数对语音信息进行评估,获取语音评估结果;当语音评估结果为标准时,通过输出设备提醒用户发音标准;当语音评估结果为不标准时,获取语音信息对应的语音内容,并将语音内容向标准语音模型传输;标准语音模型根据语音内容,获取标准语音信息,并通过输出设备将标准语音信息输出;并将语音信息与标准语音信息进行比对,获取相应的语音指导信息;并通过输出设备将语音指导信息向用户传输。
该实施例中,预设标准条件,例如发音与预先存储的标准发音的相似度高于90%等类似的条件。
上述方法的有益效果在于:通过获取用户输入的语音信息;并对语音信息进行识别,从而实现了对语音信息的特征参数的获取;并通过语音评估模型根据特征参数对语音信息进行评估,实现了对语音评估结果的获取;当语音评估结果为标准时,通过输出设备提醒用户发音标准;当语音评估结果为不标准时,获取语音信息对应的语音内容,并将语音内容向标准语音模型传输;通过标准语音模型根据语音内容,实现了对标准语音信息的获取,并通过输出设备将标准语音信息输出;并将语音信息与标准语音信息进行比对,从而实现了对相应的语音指导信息的获取,并通过输出设备将语音指导信息向用户传输;上述方法中通过对语音信息的特征参数的提取,并通过语音评估模型,实现了对语音评估结果的获取;当语音评估结果为标准时,通过输出设备提醒用户发音标准;当语音评估结果为不标准时,通过语音信息和标准语音模型,实现了对标准语音信息的获取;并将语音信息与标准语音信息进行比对,获取相应的语音指导信息,并将标准语音信息和语音指导信息通过输出设备向用户传输,用户根据输出设备输出的标准语音信息和语音指导信息进行发音训练;解决了传统教学方式中,完全依赖教师在上课期间进行口语教学的问题,上述方法中在用户发音不标准时,通过输出设备向用户传输标准语言信息和相应的语音指导信息,以辅助用户进行发音训练,从而有效地提高了用户的发音练习效果。
需要说明的是,输出设备,包括喇叭、扬声器以及音响中的一种或多种。
上述技术方案中通过多种器件实现了输出设备的功能。
在一个实施例中,在对所述语音信息进行识别,获取所述语音信息的特征参数,并将所述特征参数向语音评估模型传输的过程中包括:
对所述语音信息进行预处理,获取预处理后的所述语音信息;具体包括:
对所述语音信息进行模数转换,获取所述语音信息相对应的语音数字信息;
对所述语音数字信息进行分帧处理,获取所述语音数据信息中的语音帧信息和去语音帧信息;
分别对所述语音帧信息和所述去语音帧信息所包含的噪声进行分析,获取所述语音帧信息中的噪声信息和所述去语音帧信息中的噪声信息;
并根据所述语音帧信息中的噪声信息和所述去语音帧信息中的噪声信息,获取所述语音数字信息的噪声分布值,并将所述噪声分布值向滤波器传输;
所述滤波器,用于根据所述噪声分布值,获取对所述语音数字信息的降噪权重,并根据所述降噪权重对所述语音数字信息进行降噪处理,获取降噪处理后的所述语音数字信息,并将降噪处理后的所述语音数字信息作为预处理后的语音信息;
将预处理后的语音信息进行傅里叶变换,获取对应的频谱信息,并通过卷积神经网络对所述频谱信息进行分析,获取所述语音信息的梅尔频率倒谱参数、感知线性预测参数以及语音能量参数;
所述特征参数包括:所述梅尔频率倒谱参数、所述感知线性预测参数以及所述语音能量参数。
上述技术方案中对语音信息进行模数转换,从而实现了对语音信息相对应的语音数字信息的获取;并根据语音数据信息中的语音,对语音数字信息进行分帧处理,实现了对语音数据信息中的语音帧信息和去语音帧信息的获取;并分别对语音帧信息和去语音帧信息所包含的噪声进行分析,获取语音帧信息中的噪声信息和去语音帧信息中的噪声信息,进一步实现对语音数字信息的噪声分布值的获取,并将噪声分布值向滤波器传输;滤波器根据噪声分布值,获取对语音数字信息的降噪权重;并根据降噪权重对语音数字信息进行降噪处理,获取降噪处理后的语音数字信息;将降噪处理后的语音数字信息作为预处理后的语音信息;从而通过上述方案对语音信息的预处理,实现了对语音信息中的噪声的降噪处理;并对降噪处理后的语音信息转换到频域进行分析,从而实现了对梅尔频率倒谱参数、感知线性预测参数以及语音能量参数的获取。
在一个实施例中,在所述语音评估模型根据所述特征参数对所述语音信息进行评估,获取语音评估结果的过程中包括:
基于所述语音评估模型对所述语音信息进行解析,获取所述语音信息包含的词组;
从网络获取所述词组对应的标准词组语音,并根据所述词组在所述语音信息中的分布情况,将所述标准词组语音进行排序,生成所述语音信息对应的标准语句信息;
对所述标准语句信息进行识别,获取所述标准语句信息的标准特征参数,根据所述标准特征参数,采用预设误差值,获取所述标准特征参数的阈值范围;
基于所述语音评估模型将所述语音信息的所述特征参数与所述标准特征参数的阈值范围进行比对,当所述特征参数落在所述标准特征参数的阈值范围内时,则评估所述语音信息为标准;
当所述特征参数未落在所述标准特征参数的阈值范围内时,则评估所述语音信息为不标准。
上述技术方案中通过语音评估模型对语音信息进行解析,获取语音信息中所有词组对应的标准词组语音;并根据词组在语音信息中的分布情况,将标准词组语音进行排序,从而实现了对语音信息对应的标准语句信息的生成;并对获取的标准语句信息进行识别,提取标准语句信息的标准特征参数;根据标准特征参数,采用预设误差值,从而实现了对标准特征参数的阈值范围的获取;并通过语音评估模型将语音信息的特征参数与标准特征参数的阈值范围进行比对,当特征参数落在标准特征参数的阈值范围内时,则评估语音信息为标准;当特征参数未落在标准特征参数的阈值范围内时,则评估语音信息为不标准;进一步地,通过语音评估模型实现了对语音信息的评估。
在一个实施例中,标准特征参数,包括标准梅尔频率倒谱参数、标准感知线性预测参数以及标准语音能量参数;
标准特征参数的阈值范围,包括标准梅尔频率倒谱参数范围、标准感知线性预测参数范围以及标准语音能量参数范围。通过上述技术方案中的标准特征参数,根据预设误差值,实现了对标准特征参数的阈值范围的获取;语音评估模型根据标准特征参数的阈值范围,实现了对语音信息的评估。
在一个实施例中,当所述语音评估结果满足预设标准条件时,通过输出设备提醒用户发音标准;否则,获取所述语音信息对应的语音内容,并将所述语音内容向标准语音模型传输;基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出的过程中包括:
将所述语音信息中不包含语音的部分删除,获取所述语音信息中的语音部分;
对所述语音部分的语义进行分析,获取所述语音部分的语音内容;
基于所述标准语音模型获取所述语音内容中用户发出所述语音信息所处的标准场景信息、用户发出所述语音信息的标准情绪信息、用户发出所述语音信息的标准语气信息以及用户发出所述语音信息的标准语速信息;
基于所述标准语音模型提取所述语音信息对应的用户的音色信息;
基于所述标准语音模型获取所述语音内容相应的标准语音信息,并根据所述音色信息、所述标准场景信息、所述标准情绪信息、所述标准语气信息和所述标准语速信息,对获取的所述标准语音信息进行调整,获取调整处理后的所述标准语音信息,并将调整处理后的所述标准语音信息通过所述输出设备输出。
上述技术方案中将语音信息中不包含语音的部分删除,实现了对语音信息中的语音部分获取;并对语音部分的语义进行分析,实现了对语音部分的语音内容获取;并通过标准语音模型,实现了对用户发出语音信息所处的标准场景信息、用户发出语音信息的标准情绪信息、用户发出语音信息的标准语气信息以及用户发出语音信息的标准语速信息的获取;标准语音模型还根据语音信息,提取用户的音色信息;标准语音模型根据语音内容,获取相应的标准语音信息;并采用音色信息、标准场景信息、标准情绪信息、标准语气信息和标准语速信息,对获取的标准语音信息进行调整,获取调整处理后的标准语音信息,并将调整处理后的标准语音信息通过输出设备输出;从而通过上述技术方案采用发出语音信息的用户的音色信息对标准语音信息进行调整,使得输出设备发出调整处理后的标准语音信息的音色拟合于用户的音色,进而方便用户根据标准语音信息对自身的发音进行调整;并且根据语音信息对应的语音内容,获取用户发出语音信息时的标准场景信息、标准情绪信息、标准语气信息以及标准语速信息,并对标准语音信息进行调整,使得输出设备发出调整处理后的标准语音信息不仅发音标准,而且标准语音信息的情绪、语气、语速符合相应的语音内容,使得获取的标准语音信息不仅仅是机械式的发音,还融合了与语音内容相符合的场景、情绪、语气和语速,使得标准语音信息更加生动,进一步地方便了用户根据标准语音信息进行学习和训练发音。
在一个实施例中,基于所述标准语音模型获取所述语音内容相应的标准语音信息的过程中包括:
将所述语音内容转换为语音文本;
对所述语音文本的语法进行分析,获取对所述语音文本的分析结果;
当所述分析结果为语法错误时,对所述语音文本进行修改,并保留修改痕迹;
获取修改后的所述语音文本对应的标准语音信息,并根据所述修改痕迹通过所述输出设备向用户传输语音修改信息。
上述技术方案中通过将语音内容转换为语音文本,并对语音文本的语法进行分析,从而实现了对语音内容是否存在语法错误的判断;并且分析结果为语法错误时,对语音文本进行修改,并保留修改痕迹;获取修改后的语音文本对应的标准语音信息;并根据修改痕迹通过输出设备向用户传输语音修改信息,从而通过上述技术方案实现了对语音内容的语法检查功能,并在检查到语音内容存在语法错误时,进行相应的修改,获取修改后的语音文本对应的标准语音信息,并根据修改痕迹通过输出设备向用户传输语音修改信息,以提醒用户语音信息存在语法错误,指导用户进行修正。
在一个实施例中,还包括:对所述语音评估模型进行特征提取训练,其包括:
将预设的训练语音样本向所述语音评估模型传输;
基于所述语音评估模型对所述训练语音样本的特征参数进行提取;
将对所述训练语音样本提取的特征参数与所述训练语音样本对应的标准特征参数比对,当比对不一致时,对所述语音评估模型的特征提取参数进行调整,使所述语音评估模型根据所述训练语音样本提取的特征参数拟合于所述训练语音样本对应的所述标准特征参数。
上述技术方案中将预设的训练语音样本向语音评估模型传输;语音评估模型对训练语音样本的特征参数进行提取;通过将对训练语音样本提取的特征参数与训练语音样本对应的标准特征参数比对,当比对不一致时,对语音评估模型的特征提取参数进行调整,使语音评估模型根据训练语音样本提取的特征参数拟合于训练语音样本对应的标准特征参数,从而实现了对语音评估模型进行特征提取训练。
在一个实施例中,将所述语音信息与所述标准语音信息进行比对,获取相应的语音指导信息,并通过所述输出设备将所述语音指导信息向用户传输的过程中包括:
根据所述语音信息,获取用户发出所述语音信息时的情绪信息、用户发出所述语音信息时的语气信息和用户发出所述语音信息时的语速信息;
分别将所述情绪信息与所述标准情绪信息、所述语气信息与所述标准语气信息、所述语速信息与所述标准语速信息进行比对,当所述情绪信息与所述标准情绪信息比对不一致时,获取情绪指导信息;当所述语气信息与所述标准语气信息比对不一致时,获取语气指导信息;当所述语速信息与所述标准语速信息进行比对不一致时,获取语速指导信息;
提取所述语音信息中所包含的每个词组的发音信息;根据所述发音信息在所述标准语音信息中获取相应的标准发音信息;将所述发音信息与所述标准发音信息进行比对,当比对不一致时,获取所述发音信息对应的词组,提取所述词组对应的所述标准发音信息,生成发音指导信息;
所述语音指导信息,包括所述情绪指导信息、所述语气指导信息、所述语速指导信息以及所述发音指导信息。
上述技术方案中将用户发出语音信息时的情绪信息、用户发出语音信息时的语气信息和用户发出语音信息时的语速信息与标准情绪信息、语气信息与标准语气信息、语速信息与标准语速信息进行比对,当情绪信息与标准情绪信息比对不一致时,获取情绪指导信息;当语气信息与标准语气信息比对不一致时,获取语气指导信息;当语速信息与标准语速信息进行比对不一致时,获取语速指导信息;并提取语音信息中所包含的每个词组的发音信息,将发音信息与标准发音信息进行比对,当比对不一致时,获取发音信息对应的词组,提取词组对应的标准发音信息,生成发音指导信息;从而通过上述技术方案实现了对语音指导信息的获取。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
在一个实施例中,基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出之前,还包括:对所述语音内容对应的待保留信息进行合格性验证,其验证步骤包括:
步骤A1:对所述语音内容进行帧节噪声估计,获得每帧节的噪声类型,同时,根据所述噪声类型以及每帧节对应的噪声能量,从噪声抑制数据库中调取每帧节对应的噪音抑制因子;
步骤A2:对所述语音内容进行文本词汇识别,并获取每帧节对应的词汇识别结果,同时,将所述词汇识别结果与预设结果进行比较,获取每帧节词汇识别的准确率;
步骤A3:确定所述语音内容中每帧节词汇的权重值;
步骤A4:基于所述噪声抑制因子、每帧节词汇识别的准确率、每帧节词汇的权重值以及如下公式,计算每帧节内容是否合格;
Figure BDA0002636216160000151
其中,S1表示第i个帧节内容的第一判断值,N表示所述语音内容的帧节总数;χi表示第i个帧节内容的噪声抑制因子,且取值范围为[0.2,0.9];Ri表示第i帧节内容对应的词汇识别的准确率;Wi表示第i帧节内容对应的词汇的权重值;
当第一判断值S1大于或等于第一预设值S01时,表明对应帧节内容合格,同时,当所述帧节内容都合格时,根据如下公式,计算所述语音内容是否合格;
Figure BDA0002636216160000152
其中,δ1表示第i帧内容的缺失词汇的概率;δ2表示第i帧内容的缺失词汇的词汇权重值;
当第二判断值S2大于或等于第二预设值S02时,表明所述语音内容合格,此时,所述语音内容即为筛选的待保留信息,且判定所述待保留信息合格;
否则,从所有合格的帧节内容中提取待处理帧节内容,并基于标准调整规则,获取所述待处理帧节内容的语音调整参数,基于所述语音调整参数对所述待处理帧节内容进行调整,当所有待处理帧节内容都调整结束后,获得调整后的语音内容,此时,调整后的语音内容即为筛选的待保留信息,且判定所述待保留信息合格;
当所述第一判断值小于第一预设值时,表明对应帧节内容不合格,同时,基于英语音频分析数据库,对所述帧节内容进行预分析,获得分析结果,进而根据分析结果,从音频补偿数据中,获取对应的补偿因子对对应的帧节内容进行补偿处理,当所有不合格的帧节内容都补偿处理后,基于步骤A4计算补偿处理后的语音内容是否合格;
步骤A5:当补偿处理后的语音内容合格时,筛选并判定所述补偿处理后的语音内容为待保留信息。
该实施例中,由于每个帧节中都有可能存在噪声,无论是外界干扰噪声,还是器件本身产生的噪声,都有其对应的声音能量,且需要对其对其进行抑制,噪声越大,其对应的抑制因子越大;
该实施例中,进行文本词汇识别,是为了类似语音转换文字,也可以作为检验英语发音质量的一个标准,发音越标准,对应的准确率越高。
该实施例中,由于英语语音中,会存在重要词汇、不重要词汇等区分,因此,词汇对应有不同的权重值。
上述技术方案的有益效果是:通过对语音内容中每帧节内容基于噪声类型以及噪声能量,进行噪声抑制因子的获取,还基于对每帧节词汇的识别准确率,以及每帧节词汇的权重值,综合计算每帧节内容是否合格,且当帧节内容合格时,综合计算语音内容整体是否合格,便于后续基于标准语音模型获取语音内容的标准语音信息,提供了可靠性和高效性,当语音内容不合格时,基于语音调整参数对部分帧节进行调整,提高处理效率,当帧节内容不合格时,基于音频补偿数据库对其进行补偿处理,保证了英语发音质量的有效性,且提高了后续获取标准发音发音质量的可靠性。

Claims (9)

1.一种提高英语教学中发音质量的方法,其特征在于,所述方法,包括:
获取用户输入的语音信息;
对所述语音信息进行识别,获取所述语音信息的特征参数,并将所述特征参数向语音评估模型传输;
所述语音评估模型,用于根据所述特征参数对所述语音信息进行评估,获取语音评估结果;
当所述语音评估结果满足预设标准条件时,通过输出设备提醒用户发音标准;
否则,获取所述语音信息对应的语音内容,并将所述语音内容向标准语音模型传输;
基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出;
将所述语音信息与所述标准语音信息进行比对,获取相应的语音指导信息;并通过所述输出设备将所述语音指导信息向用户端传输。
2.如权利要求1所述的方法,其特征在于,在对所述语音信息进行识别,获取所述语音信息的特征参数,并将所述特征参数向语音评估模型传输的过程中包括:
对所述语音信息进行预处理,获取预处理后的所述语音信息;具体包括:
对所述语音信息进行模数转换,获取所述语音信息相对应的语音数字信息;
对所述语音数字信息进行分帧处理,获取所述语音数据信息中的语音帧信息和去语音帧信息;
分别对所述语音帧信息和所述去语音帧信息所包含的噪声进行分析,获取所述语音帧信息中的噪声信息和所述去语音帧信息中的噪声信息;
并根据所述语音帧信息中的噪声信息和所述去语音帧信息中的噪声信息,获取所述语音数字信息的噪声分布值,并将所述噪声分布值向滤波器传输;
所述滤波器,用于根据所述噪声分布值,获取对所述语音数字信息的降噪权重,并根据所述降噪权重对所述语音数字信息进行降噪处理,获取降噪处理后的所述语音数字信息,并将降噪处理后的所述语音数字信息作为预处理后的语音信息;
将预处理后的语音信息进行傅里叶变换,获取对应的频谱信息,并通过卷积神经网络对所述频谱信息进行分析,获取所述语音信息的梅尔频率倒谱参数、感知线性预测参数以及语音能量参数;
所述特征参数包括:所述梅尔频率倒谱参数、所述感知线性预测参数以及所述语音能量参数。
3.如权利要求1所述的方法,其特征在于,在所述语音评估模型根据所述特征参数对所述语音信息进行评估,获取语音评估结果的过程中包括:
基于所述语音评估模型对所述语音信息进行解析,获取所述语音信息包含的词组;
从网络获取所述词组对应的标准词组语音,并根据所述词组在所述语音信息中的分布情况,将所述标准词组语音进行排序,生成所述语音信息对应的标准语句信息;
对所述标准语句信息进行识别,获取所述标准语句信息的标准特征参数,根据所述标准特征参数,采用预设误差值,获取所述标准特征参数的阈值范围;
基于所述语音评估模型将所述语音信息的所述特征参数与所述标准特征参数的阈值范围进行比对,当所述特征参数落在所述标准特征参数的阈值范围内时,则评估所述语音信息为标准;
当所述特征参数未落在所述标准特征参数的阈值范围内时,则评估所述语音信息为不标准。
4.如权利要求3所述的方法,其特征在于,
所述标准特征参数,包括标准梅尔频率倒谱参数、标准感知线性预测参数以及标准语音能量参数;
所述标准特征参数的阈值范围,包括标准梅尔频率倒谱参数范围、标准感知线性预测参数范围以及标准语音能量参数范围。
5.如权利要求1所述的方法,其特征在于,当所述语音评估结果满足预设标准条件时,通过输出设备提醒用户发音标准;否则,获取所述语音信息对应的语音内容,并将所述语音内容向标准语音模型传输;基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出的过程中包括:
将所述语音信息中不包含语音的部分删除,获取所述语音信息中的语音部分;
对所述语音部分的语义进行分析,获取所述语音部分的语音内容;
基于所述标准语音模型获取所述语音内容中用户发出所述语音信息所处的标准场景信息、用户发出所述语音信息的标准情绪信息、用户发出所述语音信息的标准语气信息以及用户发出所述语音信息的标准语速信息;
基于所述标准语音模型提取所述语音信息对应的用户的音色信息;
基于所述标准语音模型获取所述语音内容相应的标准语音信息,并根据所述音色信息、所述标准场景信息、所述标准情绪信息、所述标准语气信息和所述标准语速信息,对获取的所述标准语音信息进行调整,获取调整处理后的所述标准语音信息,并将调整处理后的所述标准语音信息通过所述输出设备输出。
6.如权利要求5所述的方法,其特征在于,基于所述标准语音模型获取所述语音内容相应的标准语音信息的过程中包括:
将所述语音内容转换为语音文本;
对所述语音文本的语法进行分析,获取对所述语音文本的分析结果;
当所述分析结果为语法错误时,对所述语音文本进行修改,并保留修改痕迹;
获取修改后的所述语音文本对应的标准语音信息,并根据所述修改痕迹通过所述输出设备向用户传输语音修改信息。
7.如权利要求1所述的方法,其特征在于,还包括:对所述语音评估模型进行特征提取训练,其包括:
将预设的训练语音样本向所述语音评估模型传输;
基于所述语音评估模型对所述训练语音样本的特征参数进行提取;
将对所述训练语音样本提取的特征参数与所述训练语音样本对应的标准特征参数比对,当比对不一致时,对所述语音评估模型的特征提取参数进行调整,使所述语音评估模型根据所述训练语音样本提取的特征参数拟合于所述训练语音样本对应的所述标准特征参数。
8.如权利要求5所述的方法,其特征在于,将所述语音信息与所述标准语音信息进行比对,获取相应的语音指导信息,并通过所述输出设备将所述语音指导信息向用户传输的过程中包括:
根据所述语音信息,获取用户发出所述语音信息时的情绪信息、用户发出所述语音信息时的语气信息和用户发出所述语音信息时的语速信息;
分别将所述情绪信息与所述标准情绪信息、所述语气信息与所述标准语气信息、所述语速信息与所述标准语速信息进行比对,当所述情绪信息与所述标准情绪信息比对不一致时,获取情绪指导信息;当所述语气信息与所述标准语气信息比对不一致时,获取语气指导信息;当所述语速信息与所述标准语速信息进行比对不一致时,获取语速指导信息;
提取所述语音信息中所包含的每个词组的发音信息;根据所述发音信息在所述标准语音信息中获取相应的标准发音信息;将所述发音信息与所述标准发音信息进行比对,当比对不一致时,获取所述发音信息对应的词组,提取所述词组对应的所述标准发音信息,生成发音指导信息;
所述语音指导信息,包括所述情绪指导信息、所述语气指导信息、所述语速指导信息以及所述发音指导信息。
9.如权利要求1所述的方法,其特征在于,基于所述标准语音模型获取所述语音内容的标准语音信息,并通过所述输出设备将所述标准语音信息输出之前,还包括:对所述语音内容对应的待保留信息进行合格性验证,其验证步骤包括:
步骤A1:对所述语音内容进行帧节噪声估计,获得每帧节的噪声类型,同时,根据所述噪声类型以及每帧节对应的噪声能量,从噪声抑制数据库中调取每帧节对应的噪音抑制因子;
步骤A2:对所述语音内容进行文本词汇识别,并获取每帧节对应的词汇识别结果,同时,将所述词汇识别结果与预设结果进行比较,获取每帧节词汇识别的准确率;
步骤A3:确定所述语音内容中每帧节词汇的权重值;
步骤A4:基于所述噪声抑制因子、每帧节词汇识别的准确率、每帧节词汇的权重值以及如下公式,计算每帧节内容是否合格;
Figure FDA0002636216150000051
其中,S1表示第i个帧节内容的第一判断值,N表示所述语音内容的帧节总数;χi表示第i个帧节内容的噪声抑制因子,且取值范围为[0.2,0.9];Ri表示第i帧节内容对应的词汇识别的准确率;Wi表示第i帧节内容对应的词汇的权重值;
当第一判断值S1大于或等于第一预设值S01时,表明对应帧节内容合格,同时,当所述帧节内容都合格时,根据如下公式,计算所述语音内容是否合格;
Figure FDA0002636216150000052
其中,δ1表示第i帧内容的缺失词汇的概率;δ2表示第i帧内容的缺失词汇的词汇权重值;
当第二判断值S2大于或等于第二预设值S02时,表明所述语音内容合格,此时,所述语音内容即为筛选的待保留信息,且判定所述待保留信息合格;
否则,从所有合格的帧节内容中提取待处理帧节内容,并基于标准调整规则,获取所述待处理帧节内容的语音调整参数,基于所述语音调整参数对所述待处理帧节内容进行调整,当所有待处理帧节内容都调整结束后,获得调整后的语音内容,此时,调整后的语音内容即为筛选的待保留信息,且判定所述待保留信息合格;
当所述第一判断值小于第一预设值时,表明对应帧节内容不合格,同时,基于英语音频分析数据库,对所述帧节内容进行预分析,获得分析结果,进而根据分析结果,从音频补偿数据中,获取对应的补偿因子对对应的帧节内容进行补偿处理,当所有不合格的帧节内容都补偿处理后,基于步骤A4计算补偿处理后的语音内容是否合格;
步骤A5:当补偿处理后的语音内容合格时,筛选并判定所述补偿处理后的语音内容为待保留信息。
CN202010825951.8A 2020-08-17 2020-08-17 一种提高英语教学中发音质量的方法 Active CN111916106B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010825951.8A CN111916106B (zh) 2020-08-17 2020-08-17 一种提高英语教学中发音质量的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010825951.8A CN111916106B (zh) 2020-08-17 2020-08-17 一种提高英语教学中发音质量的方法

Publications (2)

Publication Number Publication Date
CN111916106A true CN111916106A (zh) 2020-11-10
CN111916106B CN111916106B (zh) 2021-06-15

Family

ID=73279613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010825951.8A Active CN111916106B (zh) 2020-08-17 2020-08-17 一种提高英语教学中发音质量的方法

Country Status (1)

Country Link
CN (1) CN111916106B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1201547A (zh) * 1995-09-14 1998-12-09 艾利森公司 自适应滤波音频信号以增强噪声环境条件下语音清晰度的系统
CN104732977A (zh) * 2015-03-09 2015-06-24 广东外语外贸大学 一种在线口语发音质量评价方法和系统
US10187721B1 (en) * 2017-06-22 2019-01-22 Amazon Technologies, Inc. Weighing fixed and adaptive beamformers
CN110164414A (zh) * 2018-11-30 2019-08-23 腾讯科技(深圳)有限公司 语音处理方法、装置及智能设备
US20200184985A1 (en) * 2018-12-06 2020-06-11 Synaptics Incorporated Multi-stream target-speech detection and channel fusion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1201547A (zh) * 1995-09-14 1998-12-09 艾利森公司 自适应滤波音频信号以增强噪声环境条件下语音清晰度的系统
CN104732977A (zh) * 2015-03-09 2015-06-24 广东外语外贸大学 一种在线口语发音质量评价方法和系统
US10187721B1 (en) * 2017-06-22 2019-01-22 Amazon Technologies, Inc. Weighing fixed and adaptive beamformers
CN110164414A (zh) * 2018-11-30 2019-08-23 腾讯科技(深圳)有限公司 语音处理方法、装置及智能设备
US20200184985A1 (en) * 2018-12-06 2020-06-11 Synaptics Incorporated Multi-stream target-speech detection and channel fusion

Also Published As

Publication number Publication date
CN111916106B (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
CN107221318B (zh) 英语口语发音评分方法和系统
KR101183344B1 (ko) 사용자 정정들을 이용한 자동 음성 인식 학습
EP0549265A2 (en) Neural network-based speech token recognition system and method
CN106782603B (zh) 智能语音评测方法及系统
US20230070000A1 (en) Speech recognition method and apparatus, device, storage medium, and program product
CN111915940A (zh) 一种口语发音评测和教学方法、系统、终端及存储介质
CN112489629A (zh) 语音转写模型、方法、介质及电子设备
CN113744722A (zh) 一种用于有限句库的离线语音识别匹配装置与方法
CN112735404A (zh) 一种语音反讽检测方法、系统、终端设备和存储介质
CN116894442B (zh) 一种纠正引导发音的语言翻译方法及系统
CN114420169A (zh) 情绪识别方法、装置及机器人
JPH06110494A (ja) 発音学習装置
CN117238321A (zh) 语音综合评估方法、装置、设备及存储介质
CN112863485A (zh) 口音语音识别方法、装置、设备及存储介质
KR20080018658A (ko) 사용자 선택구간에 대한 음성비교 시스템
CN111916106B (zh) 一种提高英语教学中发音质量的方法
CN112767961B (zh) 一种基于云端计算的口音矫正方法
Shufang Design of an automatic english pronunciation error correction system based on radio magnetic pronunciation recording devices
CN111402887A (zh) 一种语音转义文字的方法及装置
US11043212B2 (en) Speech signal processing and evaluation
CN114724589A (zh) 语音质检的方法、装置、电子设备和存储介质
Yousfi et al. Isolated Iqlab checking rules based on speech recognition system
CN113035237B (zh) 语音测评方法、装置和计算机设备
CN117789706B (zh) 一种音频信息内容识别方法
CN118072733A (zh) 一种语音识别方法、系统、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant