CN108922565B - 基于ftsl谱线的腭裂语音咽擦音自动检测方法 - Google Patents

基于ftsl谱线的腭裂语音咽擦音自动检测方法 Download PDF

Info

Publication number
CN108922565B
CN108922565B CN201810852095.8A CN201810852095A CN108922565B CN 108922565 B CN108922565 B CN 108922565B CN 201810852095 A CN201810852095 A CN 201810852095A CN 108922565 B CN108922565 B CN 108922565B
Authority
CN
China
Prior art keywords
ftsl
signal
order
spectral line
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810852095.8A
Other languages
English (en)
Other versions
CN108922565A (zh
Inventor
何凌
何飞
王熙月
尹恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201810852095.8A priority Critical patent/CN108922565B/zh
Publication of CN108922565A publication Critical patent/CN108922565A/zh
Application granted granted Critical
Publication of CN108922565B publication Critical patent/CN108922565B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information

Abstract

本发明公开了一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,涉及语音信号处理领域。该检测方法包括(1)信号预处理,对输入辅音信号进行分帧、预加重及幅值归一化;(2)提取语音信号特征,包括在每帧语音的多延迟四阶累积量的频域中提取FTSL谱线特征,以及在在时域中做等比均值包络阵列提取;(3)在提取语音信号的时域和FTSL谱线信号特征后,利用组合分类器识别算法结合时域等比包络均值阵列和FTSL谱线特征对语音信号进行自动分类,并输出分类结果。相比于现有技术,检测结果客观准确,实现较高程度的自动测量,在临床上对咽擦音的数字化评估提供可靠的参考数据,符合精准医疗的发展需求,进行更加准确有效的信号分类识别。

Description

基于FTSL谱线的腭裂语音咽擦音自动检测方法
技术领域
本发明涉及语音信号处理领域,尤其是一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法。
背景技术
咽擦作为常见的代偿性构音错误之一,发生率仅次于声门塞音。咽擦患者在发音时舌位后缩至后咽壁导致咽部变窄,来自肺部的气流通过该狭窄通道,经摩擦产生的语音即为咽擦音。该异常构音主要发生在普通话音节中的辅音部分,因为辅音是通过气流在口腔或咽头受到阻碍而形成的音。咽擦音在汉语方言中很常见,但是在正常的普通话发音中不会出现。咽擦音又分为清咽擦音和浊咽擦音。清咽擦音发音时声带不振动,而浊咽擦音在发音时声带振动,其气流特点是从肺部直接流出,而不是从口腔或声门流出。目前国内外主要通过以下两种方法对咽擦音进行诊断:(1)基于各种频谱分析仪观察语音频谱、鼻音分数检测仪测试的鼻音分数进行判断(2)基于临床特性,分析咽擦音与正常音在发音上的区别,其相应的方法都存在一定的缺陷或创伤性。
近年来,国内外学者致力于研究无创且更为客观的数字化处理方法,将其用于咽擦音的诊断与评估,以减轻病人治疗时的痛苦。目前,咽擦音的研究主要分为两类:1)基于数字化检测仪器的咽擦音特征分析,现有的相应研究利用数字化的医用检测仪测量鼻音分数、观察语音频谱变化,根据这些参数变化给出评估结果。但各个参数的变化仍为主观评估,依然存在不够客观和准确的问题。2)基于数字信号处理技术的咽擦音时频特征分析,对应的研究探讨了能量分布与咽擦音的关系,但并没有实现咽擦音与正常擦音的自动分类检测。
发明内容
本发明针对现有技术存在的上述技术问题,提供一种基于语音信号处理的基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,结合了语音信号多延迟四阶累积量的频域的FTSL谱线以及时域的等比包络均值阵列,充分利用了咽擦音与正常音在时频域上的差别特性,实现咽擦音与正常音的自动分类检测。
本发明采用以下技术方案:
一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,包括以下步骤:
(1)信号预处理,对输入辅音信号进行分帧、预加重及幅值归一化;
(2)提取语音信号特征,包括在多延迟四阶累积量的频域中对每帧语音提取FTSL谱线特征,以及在在时域中做等比均值包络阵列提取,包括:
(2.1)计算每帧语音信号的FTSL谱线,并提取语音信号的FTSL特征矩阵;所述FTSL谱线为计算每一帧辅音信号的多延迟四阶累积量,并计算该多延迟四阶累积量的频谱,利用1/3倍频程提取四阶累积量的频谱谱线FTSL;
(2.2)在提取FTSL谱线特征的同时,在时域中提取等比包络均值阵列作为时域信号特征;
(3)在提取语音信号的时域和FTSL谱线特征后,利用组合分类器识别算法结合时域等比包络均值阵列和多延迟四阶累积量频域FTSL谱线特征对语音信号进行自动分类,并输出分类结果。
进一步的,所述步骤1包括:
(1.1)语音信号分帧,实现将长语音信号转换为短时平稳信号,可用线性方法进行处理;
(1.2)预加重:强调语音信号中的高频成分,由于本实施例研究对象是语音中的辅音,其属于频率较高部分,因此需要做预加重;
(1.3)幅值归一:为了规避采集系统及患者声音大小等因素的影响,对输入的每一个语音求取绝对值最大的幅值Xmax,然后将语音信号中的每一个值分别除以该最大值,进行归一化。
进一步的,所述步骤2.1包括:
(2.1.1)首先分别求出语音信号一、二、三阶累积量及其对应的矩;
设每一帧信号为x(n),且每一帧语音信号x(n)为k阶平稳随机过程,则该过程的k阶累积量定义为随机变量{x(n),x(n+τ1),...,x(n+τk-1)}的K阶联合累积量如下:
Figure BDA0001747727580000021
式(1)中Ck,x12,...,τk-1)为计算得到的K阶累积量,τ1,,τ2,...,τk-1分别为各阶对应的延迟,cum(·)为K阶联合累积量;
该零均值k阶平稳随机过程的K阶矩如下:
Figure BDA0001747727580000031
式中mk,x12,...,τk-1)为K阶矩。mom(·)表示为K阶联合矩;
四阶累积量的计算是基于其低阶累积量的,在计算四阶累积量时,需要先计算出其低阶累积量及其低阶矩,一随机过程x(n)的一到四阶矩和累积量分别定义如下,其中
Figure BDA0001747727580000034
Figure BDA0001747727580000035
分别代表该随机过程的一到四阶矩及一到四阶累积量,τ为信号的延迟:
①、一阶矩和一阶累积量为:
m1x=C1x=E{x(n)} (3)
信号一阶累积量及其一阶矩均为该随机过程的期望值。
②、二阶矩和二阶累积量为:
m2x1)=E{x(n)x(n+τ1)}=rx1) (4)
Figure BDA0001747727580000033
③、三阶矩和三阶累积量为:
m3x12)=E{x(n)x(n+τ1)x(n+τ2)} (6)
Figure BDA0001747727580000032
(2.1.2)基于前三阶累积量及其对应的矩求取信号四阶累积量,四阶矩和四阶累积量如下:
m4x123)=E{x(n)x(n+τ1)x(n+τ2)x(n+τ3)} (8)
C4x123)=cum{x(n),x(n+τ1),x(n+τ2),x(n+τ3)}
=m4x123)-m2x1)m2x32)-m2x2)m2x31)-m2x3)m2x21)-m1x[m3x2131)+m3x23)+m3x13)+m3x12)]-((m1x)2[m2x1)+m2x2)+m2x3)+m2x31)+m2x32)+m2x21)]-6(m1x)4 (9)
公式(9)为四阶累积量计算的最终表达式,根据分帧后的语音信号具有短时平稳性,即每一帧语音信号的均值可视为0,即该过程的随机均值m1x=0,将m1x=0代入式(9),则式(9)可改写为式(10):
C4x123)=m4x123)-m2x1)m2x32)-m2x2)m2x31)-m2x3)m2x21) (10);
(2.1.3)将每帧语音信号的四阶累积量进行变换并转换到频域,得到频率由低到高的频谱,将得到的频谱值按一定规则划分为各个频带,计算每个频带内的频谱均值,将各个频带计算的能量谱均值作为该频带的FTSL值,将每帧信号各个频带的FTSL值按中心频率由低频到高频的顺序进行排列,就得到了每帧语音信号的FTSL谱线;
进一步将同一段语音的各帧FTSL谱线按帧顺序拼接为一个一维的矩阵,得到该段语音信号的FTSL特征矩阵。
进一步的,所述步骤2.2包括:
(2.2.1)首先计算输入辅音的时域波形,并提取输入语音信号的上包络线:
将语音信号进行一阶微分处理,即将语音数据点从后往前依次两两相减得到的值,将这些值存储为一个矩阵M,长度为m。假设d1=M(1:m-1),即M矩阵中的前(m-1)个值;假设d2=(2:m),即M矩阵中的后(m-1)个值。则对于存储在矩阵M中同一位置的两个数,d1中差分值为d2中的差分值的前一个,当d1(i)*d2(i)<0,且d1(i)>0时,则认为该点为上包络的一个包络连接点,依次找出所有的连接点,在原始语音信号上将这些连接点连接起来,就得到了语音信号的上包络。
(2.2.2)将包络线分区,并对分区均值求取:
基于信号长度,以包络线中心点为界向包络两端基于信号长度进行等比分区,信号长度为L,左右端长各为L/2,选择等比尺度n,则包络分区满足如下条件:
Figure BDA0001747727580000041
其中n为等比尺度,i表示第i个等比分区,
Figure BDA0001747727580000042
为左端等比分区系数之和,不超过1/2,即分区长度之和不超过信号本身长度的一半,且右端等比分区参照左端等比分区系数;
(2.2.3)完成左右两端等比分区后,计算从左到右每个分区的包络均值Ai,Ai-1,…,A1,B1,B2,…,Bi,通过将计算得到的包络均值从左到右进行作为一位矩阵得到等比包络均值阵列[Ai,Ai-1,…,A1,B1,B2,…,Bi]。
5.如权利要求4所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤2.2.1具体为:
将语音信号进行一阶微分处理,即将语音数据点从后往前依次两两相减得到的值,将这些值存储为一个矩阵M,长度为m。假设d1=M(1:m-1),即M矩阵中的前(m-1)个值;假设d2=(2:m),即M矩阵中的后(m-1)个值。则对于存储在矩阵M中同一位置的两个数,d1中差分值为d2中的差分值的前一个,当d1(i)*d2(i)<0,且d1(i)>0时,则认为该点为上包络的一个包络连接点,依次找出所有的连接点,在原始语音信号上将这些连接点连接起来,就得到了语音信号的上包络。
进一步的,所述步骤3具体为:
在进行分类识别时,首先输入的正常音辅音与咽擦音辅音样本,并对样本分别提取FTSL谱线特征和包络线等比均值阵列作为特征值,对包络线等比均值阵列特征使用KNN识别器提取预测标签1,对FTSL谱线特征使用SVM识别器提取预测标签2,将预测标签1和预测标签2进行对比,若预测标签1和预测标签2一致则输出预测标签,若不一致,则进一步将预测分数进行对比;
在使用预测分数进行对比时,K_score和S_score分别为KNN识别和SVM识别对应的预测分数,若K_score>S_score则将KNN预测标签1作为预测标签输出,若K_score<S_score则将SVM预测标签2作为预测标签输出。
所述S_score表示利用SVM进行样本分类时每个样本的隶属度分数,K_score代表KNN分类中11折交叉验证将样本判为正确分类的分数。
所述τ1=1,τ2=3,τ3=m,m为四阶累积量计算的最大延迟,计算信号的四阶累积量时将遍历每一个绝对值小于m的整数延迟量。
所述步骤2.1.3是利用快速傅里叶变换FFT变换将每帧语音信号的四阶累积量进行变换并转换到频域。
所述步骤2.1.3中将得到的频谱值按一定规则划分为各个频带,是基于1/3倍频程谱规则进行划分,所述1/3倍频程谱是以第一个频带中心频率为起点,每隔两个频带,中心频率的值变为原来的两倍,因此三分之一倍频程谱中每个带通滤波器的中心频率与上、下限频率之间的关系为:
f2/f1=21/3,f2/fc=21/6,fc/f1=21/6
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明提供的基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,可以基于获取的咽擦音语音信号进行全自动检测,利用语音信号处理的方法提取信号特征,相比于现有技术中,本发明的检测方法检测结果客观准确,实现较高程度的自动测量;
2、本发明提供的基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,提出了基于通过计算每帧语音信号的多延迟四阶累积量组合序列,该序列信号反映了语音信号由于发声机理的改变而导致的高阶统计特性差异,又将该差异转换到频域做进一步处理,利用倍频程谱计算得到FTSL谱线。该谱线的提取基于人类听觉特性,在突出咽擦音辅音及正常擦音辅音高阶统计差异的同时降低了信号特征维度,提高了运算速度。
3、本发明提供的基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,基于在多延迟四阶累积量的频域中提取FTSL谱线特征的同时,还提出了在时域中提取等比包络均值阵列作为时域信号特征,能更好地体现语音包络线之间的差别。
4、本发明提供的基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,进一步提出了组合分类器,为针对分别提取的信号特征分别利用不同的分类识别器针对不同的信号特征进行组合式分类识别。将两种各有优点的不同的分类器进行结合作为组合式分类器,并按照相应的分类识别方法进行更加准确有效的信号分类识别。
附图说明
图1是本发明实施例提供的腭裂咽擦音自动检测方法框图。
图2是本发明实施例提供的提取FTSL谱线流程示意图。
图3是咽擦音/si/一帧语音的多延迟四阶累积量示意图。
图4是正常音/si/一帧语音的多延迟四阶累积量示意图。
图5是本发明实施例提供的FTSL谱线提取示意图。
图6是本发明实施例提供的几个辅音时域波形及轮廓线示意图。
图7是本发明实施例提供的组合分类器识别流程图。
具体实施方式
为了使本领域的人员更好地理解本发明的技术方案,下面结合本发明的附图,对本发明的技术方案进行清楚、完整的描述,基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的其它类同实施例,都应当属于本申请保护的范围。
需要说明的是,在本实施例中采用的语音数据是按照普通话构音测量表进行录制得到,该表包括普通话音节里面的所有辅音,根据咽擦音的辅音发声的特点,选取含辅音/s/、/sh/、/c/、/x/的词语,例如,“鲨鱼”的“鲨”、“西瓜”的“西”等字。语音数据前期由专业的语音师进行判听,由人工判定咽擦的有无。
进一步需要说明的是,本发明以及相应实施例提出的信号特征处理方法、特征提取方法、信号识别与分类方法都仅仅是对信号的处理和识别方法本身进行研究和改进,虽然针对的为咽擦音信号,实现的自动分类识别结果可以作为评估参考,但在临床或医疗领域其评估结果也仅仅是一个辅助性的评估,对于具体的治疗方法仍需要并主要依赖于医生的临床经验和医生提供的治疗方法。
如图1所示,本实施例提供的基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法如下:
(1)信号预处理,对输入辅音信号进行分帧、预加重及幅值归一化:
(1.1)语音信号分帧,实现将长语音信号转换为短时平稳信号,可用线性方法进行处理;
(1.2)预加重:强调语音信号中的高频成分,由于本实施例研究对象是语音中的辅音,其属于频率较高部分,因此需要做预加重;
(1.3)幅值归一:为了规避采集系统及患者声音大小等因素的影响,对输入的每一个语音求取绝对值最大的幅值Xmax,然后将语音信号中的每一个值分别除以该最大值,进行归一化。
(2)提取语音信号特征,在本实施例中所述信号特征包括在多延迟四阶累积量的频域中对每帧语音提取FTSL谱线特征,以及在在时域中做等比均值包络阵列提取,并在后续的方法中将时域信号和频域信号共同用于特征信号识别。
(2.1)如图2框图所示,需要计算每帧语音信号的FTSL谱线,并提取语音信号的FTSL特征矩阵。所述FTSL(Four-Order-Cumulants-Third-Octave-Spectra-Line)谱线为计算每一帧辅音信号的多延迟四阶累积量,并计算该多延迟四阶累积量的傅里叶空间谱,利用1/3倍频程提取四阶累积量的频谱谱线FTSL,FTSL谱线基于人类听觉特性,低频部分分布较密集,高频部分较稀疏,能反映语音听觉能量的分布。
(2.1.1)首先分别求出语音信号一、二、三阶累积量及其对应的矩;
在进行四阶累积量的计算之前,我们首先需要了解四阶累计量的相关定义。对于分帧后的辅音信号具有短时平稳性,设每一帧信号为x(n),且每一帧语音信号x(n)为k阶平稳随机过程,因为语音信号具有短时平稳性,则可将x(n)作零均值k阶平稳随机过程处理,则该过程的k阶累积量定义为随机变量{x(n),x(n+τ1),...,x(n+τk-1)}的K阶联合累积量如下:
Figure BDA0001747727580000081
式(1)中Ck,x12,...,τk-1)为计算得到的K阶累积量,τ1,,τ2,...,τk-1分别为各阶对应的延迟,cum(·)为K阶联合累积量。
该零均值k阶平稳随机过程的K阶矩如下:
Figure BDA0001747727580000082
式中mk,x12,...,τk-1)为K阶矩。mom(·)表示为K阶联合矩。
由于x(n)是K阶平稳的,随机过程的k阶累积量只有k-1个独立的变元,它们仅仅是滞后τ12,...,τk-1的函数,而与时间n无关。
根据以上定义,四阶累积量的计算是基于其低阶累积量的,在计算四阶累积量时,需要先计算出其低阶累积量及其低阶矩。一随机过程x(n)的一到四阶矩和累积量分别定义如下,其中
Figure BDA0001747727580000094
Figure BDA0001747727580000093
分别代表该随机过程的一到四阶矩及一到四阶累积量,τ为信号的延迟:
①、一阶矩和一阶累积量为:
m1x=C1x=E{x(n)} (3)
信号一阶累积量及其一阶矩均为该随机过程的期望值。
②、二阶矩和二阶累积量为:
m2x1)=E{x(n)x(n+τ1)}=rx1) (4)
Figure BDA0001747727580000091
③、三阶矩和三阶累积量为:
m3x12)=E{x(n)x(n+τ1)x(n+τ2)} (6)
Figure BDA0001747727580000092
(2.1.2)基于前三阶累积量及其对应的矩求取信号四阶累积量,则四阶矩和四阶累积量如下:
m4x123)=E{x(n)x(n+τ1)x(n+τ2)x(n+τ3)} (8)
C4x123)=cum{x(n),x(n+τ1),x(n+τ2),x(n+τ3)}
=m4x123)-m2x1)m2x32)-m2x2)m2x31)-m2x3)m2x21)-m1x[m3x2131)+m3x23)+m3x13)+m3x12)]-((m1x)2[m2x1)+m2x2)+m2x3)+m2x31)+m2x32)+m2x21)]-6(m1x)4 (9)
公式(9)为四阶累积量计算的最终表达式,根据分帧后的语音信号具有短时平稳性,即每一帧语音信号的均值可视为0,即该过程的随机均值m1x=0,将m1x=0代入式(9),则式(9)可以改写为式(10):
C4x123)=m4x123)-m2x1)m2x32)-m2x2)m2x31)-m2x3)m2x21) (10)
式(10)与式(11)相比降低了运算难度和增加了式子的可读性,利用上述公式,通过设置合适的延迟τ123,计算每一帧信号的四阶累积量,本实施例中取τ1=1,τ2=3,τ3=m,m为四阶累积量计算的最大延迟,计算信号的四阶累积量时将遍历每一个绝对值小于m的整数延迟量。例如:m=100时,将分别计算语音信号延迟量τ3为100,99,...,0,-1,-2,...,-99,-100时对应的四阶累积量,共201个。
在计算四阶累积量时不同的延迟m可以计算出维数不同的累积量矩阵。本次实验中的延迟均为整数,累积量从滞后0计算到滞后最大延迟量m,得到m+1个结果。因此m越大,输入每帧信号得到的累积量输出维度也会更大。在计算语音的累计量时不同的延迟对应着不同的累积量输出,因此通过设置最大延迟量m,计算m内的所有延迟量对应的累积量,这些累积量能够反映时频域内人眼难以观察到的特征。当m较小时,计算得到的累积量长度也较短,利用较少的数据进行频谱分析再提取谱线,可能使重要信息遗漏,当m较大时,语音延迟过大,超过数据本身长度时,计算得到的累积量无法凸显语音特性。因此,m的选择必须在一个合适的值,才能很好的体现语音之间的差别。在一个实施例中m=100时效果最好。
研究上述计算过程,四阶累积量的计算与其前三阶矩及累积量密切关联,综合了各阶统计特性,可以很好地反映出咽擦音及正常擦音的区别。如图3和图4所示,分别为咽擦音/si/和正常语音/si/的一帧语音通过上述计算公式计算得到的对应的多延迟四阶累积量示意图。
(2.1.3)将每帧语音信号的四阶累积量转换到频域进行分析,做快速傅里叶变换FFT变换,得到频率由低到高的频谱。将得到的频谱值按下表1划分为各个频带,计算每个频带内的频谱均值,将各个频带计算的能量谱均值作为该频带的FTSL值,将每帧信号各个频带的FTSL值按中心频率由低频到高频的顺序进行排列,就得到了每帧语音信号的FTSL谱线。该谱线的提取基于人类听觉特性,在突出咽擦音辅音及正常擦音辅音高阶统计差异的同时降低了信号特征维度,提高了运算速度。如图5所示分别为咽擦音/si/和正常语音/si/的一帧语音通过上述计算公式计算得到的对应的FTSL谱线序列示意图。
人耳听音的频率范围为20Hz到20kHz,对整个频域范围内的所有频率成分进行分析运算量大且数据冗余。因此将整个听觉频率范围划分为多个频带,每一个频带成为一个频程。频程的划分通常采用的划分规律是恒定带宽比,即保持频带的上限和下限的频率比率为常数。设定每一频带的上限频率都是下限频率两倍,即频率之比为2,据此划分得到的每一个频带称1倍频程,简称倍频程。在一个倍频程的上限和下限频率之间再插入两个频率点,得到包括上、下限频率在内的四个频率点,并使这4个频率之间的比值相同(即,
Figure BDA0001747727580000114
),这样就将一个倍频程划分成了3个频程,据此划分得到的频程称1/3倍频程。1/3倍频程谱是由一系列的频率点以及这些频率点附近频带内信号的平均幅值来组成,构成三分之一倍频程谱的这些频率点称为中心频率fc,每一频带具有上限频率f2和下限频率f1,带宽为(f2-f1)。中心频率fc附近的频带处于f2和f1之间,中心频率:
Figure BDA0001747727580000112
一般“n”倍频程带滤波器中,n的定义由以下公式确定:
Figure BDA0001747727580000113
当n=1时,f2/f1=2,这样的频率比值所确定的频程称为1/1倍频程,通常简称为倍频程,类此,当n=1/3时,f2/f1=21/3,这样的频率比值所确定的频程称为1/3倍频程,在此频带(f2-f1)的频谱,称为1/3倍频程谱。
表1列出了20kHz以内,三分之一倍频程滤波带的中心频率以及带宽。从表1中可以得到,以第一个频带中心频率为起点,每隔两个频带,中心频率的值变为原来的两倍,因此,三分之一倍频程谱中每个带通滤波器的中心频率与上、下限频率之间的关系为:
f2/f1=21/3,f2/fc=21/6,fc/f1=21/6
进一步的,如图2所示,把输入的语音信号进行分帧,得到各分帧a1,a2,…,an,将同一段语音的各语音帧的FTSL谱线矩阵Fa1,Fa2,…,Fan按帧顺序拼接为一个一维的矩阵,就得到了该段语音信号的FTSL特征矩阵[Fa1,Fa2,…,Fan]。
表1:中心频率和带宽
Figure BDA0001747727580000121
Figure BDA0001747727580000131
(2.2)在多延迟四阶累积量频域中提取FTSL谱线特征的同时,在时域中提取等比包络均值阵列作为时域信号特征:
基于咽擦音与正常音的发音机制,正常人在发音时主要是通过口鼻共鸣,咽擦音发音时舌尾后缩导致咽口导致腭咽口变窄,使得来自肺部的气流的通道变窄,根据气流动力学,在分析咽擦音时有两种情形:
第一种情形:发音者虽然患有咽擦,但是并无其他并发症,在发音时能保证足够的压力将气流从变窄的咽口输出;第二种情形:发音者患有咽擦且在发音时由于口腔压力不足,使得来自肺部的气流在还没全部通过变窄的腭咽口时就已经弱化了。
这两种情况的存在都导致了语音包络线的变化,辅音是通过气流在口腔或咽头受到阻碍而形成的音,因此主要影响辅音部分。信号的包络线不仅可以直观的表示信号的轮廓,进一步的是因为咽擦音发声机制的改变导致了咽擦音辅音与正常音辅音轮廓线的差异,为了更好地体现语音包络线之间的差别,提取了能够体现语音信号的波动的包络线,本实施例提出了计算包络线等比均值阵列的方法,首先列举几个辅音的时域波形及其轮廓线如图6所示,而本实施例提出的方法也包括提取辅音时域波形上轮廓线所在的包络线。
(2.2.1)首先计算输入辅音的时域波形,并提取输入语音信号的上包络线:
将语音信号进行一阶微分处理,即将语音数据点从后往前依次两两相减得到的值,将这些值存储为一个矩阵M,长度为m。假设d1=M(1:m-1),即M矩阵中的前(m-1)个值;假设d2=(2:m),即M矩阵中的后(m-1)个值。则对于存储在矩阵M中同一位置的两个数,d1中差分值为d2中的差分值的前一个,当d1(i)*d2(i)<0,且d1(i)>0时,则认为该点为上包络的一个包络连接点。依次找出所有的连接点,在原始语音信号上将这些连接点连接起来,就得到了语音信号的上包络。
(2.2.2)将包络线分区,并对分区均值求取:
基于信号长度,以包络线中心点为界向包络两端基于信号长度进行等比分区,信号长度为L,左右端长各为L/2,选择等比尺度n,则包络分区满足如下条件:
Figure BDA0001747727580000141
其中n为等比尺度,i表示第i个等比分区,
Figure BDA0001747727580000142
为左端等比分区系数之和,不超过1/2,即分区长度之和不超过信号本身长度的一半,且右端等比分区参照左端等比分区系数;例如等比尺度n=2,则左端第一个长度最大为L/4,第二个分区长度为L/8,依此类推距离中界越近,区域长度越短。
(2.2.3)完成左右两端等比分区后,计算从左到右每个分区的包络均值Ai,Ai-1,…,A1,B1,B2,…,Bi,所述计算包络均值是指计算所在分区包含的包络段上所有点之和的均值。通过将计算得到的包络均值从左到右进行作为一位矩阵得到等比包络均值阵列[Ai,Ai-1,…,A1,B1,B2,…,Bi]。
该等比均值阵列,自中界向两端分区越来越宽,得到包络线越来越稀疏。通过观察语音信号在时域的包络可以发现,包络整体呈现为波峰波谷的传递,中间段波峰与波谷幅度落差较大,越往两端,则该落差越小,且咽擦音由于其发音时气流的阻碍,波峰波谷之间的落差值整体分布较均匀,正常音中部及两端的差别则更加明显。正是为了体现该特征,采用不均匀分区,越近中部分区越窄,从而突出中部波峰,更好的体现咽擦音辅音与正常音辅音的包络的区别。
(3)在提取语音信号的时域和FTSL信号特征后,利用组合分类器识别算法对语音信号进行分类。
如图7所示,为利用组合分类器进行识别的流程图,所述组合分类器为针对分别提取的信号特征分别利用不同的分类识别器针对不同的信号特征进行组合式分类识别。
KNN通过测量不同特征变量之间的距离进行分类。若一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别;SVM(Support Vector Machine)是典型的适用于两类识别的分类器,基于其分类特性,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势。将两种各有优点的不同的分类器进行结合作为组合式分类器,并按照本实施例提出的分类识别方法进行更加准确有效的信号分类识别。
在进行分类识别时,首先对输入的正常音辅音与咽擦音辅音样本,分别采用前述步骤中的信号特征提取方法对样本分别提取FTSL谱线特征和包络线等比均值阵列作为特征值,然后对包络线等比均值阵列特征使用KNN识别器提取预测标签1,对FTSL谱线特征使用SVM识别器提取预测标签2,将预测标签1和预测标签2进行对比,若预测标签1和预测标签2一致则输出预测标签,若不一致,则进一步将预测分数进行对比。在使用预测分数进行对比时,K_score和S_score分别为KNN识别和SVM识别对应的预测分数,其中,S_score表示的是利用SVM进行样本分类时每个样本的隶属度分数,K_score代表KNN分类中11折交叉验证将样本判为正确分类的分数,例如11折中8个判为正确分类,3个判为错误分类,即分数为72.7%。若K_score>S_score则将KNN预测标签1作为预测标签输出,若K_score<S_score则将SVM预测标签2作为预测标签输出。
本实施例通过提取咽擦音辅音和正常音辅音分别提取FTSL谱线特征和包络线等比均值阵列作为特征值作为特征值,利用KNN分类器和SVM分类器作为组合分类进行咽擦音辅音与正常辅音的自动识别分类,其分类识别结果如下表2所示,当m=100时,选择第20~43条谱线,腭裂语音咽擦音自动分类检测的准确率最高为92.7%,尤其是从第20条谱线开始选取时,每一谱线对应较宽的频带,避免了同一谱线代表多个频带的现象,且包括了大部分低频谱线及所有高频谱线,更能够突出辅音信号多延迟四阶累积量能量分布差异的特点,使得咽擦音辅音与正常擦音辅音的自动识别检测分类效果更好,充分说明了本实施例提出的基于FTSL谱线对咽擦音与正常擦音的自动分类检测具有很好的鲁棒性,且具有一定的应用价值。
表2谱线数目对应的识别正确率
FTSL谱线数目 识别正确率(%)
24(后24条) 92.7
25(前25条) 80.7
43(整合频谱谱线) 90.4
本说明书(包括任何附加权利要求、摘要)中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。

Claims (9)

1.一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,包括以下步骤:
(1)信号预处理,对输入辅音信号进行分帧、预加重及幅值归一化;
(2)提取语音信号特征,包括对每帧语音的多延迟四阶累积量的频域中提取FTSL谱线特征,以及在在时域中做等比均值包络阵列提取,包括:
(2.1)计算每帧语音信号的FTSL谱线,并提取语音信号的FTSL特征矩阵;所述FTSL谱线为计算每一帧辅音信号的多延迟四阶累积量,并计算该多延迟四阶累积量的频谱,利用1/3倍频程提取四阶累积量的频谱谱线FTSL;
(2.2)在提取FTSL谱线特征的同时,在时域中提取等比包络均值阵列作为时域信号特征;
(3)在提取语音信号的时域和FTSL谱线特征后,利用组合分类器识别算法结合时域等比包络均值阵列和FTSL谱线特征对语音信号进行自动分类,并输出分类结果。
2.如权利要求1所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤1包括:
(1.1)语音信号分帧,实现将长语音信号转换为短时平稳信号,用线性方法进行处理;
(1.2)预加重:强调语音信号中的高频成分,由于研究对象是语音中的辅音,其属于频率较高部分,因此需要做预加重;
(1.3)幅值归一:为了规避采集系统及患者声音大小因素的影响,对输入的每一个语音求取绝对值最大的幅值Xmax,然后将语音信号中的每一个值分别除以该最大值,进行归一化。
3.如权利要求1所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤2.1包括:
(2.1.1)首先分别求出语音信号一、二、三阶累积量及其对应的矩;
设每一帧信号为x(n),且每一帧语音信号x(n)为k阶平稳随机过程,则该过程的k阶累积量定义为随机变量{x(n),x(n+τ1),...,x(n+τk-1)}的K阶联合累积量如下:
Figure FDA0002891947370000024
式(1)中Ck,x12,...,τk-1)为计算得到的K阶累积量,τ1,τ2,...,τk-1分别为各阶对应的延迟,cum(·)为K阶联合累积量;
零均值k阶平稳随机过程的K阶矩如下:
Figure FDA0002891947370000021
式中mk,x12,...,τk-1)为K阶矩,mom(·)表示为K阶联合矩;
四阶累积量的计算是基于其低阶累积量的,在计算四阶累积量时,需要先计算出其低阶累积量及其低阶矩,一随机过程x(n)的一到四阶矩和累积量分别定义如下,其中m1x,m2x,m3x,m4x和c1x,c2x,c3x,c4x分别代表该随机过程的一到四阶矩及一到四阶累积量,τ为信号的延迟:
①、一阶矩和一阶累积量为:
m1x=c1x=E{x(n)} (3)
信号一阶累积量及其一阶矩均为该随机过程的期望值,
②、二阶矩和二阶累积量为:
m2x1)=E{x(n)x(n+τ1)}=rx1) (4)
Figure 1
③、三阶矩和三阶累积量为:
m3x1,τ2)=E{x(n)x(n+τ1)x(n+τ2)} (6)
Figure 2
(2.1.2)基于前三阶累积量及其对应的矩求取信号四阶累积量,四阶矩和四阶累积量如下:
m4x1,τ2,τ3)=E{x(n)x(n+τ1)x(n+τ2)x(n+τ3)} (8)
Figure 3
公式(9)为四阶累积量计算的最终表达式,根据分帧后的语音信号具有短时平稳性,即每一帧语音信号的均值可视为0,即该过程的随机均值m1x=0,将m1x=0代入式(9),则式(9)可改写为式(10):
C4x1,τ2,τ3)=m4x1,τ2,τ3)-m2x1)m2x32)-m2x2)m2x31)-m2x3)m2x21)(10);
(2.1.3)将每帧语音信号的多延迟四阶累积量转换到频域,得到频率由低到高的频谱,将得到的频谱值按一定规则划分为各个频带,计算每个频带内的频谱均值,将各个频带计算的能量谱均值作为该频带的FTSL值,将每帧信号各个频带的FTSL值按中心频率由低频到高频的顺序进行排列,就得到了每帧语音信号的FTSL谱线;
进一步将同一段语音的各帧FTSL谱线按帧顺序拼接为一个一维的矩阵,得到该段语音信号的FTSL特征矩阵。
4.如权利要求1所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤2.2包括:
(2.2.1)首先读取输入辅音的时域波形,并提取输入语音信号的上包络线:
将语音信号进行一阶微分处理,即将语音数据点从后往前依次两两相减得到的值,将这些值存储为一个矩阵M,长度为m,假设d1=M(1:m-1),即M矩阵中的前(m-1)个值;假设d2=(2:m),即M矩阵中的后(m-1)个值,则对于存储在矩阵M中同一位置的两个数,d1中差分值为d2中的差分值的前一个,当d1(i)*d2(i)<0,且d1(i)>0时,则认为该点为上包络的一个包络连接点,依次找出所有的连接点,在原始语音信号上将这些连接点连接起来,就得到了语音信号的上包络;
(2.2.2)将包络线分区,并对分区均值求取:
基于信号长度,以包络线中心点为界向包络两端基于信号长度进行等比分区,信号长度为L,左右端长各为L/2,选择等比尺度n,则包络分区满足如下条件:
Figure FDA0002891947370000041
其中n为等比尺度,i表示第i个等比分区,
Figure FDA0002891947370000042
为左端等比分区系数之和,不超过1/2,即分区长度之和不超过信号本身长度的一半,且右端等比分区参照左端等比分区系数;
(2.2.3)完成左右两端等比分区后,计算从左到右每个分区的包络均值Ai,Ai-1,…,A1,B1,B2,…,Bi,通过将计算得到的包络均值从左到右进行作为一位矩阵得到等比包络均值阵列[Ai,Ai-1,…,A1,B1,B2,…,Bi]。
5.如权利要求4所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤3具体为:
在进行分类识别时,首先输入的正常音辅音与咽擦音辅音样本,并对样本分别提取FTSL谱线特征和包络线等比均值阵列作为特征值,对包络线等比均值阵列特征使用KNN识别器提取预测标签1,对FTSL谱线特征使用SVM识别器提取预测标签2,将预测标签1和预测标签2进行对比,若预测标签1和预测标签2一致则输出预测标签,若不一致,则进一步将预测分数进行对比;
在使用预测分数进行对比时,K_score和S_score分别为KNN识别和SVM识别对应的预测分数,若K_score>S_score则将KNN预测标签1作为预测标签输出,若K_score<S_score则将SVM预测标签2作为预测标签输出。
6.如权利要求5所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述S_score表示利用SVM进行样本分类时每个样本的隶属度分数,K_score代表KNN分类中11折交叉验证将样本判为正确分类的分数。
7.如权利要求3所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述τ1=1,τ2=3,τ3=m,m为四阶累积量计算的最大延迟,计算信号的四阶累积量时将遍历每一个绝对值小于m的整数延迟量。
8.如权利要求3所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤2.1.3是利用快速傅里叶变换FFT变换将每帧语音信号的多延迟四阶累积量进行变换并转换到频域。
9.如权利要求3所述的一种基于多延迟四阶累积量倍频程FTSL谱线的腭裂语音咽擦音自动检测方法,其特征在于,所述步骤2.1.3中将得到的频谱值按一定规则划分为各个频带,是基于1/3倍频程谱规则进行划分,所述1/3倍频程谱是以第一个频带中心频率为起点,每隔两个频带,中心频率的值变为原来的两倍,因此三分之一倍频程谱中每个带通滤波器的中心频率与上、下限频率之间的关系为:
f2/f1=21/3,f2/fc=21/6,fc/f1=21/6
CN201810852095.8A 2018-07-30 2018-07-30 基于ftsl谱线的腭裂语音咽擦音自动检测方法 Active CN108922565B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810852095.8A CN108922565B (zh) 2018-07-30 2018-07-30 基于ftsl谱线的腭裂语音咽擦音自动检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810852095.8A CN108922565B (zh) 2018-07-30 2018-07-30 基于ftsl谱线的腭裂语音咽擦音自动检测方法

Publications (2)

Publication Number Publication Date
CN108922565A CN108922565A (zh) 2018-11-30
CN108922565B true CN108922565B (zh) 2021-07-13

Family

ID=64418958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810852095.8A Active CN108922565B (zh) 2018-07-30 2018-07-30 基于ftsl谱线的腭裂语音咽擦音自动检测方法

Country Status (1)

Country Link
CN (1) CN108922565B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110600049A (zh) * 2019-09-20 2019-12-20 闽南师范大学 一种电子通信设备语音信号处理系统
CN111811842A (zh) * 2020-07-23 2020-10-23 江西省交通科学研究院 一种行车舒适度评价方法
CN112926409B (zh) * 2021-02-03 2022-09-02 自然资源部第一海洋研究所 一种水生动物调频类型信号时频特征的人工辅助提取方法
CN114155879B (zh) * 2021-12-06 2022-07-01 哈尔滨工程大学 一种利用时频融合补偿异常感知及稳定性的异音检测方法
CN115995231B (zh) * 2023-03-21 2023-06-16 北京探境科技有限公司 语音唤醒方法、装置、电子设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751903A (en) * 1994-12-19 1998-05-12 Hughes Electronics Low rate multi-mode CELP codec that encodes line SPECTRAL frequencies utilizing an offset
CN101661752A (zh) * 2009-09-16 2010-03-03 深圳华为通信技术有限公司 信号处理方法和装置
CN103780462A (zh) * 2014-01-22 2014-05-07 中国人民解放军理工大学 基于高阶累积量和谱特征的卫星通信信号调制识别方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5665243A (en) * 1979-11-02 1981-06-02 Dainippon Printing Co Ltd Printing chinese character input device
JPS59107399A (ja) * 1982-12-13 1984-06-21 リオン株式会社 鼻音化の程度を計測する方法
US20040083093A1 (en) * 2002-10-25 2004-04-29 Guo-She Lee Method of measuring nasality by means of a frequency ratio
US9129595B2 (en) * 2008-07-01 2015-09-08 University Of The Witwatersrand Artificial larynx
US20130216983A1 (en) * 2012-02-21 2013-08-22 Lior Cohen System and method for learning english
CN103839552A (zh) * 2014-03-21 2014-06-04 浙江农林大学 一种基于峭度的环境噪音识别方法
CN205282085U (zh) * 2015-07-27 2016-06-01 四川大学 一种便携式腭裂语音辅音省略识别装置
CN105679332B (zh) * 2016-03-09 2019-06-11 四川大学 一种腭裂语音声韵母自动切分方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751903A (en) * 1994-12-19 1998-05-12 Hughes Electronics Low rate multi-mode CELP codec that encodes line SPECTRAL frequencies utilizing an offset
CN101661752A (zh) * 2009-09-16 2010-03-03 深圳华为通信技术有限公司 信号处理方法和装置
CN103780462A (zh) * 2014-01-22 2014-05-07 中国人民解放军理工大学 基于高阶累积量和谱特征的卫星通信信号调制识别方法

Also Published As

Publication number Publication date
CN108922565A (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
CN108922565B (zh) 基于ftsl谱线的腭裂语音咽擦音自动检测方法
Gómez-García et al. On the design of automatic voice condition analysis systems. Part I: Review of concepts and an insight to the state of the art
Khan et al. Classification of speech intelligibility in Parkinson's disease
US11672472B2 (en) Methods and systems for estimation of obstructive sleep apnea severity in wake subjects by multiple speech analyses
Khan et al. Cepstral separation difference: A novel approach for speech impairment quantification in Parkinson's disease
Benavides et al. Formant frequencies and bandwidths in relation to clinical variables in an obstructive sleep apnea population
Blanco et al. Improving automatic detection of obstructive sleep apnea through nonlinear analysis of sustained speech
KR20230017135A (ko) 기계학습 음성기술에 기반한 어려운 기도 평가 방법 및 장치
Taib et al. Voice feature analysis for early detection of voice disability in children
Kriboy et al. A novel method for obstructive sleep apnea severity estimation using speech signals
Ghaemmaghami et al. Normal probability testing of snore signals for diagnosis of obstructive sleep apnea
Haque et al. Variability of acoustic features of hypernasality and it’s assessment
Castellana et al. Vocal health assessment by means of Cepstral Peak Prominence Smoothed distribution in continuous speech
Corcoran et al. Glottal Flow Analysis in Parkinsonian Speech.
Rusz et al. Acoustic markers of speech degradation in early untreated Parkinson’s disease
Herath et al. An investigation of critical frequency sub-bands of snoring sounds for OSA diagnosis
Elisha et al. Automatic detection of obstructive sleep apnea using speech signal analysis
Ciocca et al. The acoustic measurement of vowels
Zhang et al. Acoustic characteristics of normal and pathological voices analysis and recognition
Elisha et al. Detection of obstructive sleep apnea using speech signal analysis
Haque et al. Cross-gender acoustic differences in hypernasal speech and detection of hypernasality
Or et al. Obstructive sleep apnea severity estimation: Fusion of speech-based systems
US20040181396A1 (en) Nasal sound detection method and apparatus thereof
Fang-Ling et al. The Automatic Detection of Hypernasality in Cleft Palate Speech Based on an Improved Cepstrum Method
Jalalinajafabadi et al. Computerised objective measurement of strain in voiced speech

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant