CN109903777A - 一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法 - Google Patents
一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法 Download PDFInfo
- Publication number
- CN109903777A CN109903777A CN201910033836.4A CN201910033836A CN109903777A CN 109903777 A CN109903777 A CN 109903777A CN 201910033836 A CN201910033836 A CN 201910033836A CN 109903777 A CN109903777 A CN 109903777A
- Authority
- CN
- China
- Prior art keywords
- speaker
- vowel
- abnormal
- attenuation rate
- normal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明公开了一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,包括以下步骤:对各元音语音样本进行预处理:预加重、加窗分帧;从每个元音语音样本提取梅尔频率倒谱系数特征;为异常说话人和正常说话人的每个元音构建一个高斯混合模型;将各元音高斯混合模型的均值向量拼接成一个行矢量,计算元音谱空间衰减率;如果说话人测试样本的所有元音谱空间衰减率均值小于设定的阈值,则该说话人为异常说话人,否则为正常说话人。本发明利用异常说话人与正常说话人的元音谱空间分布特性差异,在特征层面区分异常说话人与正常说话人,无需构建复杂分类器,与传统区分方法相比,速度更快。
Description
技术领域
本发明涉及语音信号处理技术领域,具体涉及一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法。
背景技术
异常说话人是指发音器官出现病变或受损或严重疲劳,不能发出正常语音的说话人。异常说话人的语音表现为含混不清晰、各个元音之间的差异性变小,谱空间分布明显缩小。因此,基于元音谱空间上的差异性分析,可以有效区分正常说话人和异常说话人,还可以对异常说话人语音的变异程度进行估计、估计异常变化可能的原因。另外,分析正常说话人和异常说话人的语音谱空间分布差异,也是提升异常说话人语音识别率的有效途径之一。
目前常规的异常说话人与正常说话人的区分方法一般是:首先提取语音样本的各种音频特征,再训练复杂分类器进行判决。分类器的训练需要人工采集并标注大量的语音样本,费时费力。另外,分类器的性能与训练样本的特性及数量有关,当测试样本与训练样本特性差异较大时,分类器性能会急剧下降,区分效果差。因此,目前常规的区分方法存在以下不足:需要构建复杂分类器、分类器性能受训练样本影响、分类器训练时间长。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,利用异常语音和正常语音谱空间分布的差异性,提供一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法。
本发明的目的可以通过采取如下技术方案达到:
一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,所述的区分方法包括以下步骤:
S1、预处理:读入元音语音样本,并进行预加重、加窗分帧等处理;
S2、提取梅尔频率倒谱系数特征:对每一帧语音进行傅里叶变换,利用梅尔滤波器组将傅里叶变换的线性谱转换为梅尔谱,获取每一帧语音的梅尔频率倒谱系数特征;
S3、构建高斯混合模型:为异常说话人和正常说话人的每个元音构建一个高斯混合模型;
S4、计算元音谱空间衰减率:将各个元音高斯混合模型的均值向量拼接成一个行矢量,计算元音谱空间衰减率;
S5、异常说话人与正常说话人判决:如果说话人测试样本的所有元音谱空间衰减率均值小于设定的阈值,则该说话人为异常说话人,否则为正常说话人。
进一步地,所述的步骤S1具体包括:
S1.1、采用一阶高通滤波器进行预加重,一阶高通滤波器的传输函数为:
H(z)=1-az-1
式中,a为预加重系数,取值为0.98,经过预加重处理后的结果为:
x(n)=y(n)-ay(n-1)
其中x(n)为预加重处理后的语音信号,y(n)为预加重前的语音信号;
S1.2、分帧:将预加重后的语音信号进行分帧处理,帧长25ms,帧移10ms;
S1.3、加窗:将第t帧语音信号xt(n)与汉明窗函数相乘,实现加窗操作。
进一步地,所述的步骤S2具体包括:
S2.1、对预处理后的语音信号xt(n)进行快速傅里叶变换,得到每帧信号的线性频谱:
式中,N为傅里叶变换的采样点数;
S2.2、将上述线性频谱Xt(k)通过一组梅尔尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,每个滤波器的中心频率记为f(m),0≤m≤M,f(m)之间的间隔随着m的增大而变宽,第m个三角形滤波器的频率响应定义为:
式中,
S2.3、计算每个滤波器组输出的对数能量:
S2.4、经过离散余弦变换得到梅尔频率倒谱系数:
式中,ct(p)表示第t帧语音信号的第p阶梅尔频率倒谱系数,这里M取13,加上13维一阶差分、13维二阶差分和帧能量,构成40维的梅尔频率倒谱系数特征。
进一步地,所述的步骤S3中,异常说话人和正常说话人的语音样本包括五个元音/a/、/e/、/i/、/o/、/u/的发音,为每个元音构建一个高斯混合模型,并采用期望最大化算法迭代更新高斯混合模型参数,具体过程如下:
S3.1、对于某组样本的梅尔频率倒谱系数特征C={ct,t=1,2,...,T},ct为第t帧梅尔频率倒谱系数,ct满足独立同分布,C输入高斯混合模型θ的输出概率为:
式中,p(ct|θ)表示ct输入高斯混合模型θ的输出概率;
S3.2、引入隐含变量z,通过期望最大化算法求解θ,对于每个样本,用Qt表示该样本隐含变量z服从某种分布,且满足:
那么有:
利用Jensen不等式,有:
要使等号成立,必须使A为常数,又由于∑iQt(zi)=1,则∑ip(ct,zk|θ)=A,因此Qt(zk)满足:
S3.3、执行期望最大化算法的E-step,对每个ct计算:Qt(zk),然后执行M-step,调整θ,极大化L(C|θ)的下界:
反复迭代,直至收敛,即可求得最终的参数θ。
S3.4、求解高斯混合模型的参数θ={wk,μk,Σk},则
式中,wk表示权重,uk表示均值,∑k表示方差,且对密度函数取对数,并执行E-step后,得到第k个高斯成分的生成概率:
执行M-step,引入拉格朗日乘子算法,得到参数θ={wk,μk,Σk}为:
S3.5、对于异常说话人或正常说话人的某个元音v,其第k个高斯混合分量的均值矢量表示该元音梅尔频率倒谱系数特征在第k个高斯混合分量上的均值,表示该元音的第k个高斯混合分量所占总体的权重。
进一步地,所述的步骤S4中,元音谱空间衰减率定义为:
式中,r(v)表示待判决元音v的谱空间衰减率,表示待判决元音v的均值行矢量,表示正常说话人元音v的均值行矢量,Av[μp]表示待判决的五个元音的均值行矢量的均值:
Av[μh]表示正常说话人五个元音的均值行矢量的均值:
进一步地,所述的步骤S5中,由于异常说话人语音的异常程度不同,在谱空间上有不同程度的衰减,对于轻度异常说话人语音,衰减率一般在0.8至0.9,而对于重度异常说话人语音,衰减率可低至0.6左右;因此,通过设定合适阈值,可以区分正常说话人和异常说话人;谱空间衰减率的阈值设为thr(0<thr<1),若某个说话人的五个元音的谱空间衰减率均值大于thr,则判定为正常说话人,若小于thr,则判定为异常说话人。
本发明相对于现有技术具有如下的优点及效果:
本发明从异常说话人和正常说话人的元音谱空间分布差异特性出发,提出了一种区分异常说话人和正常说话人的指标——谱空间衰减率,在特征层面区分异常说话人与正常说话人,无需构建复杂分类器,与传统区分方法相比,速度更快。
附图说明
图1是本发明公开的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1所示,本实施例公开了一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,包括以下步骤:
步骤S1、读入元音语音样本,并进行预加重、加窗分帧等处理。具体为:
步骤S1.1、预加重采用的滤波器为一阶高通滤波器,其传输函数为:
H(z)=1-az-1
式中,a为预加重系数,取值为0.98,经过预加重处理后的结果为:
x(n)=y(n)-ay(n-1)
其中,x(n)为预加重处理后的语音信号,y(n)为原始语音信号。
步骤S1.2、加窗分帧处理是在预加重之后,将一整段语音信号分割成若干短段进行处理,通过移动有限长的窗口实现分帧,采用汉明窗,帧长为25ms,帧移为10ms。
步骤S2、提取梅尔频率倒谱系数特征:对每一帧语音进行傅里叶变换,利用梅尔滤波器组将傅里叶变换的线性谱转换为梅尔谱,获取每一帧语音的梅尔频率倒谱系数特征,具体过程如下:
步骤S2.1、对预处理后的语音信号xt(n)进行快速傅里叶变换,得到每帧信号的线性频谱:
式中,N为傅里叶变换的采样点数。
步骤S2.2、将上述线性频谱Xt(k)通过一组梅尔尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,每个滤波器的中心频率记为f(m),0≤m≤M,f(m)之间的间隔随着m的增大而变宽,第m个三角形滤波器的频率响应定义为:
式中,
步骤S2.3、计算每个滤波器组输出的对数能量:
步骤S2.4、经过离散余弦变换得到梅尔频率倒谱系数:
式中,ct(p)表示第t帧语音信号的第p阶梅尔频率倒谱系数,这里M取13,加上13维一阶差分、13维二阶差分和帧能量,构成40维的梅尔频率倒谱系数特征。
步骤S3、构建高斯混合模型:为异常说话人和正常说话人的每个元音构建一个高斯混合模型,异常说话人和正常说话人的语音样本包括五个元音/a/、/e/、/i/、/o/、/u/的发音,为每个元音构建一个高斯混合模型,并采用期望最大化算法迭代更新高斯混合模型参数,具体过程如下:
步骤S3.1、对于某组样本的梅尔频率倒谱系数特征C={ct,t=1,2,...,T},ct为第t帧梅尔频率倒谱系数,ct满足独立同分布,C输入高斯混合模型θ的输出概率为:
式中,p(ct|θ)表示ct输入高斯混合模型θ的输出概率;
步骤S3.2、引入隐含变量z,通过期望最大化算法求解θ,对于每个样本,用Qt表示该样本隐含变量z服从某种分布,且满足:
那么有:
利用Jensen不等式,有:
要使等号成立,必须使A为常数,又由于∑iQt(zi)=1,则∑ip(ct,zk|θ)=A,因此Qt(zk)满足:
步骤S3.3、执行期望最大化算法的E-step,对每个ct计算:Qt(zk),然后执行M-step,调整θ,极大化L(C|θ)的下界:
反复迭代,直至收敛,即可求得最终的参数θ。
步骤S3.4、求解高斯混合模型的参数θ={wk,μk,Σk},则
式中,wk表示权重,uk表示均值,∑k表示方差,且对密度函数取对数,并执行E-step后,得到第k个高斯成分的生成概率:
执行M-step,引入拉格朗日乘子算法,得到参数θ={wk,μk,Σk}为:
步骤S3.5、对于异常说话人或正常说话人的某个元音v,其第k个高斯混合分量的均值矢量表示该元音梅尔频率倒谱系数特征在第k个高斯混合分量上的均值,表示该元音的第k个高斯混合分量所占总体的权重。
步骤S4、计算元音谱空间衰减率:将各元音高斯混合模型的均值向量拼接成一个行矢量,计算元音谱空间衰减率。具体过程如下:将某个元音的高斯混合模型的均值矢量拼接行矢量,计算谱空间衰减率:
式中,r(v)表示待判决元音v的谱空间衰减率,表示待判决元音v的均值行矢量,表示正常说话人元音v的均值行矢量,Av[μp]表示待判决的五个元音的均值行矢量的均值:
Av[μh]表示正常说话人五个元音的均值行矢量的均值:
步骤S5、异常说话人与正常说话人判决:如果某说话人测试样本的所有元音谱空间衰减率均值小于设定的阈值,则该说话人为异常说话人,否则为正常说话人。具体为:由于异常说话人语音的异常程度不同,在谱空间上有不同程度的衰减,对于轻度的异常说话人语音,衰减率一般在0.8至0.9,而对于重度异常说话人语音,衰减率可低至0.6左右;因此,通过设定合适阈值,可以区分正常说话人和异常说话人;谱空间衰减率的阈值设为thr(0<thr<1),若某个说话人的五个元音的谱空间衰减率均值大于thr,则判定为正常说话人,若小于thr,则判定为异常说话人。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的区分方法包括以下步骤:
S1、预处理:读入元音语音样本,并进行预加重、加窗分帧处理;
S2、提取梅尔频率倒谱系数特征:对每一帧语音进行傅里叶变换,利用梅尔滤波器组将傅里叶变换的线性谱转换为梅尔谱,获取每一帧语音的梅尔频率倒谱系数特征;
S3、构建高斯混合模型:为异常说话人和正常说话人的每个元音构建一个高斯混合模型;
S4、计算元音谱空间衰减率:将各个元音高斯混合模型的均值向量拼接成一个行矢量,计算元音谱空间衰减率;
S5、异常说话人与正常说话人判决:如果说话人测试样本的所有元音谱空间衰减率均值小于设定的阈值,则该说话人为异常说话人,否则为正常说话人。
2.根据权利要求1所述的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的步骤S1具体包括:
S1.1、采用一阶高通滤波器进行预加重,一阶高通滤波器的传输函数为:
H(z)=1-az-1
式中,a为预加重系数,经过预加重处理后的结果为:
x(n)=y(n)-ay(n-1)
其中x(n)为预加重处理后的语音信号,y(n)为预加重前的语音信号;
S1.2、分帧:将预加重后的语音信号进行分帧处理,帧长25ms,帧移10ms;
S1.3、加窗:将第t帧语音信号xt(n)与汉明窗函数相乘,实现加窗操作。
3.根据权利要求1所述的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的步骤S2包括:
S2.1、对预处理后的语音信号xt(n)进行快速傅里叶变换,得到每帧信号的线性频谱:
式中,N为傅里叶变换的采样点数;
S2.2、将上述线性频谱Xt(k)通过一组梅尔尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,每个滤波器的中心频率记为f(m),0≤m≤M,第m个三角形滤波器的频率响应定义为:
式中,
S2.3、计算每个滤波器组输出的对数能量:
S2.4、经过离散余弦变换得到梅尔频率倒谱系数:
式中,ct(p)表示第t帧语音信号的第p阶梅尔频率倒谱系数。
4.根据权利要求1所述的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的步骤S3中,异常说话人和正常说话人的语音样本包括/a/、/e/、/i/、/o/、/u/的发音,为每个元音构建一个高斯混合模型,并采用期望最大化算法迭代更新高斯混合模型参数。
5.根据权利要求4所述的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的步骤S4包括:
S3.1、对于某组样本的梅尔频率倒谱系数特征C={ct,t=1,2,...,T},ct为第t帧梅尔频率倒谱系数,ct满足独立同分布,C输入高斯混合模型θ的输出概率为:
式中,p(ct|θ)表示ct输入高斯混合模型θ的输出概率;
S3.2、引入隐含变量z,通过期望最大化算法求解θ,对于每个样本,用Qt表示该样本隐含变量z服从某种分布,且满足:
那么有:
利用Jensen不等式,有:
要使等号成立,必须使A为常数,又由于∑iQt(zi)=1,则∑ip(ct,zk|θ)=A,因此Qt(zk)满足:
S3.3、执行期望最大化算法的E-step,对每个ct计算:Qt(zk),然后执行M-step,调整θ,极大化L(C|θ)的下界:
反复迭代,直至收敛,即可求得最终的参数θ;
S3.4、求解高斯混合模型的参数θ={wk,μk,∑k},则
式中,wk表示权重,uk表示均值,∑k表示方差,且对密度函数取对数,并执行E-step后,得到第k个高斯成分的生成概率:
执行M-step,引入拉格朗日乘子算法,得到参数θ={wk,μk,∑k}为:
S3.5、对于异常说话人或正常说话人的某个元音v,其第k个高斯混合分量的均值矢量表示该元音梅尔频率倒谱系数特征在第k个高斯混合分量上的均值,表示该元音的第k个高斯混合分量所占总体的权重。
6.根据权利要求1所述的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的元音谱空间衰减率定义为:
式中,r(v)表示待判决元音v的谱空间衰减率,表示待判决元音v的均值行矢量,表示正常说话人元音v的均值行矢量,Av[μp]表示待判决的五个元音的均值行矢量的均值:
Av[μh]表示正常说话人五个元音的均值行矢量的均值:
7.根据权利要求4所述的一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法,其特征在于,所述的步骤S5过程如下:
将谱空间衰减率的阈值设为thr,0<thr<1,若某个说话人的五个元音的谱空间衰减率均值大于thr,则判定为正常说话人,若小于thr,则判定为异常说话人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910033836.4A CN109903777B (zh) | 2019-01-15 | 2019-01-15 | 一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910033836.4A CN109903777B (zh) | 2019-01-15 | 2019-01-15 | 一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109903777A true CN109903777A (zh) | 2019-06-18 |
CN109903777B CN109903777B (zh) | 2020-10-27 |
Family
ID=66943645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910033836.4A Active CN109903777B (zh) | 2019-01-15 | 2019-01-15 | 一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109903777B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0736489A (ja) * | 1993-07-19 | 1995-02-07 | Matsushita Electric Ind Co Ltd | 音声認識装置 |
JP2009187000A (ja) * | 2008-01-10 | 2009-08-20 | Asahi Kasei Corp | ユーザ音声診断装置及びユーザ音声診断方法 |
CN104143332A (zh) * | 2013-05-08 | 2014-11-12 | 卡西欧计算机株式会社 | 声音处理装置以及声音处理方法 |
CN106952643A (zh) * | 2017-02-24 | 2017-07-14 | 华南理工大学 | 一种基于高斯均值超矢量与谱聚类的录音设备聚类方法 |
CN108922559A (zh) * | 2018-07-06 | 2018-11-30 | 华南理工大学 | 基于语音时频变换特征和整数线性规划的录音终端聚类方法 |
-
2019
- 2019-01-15 CN CN201910033836.4A patent/CN109903777B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0736489A (ja) * | 1993-07-19 | 1995-02-07 | Matsushita Electric Ind Co Ltd | 音声認識装置 |
JP2009187000A (ja) * | 2008-01-10 | 2009-08-20 | Asahi Kasei Corp | ユーザ音声診断装置及びユーザ音声診断方法 |
CN104143332A (zh) * | 2013-05-08 | 2014-11-12 | 卡西欧计算机株式会社 | 声音处理装置以及声音处理方法 |
CN106952643A (zh) * | 2017-02-24 | 2017-07-14 | 华南理工大学 | 一种基于高斯均值超矢量与谱聚类的录音设备聚类方法 |
CN108922559A (zh) * | 2018-07-06 | 2018-11-30 | 华南理工大学 | 基于语音时频变换特征和整数线性规划的录音终端聚类方法 |
Non-Patent Citations (4)
Title |
---|
康广玉等: "《基于子带能量的GMM含噪语音分类算法》", 《仪器仪表学报》 * |
熊汉春等: "《一种用于说话人辨认的EM训练算法》", 《数据采集与处理》 * |
甘德英: "《基于元音/a/与/i/的病态嗓音识别与研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
钱博: "《基于汉语元音映射的说话人识别技术研究》", 《中国博士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN109903777B (zh) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633842B (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN107610707B (zh) | 一种声纹识别方法及装置 | |
CN102968986B (zh) | 基于长时特征和短时特征的重叠语音与单人语音区分方法 | |
CN107331384A (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN109767756B (zh) | 一种基于动态分割逆离散余弦变换倒谱系数的音声特征提取算法 | |
CN105096955B (zh) | 一种基于模型生长聚类的说话人快速识别方法及系统 | |
CN102436809B (zh) | 英语口语机考系统中网络语音识别方法 | |
CN107564513A (zh) | 语音识别方法及装置 | |
CN109192200B (zh) | 一种语音识别方法 | |
CN104240706B (zh) | 一种基于GMM Token配比相似度校正得分的说话人识别方法 | |
CN103456302B (zh) | 一种基于情感gmm模型权重合成的情感说话人识别方法 | |
CN110942766A (zh) | 音频事件检测方法、系统、移动终端及存储介质 | |
CN109036437A (zh) | 口音识别方法、装置、计算机装置及计算机可读存储介质 | |
Yücesoy et al. | Gender identification of a speaker using MFCC and GMM | |
Rammo et al. | Detecting the speaker language using CNN deep learning algorithm | |
CN112802456A (zh) | 一种语音评测打分方法、装置、电子设备及存储介质 | |
CN110718210B (zh) | 一种英文错误发音的识别方法、装置、介质和电子设备 | |
CN109300470A (zh) | 混音分离方法和混音分离装置 | |
CN111798846A (zh) | 语音命令词识别方法、装置、会议终端及会议终端系统 | |
Zouhir et al. | Feature Extraction Method for Improving Speech Recognition in Noisy Environments. | |
CN103258537A (zh) | 利用特征结合对语音情感进行识别的方法及其装置 | |
KR100897555B1 (ko) | 음성 특징벡터 추출장치 및 방법과 이를 채용하는음성인식시스템 및 방법 | |
CN113539243A (zh) | 语音分类模型的训练方法、语音分类方法及相关装置 | |
Yadav et al. | Non-Uniform Spectral Smoothing for Robust Children's Speech Recognition. | |
CN104376850B (zh) | 一种汉语耳语音的基频估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |