CN112735482B - 基于联合深度神经网络的端点检测方法及系统 - Google Patents
基于联合深度神经网络的端点检测方法及系统 Download PDFInfo
- Publication number
- CN112735482B CN112735482B CN202011397477.XA CN202011397477A CN112735482B CN 112735482 B CN112735482 B CN 112735482B CN 202011397477 A CN202011397477 A CN 202011397477A CN 112735482 B CN112735482 B CN 112735482B
- Authority
- CN
- China
- Prior art keywords
- audio data
- network model
- audio
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 62
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000005236 sound signal Effects 0.000 claims abstract description 8
- 238000012360 testing method Methods 0.000 claims description 29
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000012795 verification Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 12
- 238000009432 framing Methods 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 241000288105 Grus Species 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000003062 neural network model Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Telephonic Communication Services (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了基于联合深度神经网络的端点检测方法及系统,该方法包括:基于开源音频数据集获取音频及第一帧级别标签,对音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,分段标记得到分段标签;将第一音频数据、第二音频数据及相应的标签输入至第一神经网络中进行训练,得到第一阶段网络模型;通过第一阶段网络模型得到第二音频数据相应的第二帧级别标签,将第二音频数据及第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;基于第一阶段网络模型及第二阶段网络模型,对音频信号进行端点检测。本发明可减少依赖人工标记的帧级别数据,提高检测识别效果,降低计算量,加快运算速度。
Description
技术领域
本发明涉及语音处理技术领域,特别涉及一种基于联合深度神经网络的端点检测方法及系统。
背景技术
端点检测(Voice Activity Detection,VAD)是指从连续音频信号中检测出实际语音片段的起始位置和结束位置,用于提取有效的音频片段,排除其他非语音干扰信号。端点检测能够为后续语音处理系统提供可靠的语音数据,同时将非语音信号去除,减少了后续语音处理系统的计算压力,有助于提高系统的响应速度。
端点检测可分为两大类,一类是传统的端点检测算法,一类是基于深度神经网络的端点检测算法。传统算法的计算量相对简单,但在实际环境中尤其是低信噪比环境下效果较差,而基于深度神经网络的算法计算量较大,且依赖于数据,需要匹配的人工标记的帧级别数据作为训练数据集,而真实环境中包含的声音场景和背景噪音种类繁多较为复杂,获取标记数据需要耗费大量的人工,要想取得较为理想的效果,网络结构复杂计算量较大。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种基于联合深度神经网络的端点检测方法,能够减少依赖标记数据。
本发明还提出一种具有上述基于联合深度神经网络的端点检测方法的基于联合深度神经网络的端点检测系统。
本发明还提出一种具有上述基于联合深度神经网络的端点检测方法的计算机可读存储介质。
根据本发明的第一方面实施例的基于联合深度神经网络的端点检测方法,包括以下步骤:S100,基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;S200,将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型;S300,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;S400,基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
根据本发明实施例的基于联合深度神经网络的端点检测方法,至少具有如下有益效果:通过开源数据集及对真实场景录音制作弱标签(即分段标签)数据,替代人工标记的帧级别数据,减少前期人工耗费,对真实场景录音并分段标记,而弥补了由于缺少实际标注数据,应用场景不匹配而导致VAD效果较差的缺陷;并通过两阶段网络结构联合训练,在第一阶段产生了真实场景下帧级别的数据,因此,第二阶段可采用较小的网络进行重新训练,大大降低了在实际过程中的计算量,加快了推理过程,兼顾了性能和运算速度;且充分利用合成音频的帧级别标签数据和真实声音场景的弱标签数据进行联合训练,可使网络能够得到较为准确的帧级别标签。
根据本发明的一些实施例,所述步骤S100包括:S110,基于开源音频数据集获取所述音频,进行加窗分帧处理,根据预设能量阈值逐帧进行标记,获得所述第一帧级别标签,并按比例将所述音频进行混合加噪处理,得到所述第一音频数据;S120,对所述第二音频数据按固定时长进行分段,判断每一分段是否存在人类语音信息,根据判断结果得到所述分段标签。
根据本发明的一些实施例,所述步骤S200包括:S210,对所述第一音频数据及所述第二音频数据,按照预设帧长及预设帧间隔进行加窗分帧处理,提取每帧的M阶MEL频谱系数作为当前帧的特征,选取N帧的特征值输入至所述第一阶段网络模型;S220,所述第一阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN分为两种,分别对所述第一音频数据及所述第二音频数据进行相应处理并得到相应的分类数据;所述第一阶段网络模型中loss函数采用加权二分类交叉熵函数,加权系数为[w1,w2],其中,w1表示根据所述第一音频数据得出的所述分类数据所占权重,w2表示根据所述第一音频数据得出的所述分类数据所占权重。
根据本发明的一些实施例,还包括:所述第二阶段网络模型相对于第二测试集收敛,则将所述第二阶段网络模型的loss函数反馈给所述第一阶段网络模型继续训练;若所述第一阶段网络模型继续训练后对第一测试集收敛,则继续迭代训练所述第二阶段网络模型,直至所述第一阶段网络模型相对于所述第一测试集及所述第二阶段网络模型相对于所述第二测试集均收敛。
根据本发明的一些实施例,还包括:选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集;将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
根据本发明的一些实施例,所述第二阶段网络模型的卷积神经网络中的卷积块堆叠层数小于第一阶段网络模型的卷积神经网络中的卷积块堆叠层数。
根据本发明的一些实施例,所述第二阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN层采用linear和softmax,loss函数采用二分类交叉熵函数。
根据本发明的第二方面实施例的基于联合深度神经网络的端点检测系统,包括:数据采集处理模块,用于基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;网络联合训练模块,用于将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型,以及,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;端点检测模块,用于基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
根据本发明实施例的基于联合深度神经网络的端点检测系统,至少具有如下有益效果:通过开源数据集及对真实场景录音制作弱标签(即分段标签)数据,替代人工标记的帧级别数据,减少前期人工耗费,对真实场景录音并分段标记,而弥补了由于缺少实际标注数据,应用场景不匹配而导致VAD效果较差的缺陷;并通过两阶段网络结构联合训练,在第一阶段产生了真实场景下帧级别的数据,因此,第二阶段可采用较小的网络进行重新训练,大大降低了在实际过程中的计算量,加快了推理过程,兼顾了性能和运算速度;且充分利用合成音频的帧级别标签数据和真实声音场景的弱标签数据进行联合训练,可使网络能够得到较为准确的帧级别标签。
根据本发明的一些实施例,还包括:网络模型验证模块,用于选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集,并将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
根据本发明的第三方面实施例的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明的第一方面实施例的方法。
根据本发明实施例的计算机可读存储介质,至少具有与本发明的第一方实施例的方法同样的有益效果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例的方法的流程示意图。
图2为本发明实施例的方法中对神经网络进行训练的数据交互示意图。
图3为本发明实施例的方法中的深度神经网络模型的网络基本结构示意图。
图4为本发明实施例的系统的模块示意框图。
附图标记:
数据采集处理模块100、网络联合训练模块200、端点检测模块300、网络模型验证模块400。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个及两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
名词解释:
CNN:卷积神经网络,(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deeplearning)的代表算法之一。
GRU(Gate Recurrent Unit),是循环神经网络(Recurrent Neural Network,RNN)的一种。
DNN,深度神经网络(Deep Neural Networks,以下简称DNN)是深度学习的基础
Flatten,Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。
参照图1,本发明的实施例的方法包括:S100,基于开源音频数据集获取音频及第一帧级别标签,对音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并对第二音频数据分段,并按分段进行标记,得到分段标签;S200,将第一音频数据及第一帧级别标签作为第一训练数据,将第二音频数据及分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型;S300,通过第一阶段网络模型得到第二音频数据相应的第二帧级别标签,将第二音频数据及第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;S400,基于第一阶段网络模型及第二阶段网络模型,对音频信号进行端点检测。
本发明的实施例中,对神经网络的的训练过程,参照图2,首先,将第一音频数据及第一帧级别标签作为第一训练数据,将第二音频数据及分段标签作为第二训练数据,输入到第一神经网络中进行训练,使第一神经网络相对第一测试集收敛,得到第一阶段网络模型,以便通过该第一阶段网络模型得到第二音频数据对应的帧级别标签,即第二帧级别标签;其中第一测试集可包括少量第三音频数据,这些第三音频数据为真实场景的录音音频数据,且通过人工进行帧级别标签的标记。显然,第三音频数据可复用已录制的第二音频数据,然后进行人工帧级别标记。第二音频数据及第二帧级别标签被输入到第二神经网络对该网络进行训练,使得第二神经网络相对于第二测试集收敛,得到第二阶段网络模型;第二测试集也可包括与第一测试集中不相同的第三音频数据。然后将第二阶段网络模型得出的损失函数反馈给第一神经网络,反复迭代训练,直至第一神经网络与第二神经网络均收敛。因第二神经网络仅针对真实场景录音的音频数据及相应帧级别标签进行处理,第二神经网络可采用相对于第一神经网络较小的网络进行重新训练,从而降低了在实际过程中的计算量,加快了推理过程。
本发明的实施例中,音频数据集的获取方法分为两种,第一种是采用干净音频人工合成为带噪音频,第二种为真实环境场景声音。在本发明的实施例之一中,第一种获取方式为:从开源音频数据集中,选取若干时长(如200h,即200小时)的原始干净音频(不含背景音,非噪音),获取原始音频的第一帧级别标签,将这些原始音频通过开源噪音数据集进行混合加噪,得到第一音频数据;第二种获取方式为:在真实场景中录制含有人类语音(即含人说话声)和不含人类语音的音频各50h,共计100h,作为第二音频数据;两种方式获取的音频统一处理为采样率为16KHz,16bit的单声道wav格式。应理解的是,本发明的实施例中,为保证数据的均衡性,来自于开源数据集的原始音频总时长及真实录制的第二音频数据的总时长之间的比例接近为1:1;但在实际运用中,可以不限定于1:1,类似地,第二音频数据中,含人类语音及不含人类语音的音频总时长的比例也不限定于1:1。
获取到音频数据集,需要进行处理得到相应的标签。对于从开源数据集中得到的100h原始干净语音进行加窗分帧处理,并划定能量阈值,根据该能量阈值逐帧进行标记,其中,语音帧标记为“1”,非语音帧标记为“0”,并将标记的数据标签进行保存。本发明的实施例之一中,用作训练数据的第一训练数据中包括:根据原始干净语音得到的第一帧级别标签及对原始干净语音进行加噪处理后的带噪音频。而对第二种方式获取到的第二音频数据,无法得到帧级别的标签,将该第二音频数据分成固定时长的小段,每段时长t秒,将含有人类语音的小段标记为“1”,不含人类语音的小段标记为“0”,此时得到的标签是分段标签(以分段音频为单位,并非帧级别的标签)。
将第一音频数据及第二音频数据进行加窗分帧,帧长为T(ms)(备注:帧长的划分一般取20-50ms),间隔为T/2(ms)(备注:帧间间隔一般取1/4-3/4帧长),提取每帧音频的M阶MEL频谱系数作为当前帧的特征。然后,将N帧的特征的M阶MEL频谱系数,输入深度神经网络模型进行联合训练。对于第一音频数据,选取N帧的特征值作为输入,预测当前帧的帧标签,标签“1”代表语音帧,用向量[0,1]表示,标签“0”代表非语音帧,用向量[1,0]表示,对于深度神经网络模型的网络层的输入为[1,N,M]维的特征向量。对于第二音频数据,分段的音频时长为t秒,帧长T(ms),间隔T/2(ms),共包含N帧,则相应的第二种网络的输入为N帧(帧数=(时长-帧长)/间隔+1)的M维MEL谱。标签“1”用向量[0,1]表示,标签“0”代表用向量[1,0]表示,对于深度神经网络模型的网络层的输入为[1,N,M]维的特征向量,输出为[1,2]维的标签。
本发明的实施例中,深度神经网络模型的网络基本结构由CNN+GRU+DNN组成,参照图3。网络结构的参数设置可根据实际任务进行选择,本文中给出的输入输出仅用于描述过程。
其中,CNN主要用于特征提取:CNN包含cnn_block(卷积块)和pool2d,其中cnn_block由BN(Batch Normalization)层、卷积层和激活层组成。CNN中cnn_block和pool2d的堆叠的层数以及一些参数的设置例如步长,卷积核的个数及大小可以根据实际情况进行选取,本例中对于[1,N,M]维的输入,假设经过CNN得到[128,N/4,M/4]的输出。flatten用于变换CNN的输出作为GRU的输入,对于[128,N/4,M/4]的CNN输出,经过flatten变换得到[1,N/4,128*M/4]的特征。GRU主要利用特征进行预测:将flatten变换得到[1,N/4,128*M/4]输出经过GRU得到预测结果,本例中假设经过GRU的输出维度仍为[1,N/4,128*M/4]。插值则主要用于将时间维度恢复到输入维度,进行帧级别对齐:例如本例中对于[1,N/4,128*M/4]的GRU输出,经过插值后变为[1,N,128*M/4]。DNN主要用于最终的分类输出:根据输入数据和相应标签的不同,DNN也分为两种,第一种DNN(帧级别):将经过插值后的特征[1,N,128*M/4]经过全连接网络最终得到[1,T,2]的输出并连接softmax得到最终的输出标签。其中全连接的层数和参数设置仍需根据实际情况进行选取,只需保证最后一层的输出维度为2即可(对应于二维的标签)。第二种DNN(分段级别):将经过插值后的特征[1,N,128*M/4]经过全连接网络最终得到[1,N,2]的输出,而对于每一小段只有一个标签,对于[1,N,128*M/4]的输出,进行时间(N)维度上取平均再进行softmax操作,可得到输出lable[1,1,2]。
一方面为了充分利用真实场景中的录制数据提升训练效果,另一方面能够加速最终的预测过程,本发明的实施例中,将网络训练分为两阶段。
第一阶段,将通过两种方式获取到的数据和标签作为训练数据,即第一音频数据及对应的第一帧级标签作为第一训练数据,第二音频数据及对应的分段标签作为第二训练数据,神经网络结构上采用多层cnn_block进行堆叠,保证神经网络能够充分学习到数据的特征,loss函数(即损失函数)采用加权交叉熵函数,交叉熵函数为二分类交叉熵函数,加权系数为[w1,w2],w1表示第一训练数据计算出loss的权重,w2表示第二训练数据计算出loss的权重,根据实际训练结果来调整w1,w2的取值,并始终保持w1+w2=1。如果仅利用第一种方式获取到的数据进行训练会使得模型对真实场景的拟合效果不佳,若仅采用第二种方式获取到的数据进行训练会使得测试时难以得到较为准确的帧级别的标签,即难以正确预测出人说话声的起始位置和结束位置。
第二阶段:将第二音频数据输入第一阶段的神经网络模型生成第二帧级别标签,并将第二音频数据输入和对应第二帧级别标签作为第二阶段的训练集。在本发明的实施例中,第二阶段的网络结构基本不变,但可以适当的减少CNN中cnn_block堆叠的层数,此外,由于第二阶段的训练数据只包含帧级别的标签,因此,DNN层只需采用linear和softmax即可,对应的loss函数采用二分类交叉熵即可。
由于本发明实施例中更关注模型在最终场景下的性能,均采用实际场景中录制的音频作为验证测试集。为了保证训练效果,可选取少量真实场景下的音频进行人工帧级别标记作为验证测试集,且使第一阶段、第二阶段的验证测试集不同。
第三阶段:待第二阶段的神经网络训练完成(测试集收敛),将loss函数反馈给第一阶段的神经网络继续训练,待第一阶段神经网络继续训练完成后,继续迭代训练第二阶段的神经网络,如此迭代直到第一阶段和第二阶段训练完成(两个阶段测试集表现均收敛)。
对于真实场景音频中的每一帧,第二阶段神经网络的输出结果为[a,b],a表示标签为0(即不含人类语音)的概率,b表示标签为1(即人类语音)的概率,将b的概率值作为每一帧的输出结果,对于帧级别的输出结果,本发明的实施例中可以通过多种平滑方式进行平滑得到最终的输出标签。
参照图4,本发明实施例的系统包括:数据采集处理模块100,用于基于开源音频数据集获取音频及第一帧级别标签,对音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段,对各分段进行标记,得到分段标签;网络联合训练模块200,用于将第一音频数据及第一帧级别标签作为第一训练数据,将第二音频数据及分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型,以及,通过第一阶段网络模型得到第二音频数据相应的第二帧级别标签,将第二音频数据及第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;端点检测模块300,用于基于第一阶段网络模型及第二阶段网络模型,对音频信号进行端点检测。网络模型验证模块400,用于选取多个第二音频数据,进行帧级别标记,得到第三音频数据集,并将第三音频数据集拆分成两组数据集,其中一组数据集用于对第一阶段网络模型进行验证测试,另一组数据集用于对第二阶段网络模型进行验证测试。
尽管本文描述了具体实施方案,但是本领域中的普通技术人员将认识到,许多其它修改或另选的实施方案同样处于本公开的范围内。例如,结合特定设备或组件描述的功能和/或处理能力中的任一项可以由任何其它设备或部件来执行。另外,虽然已根据本公开的实施方案描述了各种例示性具体实施和架构,但是本领域中的普通技术人员将认识到,对本文所述的例示性具体实施和架构的许多其它修改也处于本公开的范围内。
上文参考根据示例性实施方案所述的系统、方法、系统和/或计算机程序产品的框图和流程图描述了本公开的某些方面。应当理解,框图和流程图中的一个或多个块以及框图和流程图中的块的组合可分别通过执行计算机可执行程序指令来实现。同样,根据一些实施方案,框图和流程图中的一些块可能无需按示出的顺序执行,或者可以无需全部执行。另外,超出框图和流程图中的块所示的那些部件和/或操作以外的附加部件和/或操作可存在于某些实施方案中。
因此,框图和流程图中的块支持用于执行指定功能的装置的组合、用于执行指定功能的元件或步骤的组合以及用于执行指定功能的程序指令装置。还应当理解,框图和流程图中的每个块以及框图和流程图中的块的组合可以由执行特定功能、元件或步骤的专用硬件计算机系统或者专用硬件和计算机指令的组合来实现。
本文所述的程序模块、应用程序等可包括一个或多个软件组件,包括例如软件对象、方法、数据结构等。每个此类软件组件可包括计算机可执行指令,所述计算机可执行指令响应于执行而使本文所述的功能的至少一部分(例如,本文所述的例示性方法的一种或多种操作)被执行。
软件组件可以用各种编程语言中的任一种来编码。一种例示性编程语言可以为低级编程语言,诸如与特定硬件体系结构和/或操作系统平台相关联的汇编语言。包括汇编语言指令的软件组件可能需要在由硬件架构和/或平台执行之前由汇编程序转换为可执行的机器代码。另一种示例性编程语言可以为更高级的编程语言,其可以跨多种架构移植。包括更高级编程语言的软件组件在执行之前可能需要由解释器或编译器转换为中间表示。编程语言的其它示例包括但不限于宏语言、外壳或命令语言、作业控制语言、脚本语言、数据库查询或搜索语言、或报告编写语言。在一个或多个示例性实施方案中,包含上述编程语言示例中的一者的指令的软件组件可直接由操作系统或其它软件组件执行,而无需首先转换成另一种形式。
软件组件可存储为文件或其它数据存储构造。具有相似类型或相关功能的软件组件可一起存储在诸如特定的目录、文件夹或库中。软件组件可为静态的(例如,预设的或固定的)或动态的(例如,在执行时创建或修改的)。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (10)
1.一种基于联合深度神经网络的端点检测方法,其特征在于,包括以下步骤:
S100,基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;
S200,将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型;
S300,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;
S400,基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
2.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,所述步骤S100包括:
S110,基于开源音频数据集获取所述音频,进行加窗分帧处理,根据预设能量阈值逐帧进行标记,获得所述第一帧级别标签,并按比例将所述音频进行混合加噪处理,得到所述第一音频数据;
S120,对所述第二音频数据按固定时长进行分段,判断每一分段是否存在人类语音信息,根据判断结果得到所述分段标签。
3.根据权利要求2所述的基于联合深度神经网络的端点检测方法,其特征在于,所述步骤S200包括:
S210,对所述第一音频数据及所述第二音频数据,按照预设帧长及预设帧间隔进行加窗分帧处理,提取每帧的M阶MEL频谱系数作为当前帧的特征,选取N帧的特征值输入至所述第一阶段网络模型;
S220,所述第一阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN分为两种,分别对所述第一音频数据及所述第二音频数据进行相应处理并得到相应的分类数据;所述第一阶段网络模型中loss函数采用加权二分类交叉熵函数,加权系数为[w1,w2],其中,w1表示根据所述第一音频数据得出的所述分类数据所占权重,w2表示根据所述第一音频数据得出的所述分类数据所占权重。
4.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,还包括:
所述第二阶段网络模型相对于第二测试集收敛,则将所述第二阶段网络模型的loss函数反馈给所述第一阶段网络模型继续训练;
若所述第一阶段网络模型继续训练后对第一测试集收敛,则继续迭代训练所述第二阶段网络模型,直至所述第一阶段网络模型相对于所述第一测试集及所述第二阶段网络模型相对于所述第二测试集均收敛。
5.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,还包括:
选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集;
将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
6.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,所述第二阶段网络模型的卷积神经网络中的卷积块堆叠层数小于第一阶段网络模型的卷积神经网络中的卷积块堆叠层数。
7.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,所述第二阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN层采用linear和softmax,loss函数采用二分类交叉熵函数。
8.一种基于联合深度神经网络的端点检测系统,使用权利要求1至7中任一项的方法,其特征在于,包括:
数据采集处理模块,用于基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;
网络联合训练模块,用于将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型,以及,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;
端点检测模块,用于基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
9.根据权利要求8所述的基于联合深度神经网络的端点检测系统,其特征在于,还包括:
网络模型验证模块,用于选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集,并将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
10.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至7中任一项的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011397477.XA CN112735482B (zh) | 2020-12-04 | 2020-12-04 | 基于联合深度神经网络的端点检测方法及系统 |
US17/471,197 US11830521B2 (en) | 2020-12-04 | 2021-09-10 | Voice activity detection method and system based on joint deep neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011397477.XA CN112735482B (zh) | 2020-12-04 | 2020-12-04 | 基于联合深度神经网络的端点检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112735482A CN112735482A (zh) | 2021-04-30 |
CN112735482B true CN112735482B (zh) | 2024-02-13 |
Family
ID=75598449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011397477.XA Active CN112735482B (zh) | 2020-12-04 | 2020-12-04 | 基于联合深度神经网络的端点检测方法及系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11830521B2 (zh) |
CN (1) | CN112735482B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113689861B (zh) * | 2021-08-10 | 2024-02-27 | 上海淇玥信息技术有限公司 | 一种单声道通话录音的智能分轨方法、装置和系统 |
CN113421595B (zh) * | 2021-08-25 | 2021-11-09 | 成都启英泰伦科技有限公司 | 一种利用神经网络的语音活性检测方法 |
CN114973684B (zh) * | 2022-07-25 | 2022-10-14 | 深圳联和智慧科技有限公司 | 一种建筑工地定点监控方法及系统 |
KR102516391B1 (ko) * | 2022-09-02 | 2023-04-03 | 주식회사 액션파워 | 음성 구간 길이를 고려하여 오디오에서 음성 구간을 검출하는 방법 |
CN115472152B (zh) * | 2022-11-01 | 2023-03-03 | 北京探境科技有限公司 | 语音端点检测方法、装置、计算机设备及可读存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107527630A (zh) * | 2017-09-22 | 2017-12-29 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置和计算机设备 |
CN108538310A (zh) * | 2018-03-28 | 2018-09-14 | 天津大学 | 一种基于长时信号功率谱变化的语音端点检测方法 |
CN108831445A (zh) * | 2018-05-21 | 2018-11-16 | 四川大学 | 四川方言识别方法、声学模型训练方法、装置及设备 |
CN109036471A (zh) * | 2018-08-20 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法及设备 |
CN109119070A (zh) * | 2018-10-19 | 2019-01-01 | 科大讯飞股份有限公司 | 一种语音端点检测方法、装置、设备及存储介质 |
GB201819100D0 (en) * | 2018-11-23 | 2019-01-09 | Sony Interactive Entertainment Inc | Method and system for determining identifiers for tagging video frames with |
CN109448703A (zh) * | 2018-11-14 | 2019-03-08 | 山东师范大学 | 结合深度神经网络和主题模型的音频场景识别方法及系统 |
CN110648692A (zh) * | 2019-09-26 | 2020-01-03 | 苏州思必驰信息科技有限公司 | 语音端点检测方法及系统 |
CN110648656A (zh) * | 2019-08-28 | 2020-01-03 | 北京达佳互联信息技术有限公司 | 语音端点检测方法、装置、电子设备及存储介质 |
CN110689879A (zh) * | 2019-10-10 | 2020-01-14 | 中国科学院自动化研究所 | 端到端语音转写模型的训练方法、系统、装置 |
CN110827837A (zh) * | 2019-10-18 | 2020-02-21 | 中山大学 | 一种基于深度学习的鲸鱼活动音频分类方法 |
CN111369982A (zh) * | 2020-03-13 | 2020-07-03 | 北京远鉴信息技术有限公司 | 音频分类模型的训练方法、音频分类方法、装置及设备 |
CN111402893A (zh) * | 2020-03-23 | 2020-07-10 | 北京达佳互联信息技术有限公司 | 语音识别模型确定方法、语音识别方法及装置、电子设备 |
CN111696580A (zh) * | 2020-04-22 | 2020-09-22 | 广州多益网络股份有限公司 | 一种语音检测方法、装置、电子设备及存储介质 |
CN111816215A (zh) * | 2020-07-24 | 2020-10-23 | 苏州思必驰信息科技有限公司 | 语音端点检测模型训练和使用方法及装置 |
CN111933114A (zh) * | 2020-10-09 | 2020-11-13 | 深圳市友杰智新科技有限公司 | 语音唤醒混合模型的训练方法、使用方法和相关设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9502038B2 (en) * | 2013-01-28 | 2016-11-22 | Tencent Technology (Shenzhen) Company Limited | Method and device for voiceprint recognition |
US10019985B2 (en) * | 2013-11-04 | 2018-07-10 | Google Llc | Asynchronous optimization for sequence training of neural networks |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
CN109473123B (zh) * | 2018-12-05 | 2022-05-31 | 百度在线网络技术(北京)有限公司 | 语音活动检测方法及装置 |
CN109545192B (zh) * | 2018-12-18 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
JP7340630B2 (ja) * | 2019-09-05 | 2023-09-07 | ザ・ジョンズ・ホプキンス・ユニバーシティ | ニューラルネットワークを使用した音声入力の複数話者ダイアライゼーション |
-
2020
- 2020-12-04 CN CN202011397477.XA patent/CN112735482B/zh active Active
-
2021
- 2021-09-10 US US17/471,197 patent/US11830521B2/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107527630A (zh) * | 2017-09-22 | 2017-12-29 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置和计算机设备 |
CN108538310A (zh) * | 2018-03-28 | 2018-09-14 | 天津大学 | 一种基于长时信号功率谱变化的语音端点检测方法 |
CN108831445A (zh) * | 2018-05-21 | 2018-11-16 | 四川大学 | 四川方言识别方法、声学模型训练方法、装置及设备 |
CN109036471A (zh) * | 2018-08-20 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法及设备 |
CN109119070A (zh) * | 2018-10-19 | 2019-01-01 | 科大讯飞股份有限公司 | 一种语音端点检测方法、装置、设备及存储介质 |
CN109448703A (zh) * | 2018-11-14 | 2019-03-08 | 山东师范大学 | 结合深度神经网络和主题模型的音频场景识别方法及系统 |
GB201819100D0 (en) * | 2018-11-23 | 2019-01-09 | Sony Interactive Entertainment Inc | Method and system for determining identifiers for tagging video frames with |
CN110648656A (zh) * | 2019-08-28 | 2020-01-03 | 北京达佳互联信息技术有限公司 | 语音端点检测方法、装置、电子设备及存储介质 |
CN110648692A (zh) * | 2019-09-26 | 2020-01-03 | 苏州思必驰信息科技有限公司 | 语音端点检测方法及系统 |
CN110689879A (zh) * | 2019-10-10 | 2020-01-14 | 中国科学院自动化研究所 | 端到端语音转写模型的训练方法、系统、装置 |
CN110827837A (zh) * | 2019-10-18 | 2020-02-21 | 中山大学 | 一种基于深度学习的鲸鱼活动音频分类方法 |
CN111369982A (zh) * | 2020-03-13 | 2020-07-03 | 北京远鉴信息技术有限公司 | 音频分类模型的训练方法、音频分类方法、装置及设备 |
CN111402893A (zh) * | 2020-03-23 | 2020-07-10 | 北京达佳互联信息技术有限公司 | 语音识别模型确定方法、语音识别方法及装置、电子设备 |
CN111696580A (zh) * | 2020-04-22 | 2020-09-22 | 广州多益网络股份有限公司 | 一种语音检测方法、装置、电子设备及存储介质 |
CN111816215A (zh) * | 2020-07-24 | 2020-10-23 | 苏州思必驰信息科技有限公司 | 语音端点检测模型训练和使用方法及装置 |
CN111933114A (zh) * | 2020-10-09 | 2020-11-13 | 深圳市友杰智新科技有限公司 | 语音唤醒混合模型的训练方法、使用方法和相关设备 |
Non-Patent Citations (1)
Title |
---|
"Self-Adaptive soft Voice Activity Detection using Deep Neural Networks For Robust Speaker Verification";Youngmoon Jung;《IEEE》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20220180894A1 (en) | 2022-06-09 |
US11830521B2 (en) | 2023-11-28 |
CN112735482A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112735482B (zh) | 基于联合深度神经网络的端点检测方法及系统 | |
Ravanelli et al. | Multi-task self-supervised learning for robust speech recognition | |
CN110600017B (zh) | 语音处理模型的训练方法、语音识别方法、系统及装置 | |
JP6903129B2 (ja) | ささやき声変換方法、装置、デバイス及び可読記憶媒体 | |
CN110379412B (zh) | 语音处理的方法、装置、电子设备及计算机可读存储介质 | |
US11392833B2 (en) | Neural acoustic model | |
WO2018054361A1 (zh) | 语音识别的环境自适应方法、语音识别装置和家用电器 | |
JP2024502946A (ja) | 音声認識トランスクリプトの句読点付け及び大文字化 | |
WO2019138897A1 (ja) | 学習装置および方法、並びにプログラム | |
CN115249479A (zh) | 基于brnn的电网调度复杂语音识别方法、系统及终端 | |
EP1199712B1 (en) | Noise reduction method | |
CN116524962A (zh) | 一种基于Conformer结构与多任务学习框架的语音情感识别方法 | |
CN116206592A (zh) | 一种语音克隆方法、装置、设备及存储介质 | |
KR102405163B1 (ko) | 상호 정보량 추정을 이용한 화자 임베딩 추출 장치 및 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 | |
JP2545914B2 (ja) | 音声認識方法 | |
CN113270091B (zh) | 音频处理系统和方法 | |
Baptista et al. | Bioacoustic classification framework using transfer learning | |
CN111933187B (zh) | 情感识别模型的训练方法、装置、计算机设备和存储介质 | |
CN115472152B (zh) | 语音端点检测方法、装置、计算机设备及可读存储介质 | |
US11894017B2 (en) | Voice/non-voice determination device, voice/non-voice determination model parameter learning device, voice/non-voice determination method, voice/non-voice determination model parameter learning method, and program | |
WO2023281717A1 (ja) | 話者ダイアライゼーション方法、話者ダイアライゼーション装置および話者ダイアライゼーションプログラム | |
US20240038217A1 (en) | Preprocessing Model Building System for Speech Recognition Function and Preprocessing Model Building Method Therefor | |
JP2875179B2 (ja) | 話者適応化装置及び音声認識装置 | |
CN117789699A (zh) | 语音识别方法、装置、电子设备及计算机可读存储介质 | |
CN117524265A (zh) | 语音帧检测及其模型训练方法、模型产品及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |