JP2019215513A - 音声区間の検出方法および装置 - Google Patents
音声区間の検出方法および装置 Download PDFInfo
- Publication number
- JP2019215513A JP2019215513A JP2018244499A JP2018244499A JP2019215513A JP 2019215513 A JP2019215513 A JP 2019215513A JP 2018244499 A JP2018244499 A JP 2018244499A JP 2018244499 A JP2018244499 A JP 2018244499A JP 2019215513 A JP2019215513 A JP 2019215513A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- voice
- speech
- frames
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 73
- 230000008569 process Effects 0.000 claims abstract description 39
- 238000009432 framing Methods 0.000 claims abstract description 30
- 230000000694 effects Effects 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 18
- 238000013461 design Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000037433 frameshift Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
検出対象となる音声に対してフレーミング処理を行って、複数の検出対象となる音声フレームを得るステップと、
各前記検出対象となる音声フレームの音響的特徴を取得して、各前記検出対象となる音声フレームの音響的特徴を、前記検出対象となる音声のうちの前のN個の音声フレームをノイズフレーム、N+1番目の音声フレームから最後の音声フレームを音声フレーム、前記最後の音声フレーム以降のM個のノイズフレームを音声フレームに分類する(前記NおよびMは整数である)ための音声アクティビティ検出VADモデルに順次入力するステップと、
前記VADモデルが出力した分類結果に基づいて、音声フレームに分類された最初の音声フレームに対応する音声区間の開始点および音声フレームに分類された最後の音声フレームに対応する音声区間の終了点を決定するステップとを含む。
前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定して、前記最初の音声フレームに基づいて、前記音声区間の開始点を決定するステップと、
前記最初の音声フレームを決定した後、前記VADモデルが出力した、前記第1の閾値より小さい第2の閾値より小さい最初の第2の分類値に対応する音声フレームに基づいて、最後の音声フレームを決定して、前記最後の音声フレームに基づいて、前記音声区間の終了点を決定するステップとを含む。
キャッシュメモリから前記最初の音声フレームの前のP(Pは正整数であり、且つ前記Nより大きい)フレームの音声フレームを取得する前記ステップと、
前記Pフレームの音声フレームおよび音声フレームとして決定された音声フレームを音声認識装置に送信するステップとを含む。
訓練対象となる音声に対してフレーミング処理を行って、複数の訓練対象となる音声フレームを得るステップと、
前のN個の音声フレームがノイズフレーム、N+1番目の音声フレームから最後の音声フレームが音声フレーム、前記最後の音声フレーム以降のM個のノイズフレームが音声フレームに分類された各前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応する、訓練対象となる音声フレームの分類結果を指示するためのラベルを取得するステップと、
前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルに基づいて、訓練対象となるVADモデルに対して訓練を行って、訓練後のVADモデルを得るステップとを含む。
各前記訓練対象となる音声フレームの音響的特徴に対して順次アノテーション処理を行って、各前記訓練対象となる音声フレームの音響的特徴に対応する候補ラベルを得るステップと、
音声フレームを指示するための前のN個の候補ラベルを修正して、前のN個の音声フレームがノイズフレームに分類されたことを指示するための第1のラベルを得るステップと、
ノイズフレームを指示するための最後の音声フレーム以降のM個の候補ラベルを修正して、前記M個のノイズフレームが音声フレームに分類されたことを指示するための第2のラベルを得るステップと、
残りの候補ラベル、前記第1のラベルおよび前記第2のラベルに基づいて、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルを得るステップとを含む。
検出対象となる音声に対してフレーミング処理を行って、複数の検出対象となる音声フレームを得るためのフレーミングモジュールと、
各前記検出対象となる音声フレームの音響的特徴を取得して、各前記検出対象となる音声フレームの音響的特徴を、前記検出対象となる音声のうちの前のN個の音声フレームをノイズフレーム、N+1番目の音声フレームから最後の音声フレームを音声フレーム、前記最後の音声フレーム以降のM個のノイズフレームを音声フレームに分類する(前記NおよびMは整数である)ための音声アクティビティ検出VADモデルに順次入力するための検出モジュールと、
前記VADモデルが出力した分類結果に基づいて、音声フレームに分類された最初の音声フレームに対応する音声区間の開始点および音声フレームに分類された最後の音声フレームに対応する音声区間の終了点を決定するための決定モジュールとを備える。
前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定して、前記最初の音声フレームに基づいて、前記音声区間の開始点を決定し、
前記最初の音声フレームを決定した後、前記VADモデルが出力した、前記第1の閾値より小さい第2の閾値より小さい最初の第2の分類値に対応する音声フレームに基づいて、最後の音声フレームを決定して、前記最後の音声フレームに基づいて、前記音声区間の終了点を決定する。
前記Pフレームの音声フレームおよび音声フレームとして決定された音声フレームを音声認識装置に送信するための通信モジュールをさらに備える。
訓練対象となる音声に対してフレーミング処理を行って、複数の訓練対象となる音声フレームを得て、
前のN個の音声フレームがノイズフレーム、N+1番目の音声フレームから最後の音声フレームが音声フレーム、前記最後の音声フレーム以降のM個のノイズフレームが音声フレームに分類された各前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応する、訓練対象となる音声フレームの分類結果を指示するためのラベルを取得し、
前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルに基づいて、訓練対象となるVADモデルに対して訓練を行って、訓練後のVADモデルを得るための訓練モジュールをさらに備える。
各前記訓練対象となる音声フレームの音響的特徴に対して順次アノテーション処理を行って、各前記訓練対象となる音声フレームの音響的特徴に対応する候補ラベルを得て、
音声フレームを指示するための前のN個の候補ラベルを修正して、前のN個の音声フレームがノイズフレームに分類されたことを指示するための第1のラベルを得て、
ノイズフレームを指示するための最後の音声フレーム以降のM個の候補ラベルを修正して、前記M個のノイズフレームが音声フレームに分類されたことを指示するための第2のラベルを得て、
残りの候補ラベル、前記第1のラベルおよび前記第2のラベルに基づいて、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルを得る。
フレーミング結果を得た後、各音声フレームの音響的特徴を抽出する。該音響的特徴は、メルフィルタリング64次元の特徴であってもよく、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficient、MFCC)特徴であってもよく、知覚線形予測(Perceptual Linear Predict ive、PLP)特徴などであってもよく、本実施例では、音響的特徴のタイプについて特に制限しない。
前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定して、前記最初の音声フレームに基づいて、前記音声区間の開始点を決定し、
前記最初の音声フレームを決定した後、前記VADモデルが出力した、前記第1の閾値より小さい第2の閾値より小さい最初の第2の分類値に対応する音声フレームに基づいて、最後の音声フレームを決定して、前記最後の音声フレームに基づいて、前記音声区間の終了点を決定する。
前記Pフレームの音声フレームおよび音声フレームとして決定された音声フレームを音声認識装置に送信する。
訓練対象となる音声に対してフレーミング処理を行って、複数の訓練対象となる音声フレームを得て、
前のN個の音声フレームがノイズフレーム、N+1番目の音声フレームから最後の音声フレームが音声フレーム、前記最後の音声フレーム以降のM個のノイズフレームが音声フレームに分類された各前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応する、訓練対象となる音声フレームの分類結果を指示するためのラベルを取得し、
前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームに対応するラベルに基づいて、訓練対象となるVADモデルに対して訓練を行って、訓練後のVADモデルを得る。
各前記訓練対象となる音声フレームの音響的特徴に対して順次アノテーション処理を行って、各前記訓練対象となる音声フレームの音響的特徴に対応する候補ラベルを得て、
音声フレームを指示するための前のN個の候補ラベルを修正して、前のN個の音声フレームがノイズフレームに分類されたことを指示するための第1のラベルを得て、
ノイズフレームを指示するための最後の音声フレーム以降のM個の候補ラベルを修正して、前記M個のノイズフレームが音声フレームに分類されたことを指示するための第2のラベルを得て、
残りの候補ラベル、前記第1のラベルおよび前記第2のラベルに基づいて、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルを得る。
Claims (16)
- 音声区間の検出方法であって、
検出対象となる音声に対してフレーミング処理を行って、複数の検出対象となる音声フレームを得るステップと、
各前記検出対象となる音声フレームの音響的特徴を取得して、各前記検出対象となる音声フレームの音響的特徴を、前記検出対象となる音声のうちの前のN個の音声フレームをノイズフレームに、N+1番目の音声フレームから最後の音声フレームを音声フレームに、前記最後の音声フレーム以降のM個のノイズフレームを音声フレームに分類する(前記NおよびMは整数である)ための音声アクティビティ検出VADモデルに順次入力するステップと、
前記VADモデルが出力した分類結果に基づいて、音声フレームに分類された最初の音声フレームに対応する音声区間の開始点および音声フレームに分類された最後の音声フレームに対応する音声区間の終了点を決定するステップと、
を含むことを特徴とする音声区間の検出方法。 - 前記VADモデルが出力した分類結果に基づいて、音声区間の開始点および終了点を決定する前記ステップは、
前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定して、前記最初の音声フレームに基づいて、前記音声区間の開始点を決定するステップと、
前記最初の音声フレームを決定した後、前記VADモデルが出力した、前記第1の閾値より小さい第2の閾値より小さい最初の第2の分類値に対応する音声フレームに基づいて、最後の音声フレームを決定して、前記最後の音声フレームに基づいて、前記音声区間の終了点を決定するステップと、
を含むことを特徴とする請求項1に記載の方法。 - 前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定した前記ステップの後、さらに、
キャッシュメモリから前記最初の音声フレームの前のP(Pは正整数であり、且つ前記Nより大きい)フレームの音声フレームを取得するステップと、
前記Pフレームの音声フレームおよび音声フレームとして決定された音声フレームを音声認識装置に送信するステップと、
を含むことを特徴とする請求項2に記載の方法。 - 各前記音声フレームの音響的特徴を音声アクティビティ検出VADモデルに順次入力する前記ステップの前に、さらに、
訓練対象となる音声に対してフレーミング処理を行って、複数の訓練対象となる音声フレームを得るステップと、
前のN個の音声フレームがノイズフレームに、N+1番目の音声フレームから最後の音声フレームが音声フレームに、前記最後の音声フレーム以降のM個のノイズフレームが音声フレームに分類された各前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応する、訓練対象となる音声フレームの分類結果を指示するためのラベルを取得するステップと、
前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルに基づいて、訓練対象となるVADモデルに対して訓練を行って、訓練後のVADモデルを得るステップと、
を含むことを特徴とする請求項1に記載の方法。 - 各前記訓練対象となる音声フレームの音響的特徴に対応するラベルを取得する前記ステップは、
各前記訓練対象となる音声フレームの音響的特徴に対して順次アノテーション処理を行って、各前記訓練対象となる音声フレームの音響的特徴に対応する候補ラベルを得るステップと、
音声フレームを指示するための前のN個の候補ラベルを修正して、前のN個の音声フレームがノイズフレームに分類されたことを指示するための第1のラベルを得るステップと、
ノイズフレームを指示するための最後の音声フレーム以降のM個の候補ラベルを修正して、前記M個のノイズフレームが音声フレームに分類されたことを指示するための第2のラベルを得るステップと、
残りの候補ラベル、前記第1のラベルおよび前記第2のラベルに基づいて、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルを得るステップと、
を含むことを特徴とする請求項4に記載の方法。 - 前記VADモデルは、ディープニューラルネットワークモデルであることを特徴とする請求項1から5のいずれか1項に記載の方法。
- 前記NはM以上であることを特徴とする請求項1から5のいずれか1項に記載の方法。
- 音声区間の検出装置であって、
検出対象となる音声に対してフレーミング処理を行って、複数の検出対象となる音声フレームを得るためのフレーミングモジュールと、
各前記検出対象となる音声フレームの音響的特徴を取得して、各前記検出対象となる音声フレームの音響的特徴を、前記検出対象となる音声のうちの前のN個の音声フレームをノイズフレームに、N+1番目の音声フレームから最後の音声フレームを音声フレームに、前記最後の音声フレーム以降のM個のノイズフレームを音声フレームに分類する(前記NおよびMは整数である)ための音声アクティビティ検出VADモデルに順次入力するための検出モジュールと、
前記VADモデルが出力した分類結果に基づいて、音声フレームに分類された最初の音声フレームに対応する音声区間の開始点および音声フレームに分類された最後の音声フレームに対応する音声区間の終了点を決定するための決定モジュールと、
を備えることを特徴とする音声区間の検出装置。 - 前記決定モジュールは、
前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定して、前記最初の音声フレームに基づいて、前記音声区間の開始点を決定し、
前記最初の音声フレームを決定した後、前記VADモデルが出力した、前記第1の閾値より小さい第2の閾値より小さい最初の第2の分類値に対応する音声フレームに基づいて、最後の音声フレームを決定して、前記最後の音声フレームに基づいて、前記音声区間の終了点を決定する、
ことに用いられることを特徴とする請求項8に記載の装置。 - 前記VADモデルが出力した、第1の閾値より大きい最初の第1の分類値に対応する音声フレームに基づいて、最初の音声フレームを決定した後、キャッシュメモリから前記最初の音声フレームの前のP(Pは正整数であり、且つ前記Nより大きい)フレームの音声フレームを取得し、
前記Pフレームの音声フレームおよび音声フレームとして決定された音声フレームを音声認識装置に送信する、
ことに用いられる通信モジュールをさらに備えることを特徴とする請求項9に記載の装置。 - 各前記音声フレームの音響的特徴を音声アクティビティ検出VADモデルに順次入力する前に、
訓練対象となる音声に対してフレーミング処理を行って、複数の訓練対象となる音声フレームを得て、
前のN個の音声フレームがノイズフレームに、N+1番目の音声フレームから最後の音声フレームが音声フレームに、前記最後の音声フレーム以降のM個のノイズフレームが音声フレームに分類された各前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応する、訓練対象となる音声フレームの分類結果を指示するためのラベルを取得し、
前記訓練対象となる音声フレームの音響的特徴、および、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルに基づいて、訓練対象となるVADモデルに対して訓練を行って、訓練後のVADモデルを得る、
ことに用いられる訓練モジュールをさらに備えることを特徴とする請求項8に記載の装置。 - 前記訓練モジュールは、
各前記訓練対象となる音声フレームの音響的特徴に対して順次アノテーション処理を行って、各前記訓練対象となる音声フレームの音響的特徴に対応する候補ラベルを得て、
音声フレームを指示するための前のN個の候補ラベルを修正して、前のN個の音声フレームがノイズフレームに分類されたことを指示するための第1のラベルを得て、
ノイズフレームを指示するための最後の音声フレーム以降のM個の候補ラベルを修正して、前記M個のノイズフレームが音声フレームに分類されたことを指示するための第2のラベルを得て、
残りの候補ラベル、前記第1のラベルおよび前記第2のラベルに基づいて、各前記訓練対象となる音声フレームの音響的特徴に対応するラベルを得る
ことに用いられることを特徴とする請求項11に記載の装置。 - 前記VADモデルは、ディープニューラルネットワークモデルであることを特徴とする請求項8から12のいずれか1項に記載の装置。
- 前記NはM以上であることを特徴とする請求項8から12のいずれか1項に記載の装置。
- 音声区間の検出装置であって、
少なくとも1つのプロセッサおよびメモリを備え、
前記メモリには、コンピュータ実行可能命令が記憶されており、
前記少なくとも1つのプロセッサは、前記メモリに記憶されたコンピュータ実行可能命令を実行すると、請求項1から7のいずれか1項に記載の音声区間の検出方法を実行する、
ことを特徴とする音声区間の検出装置。 - コンピュータ読み取り可能な記憶媒体であって、
コンピュータ実行可能命令が記憶されており、プロセッサが前記コンピュータ実行可能命令を実行すると、請求項1から7のいずれか1項に記載の音声区間の検出方法を実現する、
ことを特徴とするコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810606354.9A CN108877778B (zh) | 2018-06-13 | 2018-06-13 | 语音端点检测方法及设备 |
CN201810606354.9 | 2018-06-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215513A true JP2019215513A (ja) | 2019-12-19 |
JP6676141B2 JP6676141B2 (ja) | 2020-04-08 |
Family
ID=64338156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018244499A Active JP6676141B2 (ja) | 2018-06-13 | 2018-12-27 | 音声区間の検出方法および装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10937448B2 (ja) |
JP (1) | JP6676141B2 (ja) |
CN (1) | CN108877778B (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108962227B (zh) * | 2018-06-08 | 2020-06-30 | 百度在线网络技术(北京)有限公司 | 语音起点和终点检测方法、装置、计算机设备及存储介质 |
CN109473123B (zh) * | 2018-12-05 | 2022-05-31 | 百度在线网络技术(北京)有限公司 | 语音活动检测方法及装置 |
CN109545192B (zh) * | 2018-12-18 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109545193B (zh) * | 2018-12-18 | 2023-03-14 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN110176251B (zh) * | 2019-04-03 | 2021-12-21 | 苏州驰声信息科技有限公司 | 一种声学数据自动标注方法及装置 |
CN110428854B (zh) * | 2019-08-12 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 车载端的语音端点检测方法、装置和计算机设备 |
CN110517670A (zh) * | 2019-08-28 | 2019-11-29 | 苏州思必驰信息科技有限公司 | 提升唤醒性能的方法和装置 |
CN110706694B (zh) * | 2019-09-26 | 2022-04-08 | 成都数之联科技股份有限公司 | 一种基于深度学习的语音端点检测方法及系统 |
CN113162837B (zh) * | 2020-01-07 | 2023-09-26 | 腾讯科技(深圳)有限公司 | 语音消息的处理方法、装置、设备及存储介质 |
CN111276124B (zh) * | 2020-01-22 | 2023-07-28 | 苏州科达科技股份有限公司 | 一种关键词识别方法、装置、设备及可读存储介质 |
CN111613213B (zh) * | 2020-04-29 | 2023-07-04 | 广州欢聚时代信息科技有限公司 | 音频分类的方法、装置、设备以及存储介质 |
CN111755029B (zh) * | 2020-05-27 | 2023-08-25 | 北京大米科技有限公司 | 语音处理方法、装置、存储介质以及电子设备 |
CN111816215A (zh) * | 2020-07-24 | 2020-10-23 | 苏州思必驰信息科技有限公司 | 语音端点检测模型训练和使用方法及装置 |
CN112069354A (zh) * | 2020-09-04 | 2020-12-11 | 广州趣丸网络科技有限公司 | 一种音频数据的分类方法、装置、设备和存储介质 |
CN112053702B (zh) * | 2020-09-30 | 2024-03-19 | 北京大米科技有限公司 | 一种语音处理的方法、装置及电子设备 |
CN112614514B (zh) * | 2020-12-15 | 2024-02-13 | 中国科学技术大学 | 有效语音片段检测方法、相关设备及可读存储介质 |
CN112614506B (zh) * | 2020-12-23 | 2022-10-25 | 思必驰科技股份有限公司 | 语音激活检测方法和装置 |
CN112652324A (zh) * | 2020-12-28 | 2021-04-13 | 深圳万兴软件有限公司 | 语音增强优化方法及语音增强优化系统、可读存储介质 |
CN112802498B (zh) * | 2020-12-29 | 2023-11-24 | 深圳追一科技有限公司 | 语音检测方法、装置、计算机设备和存储介质 |
CN113160855B (zh) * | 2021-05-28 | 2022-10-21 | 思必驰科技股份有限公司 | 在线语音活性检测系统改进方法和装置 |
CN113409812B (zh) * | 2021-06-24 | 2022-12-27 | 展讯通信(上海)有限公司 | 一种语音降噪训练数据的处理方法及其装置、训练方法 |
CN113421595B (zh) * | 2021-08-25 | 2021-11-09 | 成都启英泰伦科技有限公司 | 一种利用神经网络的语音活性检测方法 |
CN114299957A (zh) * | 2021-11-29 | 2022-04-08 | 北京百度网讯科技有限公司 | 声纹分离方法、装置、电子设备以及存储介质 |
WO2023115588A1 (zh) * | 2021-12-25 | 2023-06-29 | 华为技术有限公司 | 语音交互的方法、装置和存储介质 |
CN114333802B (zh) * | 2022-01-04 | 2023-06-23 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及计算机可读存储介质 |
KR102516391B1 (ko) * | 2022-09-02 | 2023-04-03 | 주식회사 액션파워 | 음성 구간 길이를 고려하여 오디오에서 음성 구간을 검출하는 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63200198A (ja) * | 1987-02-17 | 1988-08-18 | 株式会社リコー | 音声区間検出方式 |
JPH08185196A (ja) * | 1994-12-28 | 1996-07-16 | Sony Corp | 音声区間検出装置 |
JP2008083375A (ja) * | 2006-09-27 | 2008-04-10 | Toshiba Corp | 音声区間検出装置およびプログラム |
JP2008151840A (ja) * | 2006-12-14 | 2008-07-03 | Nippon Telegr & Teleph Corp <Ntt> | 仮音声区間決定装置、方法、プログラム及びその記録媒体、音声区間決定装置 |
WO2016143125A1 (ja) * | 2015-03-12 | 2016-09-15 | 三菱電機株式会社 | 音声区間検出装置および音声区間検出方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0832526A (ja) * | 1994-07-18 | 1996-02-02 | Kokusai Electric Co Ltd | 音声検出器 |
IT1315917B1 (it) * | 2000-05-10 | 2003-03-26 | Multimedia Technologies Inst M | Metodo di rivelazione di attivita' vocale e metodo per lasegmentazione di parole isolate, e relativi apparati. |
EP1513135A1 (en) * | 2002-06-12 | 2005-03-09 | Mitsubishi Denki Kabushiki Kaisha | Speech recognizing method and device thereof |
CN101599269B (zh) * | 2009-07-02 | 2011-07-20 | 中国农业大学 | 语音端点检测方法及装置 |
KR20140031790A (ko) * | 2012-09-05 | 2014-03-13 | 삼성전자주식회사 | 잡음 환경에서 강인한 음성 구간 검출 방법 및 장치 |
CN103886871B (zh) * | 2014-01-28 | 2017-01-25 | 华为技术有限公司 | 语音端点的检测方法和装置 |
CN104409080B (zh) * | 2014-12-15 | 2018-09-18 | 北京国双科技有限公司 | 语音端点检测方法和装置 |
US9672841B2 (en) * | 2015-06-30 | 2017-06-06 | Zte Corporation | Voice activity detection method and method used for voice activity detection and apparatus thereof |
US10229700B2 (en) * | 2015-09-24 | 2019-03-12 | Google Llc | Voice activity detection |
-
2018
- 2018-06-13 CN CN201810606354.9A patent/CN108877778B/zh active Active
- 2018-12-27 US US16/234,423 patent/US10937448B2/en active Active
- 2018-12-27 JP JP2018244499A patent/JP6676141B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63200198A (ja) * | 1987-02-17 | 1988-08-18 | 株式会社リコー | 音声区間検出方式 |
JPH08185196A (ja) * | 1994-12-28 | 1996-07-16 | Sony Corp | 音声区間検出装置 |
JP2008083375A (ja) * | 2006-09-27 | 2008-04-10 | Toshiba Corp | 音声区間検出装置およびプログラム |
JP2008151840A (ja) * | 2006-12-14 | 2008-07-03 | Nippon Telegr & Teleph Corp <Ntt> | 仮音声区間決定装置、方法、プログラム及びその記録媒体、音声区間決定装置 |
WO2016143125A1 (ja) * | 2015-03-12 | 2016-09-15 | 三菱電機株式会社 | 音声区間検出装置および音声区間検出方法 |
Non-Patent Citations (1)
Title |
---|
草水智浩,外3名: "音声区間検出が音声認識性能に与える影響についての検討", 日本音響学会2008年春季研究発表会講演論文集, JPN6020005683, March 2008 (2008-03-01), JP, pages 169 - 172, ISSN: 0004214319 * |
Also Published As
Publication number | Publication date |
---|---|
CN108877778B (zh) | 2019-09-17 |
US10937448B2 (en) | 2021-03-02 |
CN108877778A (zh) | 2018-11-23 |
US20190385636A1 (en) | 2019-12-19 |
JP6676141B2 (ja) | 2020-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6676141B2 (ja) | 音声区間の検出方法および装置 | |
CN110364171B (zh) | 一种语音识别方法、语音识别系统及存储介质 | |
WO2019149108A1 (zh) | 语音关键词的识别方法、装置、计算机可读存储介质及计算机设备 | |
CN111797632B (zh) | 信息处理方法、装置及电子设备 | |
CN110415705B (zh) | 一种热词识别方法、系统、装置及存储介质 | |
US8494853B1 (en) | Methods and systems for providing speech recognition systems based on speech recordings logs | |
CN108735201B (zh) | 连续语音识别方法、装置、设备和存储介质 | |
CN109036471B (zh) | 语音端点检测方法及设备 | |
US20110218805A1 (en) | Spoken term detection apparatus, method, program, and storage medium | |
CN111798840B (zh) | 语音关键词识别方法和装置 | |
US10803858B2 (en) | Speech recognition apparatus, speech recognition method, and computer program product | |
CN111145733B (zh) | 语音识别方法、装置、计算机设备和计算机可读存储介质 | |
WO2018192186A1 (zh) | 语音识别方法及装置 | |
CN112927679B (zh) | 一种语音识别中添加标点符号的方法及语音识别装置 | |
WO2022105235A1 (zh) | 一种信息识别方法、装置及存储介质 | |
CN110473527B (zh) | 一种语音识别的方法和系统 | |
US20220399013A1 (en) | Response method, terminal, and storage medium | |
CN112331229A (zh) | 语音检测方法、装置、介质和计算设备 | |
CN112133285B (zh) | 语音识别方法、装置、存储介质和电子设备 | |
KR20180033875A (ko) | 음성 신호를 번역하는 방법 및 그에 따른 전자 디바이스 | |
CN108573713B (zh) | 语音识别装置、语音识别方法以及存储介质 | |
WO2022203773A1 (en) | Lookup-table recurrent language model | |
CN114299930A (zh) | 端到端语音识别模型处理方法、语音识别方法及相关装置 | |
CN115424616A (zh) | 一种音频数据筛选方法、装置、设备及计算机可读介质 | |
CN111883109A (zh) | 语音信息处理及验证模型训练方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6676141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |