JP6800946B2 - 音声区間の認識方法、装置及び機器 - Google Patents
音声区間の認識方法、装置及び機器 Download PDFInfo
- Publication number
- JP6800946B2 JP6800946B2 JP2018244352A JP2018244352A JP6800946B2 JP 6800946 B2 JP6800946 B2 JP 6800946B2 JP 2018244352 A JP2018244352 A JP 2018244352A JP 2018244352 A JP2018244352 A JP 2018244352A JP 6800946 B2 JP6800946 B2 JP 6800946B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- frame
- point
- voice
- end point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 79
- 238000012549 training Methods 0.000 claims description 185
- 230000008569 process Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 description 20
- 238000001514 detection method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000003062 neural network model Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000009432 framing Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
検出対象となるオーディオの各オーディオフレームの音響的特徴を抽出するステップと、
前記各オーディオフレームの音響的特徴、及び開始点訓練セットを用いてニューラルネットワークを訓練して得られた開始点認識モデルに基づいて、前記各オーディオフレームのうちの音声開始点フレームを認識するステップと、
前記各オーディオフレームの音響的特徴、及び終了点訓練セットを用いてニューラルネットワークを訓練して得られた終了点認識モデルに基づいて、前記各オーディオフレームのうちの音声終了点フレームを認識するステップと
を含む。
検出対象となるオーディオの各オーディオフレームの音響的特徴を抽出するための特徴抽出モジュールと、
前記各オーディオフレームの音響的特徴、及び開始点訓練セットを用いてニューラルネットワークを訓練して得られた開始点認識モデルに基づいて、前記各オーディオフレームのうちの音声開始点フレームを認識するための開始点認識モジュールと、
前記各オーディオフレームの音響的特徴、及び終了点訓練セットを用いてニューラルネットワークを訓練して得られた終了点認識モデルに基づいて、前記各オーディオフレームのうちの音声終了点フレームを認識するための終了点認識モジュールと
を備える。
メモリと、プロセッサと、前記メモリに記憶され且つ前記プロセッサにおいて実行可能なコンピュータプログラムとを備え、
前記プロセッサは、前記コンピュータプログラムを実行すると、上記の音声区間の認識方法を実現する。
前記コンピュータプログラムは、プロセッサにより実行されると、上記の音声区間の認識方法を実現する。
音声認識のための訓練コーパスを予め取得して、訓練コーパスは、実際に使用される本物の音声素材であり、複数のサンプルオーディオを含む。たとえば、訓練コーパスは、ユーザが入力した1万個のオーディオを含み、各オーディオの長さは約数秒である。訓練コーパスにおける各サンプルオーディオについてフレーミング処理を行って、複数のオーディオフレームを得て、所定の特徴抽出方法で各オーディオフレームの音響的特徴を抽出し、各オーディオフレームのアノテーション情報を取得する。
オーディオフレームを順次第1のターゲットフレームとして、第1のターゲットフレームに対して、開始点認識処理として、第1のターゲットフレームの音響的特徴を開始点認識モデルに入力して、第1のターゲットフレームが有効音声である確率値を算出することと、第1のターゲットフレームが有効音声である確率値及び第1の閾値の大きさに基づいて、第1のターゲットフレームが有効音声であるか否かを決定することと、第1のターゲットフレームが有効音声ではない場合、次のオーディオフレームを新しい第1のターゲットフレームとして、新しい第1のターゲットフレームに対して開始点認識処理を行うことと、第1のターゲットフレームが有効音声である場合、第1のターゲットフレームを音声開始点フレームとして決定することとを行う。
音声開始点フレーム以降のオーディオフレームを順次第2のターゲットフレームとして、第2のターゲットフレームに対して、終了点認識処理として、第2のターゲットフレームの音響的特徴を終了点認識モデルに入力して、第2のターゲットフレームが有効音声である確率値を算出することと、第2のターゲットフレームが有効音声である確率値及び第1の閾値より小さい第2の閾値の大きさに基づいて、第2のターゲットフレームが有効音声であるか否かを決定することと、第2のターゲットフレームが有効音声である場合、次のオーディオフレームを新しい第2のターゲットフレームとして、新しい第2のターゲットフレームに対して終了点認識処理を行うことと、第2のターゲットフレームが有効音声ではない場合、第2のターゲットフレームを音声終了点フレームとして決定することとを行う。
サンプルオーディオの各フレームのアノテーション情報に基づいて、サンプルオーディオにおける音声開始時点を決定し、音声開始時点以降の第1の所定期間内におけるオーディオセグメントを有効音声セグメントとし、音声開始時点+第1の所定期間であるサンプルオーディオの第1の時点前のフレームのアノテーション情報を第1の属性値として設定し、第1の時点と、第1の時点+第1の所定期間であるサンプルオーディオの第2の時点との間のフレームのアノテーション情報を第2の属性値として設定し、サンプルオーディオの第2の時点前のフレームの音響的特徴及びアノテーション情報を1組の開始点訓練データとして、開始点訓練セットに追加する。
サンプルオーディオの各フレームの音響的特徴及びアノテーション情報を取得し、サンプルオーディオの各フレームのアノテーション情報に基づいて、サンプルオーディオにおける音声終了時点を決定し、音声終了時点以降の第1の所定期間より小さい第2の所定期間内におけるオーディオセグメントを無効音声セグメントとし、音声終了時点+第2の所定期間であるサンプルオーディオの第3の時点以降のフレームのアノテーション情報を第1の属性値として設定し、第3の時点−第2の所定期間であるサンプルオーディオの第4の時点と、第3の時点との間のフレームのアノテーション情報を第2の属性値として設定し、サンプルオーディオの第4の時点以降のフレームの音響的特徴及びアノテーション情報を1組の終了点訓練データとして、終了点訓練セットに追加する。
音声開始点前の第1の所定期間より大きい第3の所定期間の第2のオーディオセグメントを取得して、第2のオーディオセグメント及び第1のオーディオセグメントを音声認識機器に送信する。
Claims (16)
- 音声区間の認識方法であって、
検出対象となるオーディオの各オーディオフレームの音響的特徴を抽出するステップと、
前記各オーディオフレームの音響的特徴、及び開始点訓練セットを用いてニューラルネットワークを訓練して得られた開始点認識モデルに基づいて、前記各オーディオフレームのうちの音声開始点フレームを認識するステップと、
前記各オーディオフレームの音響的特徴、及び終了点訓練セットを用いてニューラルネットワークを訓練して得られた終了点認識モデルに基づいて、前記各オーディオフレームのうちの音声終了点フレームを認識するステップと、
を含み、
前記各オーディオフレームの音響的特徴、及び開始点訓練セットを用いてニューラルネットワークを訓練して得られた開始点認識モデルに基づいて、前記各オーディオフレームのうちの音声開始点フレームを認識する前記ステップは、
前記オーディオフレームを順次第1のターゲットフレームとして、前記第1のターゲットフレームに対して、開始点認識処理を行うことを含み、
前記開始点認識処理は、
前記第1のターゲットフレームの音響的特徴を前記開始点認識モデルに入力して、前記第1のターゲットフレームが有効音声である確率値を算出することと、
前記第1のターゲットフレームが有効音声である確率値及び第1の閾値の大きさに基づいて、前記第1のターゲットフレームが有効音声であるか否かを決定することと、
を含み、
前記第1のターゲットフレームが有効音声ではない場合、次のオーディオフレームを新しい第1のターゲットフレームとして、前記新しい第1のターゲットフレームに対して前記開始点認識処理を行い、
前記第1のターゲットフレームが有効音声である場合、前記第1のターゲットフレームを音声開始点フレームとして決定する、
ことを特徴とする音声区間の認識方法。 - 前記各オーディオフレームの音響的特徴、及び終了点訓練セットを用いてニューラルネットワークを訓練して得られた終了点認識モデルに基づいて、前記各オーディオフレームのうちの音声終了点フレームを認識する前記ステップは、
前記音声開始点フレーム以降のオーディオフレームを順次第2のターゲットフレームとして、前記第2のターゲットフレームに対して、終了点認識処理を行うことを含み、
前記終了点認識処理は、
前記第2のターゲットフレームの音響的特徴を前記終了点認識モデルに入力して、前記第2のターゲットフレームが有効音声である確率値を算出することと、
前記第2のターゲットフレームが有効音声である確率値及び前記第1の閾値より小さい第2の閾値の大きさに基づいて、前記第2のターゲットフレームが有効音声であるか否かを決定することと、
を含み、
前記第2のターゲットフレームが有効音声である場合、次のオーディオフレームを新しい第2のターゲットフレームとして、前記新しい第2のターゲットフレームに対して前記終了点認識処理を行い、
前記第2のターゲットフレームが有効音声ではない場合、前記第2のターゲットフレームを音声終了点フレームとして決定する、
ことを特徴とする請求項1に記載の方法。 - 前記開始点訓練セットは、1つの開始点訓練オーディオの各フレームの音響的特徴及びアノテーション情報を含む少なくとも1組の開始点訓練データを含み、
前記終了点訓練セットは、1つの終了点訓練オーディオの各フレームの音響的特徴及びアノテーション情報を含む少なくとも1組の終了点訓練データを含み、
アノテーション情報は、フレームを無効音声としてアノテーションするための第1の属性値又はフレームを有効音声としてアノテーションするための第2の属性値である、
ことを特徴とする請求項1〜2のいずれか1項に記載の方法。 - 前記方法は、
サンプルオーディオの各フレームの音響的特徴及びアノテーション情報を取得するステップと、
前記サンプルオーディオの各フレームのアノテーション情報に基づいて、前記サンプルオーディオにおける音声開始時点を決定し、前記音声開始時点以降の第1の所定期間内におけるオーディオセグメントを有効音声セグメントとするステップと、
前記サンプルオーディオの第1の時点前のフレームのアノテーション情報を第1の属性値として設定するステップと、
前記サンプルオーディオの前記第1の時点と第2の時点との間のフレームのアノテーション情報を第2の属性値として設定するステップと、
前記サンプルオーディオの前記第2の時点前のフレームの音響的特徴及びアノテーション情報を1組の開始点訓練データとして、前記開始点訓練セットに追加するステップと、
をさらに含み、
前記第1の時点=前記音声開始時点+前記第1の所定期間であり、
前記第2の時点=前記第1の時点+前記第1の所定期間である
ことを特徴とする請求項3に記載の方法。 - 前記方法は、
前記サンプルオーディオの各フレームのアノテーション情報に基づいて、前記サンプルオーディオにおける音声終了時点を決定し、前記音声終了時点以降の前記第1の所定期間より小さい第2の所定期間内におけるオーディオセグメントを無効音声セグメントとするステップと、
前記サンプルオーディオの第3の時点以降のフレームのアノテーション情報を第1の属性値として設定するステップと、
前記サンプルオーディオの第4の時点と前記第3の時点との間のフレームのアノテーション情報を第2の属性値として設定するステップと、
前記サンプルオーディオの前記第4の時点以降のフレームの音響的特徴及びアノテーション情報を1組の終了点訓練データとして、前記終了点訓練セットに追加するステップと、
をさらに含み、
前記第3の時点=前記音声終了時点+前記第2の所定期間であり、
前記第4の時点=前記第3の時点−前記第2の所定期間である、
ことを特徴とする請求項4に記載の方法。 - 前記検出対象となるオーディオの音声開始点フレーム及び音声終了点フレームを決定した後、さらに、
前記音声開始点フレームの開始時点を前記検出対象となるオーディオの音声開始点とするステップと、
前記音声終了点フレームの開始時点を前記検出対象となるオーディオの音声終了点とするステップと、
前記検出対象となるオーディオの音声開始点と音声終了点との間の第1のオーディオセグメントを切り取るステップと、
前記第1のオーディオセグメントを音声認識機器に送信するステップと、
を含むことを特徴とする請求項4に記載の方法。 - 前記検出対象となるオーディオの音声開始点と音声終了点との間の第1のオーディオセグメントを切り取った後、さらに、
前記音声開始点前の前記第1の所定期間より大きい第3の所定期間の第2のオーディオセグメントを取得して、前記第2のオーディオセグメント及び前記第1のオーディオセグメントを音声認識機器に送信するステップを含む、
ことを特徴とする請求項6に記載の方法。 - 音声区間の認識装置であって、
検出対象となるオーディオの各オーディオフレームの音響的特徴を抽出するための特徴抽出モジュールと、
前記各オーディオフレームの音響的特徴、及び開始点訓練セットを用いてニューラルネットワークを訓練して得られた開始点認識モデルに基づいて、前記各オーディオフレームのうちの音声開始点フレームを認識するための開始点認識モジュールと、
前記各オーディオフレームの音響的特徴、及び終了点訓練セットを用いてニューラルネットワークを訓練して得られた終了点認識モデルに基づいて、前記各オーディオフレームのうちの音声終了点フレームを認識するための終了点認識モジュールと、
を備え、
前記開始点認識モジュールはさらに、
前記オーディオフレームを順次第1のターゲットフレームとして、前記第1のターゲットフレームに対して、開始点認識処理を行うのに用いられ、
前記開始点認識処理は、
前記第1のターゲットフレームの音響的特徴を前記開始点認識モデルに入力して、前記第1のターゲットフレームが有効音声である確率値を算出することと、
前記第1のターゲットフレームが有効音声である確率値及び第1の閾値の大きさに基づいて、前記第1のターゲットフレームが有効音声であるか否かを決定することと、
を含み、
前記第1のターゲットフレームが有効音声ではない場合、次のオーディオフレームを新しい第1のターゲットフレームとして、前記新しい第1のターゲットフレームに対して前記開始点認識処理を行い、
前記第1のターゲットフレームが有効音声である場合、前記第1のターゲットフレームを音声開始点フレームとして決定するのに用いられる、
ことを特徴とする音声区間の認識装置。 - 前記終了点認識モジュールはさらに、
前記音声開始点フレーム以降のオーディオフレームを順次第2のターゲットフレームとして、前記第2のターゲットフレームに対して、終了点認識処理を行うのに用いられ、
前記終了点認識処理は、
前記第2のターゲットフレームの音響的特徴を前記終了点認識モデルに入力して、前記第2のターゲットフレームが有効音声である確率値を算出することと、
前記第2のターゲットフレームが有効音声である確率値及び前記第1の閾値より小さい第2の閾値の大きさに基づいて、前記第2のターゲットフレームが有効音声であるか否かを決定することと、
を含み、
前記第2のターゲットフレームが有効音声である場合、次のオーディオフレームを新しい第2のターゲットフレームとして、前記新しい第2のターゲットフレームに対して前記終了点認識処理を行い、
前記第2のターゲットフレームが有効音声ではない場合、前記第2のターゲットフレームを音声終了点フレームとして決定するのに用いられる、
ことを特徴とする請求項8に記載の装置。 - 前記開始点訓練セットは、1つの開始点訓練オーディオの各フレームの音響的特徴及びアノテーション情報を含む少なくとも1組の開始点訓練データを含み、
前記終了点訓練セットは、1つの終了点訓練オーディオの各フレームの音響的特徴及びアノテーション情報を含む少なくとも1組の終了点訓練データを含み、
アノテーション情報は、フレームを無効音声としてアノテーションするための第1の属性値又はフレームを有効音声としてアノテーションするための第2の属性値である、
ことを特徴とする請求項8〜9のいずれか1項に記載の装置。 - 前記装置は、訓練セット決定モジュールをさらに備え、
前記訓練セット決定モジュールは、
サンプルオーディオの各フレームの音響的特徴及びアノテーション情報を取得し、
前記サンプルオーディオの各フレームのアノテーション情報に基づいて、前記サンプルオーディオにおける音声開始時点を決定し、前記音声開始時点以降の第1の所定期間内におけるオーディオセグメントを有効音声セグメントとし、
前記サンプルオーディオの第1の時点前のフレームのアノテーション情報を第1の属性値として設定し、
前記サンプルオーディオの前記第1の時点と第2の時点との間のフレームのアノテーション情報を第2の属性値として設定し、
前記サンプルオーディオの前記第2の時点前のフレームの音響的特徴及びアノテーション情報を1組の開始点訓練データとして、前記開始点訓練セットに追加するのに用いられ、
前記第1の時点=前記音声開始時点+前記第1の所定期間であり、
前記第2の時点=前記第1の時点+前記第1の所定期間である
ことを特徴とする請求項10に記載の装置。 - 前記訓練セット決定モジュールはさらに、
前記サンプルオーディオの各フレームのアノテーション情報に基づいて、前記サンプルオーディオにおける音声終了時点を決定し、前記音声終了時点以降の前記第1の所定期間より小さい第2の所定期間内におけるオーディオセグメントを無効音声セグメントとし、
前記サンプルオーディオの第3の時点以降のフレームのアノテーション情報を第1の属性値として設定し、
前記サンプルオーディオの第4の時点と前記第3の時点との間のフレームのアノテーション情報を第2の属性値として設定し、
前記サンプルオーディオの前記第4の時点以降のフレームの音響的特徴及びアノテーション情報を1組の終了点訓練データとして、前記終了点訓練セットに追加するのに用いられ、
前記第3の時点=前記音声終了時点+前記第2の所定期間であり、
前記第4の時点=前記第3の時点−前記第2の所定期間である、
ことを特徴とする請求項11に記載の装置。 - 前記装置は、提出モジュールをさらに備え
前記提出モジュールは、
前記音声開始点フレームの開始時点を前記検出対象となるオーディオの音声開始点とし、
前記音声終了点フレームの開始時点を前記検出対象となるオーディオの音声終了点とし、
前記検出対象となるオーディオの音声開始点と音声終了点との間の第1のオーディオセグメントを切り取り、
前記第1のオーディオセグメントを音声認識機器に送信するのに用いられる、
ことを特徴とする請求項11に記載の装置。 - 前記提出モジュールはさらに、
前記音声開始点前の前記第1の所定期間より大きい第3の所定期間の第2のオーディオセグメントを取得して、前記第2のオーディオセグメント及び前記第1のオーディオセグメントを音声認識機器に送信するのに用いられる、
ことを特徴とする請求項13に記載の装置。 - コンピュータ機器であって、
メモリと、プロセッサと、前記メモリに記憶され且つ前記プロセッサにおいて実行可能なコンピュータプログラムとを備え、
前記プロセッサは、前記コンピュータプログラムを実行すると、請求項1〜7のいずれか1項に記載の方法を実現する、
ことを特徴とするコンピュータ機器。 - コンピュータ読み取り可能な記憶媒体であって、
コンピュータプログラムが記憶されており、
前記コンピュータプログラムは、プロセッサにより実行されると、請求項1〜7のいずれか1項に記載の方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810509977.4A CN108766418B (zh) | 2018-05-24 | 2018-05-24 | 语音端点识别方法、装置及设备 |
CN201810509977.4 | 2018-05-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019204073A JP2019204073A (ja) | 2019-11-28 |
JP6800946B2 true JP6800946B2 (ja) | 2020-12-16 |
Family
ID=64005880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018244352A Active JP6800946B2 (ja) | 2018-05-24 | 2018-12-27 | 音声区間の認識方法、装置及び機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10847179B2 (ja) |
JP (1) | JP6800946B2 (ja) |
CN (1) | CN108766418B (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11854566B2 (en) | 2018-06-21 | 2023-12-26 | Magic Leap, Inc. | Wearable system speech processing |
CN109545192B (zh) * | 2018-12-18 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109545193B (zh) * | 2018-12-18 | 2023-03-14 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
RU2761940C1 (ru) * | 2018-12-18 | 2021-12-14 | Общество С Ограниченной Ответственностью "Яндекс" | Способы и электронные устройства для идентификации пользовательского высказывания по цифровому аудиосигналу |
CN109616097B (zh) * | 2019-01-04 | 2024-05-10 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、设备及存储介质 |
CN110085214B (zh) * | 2019-02-28 | 2021-07-20 | 北京字节跳动网络技术有限公司 | 音频起始点检测方法和装置 |
WO2020180719A1 (en) * | 2019-03-01 | 2020-09-10 | Magic Leap, Inc. | Determining input for speech processing engine |
CN109887511A (zh) * | 2019-04-24 | 2019-06-14 | 武汉水象电子科技有限公司 | 一种基于级联dnn的语音唤醒优化方法 |
US11328740B2 (en) | 2019-08-07 | 2022-05-10 | Magic Leap, Inc. | Voice onset detection |
CN110995938B (zh) * | 2019-12-13 | 2022-04-26 | 度小满科技(北京)有限公司 | 数据处理方法和装置 |
US11917384B2 (en) | 2020-03-27 | 2024-02-27 | Magic Leap, Inc. | Method of waking a device using spoken voice commands |
CN111524503B (zh) * | 2020-04-15 | 2023-01-17 | 上海明略人工智能(集团)有限公司 | 音频数据的处理方法、装置、音频识别设备和存储介质 |
CN113689847A (zh) * | 2020-05-18 | 2021-11-23 | 阿里巴巴集团控股有限公司 | 语音交互方法、装置及语音芯片模组 |
KR20220010259A (ko) | 2020-07-17 | 2022-01-25 | 삼성전자주식회사 | 음성 신호 처리 방법 및 장치 |
CN111862951B (zh) * | 2020-07-23 | 2024-01-26 | 海尔优家智能科技(北京)有限公司 | 语音端点检测方法及装置、存储介质、电子设备 |
CN112435691B (zh) * | 2020-10-12 | 2024-03-12 | 珠海亿智电子科技有限公司 | 在线语音端点检测后处理方法、装置、设备及存储介质 |
CN112309432A (zh) * | 2020-10-27 | 2021-02-02 | 暨南大学 | 一种基于数据驱动的音符起始点检测方法 |
CN112530424A (zh) * | 2020-11-23 | 2021-03-19 | 北京小米移动软件有限公司 | 语音处理方法及装置、电子设备、存储介质 |
CN112562727B (zh) * | 2020-12-18 | 2024-04-26 | 科大讯飞股份有限公司 | 应用于音频监控的音频场景分类方法、装置以及设备 |
CN112882394B (zh) * | 2021-01-12 | 2024-08-13 | 北京小米松果电子有限公司 | 设备控制方法、控制装置及可读存储介质 |
CN113314153B (zh) * | 2021-06-22 | 2023-09-01 | 北京华捷艾米科技有限公司 | 语音端点检测的方法、装置、设备和存储介质 |
CN116364062B (zh) * | 2023-05-30 | 2023-08-25 | 广州小鹏汽车科技有限公司 | 语音识别方法、装置及车辆 |
CN117877466B (zh) * | 2023-12-22 | 2024-08-06 | 中国电子科技集团公司第二十八研究所 | 一种基于实体替换的语音数据增强方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04198997A (ja) * | 1990-11-29 | 1992-07-20 | Oki Electric Ind Co Ltd | 音声認識方法 |
JPH1124692A (ja) * | 1997-07-01 | 1999-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 音声波の有音/休止区間判定方法およびその装置 |
US6370500B1 (en) * | 1999-09-30 | 2002-04-09 | Motorola, Inc. | Method and apparatus for non-speech activity reduction of a low bit rate digital voice message |
WO2007017853A1 (en) * | 2005-08-08 | 2007-02-15 | Nice Systems Ltd. | Apparatus and methods for the detection of emotions in audio interactions |
US8762150B2 (en) * | 2010-09-16 | 2014-06-24 | Nuance Communications, Inc. | Using codec parameters for endpoint detection in speech recognition |
US8756061B2 (en) * | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
JP6275606B2 (ja) * | 2014-09-17 | 2018-02-07 | 株式会社東芝 | 音声区間検出システム、音声始端検出装置、音声終端検出装置、音声区間検出方法、音声始端検出方法、音声終端検出方法およびプログラム |
CN104409080B (zh) * | 2014-12-15 | 2018-09-18 | 北京国双科技有限公司 | 语音端点检测方法和装置 |
US10121471B2 (en) * | 2015-06-29 | 2018-11-06 | Amazon Technologies, Inc. | Language model speech endpointing |
CN105118502B (zh) * | 2015-07-14 | 2017-05-10 | 百度在线网络技术(北京)有限公司 | 语音识别系统的端点检测方法及系统 |
US10235991B2 (en) * | 2016-08-09 | 2019-03-19 | Apptek, Inc. | Hybrid phoneme, diphone, morpheme, and word-level deep neural networks |
US10255910B2 (en) * | 2016-09-16 | 2019-04-09 | Apptek, Inc. | Centered, left- and right-shifted deep neural networks and their combinations |
CN106611598B (zh) * | 2016-12-28 | 2019-08-02 | 上海智臻智能网络科技股份有限公司 | 一种vad动态参数调整方法和装置 |
US10347244B2 (en) * | 2017-04-21 | 2019-07-09 | Go-Vivace Inc. | Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response |
JP6392950B1 (ja) * | 2017-08-03 | 2018-09-19 | ヤフー株式会社 | 検出装置、検出方法、および検出プログラム |
JP6716513B2 (ja) * | 2017-08-29 | 2020-07-01 | 日本電信電話株式会社 | 音声区間検出装置、その方法、及びプログラム |
CN107527630B (zh) * | 2017-09-22 | 2020-12-11 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法、装置和计算机设备 |
CN108010515B (zh) * | 2017-11-21 | 2020-06-30 | 清华大学 | 一种语音端点检测和唤醒方法及装置 |
-
2018
- 2018-05-24 CN CN201810509977.4A patent/CN108766418B/zh active Active
- 2018-12-27 JP JP2018244352A patent/JP6800946B2/ja active Active
- 2018-12-28 US US16/236,267 patent/US10847179B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019204073A (ja) | 2019-11-28 |
US10847179B2 (en) | 2020-11-24 |
CN108766418A (zh) | 2018-11-06 |
CN108766418B (zh) | 2020-01-14 |
US20190362741A1 (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6800946B2 (ja) | 音声区間の認識方法、装置及び機器 | |
US11900947B2 (en) | Method and system for automatically diarising a sound recording | |
US9966077B2 (en) | Speech recognition device and method | |
EP2700071B1 (en) | Speech recognition using multiple language models | |
JP6466334B2 (ja) | リアルタイム交通検出 | |
JP6464005B2 (ja) | 雑音抑圧音声認識装置およびそのプログラム | |
US20130030794A1 (en) | Apparatus and method for clustering speakers, and a non-transitory computer readable medium thereof | |
US11417344B2 (en) | Information processing method, information processing device, and recording medium for determining registered speakers as target speakers in speaker recognition | |
CN112802498B (zh) | 语音检测方法、装置、计算机设备和存储介质 | |
CN112201275B (zh) | 声纹分割方法、装置、设备及可读存储介质 | |
US20170270923A1 (en) | Voice processing device and voice processing method | |
CN113112992A (zh) | 一种语音识别方法、装置、存储介质和服务器 | |
CN112992175B (zh) | 一种语音区分方法及其语音记录装置 | |
JP6526602B2 (ja) | 音声認識装置、その方法、及びプログラム | |
US20220108699A1 (en) | Speech recognition device, search device, speech recognition method, search method, and program | |
JPH06266386A (ja) | ワードスポッティング方法 | |
CN112349298A (zh) | 声音事件识别方法、装置、设备和存储介质 | |
KR102655367B1 (ko) | 화자 유사도 판단 방법 및 장치 | |
CN109524026B (zh) | 提示音的确定方法及装置、存储介质、电子装置 | |
JP3322536B2 (ja) | ニューラルネットワークの学習方法および音声認識装置 | |
CN117334201A (zh) | 一种声音识别方法、装置、设备以及介质 | |
CN118658462A (zh) | 语音活性检测方法、装置、设备及介质 | |
CN117765960A (zh) | 语音增强方法、系统、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6800946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |