JP7355776B2 - 音声認識方法、音声認識装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents
音声認識方法、音声認識装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7355776B2 JP7355776B2 JP2021047570A JP2021047570A JP7355776B2 JP 7355776 B2 JP7355776 B2 JP 7355776B2 JP 2021047570 A JP2021047570 A JP 2021047570A JP 2021047570 A JP2021047570 A JP 2021047570A JP 7355776 B2 JP7355776 B2 JP 7355776B2
- Authority
- JP
- Japan
- Prior art keywords
- speech recognition
- directional
- network
- recognition model
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 119
- 238000004590 computer program Methods 0.000 title claims description 14
- 238000012549 training Methods 0.000 claims description 128
- 238000012545 processing Methods 0.000 claims description 52
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/8006—Multi-channel systems specially adapted for direction-finding, i.e. having a single aerial system capable of giving simultaneous indications of the directions of different signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Description
Claims (21)
- 目標音声を事前に訓練された音声認識モデルに入力し、少なくとも1つの処理層がプリセット方向間隔における音声サンプルを訓練することによって取得される複数のプリセット処理層を含む前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得するステップと、
前記初期テキストに基づいて前記目標音声の音声認識結果を決定するステップと、を含み、
前記音声認識モデルが第三音声認識モデルである場合、前記認識ネットワークは全方向性ネットワークおよび複数の指向性ネットワークを含み、前記指向性ネットワークのいずれか1つと前記全方向性ネットワークの両方は複数のプリセット処理層を含み、前記複数の指向性ネットワークはそれぞれ複数のプリセット方向間隔に対応する
音声認識方法。 - 前記第三音声認識モデルは、フーリエ変換ネットワークをさらに含み、
目標音声を事前に訓練された音声認識モデルに入力し、前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得する前記ステップは、
目標音声を事前に訓練された第三音声認識モデルに入力し、前記フーリエ変換ネットワークを使用して前記目標音声に対してフーリエ変換を実行し、変換された音声を取得するステップと、
変換された前記音声を前記全方向性ネットワークに入力し、前記全方向性ネットワークから出力される音声特徴を取得するステップと、
前記音声特徴を前記複数の指向性ネットワークの各指向性ネットワークに入力し、各指向性ネットワークから出力される初期テキストを取得するステップと、を含む、
請求項1に記載の音声認識方法。 - 前記第三音声認識モデルは、方向間隔決定モジュールをさらに含み、
目標音声を事前に訓練された音声認識モデルに入力した後、前記音声認識方法は、
各指向性ネットワークから出力される各初期テキストの信頼性を取得するステップをさらに含み、
前記初期テキストに基づいて前記目標音声の音声認識結果を決定するステップは、
方向間隔決定モジュールを使用して、前記複数の指向性ネットワークにそれぞれ対応する各方向間隔に前記目標音声のサブ音声が存在する確率を決定するステップと、
各初期テキストについて、各指向性ネットワークに対応する確率をこの指向性ネットワークから出力されるこの初期テキストの信頼度の重みとして決定し、前記複数の指向性ネットワークから出力されるこの初期テキストの信頼度を重み付けするステップと、
重み付け結果が最大の対応する初期テキストを音声認識結果として決定するステップと、を含む、
請求項1または2に記載の音声認識方法。 - 前記第三音声認識モデルは、フーリエ変換ネットワークをさらに含み、
目標音声を事前に訓練された音声認識モデルに入力し、前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得する前記ステップは、
目標音声を事前に訓練された第三音声認識モデルに入力し、前記フーリエ変換ネットワークを使用して前記目標音声に対してフーリエ変換を実行し、変換された音声を取得するステップと、
変換された前記音声を前記全方向性ネットワークに入力し、前記全方向性ネットワークの複素線形変換層から出力される処理済みの音声特徴を取得するステップと、を含み、
方向間隔決定モジュールを使用して、前記複数の指向性ネットワークにそれぞれ対応する各方向間隔に前記目標音声のサブ音声が存在する確率を決定する前記ステップは、
前記処理済みの音声特徴を前記方向間隔決定モジュールに入力し、前記方向間隔決定モジュールに基づいて、プリセット方向間隔決定技術を採用して、複数の前記認識ネットワークにそれぞれ対応する各方向間隔に前記目標音声のサブ音声が存在する確率を決定するステップを含み、
前記プリセット方向間隔決定技術は、到着方向推定アルゴリズム、または音声到着方向間隔を予測するために使用される事前に訓練されたディープニューラルネットワークを含む、
請求項3に記載の音声認識方法。 - 訓練用の音声サンプルがプリセット方向間隔における音声サンプルを含む訓練サンプルを取得するステップと、
前記訓練用の音声サンプルを訓練対象となる音声認識モデルに入力し、複数のプリセット処理層を含む前記音声認識モデル内の少なくとも1つの認識ネットワークから出力される初期テキストを取得するステップと、
前記初期テキストに基づいて前記音声認識モデルを訓練して、訓練された音声認識モデルを取得するステップと、を含み、
前記音声認識モデルが第三音声認識モデルである場合、前記認識ネットワークは全方向性ネットワークおよび複数の指向性ネットワークを含み、前記指向性ネットワークのいずれか1つと前記全方向性ネットワークの両方は複数のプリセット処理層を含み、前記複数の指向性ネットワークはそれぞれ複数のプリセット方向間隔に対応する
音声認識モデル訓練方法。 - 前記第三音声認識モデルの訓練用ネットワーク構造は、音声指向層を含み、
訓練サンプルを取得する前記ステップは、
複数の方向間隔における第三音声サンプルの訓練サンプルを取得するステップを含み、
前記訓練用の音声サンプルを前記音声認識モデルに入力し、前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得する前記ステップは、
少なくとも1つの方向間隔におけるサブ音声を含む前記第三音声サンプルをフーリエ変換ネットワークに入力し、第三変換済みサンプルを取得するステップと、
前記第三変換済みサンプルを前記全方向性ネットワークに入力し、前記全方向性ネットワークから出力される音声特徴を取得するステップと、前記音声指向層を使用して、この音声特徴において前記複数の方向間隔の任意の方向間隔におけるサブ音声に対応するサブ音声特徴を決定し、任意の方向間隔に対応する指向性ネットワークを、このサブ音声特徴が入力されるべき指向性ネットワークとして決定するステップと、
前記サブ音声特徴を入力されるべき前記指向性ネットワークに入力し、入力されるべき前記指向性ネットワークから出力され、前記第三音声サンプルを予測するために使用される初期テキストを取得するステップと、を含む、
請求項5に記載の音声認識モデル訓練方法。 - 前記初期テキストに基づいて前記音声認識モデルを訓練して、訓練された音声認識モデルを取得するステップは、
各指向性ネットワークに対応する初期テキストについて、この初期テキストの損失値を決定し、この損失値を使用して前記第三音声認識モデルにおいて逆方向伝搬を実行し、前記第三音声認識モデル内のパラメータを更新するステップを含む、
請求項5に記載の音声認識モデル訓練方法。 - 前記第三音声認識モデルは、方向間隔決定モジュールをさらに含み、
この損失値を使用して前記第三音声認識モデルにおいて逆方向伝搬を実行し、前記第三音声認識モデル内のパラメータを更新する前記ステップは、
各指向性ネットワークについて、この指向性ネットワークによって取得された損失値を使用して、この指向性ネットワークにおいて逆方向伝搬を実行し、逆方向伝搬結果を取得するステップと、
方向間隔決定モジュールを使用して、複数の指向性ネットワークに対応する逆方向伝搬結果をマージし、伝搬結果セットを取得するステップと、
マージされた伝搬結果セットを使用して、前記全方向性ネットワークにおいて逆方向伝搬を実行し、前記全方向性ネットワーク内のパラメータ、および前記複数の指向性ネットワーク内のパラメータを更新するステップと、を含む、
請求項7に記載の音声認識モデル訓練方法。 - 第三音声認識モデルは、方向間隔決定モジュールをさらに含み、
前記サブ音声特徴を入力されるべき前記指向性ネットワークに入力した後、前記音声認識モデル訓練方法は、
各指向性ネットワークから出力される各初期テキストの信頼性を取得するステップをさらに含み、
前記音声認識モデル訓練方法は、
前記方向間隔決定モジュールを使用して、前記複数の指向性ネットワークにそれぞれ対応する各方向間隔に前記第三音声サンプルのサブ音声が存在する確率を決定するステップと、
各指向性ネットワークに対応する確率をこの指向性ネットワークから出力される初期テキストの信頼度の重みとして決定し、前記複数の指向性ネットワークから出力される各初期テキストの信頼度を重み付けするステップと、
重み付け結果が最大の対応する初期テキストを音声認識結果として決定し、この音声認識結果の損失値を決定し、この損失値を使用して前記第三音声認識モデルにおいて逆方向伝搬を実行し、前記第三音声認識モデル内のパラメータを更新し、訓練された第三音声認識モデルを取得するステップと、をさらに含む、
請求項6に記載の音声認識モデル訓練方法。 - 目標音声を事前に訓練された音声認識モデルに入力し、少なくとも1つの処理層がプリセット方向間隔における音声サンプルを訓練することによって取得される複数のプリセット処理層を含む前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得するように構成される予測ユニットと、
前記初期テキストに基づいて前記目標音声の音声認識結果を決定するように構成される決定ユニットと、を含み、
前記音声認識モデルが第三音声認識モデルである場合、前記認識ネットワークは全方向性ネットワークおよび複数の指向性ネットワークを含み、前記指向性ネットワークのいずれか1つと前記全方向性ネットワークの両方は複数のプリセット処理層を含み、前記複数の指向性ネットワークはそれぞれ複数のプリセット方向間隔に対応する
音声認識装置。 - 第三音声認識モデルは、フーリエ変換ネットワークをさらに含み、
目標音声を事前に訓練された第三音声認識モデルに入力し、前記フーリエ変換ネットワークを使用して前記目標音声に対してフーリエ変換を実行し、変換された音声を取得するステップと、
変換された前記音声を前記全方向性ネットワークに入力し、前記全方向性ネットワークから出力される音声特徴を取得するステップと、
前記音声特徴を前記複数の指向性ネットワークの各指向性ネットワークに入力し、各指向性ネットワークから出力される初期テキストを取得するステップと、によって、
前記予測ユニットは、目標音声を事前に訓練された音声認識モデルに入力し、前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得する前記ステップを実行するようにさらに構成される、
請求項10に記載の音声認識装置。 - 第三音声認識モデルは、方向間隔決定モジュールをさらに含み、
前記音声認識装置は、
目標音声を事前に訓練された音声認識モデルに入力した後、各指向性ネットワークから出力される各初期テキストの信頼度を取得するように構成される実行ユニットをさらに含み、
方 向間隔決定モジュールを使用して、前記複数の指向性ネットワークにそれぞれ対応する各方向間隔に前記目標音声のサブ音声が存在する確率を決定するステップと、
各初期テキストについて、各指向性ネットワークに対応する確率をこの指向性ネットワークから出力されるこの初期テキストの信頼度の重みとして決定し、前記複数の指向性ネットワークから出力されるこの初期テキストの信頼度を重み付けするステップと、
重み付け結果が最大の対応する初期テキストを音声認識結果として決定するステップと、によって、
前記決定ユニットは、前記初期テキストに基づいて前記目標音声の音声認識結果を決定する前記ステップを実行するようにさらに構成される、
請求項10または11に記載の音声認識装置。 - 前記第三音声認識モデルは、フーリエ変換ネットワークをさらに含み、
目標音声を事前に訓練された第三音声認識モデルに入力し、前記フーリエ変換ネットワークを使用して前記目標音声に対してフーリエ変換を実行し、変換された音声を取得するステップと、
変換された前記音声を前記全方向性ネットワークに入力し、前記全方向性ネットワークの複素線形変換層から出力される処理済みの音声特徴を取得するステップと、によって、
前記予測ユニットは、目標音声を事前に訓練された音声認識モデルに入力し、前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得する前記ステップを実行するようにさらに構成されており、
方向間隔決定モジュールを使用して、前記複数の指向性ネットワークにそれぞれ対応する各方向間隔に前記目標音声のサブ音声が存在する確率を決定する前記ステップは、
前記処理済みの音声特徴を前記方向間隔決定モジュールに入力し、前記方向間隔決定モジュールに基づいて、プリセット方向間隔決定技術を採用して、複数の前記認識ネットワークにそれぞれ対応する各方向間隔に前記目標音声のサブ音声が存在する確率を決定するステップを含み、
前記プリセット方向間隔決定技術は、到着方向推定アルゴリズム、または音声到着方向間隔を予測するために使用される事前に訓練されたディープニューラルネットワークを含む、
請求項12に記載の音声認識装置。 - 訓練用の音声サンプルがプリセット方向間隔における音声サンプルを含む訓練サンプルを取得するように構成される取得ユニットと、
前記訓練用の音声サンプルを訓練対象となる音声認識モデルに入力し、複数のプリセット処理層を含む前記音声認識モデル内の少なくとも1つの認識ネットワークから出力される初期テキストを取得するように構成される入力ユニットと、
前記初期テキストに基づいて前記音声認識モデルを訓練して、訓練された音声認識モデルを取得するように構成される訓練ユニットと、を含み、
前記音声認識モデルが第三音声認識モデルである場合、前記認識ネットワークは全方向性ネットワークおよび複数の指向性ネットワークを含み、前記指向性ネットワークのいずれか1つと前記全方向性ネットワークの両方は複数のプリセット処理層を含み、前記複数の指向性ネットワークはそれぞれ複数のプリセット方向間隔に対応する
音声認識モデル訓練装置。 - 前記第三音声認識モデルの訓練用ネットワーク構造は、音声指向層を含み、
複数の方向間隔における第三音声サンプルの訓練サンプルを取得するステップによって、
前記取得ユニットは、訓練サンプルを取得する前記ステップを実行するようにさらに構成されており、
少なくとも1つの方向間隔におけるサブ音声を含む前記第三音声サンプルをフーリエ変換ネットワークに入力し、第三変換済みサンプルを取得するステップと、
前記第三変換済みサンプルを前記全方向性ネットワークに入力し、前記全方向性ネットワークから出力される音声特徴を取得するステップと、前記音声指向層を使用して、この音声特徴において前記複数の方向間隔の任意の方向間隔におけるサブ音声に対応するサブ音声特徴を決定し、任意の方向間隔に対応する指向性ネットワークを、このサブ音声特徴が入力されるべき指向性ネットワークとして決定するステップと、
前記サブ音声特徴を入力されるべき前記指向性ネットワークに入力し、入力されるべき前記指向性ネットワークから出力され、前記第三音声サンプルを予測するために使用される初期テキストを取得するステップと、によって、
前記入力ユニットは、前記訓練用の音声サンプルを前記音声認識モデルに入力し、前記音声認識モデルにおける少なくとも1つの認識ネットワークから出力される初期テキストを取得する前記ステップを実行するようにさらに構成される、
請求項14に記載の音声認識モデル訓練装置。 - 各指向性ネットワークに対応する初期テキストについて、この初期テキストの損失値を決定し、この損失値を使用して前記第三音声認識モデルにおいて逆方向伝搬を実行し、前記第三音声認識モデル内のパラメータを更新するステップによって、
前記訓練ユニットは、前記初期テキストに基づいて前記音声認識モデルを訓練して、訓練された音声認識モデルを取得する前記ステップを実行するようにさらに構成される、
請求項14に記載の音声認識モデル訓練装置。 - 前記第三音声認識モデルは、方向間隔決定モジュールをさらに含み、
各指向性ネットワークについて、この指向性ネットワークによって取得された損失値を使用して、この指向性ネットワークにおいて逆方向伝搬を実行し、逆方向伝搬結果を取得するステップと、
方向間隔決定モジュールを使用して、複数の指向性ネットワークに対応する逆方向伝搬結果をマージし、伝搬結果セットを取得するステップと、
マージされた伝搬結果セットを使用して、前記全方向性ネットワークにおいて逆方向伝搬を実行し、前記全方向性ネットワーク内のパラメータ、および前記複数の指向性ネットワーク内のパラメータを更新するステップと、によって、
前記訓練ユニットは、この損失値を使用して前記第三音声認識モデルにおいて逆方向伝搬を実行し、前記第三音声認識モデル内のパラメータを更新する前記ステップを実行するようにさらに構成される、
請求項16に記載の音声認識モデル訓練装置。 - 第三音声認識モデルは、方向間隔決定モジュールをさらに含み、
前記音声認識モデル訓練装置は、
前記サブ音声特徴を入力されるべき前記指向性ネットワークに入力した後、各指向性ネットワークから出力される各初期テキストの信頼度を取得するように構成される実行ユニットをさらに含み、
前記音声認識モデル訓練装置は、
前記方向間隔決定モジュールを使用して、前記複数の指向性ネットワークにそれぞれ対応する各方向間隔に前記第三音声サンプルのサブ音声が存在する確率を決定するように構成される確率決定ユニットと、
各指向性ネットワークに対応する確率をこの指向性ネットワークから出力される初期テキストの信頼度の重みとして決定し、前記複数の指向性ネットワークから出力される各初期テキストの信頼度を重み付けするように構成される重み付けユニットと、
重み付け結果が最大の対応する初期テキストを音声認識結果として決定し、この音声認識結果の損失値を決定し、この損失値を使用して前記第三音声認識モデルにおいて逆方向伝搬を実行し、前記第三音声認識モデル内のパラメータを更新し、訓練された第三音声認識モデルを取得するように構成される伝搬ユニットと、をさらに含む、
請求項15に記載の音声認識モデル訓練装置。 - 1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するための記憶装置と、を含み、
1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサが、請求項1-4のいずれか一項に記載の音声認識方法または請求項5-9のいずれか一項に記載の音声認識モデル訓練方法を実施する、
電子デバイス。 - コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、このコンピュータプログラムが、プロセッサによって実行されると、請求項1-4のいずれか一項に記載の音声認識方法または請求項5-9のいずれか一項に記載の音声認識モデル訓練方法を実施する、コンピュータ可読記憶媒体。
- コンピュータプログラムであって、
このコンピュータプログラムが、プロセッサによって実行されると、請求項1-4のいずれか一項に記載の音声認識方法または請求項5-9のいずれか一項に記載の音声認識モデル訓練方法を実施する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010697077.4 | 2020-07-20 | ||
CN202010697077.4A CN111862987B (zh) | 2020-07-20 | 2020-07-20 | 语音识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022017171A JP2022017171A (ja) | 2022-01-25 |
JP7355776B2 true JP7355776B2 (ja) | 2023-10-03 |
Family
ID=73002120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021047570A Active JP7355776B2 (ja) | 2020-07-20 | 2021-03-22 | 音声認識方法、音声認識装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11735168B2 (ja) |
EP (1) | EP3859732A3 (ja) |
JP (1) | JP7355776B2 (ja) |
KR (1) | KR20220011065A (ja) |
CN (1) | CN111862987B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112509562B (zh) * | 2020-11-09 | 2024-03-22 | 北京有竹居网络技术有限公司 | 用于文本后处理的方法、装置、电子设备和介质 |
CN112786069B (zh) * | 2020-12-24 | 2023-03-21 | 北京有竹居网络技术有限公司 | 语音提取方法、装置和电子设备 |
CN112967739B (zh) * | 2021-02-26 | 2022-09-06 | 山东省计算中心(国家超级计算济南中心) | 一种基于长短期记忆网络的语音端点检测方法及系统 |
WO2024071729A1 (ko) * | 2022-09-28 | 2024-04-04 | 경북대학교 산학협력단 | 2단계 사전 학습 기반의 인공지능을 이용한 음성 인식 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016536626A (ja) | 2013-09-27 | 2016-11-24 | アマゾン テクノロジーズ インコーポレイテッド | 多方向の復号をする音声認識 |
WO2020001163A1 (zh) | 2018-06-28 | 2020-01-02 | 腾讯科技(深圳)有限公司 | 语音识别方法和装置、计算机设备和电子设备 |
CN110992974A (zh) | 2019-11-25 | 2020-04-10 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101807399A (zh) * | 2010-02-02 | 2010-08-18 | 华为终端有限公司 | 一种语音识别方法及装置 |
JP2012150237A (ja) * | 2011-01-18 | 2012-08-09 | Sony Corp | 音信号処理装置、および音信号処理方法、並びにプログラム |
US9697826B2 (en) | 2015-03-27 | 2017-07-04 | Google Inc. | Processing multi-channel audio waveforms |
CN106297820A (zh) * | 2015-05-14 | 2017-01-04 | 杜比实验室特许公司 | 具有基于迭代加权的源方向确定的音频源分离 |
US10224058B2 (en) | 2016-09-07 | 2019-03-05 | Google Llc | Enhanced multi-channel acoustic models |
US20190095430A1 (en) * | 2017-09-25 | 2019-03-28 | Google Inc. | Speech translation device and associated method |
KR102469753B1 (ko) * | 2017-11-30 | 2022-11-22 | 삼성전자주식회사 | 음원의 위치에 기초하여 서비스를 제공하는 방법 및 이를 위한 음성 인식 디바이스 |
CN108647556A (zh) | 2018-03-02 | 2018-10-12 | 重庆邮电大学 | 基于分频和深度神经网络的声源定位方法 |
US10524051B2 (en) | 2018-03-29 | 2019-12-31 | Panasonic Corporation | Sound source direction estimation device, sound source direction estimation method, and recording medium therefor |
CN109147787A (zh) * | 2018-09-30 | 2019-01-04 | 深圳北极鸥半导体有限公司 | 一种智能电视声控识别系统及其识别方法 |
CN109308909B (zh) * | 2018-11-06 | 2022-07-15 | 北京如布科技有限公司 | 一种信号分离方法、装置、电子设备及存储介质 |
CN109523994A (zh) | 2018-11-13 | 2019-03-26 | 四川大学 | 一种基于胶囊神经网络的多任务语音分类方法 |
CN111241891B (zh) | 2018-11-29 | 2024-04-30 | 中科视语(北京)科技有限公司 | 一种人脸图像切图方法、装置及计算机可读存储介质 |
CN109830245B (zh) | 2019-01-02 | 2021-03-12 | 北京大学 | 一种基于波束成形的多说话者语音分离方法及系统 |
CN111429889B (zh) * | 2019-01-08 | 2023-04-28 | 百度在线网络技术(北京)有限公司 | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 |
CN109785824B (zh) * | 2019-03-15 | 2021-04-06 | 科大讯飞股份有限公司 | 一种语音翻译模型的训练方法及装置 |
KR102444411B1 (ko) | 2019-03-29 | 2022-09-20 | 한국전자통신연구원 | 음향 이벤트 별로 특성을 고려한 음향 이벤트 검출 방법 및 장치 |
CN110517705B (zh) | 2019-08-29 | 2022-02-18 | 北京大学深圳研究生院 | 一种基于深度神经网络和卷积神经网络的双耳声源定位方法和系统 |
CN110794368B (zh) * | 2019-10-28 | 2021-10-19 | 星络智能科技有限公司 | 一种声源定位方法、装置、智能音箱及存储介质 |
-
2020
- 2020-07-20 CN CN202010697077.4A patent/CN111862987B/zh active Active
-
2021
- 2021-03-10 KR KR1020210031675A patent/KR20220011065A/ko not_active Application Discontinuation
- 2021-03-22 JP JP2021047570A patent/JP7355776B2/ja active Active
- 2021-03-23 US US17/209,681 patent/US11735168B2/en active Active
- 2021-05-20 EP EP21175049.2A patent/EP3859732A3/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016536626A (ja) | 2013-09-27 | 2016-11-24 | アマゾン テクノロジーズ インコーポレイテッド | 多方向の復号をする音声認識 |
WO2020001163A1 (zh) | 2018-06-28 | 2020-01-02 | 腾讯科技(深圳)有限公司 | 语音识别方法和装置、计算机设备和电子设备 |
CN110992974A (zh) | 2019-11-25 | 2020-04-10 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111862987B (zh) | 2021-12-28 |
JP2022017171A (ja) | 2022-01-25 |
EP3859732A3 (en) | 2021-12-08 |
KR20220011065A (ko) | 2022-01-27 |
CN111862987A (zh) | 2020-10-30 |
US20210233518A1 (en) | 2021-07-29 |
EP3859732A2 (en) | 2021-08-04 |
US11735168B2 (en) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7166322B2 (ja) | モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP7355776B2 (ja) | 音声認識方法、音声認識装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN111539514B (zh) | 用于生成神经网络的结构的方法和装置 | |
JP7406521B2 (ja) | 音声検出方法、音声検出装置、電子デバイス、コンピュータ可読記憶媒体、及び、コンピュータプログラム | |
JP2021119381A (ja) | 音声スペクトル生成モデルの学習方法、装置、電子機器及びコンピュータプログラム製品 | |
US11423907B2 (en) | Virtual object image display method and apparatus, electronic device and storage medium | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN112559870B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
JP2022505015A (ja) | 知識グラフのベクトル表現生成方法、装置及び電子機器 | |
CN111582454A (zh) | 生成神经网络模型的方法和装置 | |
EP3866166B1 (en) | Method and apparatus for predicting mouth-shape feature, electronic device, storage medium and computer program product | |
US20240046955A1 (en) | Voice extraction method and apparatus, and electronic device | |
CN111563593A (zh) | 神经网络模型的训练方法和装置 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
US11836836B2 (en) | Methods and apparatuses for generating model and generating 3D animation, devices and storage mediums | |
CN112669855A (zh) | 语音处理方法和装置 | |
CN114937478B (zh) | 用于训练模型的方法、用于生成分子的方法和装置 | |
EP3901905B1 (en) | Method and apparatus for processing image | |
CN112201259B (zh) | 声源定位方法、装置、设备和计算机存储介质 | |
CN111582478B (zh) | 用于确定模型结构的方法和装置 | |
US20240134935A1 (en) | Method, device, and computer program product for model arrangement | |
CN111382562B (zh) | 文本相似度的确定方法、装置、电子设备及存储介质 | |
JP2021193619A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230815 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7355776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |