JP2018159917A - 音響モデルをトレーニングする方法及び装置 - Google Patents
音響モデルをトレーニングする方法及び装置 Download PDFInfo
- Publication number
- JP2018159917A JP2018159917A JP2018042974A JP2018042974A JP2018159917A JP 2018159917 A JP2018159917 A JP 2018159917A JP 2018042974 A JP2018042974 A JP 2018042974A JP 2018042974 A JP2018042974 A JP 2018042974A JP 2018159917 A JP2018159917 A JP 2018159917A
- Authority
- JP
- Japan
- Prior art keywords
- acoustic model
- sequence
- acoustic
- data
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 123
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 230000007423 decrease Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 11
- 210000004027 cell Anatomy 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 210000000225 synapse Anatomy 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003134 recirculating effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
Claims (24)
- 音声シーケンスに基づいてウィンドウレベルの入力データを構成するステップと、
前記ウィンドウレベルの入力データを音響モデルに入力するステップと、
前記音響モデルの出力に基づいてシーケンスレベルのエラーを算出するステップと、
前記シーケンスレベルのエラーに基づいて前記ウィンドウレベルのエラーを取得するステップと、
前記ウィンドウレベルのエラーを用いて前記音響モデルを更新するステップと、
を含む、音響モデルトレーニング方法。 - 前記ウィンドウレベルの入力データを構成するステップは、
前記音声シーケンスで予め決定されたサイズのウィンドウに対応する対象データ及び前記対象データ周辺のパディングデータを抽出するステップと、
前記対象データ及び前記パディングデータに基づいて前記ウィンドウレベルの入力データを構成するステップと、
を含む、請求項1に記載の音響モデルトレーニング方法。 - 前記パディングデータは、前記音声シーケンスで前記対象データの以前時間に位置する第1パディングデータ、及び前記音声シーケンスで前記対象データの以後時間に位置する第2パディングデータのうち少なくとも1つを含む、請求項2に記載の音響モデルトレーニング方法。
- 前記シーケンスレベルのエラーを算出するステップは、
前記音響モデルの出力に基づいて前記シーケンスレベルの音響スコアを取得するステップと、
前記シーケンスレベルの音響スコアと前記音声シーケンスに関する参照文章に基づいて前記シーケンスレベルのエラーを算出するステップと、
を含む、請求項1に記載の音響モデルトレーニング方法。 - 前記シーケンスレベルの音響スコアを取得するステップは、
前記音響モデルの出力に基づいて前記ウィンドウレベルの音響スコアを取得するステップと、
前記音響スコアでパディングデータに対応する部分を除去して対象データに対応する音響スコアを取得するステップと、
前記対象データに対応する音響スコアを連結して前記シーケンスレベルの音響スコアを取得するステップと、
を含む、請求項4に記載の音響モデルトレーニング方法。 - 前記参照文章は、前記音声シーケンスに関する正解文章及び前記音声シーケンスに関する誤答文章のうち少なくとも1つを含む、請求項4に記載の音響モデルトレーニング方法。
- 前記音響モデルは、前記ウィンドウレベルのエラーが減少する方向に更新される、請求項1ないし6のうち何れか一項に記載の音響モデルトレーニング方法。
- 前記音響モデルを更新するステップは、
前記ウィンドウレベルのエラー及びパディングデータに基づいて更新データを構成するステップと、
前記更新データを用いて前記音響モデルを更新するステップと、
を含む、請求項1に記載の音響モデルトレーニング方法。 - 前記パディングデータは、0又は前記ウィンドウレベルのエラーに対応するウィンドウに隣接するウィンドウのエラーを含む、請求項8に記載の音響モデルトレーニング方法。
- 前記パディングデータのサイズは、前記入力データに含まれたパディングデータのサイズに対応する、請求項8に記載の音響モデルトレーニング方法。
- 前記音響モデルは循環ディープニューラルネットワークを含み、
前記循環ディープニューラルネットワークが広げられた(unfolded)長さは前記入力データの長さに対応する、請求項1ないし10のうち何れか一項に記載の音響モデルトレーニング方法。 - 前記ウィンドウレベルのエラーを取得するステップは、前記シーケンスレベルのエラーを分割して前記ウィンドウレベルのエラーを取得するステップを含む、請求項1に記載の音響モデルトレーニング方法。
- 請求項1ないし請求項12のいずれか一項に記載の音響モデルトレーニング方法を、音響モデルトレーニング装置のコンピュータに実行させるコンピュータプログラム。
- 少なくとも1つのプロセッサと、
前記プロセッサで読み出し可能な命令語を含むメモリと、
を含み、
前記命令語が前記プロセッサで実行されると、前記プロセッサは、音声シーケンスに基づいてウィンドウレベルの入力データを構成し、前記ウィンドウレベルの入力データを音響モデルに入力し、前記音響モデルの出力に基づいてシーケンスレベルのエラーを算出し、前記シーケンスレベルのエラーに基づいて前記ウィンドウレベルのエラーを取得し、前記ウィンドウレベルのエラーを用いて前記音響モデルを更新する、音響モデルトレーニング装置。 - 前記プロセッサは、前記音声シーケンスで予め決定されたサイズのウィンドウに対応する対象データ及び前記対象データ周辺のパディングデータを抽出し、前記対象データ及び前記パディングデータに基づいて前記ウィンドウレベルの入力データを構成する、請求項14に記載の音響モデルトレーニング装置。
- 前記パディングデータは、前記音声シーケンスで前記対象データの以前時間に位置する第1パディングデータ及び前記音声シーケンスで前記対象データの以後時間に位置する第2パディングデータのうち少なくとも1つを含む、請求項15に記載の音響モデルトレーニング装置。
- 前記プロセッサは、前記音響モデルの出力に基づいて前記シーケンスレベルの音響スコアを取得し、前記シーケンスレベルの音響スコアと前記音声シーケンスに関する参照文章に基づいて前記シーケンスレベルのエラーを算出する、請求項14に記載の音響モデルトレーニング装置。
- 前記プロセッサは、前記音響モデルの出力に基づいて前記ウィンドウレベルの音響スコアを取得し、前記音響スコアでパディングデータに対応する部分を除去して対象データに対応する音響スコアを取得し、前記対象データに対応する音響スコアを連結して前記シーケンスレベルの音響スコアを取得する、請求項17に記載の音響モデルトレーニング装置。
- 前記参照文章は、前記音声シーケンスに関する正解文章及び前記音声シーケンスに関する誤答文章のうち少なくとも1つを含む、請求項17に記載の音響モデルトレーニング装置。
- 前記音響モデルは、前記ウィンドウレベルのエラーが減少する方向に更新される、請求項14ないし19のうち何れか一項に記載の音響モデルトレーニング装置。
- 前記プロセッサは、前記ウィンドウレベルのエラー及びパディングデータに基づいて更新データを構成し、前記更新データを用いて前記音響モデルを更新する、請求項14に記載の音響モデルトレーニング装置。
- 前記パディングデータは、0又は前記ウィンドウレベルのエラーに対応するウィンドウに隣接するウィンドウのエラーを含む、請求項21に記載の音響モデルトレーニング装置。
- 前記パディングデータのサイズは、前記入力データに含まれたパディングデータのサイズに対応する、請求項21に記載の音響モデルトレーニング装置。
- 前記音響モデルは循環ディープニューラルネットワークを含み、
前記循環ディープニューラルネットワークが広げられた長さは、前記入力データの長さに対応する、請求項14ないし23のうち何れか一項に記載の音響モデルトレーニング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170036644 | 2017-03-23 | ||
KR10-2017-0036644 | 2017-03-23 | ||
KR10-2017-0108060 | 2017-08-25 | ||
KR1020170108060A KR102410831B1 (ko) | 2017-03-23 | 2017-08-25 | 음향 모델을 트레이닝하는 방법 및 그 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018159917A true JP2018159917A (ja) | 2018-10-11 |
JP7143091B2 JP7143091B2 (ja) | 2022-09-28 |
Family
ID=61569097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042974A Active JP7143091B2 (ja) | 2017-03-23 | 2018-03-09 | 音響モデルをトレーニングする方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10825445B2 (ja) |
EP (1) | EP3379532B1 (ja) |
JP (1) | JP7143091B2 (ja) |
CN (1) | CN108630198B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019163718A1 (ja) * | 2018-02-21 | 2019-08-29 | 日本電信電話株式会社 | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム |
US10832657B2 (en) * | 2018-03-01 | 2020-11-10 | International Business Machines Corporation | Use of small unit language model for training large unit language models |
CN111261190A (zh) * | 2018-12-03 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种识别声音的方法、系统、计算机设备及存储介质 |
US10573296B1 (en) * | 2018-12-10 | 2020-02-25 | Apprente Llc | Reconciliation between simulator and speech recognition output using sequence-to-sequence mapping |
KR20190096856A (ko) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | 음성 인식 방법 및 음성 인식 장치 |
US11227579B2 (en) * | 2019-08-08 | 2022-01-18 | International Business Machines Corporation | Data augmentation by frame insertion for speech data |
CN111613209B (zh) * | 2020-04-14 | 2023-05-26 | 北京三快在线科技有限公司 | 声学模型训练方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016212273A (ja) * | 2015-05-11 | 2016-12-15 | 国立研究開発法人情報通信研究機構 | リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置 |
JP2017027044A (ja) * | 2015-07-24 | 2017-02-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音響点数を計算する装置及び方法、音声を認識する装置及び方法並びに電子装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT1270919B (it) | 1993-05-05 | 1997-05-16 | Cselt Centro Studi Lab Telecom | Sistema per il riconoscimento di parole isolate indipendente dal parlatore mediante reti neurali |
US6263308B1 (en) * | 2000-03-20 | 2001-07-17 | Microsoft Corporation | Methods and apparatus for performing speech recognition using acoustic models which are improved through an interactive process |
KR100880480B1 (ko) | 2002-02-21 | 2009-01-28 | 엘지전자 주식회사 | 디지털 오디오 신호의 실시간 음악/음성 식별 방법 및시스템 |
KR100576803B1 (ko) | 2003-12-11 | 2006-05-10 | 한국전자통신연구원 | 신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법 |
US20070083365A1 (en) | 2005-10-06 | 2007-04-12 | Dts, Inc. | Neural network classifier for separating audio sources from a monophonic audio signal |
US9558738B2 (en) * | 2011-03-08 | 2017-01-31 | At&T Intellectual Property I, L.P. | System and method for speech recognition modeling for mobile voice search |
US9672811B2 (en) | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
JP6300394B2 (ja) * | 2013-05-15 | 2018-03-28 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
JP6222821B2 (ja) * | 2013-10-10 | 2017-11-01 | 日本放送協会 | 誤り修正モデル学習装置、及びプログラム |
US10019985B2 (en) | 2013-11-04 | 2018-07-10 | Google Llc | Asynchronous optimization for sequence training of neural networks |
US9483728B2 (en) | 2013-12-06 | 2016-11-01 | International Business Machines Corporation | Systems and methods for combining stochastic average gradient and hessian-free optimization for sequence training of deep neural networks |
US10339920B2 (en) * | 2014-03-04 | 2019-07-02 | Amazon Technologies, Inc. | Predicting pronunciation in speech recognition |
KR102167719B1 (ko) * | 2014-12-08 | 2020-10-19 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 |
KR102305584B1 (ko) * | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
KR20170034227A (ko) * | 2015-09-18 | 2017-03-28 | 삼성전자주식회사 | 음성 인식 장치 및 방법과, 음성 인식을 위한 변환 파라미터 학습 장치 및 방법 |
CN106056127A (zh) * | 2016-04-07 | 2016-10-26 | 江南大学 | 一种带模型更新的gpr在线软测量方法 |
-
2017
- 2017-11-21 US US15/819,924 patent/US10825445B2/en active Active
-
2018
- 2018-03-05 EP EP18159930.9A patent/EP3379532B1/en active Active
- 2018-03-09 JP JP2018042974A patent/JP7143091B2/ja active Active
- 2018-03-19 CN CN201810225109.3A patent/CN108630198B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016212273A (ja) * | 2015-05-11 | 2016-12-15 | 国立研究開発法人情報通信研究機構 | リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置 |
JP2017027044A (ja) * | 2015-07-24 | 2017-02-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音響点数を計算する装置及び方法、音声を認識する装置及び方法並びに電子装置 |
Non-Patent Citations (1)
Title |
---|
KAI CHEN, ET AL.: "Training Deep Bidirectional LSTM Acoustic Model for LVCSR by a Context-Sensitive-Chunk BPTT Approach", ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING, vol. 24, no. 7, JPN6022008830, July 2016 (2016-07-01), pages 1185 - 1193, XP011609799, ISSN: 0004720944, DOI: 10.1109/TASLP.2016.2539499 * |
Also Published As
Publication number | Publication date |
---|---|
US10825445B2 (en) | 2020-11-03 |
CN108630198B (zh) | 2024-04-02 |
US20180277143A1 (en) | 2018-09-27 |
CN108630198A (zh) | 2018-10-09 |
JP7143091B2 (ja) | 2022-09-28 |
EP3379532B1 (en) | 2022-04-13 |
EP3379532A1 (en) | 2018-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143091B2 (ja) | 音響モデルをトレーニングする方法及び装置 | |
CN105679317B (zh) | 用于训练语言模型并识别语音的方法和设备 | |
KR102410820B1 (ko) | 뉴럴 네트워크를 이용한 인식 방법 및 장치 및 상기 뉴럴 네트워크를 트레이닝하는 방법 및 장치 | |
KR102305584B1 (ko) | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 | |
BR112019004524B1 (pt) | Sistema de redes neurais, um ou mais meios de armazenamento legíveis por computador não transitório e método para gerar autorregressivamente uma sequência de saída de dados de áudio | |
WO2016181951A1 (ja) | リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置 | |
US10580432B2 (en) | Speech recognition using connectionist temporal classification | |
KR20200045128A (ko) | 모델 학습 방법 및 장치, 및 데이터 인식 방법 | |
KR102399535B1 (ko) | 음성 인식을 위한 학습 방법 및 장치 | |
KR20180071029A (ko) | 음성 인식 방법 및 장치 | |
CN107408111A (zh) | 端对端语音识别 | |
KR20160066441A (ko) | 음성 인식 방법 및 음성 인식 장치 | |
KR20200129639A (ko) | 모델 학습 방법 및 장치 | |
JP7058985B2 (ja) | 認識方法、認識装置及びトレーニング方法 | |
KR20200128938A (ko) | 모델 학습 방법 및 장치 | |
JP2019159654A (ja) | 時系列情報の学習システム、方法およびニューラルネットワークモデル | |
US20180082677A1 (en) | Centered, left- and right-shifted deep neural networks and their combinations | |
KR102449840B1 (ko) | 사용자 적응적인 음성 인식 방법 및 장치 | |
KR102292921B1 (ko) | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 | |
KR102410831B1 (ko) | 음향 모델을 트레이닝하는 방법 및 그 장치 | |
Ramadhelza et al. | Indonesian Phonemicization Model Using N-Gram-Based Bidirectional Long Short-Term Memory | |
KR102637341B1 (ko) | 음성 생성 방법 및 장치 | |
JP6712540B2 (ja) | モデルパラメータ生成装置、モデルパラメータ生成方法、音声認識装置の作成方法、プログラム | |
Graves et al. | A comparison of network architectures | |
Hagner | Recurrent Neural Networks for End-to-End Speech Recognition: A comparison of gated units in an acoustic model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |