JP6751322B2 - 音響モデル生成装置及び方法、音声認識装置及び方法 - Google Patents
音響モデル生成装置及び方法、音声認識装置及び方法 Download PDFInfo
- Publication number
- JP6751322B2 JP6751322B2 JP2016175350A JP2016175350A JP6751322B2 JP 6751322 B2 JP6751322 B2 JP 6751322B2 JP 2016175350 A JP2016175350 A JP 2016175350A JP 2016175350 A JP2016175350 A JP 2016175350A JP 6751322 B2 JP6751322 B2 JP 6751322B2
- Authority
- JP
- Japan
- Prior art keywords
- noise
- acoustic model
- data
- training
- objective function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000006870 function Effects 0.000 claims description 67
- 230000014509 gene expression Effects 0.000 claims description 63
- 238000000605 extraction Methods 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000005192 partition Methods 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000007872 degassing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Circuit For Audible Band Transducer (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
前記生成された音響モデルは、神経網基盤の音響モデルであり得る。
前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、前記第1目的関数は、音素確率の推定に用いられ、前記第2目的関数は、前記ノイズ表現の推定に用いられ得る。
前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、前記第1目的関数は、音素確率の推定に用いられ、前記第2目的関数は、前記ノイズ表現の推定に用いられ得る。
Claims (31)
- ノイズモデルを用いてノイズデータを代表するノイズ表現を算出し、かつ、音声データと前記ノイズデータとを含む訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて、かつ、マルチタスクラーニング技法を用いて、音響モデルを生成する、プロセッサ、
を含む、音響モデル生成装置。 - 命令を保存するメモリをさらに含み、
前記プロセッサは、
前記ノイズモデルを用いてノイズデータを代表するノイズ表現を算出し、かつ、前記音声データと前記ノイズデータとを含む前記訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて音響モデルを生成する、ように構成された命令を実行する、
請求項1に記載の音響モデル生成装置。 - 前記プロセッサは、
前記ノイズモデルを用いてノイズデータを代表するノイズ表現を算出するノイズ表現算出部と、
前記音声データと前記ノイズデータとを含む前記訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて音響モデルを生成する音響モデル生成部と、
を含む、請求項1または2に記載の音響モデル生成装置。 - 前記ノイズ表現算出部は、
前記ノイズデータの特徴を抽出する特徴抽出部と、
前記ノイズモデルを用いて、前記抽出された特徴から前記ノイズデータを代表するノイズ表現を算出するノイズモデリング部と、
を含む、請求項3に記載の音響モデル生成装置。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項1乃至4いずれか一項に記載の音響モデル生成装置。 - 前記生成された音響モデルは、神経網基盤の音響モデルである、
請求項3に記載の音響モデル生成装置。 - 前記プロセッサは、第1目的関数と第2目的関数との加重和から獲得される第3目的関数を用いて、前記音響モデルを生成し、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、ノイズ表現の推定に用いられる、
請求項1に記載の音響モデル生成装置。 - 前記音響モデル生成部は、
前記音声データと前記ノイズデータとを混合して訓練用ノイジー音声データを生成する混合部と、
前記生成された訓練用ノイジー音声データの特徴を抽出する特徴抽出部と、
前記抽出された特徴、前記音声データに対応する音素列、及び前記ノイズ表現に基づいて音響モデルを学習する音響モデル学習部と、
を含む、請求項3に記載の音響モデル生成装置。 - ノイズモデルを用いてノイズデータのノイズ表現を算出する段階と、
音声データと前記ノイズデータとを含む訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて、かつ、マルチタスクラーニング技法を用いて、音響モデルを生成する段階と、
を含む、音響モデル生成方法。 - 前記ノイズ表現を算出する段階は、
前記ノイズデータの特徴を抽出する段階と、
前記ノイズモデルを用いて、前記抽出されたノイズデータの特徴に基づいて前記ノイズ表現を算出する段階と、
を含む、請求項9に記載の音響モデル生成方法。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項9または10に記載の音響モデル生成方法。 - 前記生成された音響モデルは、神経網基盤の音響モデルである、
請求項9に記載の音響モデル生成方法。 - 前記音響モデルを生成する段階は、
第1目的関数と第2目的関数との加重和から獲得される第3目的関数を用いて、前記音響モデルを生成する段階を含み、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、前記ノイズ表現の推定に用いられる、
請求項9に記載の音響モデル生成方法。 - 前記音響モデルを生成する段階は、
前記音声データと前記ノイズデータとを混合して訓練用ノイジー音声データを生成する段階と、
前記生成された訓練用ノイジー音声データの特徴を抽出する段階と、
前記抽出された特徴、前記音声データに対応する音素列、及び前記ノイズ表現に基づいて音響モデルを学習する段階と、
を含む、請求項9に記載の音響モデル生成方法。 - 音響モデルを保存する保存部と、
前記保存された音響モデルを用いて入力されたノイジー音声データの音素確率を算出する算出部と、を含み、
前記音響モデルは、音声データとノイズデータとが混合された訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズデータを代表するノイズ表現を用いて、学習を通じて、かつ、マルチタスクラーニング技法を用いて、生成される、音声認識装置。 - 前記算出部は、
前記入力されたノイジー音声データの特徴を抽出する特徴抽出部と、
前記音響モデルを用いて、前記抽出された特徴に対応する音素の確率を算出する音素確率算出部と、
を含む、請求項15に記載の音声認識装置。 - 前記ノイズ表現は、ノイズモデルを用いて算出される、
請求項15に記載の音声認識装置。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項17に記載の音声認識装置。 - 前記音響モデルは、神経網基盤の音響モデルである、
請求項15に記載の音声認識装置。 - 前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、前記ノイズ表現の推定に用いられる、
請求項15に記載の音声認識装置。 - 前記音響モデルは、前記訓練用ノイジー音声データを入力データとし、前記音声データに対応する音素列及び前記ノイズ表現を正答データとして、学習を通じて生成される、
請求項15に記載の音声認識装置。 - 入力されたノイジー音声データの特徴を抽出する段階と、
音響モデルを用いて、前記抽出された特徴に対応する音素の確率を算出する段階と、を含み、
前記音響モデルは、音声データとノイズデータとが混合された訓練用ノイジー音声、前記音声データに対応する音素列、及び前記ノイズデータを代表するノイズ表現を用いて、学習を通じて、かつ、マルチタスクラーニング技法を用いて、生成される、音声認識方法。 - 前記ノイズ表現は、ノイズモデルを用いて算出される、
請求項22に記載の音声認識方法。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項23に記載の音声認識方法。 - 前記音響モデルは、神経網基盤の音響モデルである、
請求項22に記載の音声認識方法。 - 前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、前記ノイズ表現の推定に用いられる、
請求項22に記載の音声認識方法。 - 前記音響モデルは、訓練用ノイジー音声データを入力データとし、前記音声データに対応する音素列及び前記ノイズ表現を正答データとして、学習を通じて生成される、
請求項22に記載の音声認識方法。 - 音声データとノイズデータとを混合して訓練用ノイジー音声データを生成する混合部と、
他のノイズデータから音響モデル訓練用ノイジー音声データを区分して、前記ノイジー音声データから特徴を抽出する特徴抽出部と、
前記抽出された特徴、前記音声データに対応する音素列、及び前記ノイズデータを代表するノイズ表現に基づいて音響モデルを学習する音響モデル学習部と、を含み、
音素分類とノイズ表現の抽出が同時に行われるように音響モデルを学習し、かつ、マルチタスクラーニング技法を用いて、音響モデルを生成する、
音響モデル生成装置。 - 特徴の入力を受信し、訓練用音声データの受信された入力に基づいて入力表現を算出し、入力表現に基づいて入力と最も類似した出力を再構成するオートエンコーダを、
さらに含む、請求項28に記載の音響モデル生成装置。 - 前記オートエンコーダは、訓練用ノイズデータを用いてノイズモデルをあらかじめ生成する請求項29に記載の音響モデル生成装置。
- 前記生成された音響モデルは、神経網基盤の音響モデルである、
請求項28に記載の音響モデル生成装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150128456A KR102209689B1 (ko) | 2015-09-10 | 2015-09-10 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
KR10-2015-0128456 | 2015-09-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017054122A JP2017054122A (ja) | 2017-03-16 |
JP6751322B2 true JP6751322B2 (ja) | 2020-09-02 |
Family
ID=56888976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016175350A Active JP6751322B2 (ja) | 2015-09-10 | 2016-09-08 | 音響モデル生成装置及び方法、音声認識装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10127905B2 (ja) |
EP (1) | EP3142106B1 (ja) |
JP (1) | JP6751322B2 (ja) |
KR (1) | KR102209689B1 (ja) |
CN (1) | CN106531155B (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102305584B1 (ko) * | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
KR102209689B1 (ko) * | 2015-09-10 | 2021-01-28 | 삼성전자주식회사 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
KR102218046B1 (ko) * | 2017-11-28 | 2021-02-22 | 한국전자통신연구원 | 음성인식용 음향모델을 위한 심층 신경망 기반 상태 결정 장치 및 방법 |
CN108417202B (zh) * | 2018-01-19 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
CN108416096B (zh) * | 2018-02-01 | 2022-02-25 | 北京百度网讯科技有限公司 | 基于人工智能的远场语音数据信噪比估计方法及装置 |
KR20190136578A (ko) | 2018-05-31 | 2019-12-10 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
CN109192216A (zh) * | 2018-08-08 | 2019-01-11 | 联智科技(天津)有限责任公司 | 一种声纹识别用训练数据集仿真获取方法及其获取装置 |
CN109243429B (zh) * | 2018-11-21 | 2021-12-10 | 苏州奇梦者网络科技有限公司 | 一种语音建模方法及装置 |
JP6733752B1 (ja) | 2019-02-08 | 2020-08-05 | トヨタ自動車株式会社 | 内燃機関のノッキング検出装置およびノッキング検出方法 |
KR102321798B1 (ko) * | 2019-08-15 | 2021-11-05 | 엘지전자 주식회사 | 인공 신경망 기반의 음성 인식 모델을 학습시키는 방법 및 음성 인식 디바이스 |
CN110570845B (zh) * | 2019-08-15 | 2021-10-22 | 武汉理工大学 | 一种基于域不变特征的语音识别方法 |
CN110473557B (zh) * | 2019-08-22 | 2021-05-28 | 浙江树人学院(浙江树人大学) | 一种基于深度自编码器的语音信号编解码方法 |
JP6733795B1 (ja) * | 2019-09-24 | 2020-08-05 | トヨタ自動車株式会社 | 内燃機関の点火時期制御装置 |
US20220335964A1 (en) * | 2019-10-15 | 2022-10-20 | Nec Corporation | Model generation method, model generation apparatus, and program |
KR20210119181A (ko) | 2020-03-24 | 2021-10-05 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
KR20220115453A (ko) * | 2021-02-10 | 2022-08-17 | 삼성전자주식회사 | 음성 구간 인식의 향상을 지원하는 전자 장치 |
WO2023283965A1 (zh) * | 2021-07-16 | 2023-01-19 | 华为技术有限公司 | 用于语音代听和生成语音识别模型的方法、装置、电子设备和介质 |
GB2624832A (en) * | 2021-11-16 | 2024-05-29 | Landmark Graphics Corp | Random noise attenuation for seismic data |
CN115116458B (zh) * | 2022-06-10 | 2024-03-08 | 腾讯科技(深圳)有限公司 | 语音数据转换方法、装置、计算机设备及存储介质 |
KR20240011047A (ko) * | 2022-07-18 | 2024-01-25 | 삼성전자주식회사 | 학습 데이터를 획득하기 위한 로봇 및 이의 제어 방법 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0566015A3 (en) | 1992-04-14 | 1994-07-06 | Eastman Kodak Co | Neural network optical character recognition system and method for classifying characters in amoving web |
JP3102195B2 (ja) * | 1993-04-02 | 2000-10-23 | 三菱電機株式会社 | 音声認識装置 |
JP3702978B2 (ja) * | 1996-12-26 | 2005-10-05 | ソニー株式会社 | 認識装置および認識方法、並びに学習装置および学習方法 |
US6178398B1 (en) * | 1997-11-18 | 2001-01-23 | Motorola, Inc. | Method, device and system for noise-tolerant language understanding |
US7092881B1 (en) * | 1999-07-26 | 2006-08-15 | Lucent Technologies Inc. | Parametric speech codec for representing synthetic speech in the presence of background noise |
US6691082B1 (en) * | 1999-08-03 | 2004-02-10 | Lucent Technologies Inc | Method and system for sub-band hybrid coding |
JP4244514B2 (ja) * | 2000-10-23 | 2009-03-25 | セイコーエプソン株式会社 | 音声認識方法および音声認識装置 |
DE10052720C2 (de) | 2000-10-24 | 2002-09-12 | Siemens Ag | Vorrichtung und Verfahren zur Ratenanpassung |
US7319959B1 (en) * | 2002-05-14 | 2008-01-15 | Audience, Inc. | Multi-source phoneme classification for noise-robust automatic speech recognition |
JP4352790B2 (ja) | 2002-10-31 | 2009-10-28 | セイコーエプソン株式会社 | 音響モデル作成方法および音声認識装置ならびに音声認識装置を有する乗り物 |
DE60319796T2 (de) * | 2003-01-24 | 2009-05-20 | Sony Ericsson Mobile Communications Ab | Rauschreduzierung und audiovisuelle Sprachaktivitätsdetektion |
US7720683B1 (en) * | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
KR100636317B1 (ko) * | 2004-09-06 | 2006-10-18 | 삼성전자주식회사 | 분산 음성 인식 시스템 및 그 방법 |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
JP4427530B2 (ja) * | 2006-09-21 | 2010-03-10 | 株式会社東芝 | 音声認識装置、プログラムおよび音声認識方法 |
WO2008042900A2 (en) | 2006-10-02 | 2008-04-10 | University Of Florida Research Foundation, Inc. | Pulse-based feature extraction for neural recordings |
GB0704622D0 (en) * | 2007-03-09 | 2007-04-18 | Skype Ltd | Speech coding system and method |
KR20080114023A (ko) | 2007-06-26 | 2008-12-31 | 전자부품연구원 | 나노와이어 제작 방법 |
US8440467B2 (en) * | 2007-09-28 | 2013-05-14 | William Marsh Rice University | Electronic switching, memory, and sensor devices from a discontinuous graphene and/or graphite carbon layer on dielectric materials |
CN101281745B (zh) * | 2008-05-23 | 2011-08-10 | 深圳市北科瑞声科技有限公司 | 一种车载语音交互系统 |
EP2351083B1 (en) * | 2008-10-20 | 2016-09-28 | The Regents of the University of Michigan | A silicon based nanoscale crossbar memory |
WO2011010647A1 (ja) * | 2009-07-21 | 2011-01-27 | 独立行政法人産業技術総合研究所 | 混合音信号中の混合比率推定方法及びシステム並びに音素認識方法 |
CN101710490B (zh) * | 2009-11-20 | 2012-01-04 | 安徽科大讯飞信息科技股份有限公司 | 语音评测的噪声补偿方法及装置 |
KR101200150B1 (ko) | 2010-03-08 | 2012-11-12 | 경기대학교 산학협력단 | 나노 와이어 제조 방법 및 나노 와이어를 갖는 전자 소자 |
US8972256B2 (en) * | 2011-10-17 | 2015-03-03 | Nuance Communications, Inc. | System and method for dynamic noise adaptation for robust automatic speech recognition |
US8484022B1 (en) * | 2012-07-27 | 2013-07-09 | Google Inc. | Adaptive auto-encoders |
CN103095911B (zh) * | 2012-12-18 | 2014-12-17 | 苏州思必驰信息科技有限公司 | 一种通过语音唤醒寻找手机的方法及系统 |
JP2014122939A (ja) * | 2012-12-20 | 2014-07-03 | Sony Corp | 音声処理装置および方法、並びにプログラム |
JP5982297B2 (ja) * | 2013-02-18 | 2016-08-31 | 日本電信電話株式会社 | 音声認識装置、音響モデル学習装置、その方法及びプログラム |
US9318106B2 (en) * | 2013-08-08 | 2016-04-19 | Adobe Systems Incorporated | Joint sound model generation techniques |
JP6289891B2 (ja) * | 2013-12-11 | 2018-03-07 | 株式会社藤商事 | 遊技機 |
CN103915103B (zh) * | 2014-04-15 | 2017-04-19 | 成都凌天科创信息技术有限责任公司 | 语音质量增强系统 |
US20170249445A1 (en) * | 2014-09-12 | 2017-08-31 | Blacktree Fitness Technologies Inc. | Portable devices and methods for measuring nutritional intake |
CN204331706U (zh) * | 2015-01-14 | 2015-05-13 | 郑州职业技术学院 | 一种计算机语音识别输入电路 |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
KR102209689B1 (ko) * | 2015-09-10 | 2021-01-28 | 삼성전자주식회사 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
KR102494139B1 (ko) * | 2015-11-06 | 2023-01-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법 |
-
2015
- 2015-09-10 KR KR1020150128456A patent/KR102209689B1/ko active IP Right Grant
-
2016
- 2016-08-09 US US15/231,909 patent/US10127905B2/en active Active
- 2016-09-05 CN CN201610803609.1A patent/CN106531155B/zh active Active
- 2016-09-08 EP EP16187723.8A patent/EP3142106B1/en active Active
- 2016-09-08 JP JP2016175350A patent/JP6751322B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN106531155B (zh) | 2022-03-15 |
JP2017054122A (ja) | 2017-03-16 |
EP3142106B1 (en) | 2023-03-15 |
CN106531155A (zh) | 2017-03-22 |
EP3142106A1 (en) | 2017-03-15 |
US20170076719A1 (en) | 2017-03-16 |
US10127905B2 (en) | 2018-11-13 |
KR102209689B1 (ko) | 2021-01-28 |
KR20170030923A (ko) | 2017-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751322B2 (ja) | 音響モデル生成装置及び方法、音声認識装置及び方法 | |
JP6861500B2 (ja) | ニューラルネットワークトレーニング装置及び方法と、音声認識装置及び方法 | |
CN105810193B (zh) | 训练语言模型的方法和设备及识别语言的方法和设备 | |
JP7213913B2 (ja) | ニューラルネットワークを使用したオーディオの生成 | |
Dauphin et al. | Language modeling with gated convolutional networks | |
KR102392094B1 (ko) | 컨볼루션 신경망을 이용한 시퀀스 프로세싱 | |
JP6611053B2 (ja) | 主題推定システム、主題推定方法およびプログラム | |
EP3121810A1 (en) | Apparatus and method of acoustic score calculation and speech recognition | |
CN108780521B (zh) | 关联长短期记忆神经网络层 | |
US11694677B2 (en) | Decoding method and apparatus in artificial neural network for speech recognition | |
KR102095132B1 (ko) | 음성 검출을 위한 잡음제거 변분 오토인코더 기반의 통합 훈련 방법 및 장치 | |
Coto-Jiménez et al. | Improving automatic speech recognition containing additive noise using deep denoising autoencoders of LSTM networks | |
Rencker et al. | Consistent dictionary learning for signal declipping | |
GB2558022A (en) | Method for projected regularization of audio data | |
Park et al. | Unsupervised speech domain adaptation based on disentangled representation learning for robust speech recognition | |
Abel et al. | A data driven approach to audiovisual speech mapping | |
Coto-Jiménez | Robustness of LSTM neural networks for the enhancement of spectral parameters in noisy speech signals | |
Lim et al. | Non-stationary noise cancellation using deep autoencoder based on adversarial learning | |
KR20210134195A (ko) | 통계적 불확실성 모델링을 활용한 음성 인식 방법 및 장치 | |
Giri et al. | Block sparse excitation based all-pole modeling of speech | |
Xiang et al. | A speech enhancement algorithm based on a non-negative hidden Markov model and Kullback-Leibler divergence | |
CN115982395B (zh) | 一种基于量子的媒体信息的情感预测方法、介质及设备 | |
JP2020129051A (ja) | パラ言語情報推定モデル学習装置、パラ言語情報推定装置、およびプログラム | |
CN115831127B (zh) | 基于语音转换的声纹重构模型构建方法、装置和存储介质 | |
CN118056208A (zh) | 具有变换的激活功能层的神经网络 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6751322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |