JP2017054122A - 音響モデル生成装置及び方法、音声認識装置及び方法 - Google Patents
音響モデル生成装置及び方法、音声認識装置及び方法 Download PDFInfo
- Publication number
- JP2017054122A JP2017054122A JP2016175350A JP2016175350A JP2017054122A JP 2017054122 A JP2017054122 A JP 2017054122A JP 2016175350 A JP2016175350 A JP 2016175350A JP 2016175350 A JP2016175350 A JP 2016175350A JP 2017054122 A JP2017054122 A JP 2017054122A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- acoustic model
- data
- training
- objective function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000014509 gene expression Effects 0.000 claims description 71
- 230000006870 function Effects 0.000 claims description 64
- 238000000605 extraction Methods 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000004519 manufacturing process Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Circuit For Audible Band Transducer (AREA)
- Electrically Operated Instructional Devices (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Abstract
Description
前記生成された音響モデルは、神経網基盤の音響モデルであり得る。
前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、前記第1目的関数は、音素確率の推定に用いられ、前記第2目的関数は、前記ノイズ表現の推定に用いられ得る。
前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、前記第1目的関数は、音素確率の推定に用いられ、前記第2目的関数は、前記ノイズ表現の推定に用いられ得る。
Claims (35)
- ノイズモデルを用いてノイズデータを代表するノイズ表現を算出し、かつ、音声データと前記ノイズデータとを含む訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて音響モデルを生成する、プロセッサ、
を含む音響モデル生成装置。 - 命令を保存するメモリをさらに含み、
前記プロセッサは、
前記ノイズモデルを用いてノイズデータを代表するノイズ表現を算出し、かつ、前記音声データと前記ノイズデータとを含む前記訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて音響モデルを生成する、ように構成された命令を実行する、
請求項1に記載の音響モデル生成装置。 - 前記プロセッサは、
前記ノイズモデルを用いてノイズデータを代表するノイズ表現を算出するノイズ表現算出部と、
前記音声データと前記ノイズデータとを含む前記訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて、学習を通じて音響モデルを生成する音響モデル生成部と、
を含む、請求項1または2に記載の音響モデル生成装置。 - 前記ノイズ表現算出部は、
前記ノイズデータの特徴を抽出する特徴抽出部と、
前記ノイズモデルを用いて、前記抽出された特徴から前記ノイズデータを代表するノイズ表現を算出するノイズモデリング部と、
を含む、請求項3に記載の音響モデル生成装置。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項1乃至4いずれか一項に記載の音響モデル生成装置。 - 前記生成された音響モデルは、神経網基盤の音響モデルである、
請求項3に記載の音響モデル生成装置。 - 前記プロセッサは、マルチタスクラーニング技法を用いて前記音響モデルを生成する、
請求項1乃至6いずれか一項に記載の音響モデル生成装置。 - 前記プロセッサは、第1目的関数と第2目的関数との加重和から獲得される第3目的関数を用いて、前記音響モデルを生成し、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、ノイズ表現の推定に用いられる、
請求項1に記載の音響モデル生成装置。 - 前記音響モデル生成部は、
前記音声データと前記ノイズデータとを混合して訓練用ノイジー音声データを生成する混合部と、
前記生成された訓練用ノイジー音声データの特徴を抽出する特徴抽出部と、
前記抽出された特徴、前記音声データに対応する音素列、及び前記ノイズ表現に基づいて音響モデルを学習する音響モデル学習部と、
を含む、請求項3に記載の音響モデル生成装置。 - ノイズモデルを用いてノイズデータのノイズ表現を算出する段階と、
音声データと前記ノイズデータとを含む訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズ表現を用いて音響モデルを生成する段階と、
を含む、音響モデル生成方法。 - 前記ノイズ表現を算出する段階は、
前記ノイズデータの特徴を抽出する段階と、
前記ノイズモデルを用いて、前記抽出されたノイズデータの特徴に基づいて前記ノイズ表現を算出する段階と、
を含む、請求項10に記載の音響モデル生成方法。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項10または11に記載の音響モデル生成方法。 - 前記生成された音響モデルは、神経網基盤の音響モデルである、
請求項10に記載の音響モデル生成方法。 - 前記音響モデルを生成する段階は、マルチタスクラーニング技法を用いて前記音響モデルを生成する、
請求項10乃至13いずれか一項に記載の音響モデル生成方法。 - 前記音響モデルを生成する段階は、
第1目的関数と第2目的関数との加重和から獲得される第3目的関数を用いて、前記音響モデルを生成する段階を含み、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、前記ノイズ表現の推定に用いられる、
請求項14に記載の音響モデル生成方法。 - 前記音響モデルを生成する段階は、
前記音声データと前記ノイズデータとを混合して訓練用ノイジー音声データを生成する段階と、
前記生成された訓練用ノイジー音声データの特徴を抽出する段階と、
前記抽出された特徴、前記音声データに対応する音素列、及び前記ノイズ表現に基づいて音響モデルを学習する段階と、
を含む、請求項10に記載の音響モデル生成方法。 - 音響モデルを保存する保存部と、
前記保存された音響モデルを用いて入力されたノイジー音声データの音素確率を算出する算出部と、を含み、
前記音響モデルは、音声データとノイズデータとが混合された訓練用ノイジー音声データ、前記音声データに対応する音素列、及び前記ノイズデータを代表するノイズ表現を用いて、学習を通じて生成される、音声認識装置。 - 前記算出部は、
前記入力されたノイジー音声データの特徴を抽出する特徴抽出部と、
前記音響モデルを用いて、前記抽出された特徴に対応する音素の確率を算出する音素確率算出部と、
を含む、請求項17に記載の音声認識装置。 - 前記ノイズ表現は、ノイズモデルを用いて算出される、
請求項17に記載の音声認識装置。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項19に記載の音声認識装置。 - 前記音響モデルは、神経網基盤の音響モデルである、
請求項17に記載の音声認識装置。 - 前記音響モデルは、マルチタスクラーニング技法を用いて生成される、
請求項17乃至21いずれか一項に記載の音声認識装置。 - 前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、前記ノイズ表現の推定に用いられる、
請求項22に記載の音声認識装置。 - 前記音響モデルは、前記訓練用ノイジー音声データを入力データとし、前記音声データに対応する音素列及び前記ノイズ表現を正答データとして、学習を通じて生成される、
請求項17に記載の音声認識装置。 - 入力されたノイジー音声データの特徴を抽出する段階と、
音響モデルを用いて、前記抽出された特徴に対応する音素の確率を算出する段階と、を含み、
前記音響モデルは、音声データとノイズデータとが混合された訓練用ノイジー音声、前 記音声データに対応する音素列、及び前記ノイズデータを代表するノイズ表現を用いて、学習を通じて生成される、音声認識方法。 - 前記ノイズ表現は、ノイズモデルを用いて算出される、
請求項25に記載の音声認識方法。 - 前記ノイズモデルは、訓練用ノイズデータを用いてオートエンコーダを通じてあらかじめ生成される、
請求項26に記載の音声認識方法。 - 前記音響モデルは、神経網基盤の音響モデルである、
請求項25に記載の音声認識方法。 - 前記音響モデルは、マルチタスクラーニング技法を用いて生成される、
請求項25乃至28いずれか一項に記載の音声認識方法。 - 前記音響モデルは、第1目的関数と第2目的関数との加重和から獲得された第3目的関数を用いて生成され、
前記第1目的関数は、音素確率の推定に用いられ、
前記第2目的関数は、前記ノイズ表現の推定に用いられる、
請求項29に記載の音声認識方法。 - 前記音響モデルは、訓練用ノイジー音声データを入力データとし、前記音声データに対応する音素列及び前記ノイズ表現を正答データとして、学習を通じて生成される、
請求項25に記載の音声認識方法。 - 音声データとノイズデータとを混合して訓練用ノイジー音声データを生成する混合部と、
他のノイズデータから音響モデル訓練用ノイジー音声データを区分して、前記ノイジー音声データから特徴を抽出する特徴抽出部と、
前記抽出された特徴、前記音声データに対応する音素列、及び前記ノイズ表現に基づいて音響モデルを学習する音響モデル学習部と、を含み、
音素分類とノイズ表現の抽出が同時に行われる、音響モデル生成装置。 - 特徴の入力を受信し、訓練用音声データの受信された入力に基づいて入力表現を算出し、入力表現に基づいて入力と最も類似した出力を再構成するオートエンコーダを、
さらに含む、請求項32に記載の音響モデル生成装置。 - 前記オートエンコーダは、訓練用ノイズデータを用いてノイズモデルをあらかじめ生成する請求項33に記載の音響モデル生成装置。
- 前記生成された音響モデルは、神経網基盤の音響モデルである、
請求項32に記載の音響モデル生成装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150128456A KR102209689B1 (ko) | 2015-09-10 | 2015-09-10 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
KR10-2015-0128456 | 2015-09-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017054122A true JP2017054122A (ja) | 2017-03-16 |
JP6751322B2 JP6751322B2 (ja) | 2020-09-02 |
Family
ID=56888976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016175350A Active JP6751322B2 (ja) | 2015-09-10 | 2016-09-08 | 音響モデル生成装置及び方法、音声認識装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10127905B2 (ja) |
EP (1) | EP3142106B1 (ja) |
JP (1) | JP6751322B2 (ja) |
KR (1) | KR102209689B1 (ja) |
CN (1) | CN106531155B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021050646A (ja) * | 2019-09-24 | 2021-04-01 | トヨタ自動車株式会社 | 内燃機関の点火時期制御装置 |
US11307111B2 (en) | 2019-02-08 | 2022-04-19 | Toyota Jidosha Kabushiki Kaisha | Knocking detection system and knocking detection method of internal combustion engine |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102305584B1 (ko) * | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
KR102209689B1 (ko) * | 2015-09-10 | 2021-01-28 | 삼성전자주식회사 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
KR102218046B1 (ko) * | 2017-11-28 | 2021-02-22 | 한국전자통신연구원 | 음성인식용 음향모델을 위한 심층 신경망 기반 상태 결정 장치 및 방법 |
CN108417202B (zh) * | 2018-01-19 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
CN108416096B (zh) * | 2018-02-01 | 2022-02-25 | 北京百度网讯科技有限公司 | 基于人工智能的远场语音数据信噪比估计方法及装置 |
KR20190136578A (ko) | 2018-05-31 | 2019-12-10 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
CN109192216A (zh) * | 2018-08-08 | 2019-01-11 | 联智科技(天津)有限责任公司 | 一种声纹识别用训练数据集仿真获取方法及其获取装置 |
CN109243429B (zh) * | 2018-11-21 | 2021-12-10 | 苏州奇梦者网络科技有限公司 | 一种语音建模方法及装置 |
CN110570845B (zh) * | 2019-08-15 | 2021-10-22 | 武汉理工大学 | 一种基于域不变特征的语音识别方法 |
KR102321798B1 (ko) * | 2019-08-15 | 2021-11-05 | 엘지전자 주식회사 | 인공 신경망 기반의 음성 인식 모델을 학습시키는 방법 및 음성 인식 디바이스 |
CN110473557B (zh) * | 2019-08-22 | 2021-05-28 | 浙江树人学院(浙江树人大学) | 一种基于深度自编码器的语音信号编解码方法 |
KR20210119181A (ko) | 2020-03-24 | 2021-10-05 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
KR20220115453A (ko) * | 2021-02-10 | 2022-08-17 | 삼성전자주식회사 | 음성 구간 인식의 향상을 지원하는 전자 장치 |
WO2023283965A1 (zh) * | 2021-07-16 | 2023-01-19 | 华为技术有限公司 | 用于语音代听和生成语音识别模型的方法、装置、电子设备和介质 |
WO2023091124A1 (en) * | 2021-11-16 | 2023-05-25 | Landmark Graphics Corporation | Random noise attenuation for seismic data |
CN115116458B (zh) * | 2022-06-10 | 2024-03-08 | 腾讯科技(深圳)有限公司 | 语音数据转换方法、装置、计算机设备及存储介质 |
KR20240011047A (ko) * | 2022-07-18 | 2024-01-25 | 삼성전자주식회사 | 학습 데이터를 획득하기 위한 로봇 및 이의 제어 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132289A (ja) * | 2000-10-23 | 2002-05-09 | Seiko Epson Corp | 音声認識方法および音声認識処理プログラムを記録した記録媒体ならびに音声認識装置 |
JP2004206063A (ja) * | 2002-10-31 | 2004-07-22 | Seiko Epson Corp | 音響モデル作成方法および音声認識装置ならびに音声認識装置を有する乗り物 |
WO2011010647A1 (ja) * | 2009-07-21 | 2011-01-27 | 独立行政法人産業技術総合研究所 | 混合音信号中の混合比率推定方法及びシステム並びに音素認識方法 |
JP2014157323A (ja) * | 2013-02-18 | 2014-08-28 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識装置、音響モデル学習装置、その方法及びプログラム |
US20150046377A1 (en) * | 2013-08-08 | 2015-02-12 | Adobe Systems Incorporated | Joint Sound Model Generation Techniques |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0566015A3 (en) * | 1992-04-14 | 1994-07-06 | Eastman Kodak Co | Neural network optical character recognition system and method for classifying characters in amoving web |
JP3102195B2 (ja) * | 1993-04-02 | 2000-10-23 | 三菱電機株式会社 | 音声認識装置 |
JP3702978B2 (ja) * | 1996-12-26 | 2005-10-05 | ソニー株式会社 | 認識装置および認識方法、並びに学習装置および学習方法 |
US6178398B1 (en) * | 1997-11-18 | 2001-01-23 | Motorola, Inc. | Method, device and system for noise-tolerant language understanding |
US7092881B1 (en) * | 1999-07-26 | 2006-08-15 | Lucent Technologies Inc. | Parametric speech codec for representing synthetic speech in the presence of background noise |
US6691082B1 (en) * | 1999-08-03 | 2004-02-10 | Lucent Technologies Inc | Method and system for sub-band hybrid coding |
DE10052720C2 (de) | 2000-10-24 | 2002-09-12 | Siemens Ag | Vorrichtung und Verfahren zur Ratenanpassung |
US7319959B1 (en) * | 2002-05-14 | 2008-01-15 | Audience, Inc. | Multi-source phoneme classification for noise-robust automatic speech recognition |
ATE389934T1 (de) * | 2003-01-24 | 2008-04-15 | Sony Ericsson Mobile Comm Ab | Rauschreduzierung und audiovisuelle sprachaktivitätsdetektion |
US7720683B1 (en) * | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
KR100636317B1 (ko) * | 2004-09-06 | 2006-10-18 | 삼성전자주식회사 | 분산 음성 인식 시스템 및 그 방법 |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
JP4427530B2 (ja) * | 2006-09-21 | 2010-03-10 | 株式会社東芝 | 音声認識装置、プログラムおよび音声認識方法 |
WO2008042900A2 (en) | 2006-10-02 | 2008-04-10 | University Of Florida Research Foundation, Inc. | Pulse-based feature extraction for neural recordings |
GB0704622D0 (en) * | 2007-03-09 | 2007-04-18 | Skype Ltd | Speech coding system and method |
KR20080114023A (ko) | 2007-06-26 | 2008-12-31 | 전자부품연구원 | 나노와이어 제작 방법 |
US8440467B2 (en) * | 2007-09-28 | 2013-05-14 | William Marsh Rice University | Electronic switching, memory, and sensor devices from a discontinuous graphene and/or graphite carbon layer on dielectric materials |
CN101281745B (zh) * | 2008-05-23 | 2011-08-10 | 深圳市北科瑞声科技有限公司 | 一种车载语音交互系统 |
JP2012506621A (ja) * | 2008-10-20 | 2012-03-15 | ザ・リージェンツ・オブ・ザ・ユニバーシティ・オブ・ミシガン | シリコン系ナノスケールクロスバーメモリ |
CN101710490B (zh) * | 2009-11-20 | 2012-01-04 | 安徽科大讯飞信息科技股份有限公司 | 语音评测的噪声补偿方法及装置 |
KR101200150B1 (ko) | 2010-03-08 | 2012-11-12 | 경기대학교 산학협력단 | 나노 와이어 제조 방법 및 나노 와이어를 갖는 전자 소자 |
US8972256B2 (en) * | 2011-10-17 | 2015-03-03 | Nuance Communications, Inc. | System and method for dynamic noise adaptation for robust automatic speech recognition |
US8484022B1 (en) * | 2012-07-27 | 2013-07-09 | Google Inc. | Adaptive auto-encoders |
CN103095911B (zh) * | 2012-12-18 | 2014-12-17 | 苏州思必驰信息科技有限公司 | 一种通过语音唤醒寻找手机的方法及系统 |
JP2014122939A (ja) * | 2012-12-20 | 2014-07-03 | Sony Corp | 音声処理装置および方法、並びにプログラム |
JP6289891B2 (ja) * | 2013-12-11 | 2018-03-07 | 株式会社藤商事 | 遊技機 |
CN103915103B (zh) * | 2014-04-15 | 2017-04-19 | 成都凌天科创信息技术有限责任公司 | 语音质量增强系统 |
US20170249445A1 (en) * | 2014-09-12 | 2017-08-31 | Blacktree Fitness Technologies Inc. | Portable devices and methods for measuring nutritional intake |
CN204331706U (zh) * | 2015-01-14 | 2015-05-13 | 郑州职业技术学院 | 一种计算机语音识别输入电路 |
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
KR102209689B1 (ko) * | 2015-09-10 | 2021-01-28 | 삼성전자주식회사 | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 |
KR102494139B1 (ko) * | 2015-11-06 | 2023-01-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법 |
-
2015
- 2015-09-10 KR KR1020150128456A patent/KR102209689B1/ko active IP Right Grant
-
2016
- 2016-08-09 US US15/231,909 patent/US10127905B2/en active Active
- 2016-09-05 CN CN201610803609.1A patent/CN106531155B/zh active Active
- 2016-09-08 JP JP2016175350A patent/JP6751322B2/ja active Active
- 2016-09-08 EP EP16187723.8A patent/EP3142106B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132289A (ja) * | 2000-10-23 | 2002-05-09 | Seiko Epson Corp | 音声認識方法および音声認識処理プログラムを記録した記録媒体ならびに音声認識装置 |
JP2004206063A (ja) * | 2002-10-31 | 2004-07-22 | Seiko Epson Corp | 音響モデル作成方法および音声認識装置ならびに音声認識装置を有する乗り物 |
WO2011010647A1 (ja) * | 2009-07-21 | 2011-01-27 | 独立行政法人産業技術総合研究所 | 混合音信号中の混合比率推定方法及びシステム並びに音素認識方法 |
JP2014157323A (ja) * | 2013-02-18 | 2014-08-28 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識装置、音響モデル学習装置、その方法及びプログラム |
US20150046377A1 (en) * | 2013-08-08 | 2015-02-12 | Adobe Systems Incorporated | Joint Sound Model Generation Techniques |
Non-Patent Citations (2)
Title |
---|
GIRI, R., ET AL.: "Improving speech recognition in reverberation using a room-aware deep neural network and multi-task", 2015 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP), JPN6019051793, 19 April 2015 (2015-04-19), pages 5014 - 5018, XP033187715, ISSN: 0004188219, DOI: 10.1109/ICASSP.2015.7178925 * |
SELTZER, M., ET AL.: "An investigation of deep neural networks for noise robust speech recognition", 2013 IEEE INTERNATIONAL CONFERECE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP), JPN6019051792, 26 May 2013 (2013-05-26), pages 7398 - 7402, XP032508166, ISSN: 0004188218, DOI: 10.1109/ICASSP.2013.6639100 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11307111B2 (en) | 2019-02-08 | 2022-04-19 | Toyota Jidosha Kabushiki Kaisha | Knocking detection system and knocking detection method of internal combustion engine |
JP2021050646A (ja) * | 2019-09-24 | 2021-04-01 | トヨタ自動車株式会社 | 内燃機関の点火時期制御装置 |
US11346316B2 (en) | 2019-09-24 | 2022-05-31 | Toyota Jidosha Kabushiki Kaisha | Ignition timing control device for internal combustion engine |
Also Published As
Publication number | Publication date |
---|---|
EP3142106B1 (en) | 2023-03-15 |
KR102209689B1 (ko) | 2021-01-28 |
US20170076719A1 (en) | 2017-03-16 |
EP3142106A1 (en) | 2017-03-15 |
US10127905B2 (en) | 2018-11-13 |
CN106531155B (zh) | 2022-03-15 |
KR20170030923A (ko) | 2017-03-20 |
JP6751322B2 (ja) | 2020-09-02 |
CN106531155A (zh) | 2017-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751322B2 (ja) | 音響モデル生成装置及び方法、音声認識装置及び方法 | |
JP6861500B2 (ja) | ニューラルネットワークトレーニング装置及び方法と、音声認識装置及び方法 | |
CN105810193B (zh) | 训练语言模型的方法和设备及识别语言的方法和设备 | |
US11468324B2 (en) | Method and apparatus with model training and/or sequence recognition | |
KR102619861B1 (ko) | 기계 학습을 사용하여 분자의 후각 특성을 예측하기 위한 시스템 및 방법 | |
US20200192985A1 (en) | Method and apparatus with machine translation | |
JP2022550326A (ja) | 言語タスクのための対照事前トレーニング | |
JP6611053B2 (ja) | 主題推定システム、主題推定方法およびプログラム | |
US11361757B2 (en) | Method and apparatus with speech recognition | |
US20210182687A1 (en) | Apparatus and method with neural network implementation of domain adaptation | |
US11694677B2 (en) | Decoding method and apparatus in artificial neural network for speech recognition | |
US20230267315A1 (en) | Diffusion Models Having Improved Accuracy and Reduced Consumption of Computational Resources | |
EP3444726A1 (en) | Method and apparatus for determining domain of sentence | |
US20220092266A1 (en) | Method and device with natural language processing | |
JP2020086434A (ja) | 音声検出のための雑音除去変分オートエンコーダ基盤の統合トレーニング方法および装置 | |
JP2024500730A (ja) | 解きほぐされた学習を使用した解釈可能な深層学習モデルのトレーニング | |
CN114072809A (zh) | 经由神经架构搜索的小且快速的视频处理网络 | |
CA3143928C (en) | Dynamic image resolution assessment | |
US20150332152A1 (en) | Systems And Methods For Generating Models For Physical Systems Using Sentences In A Formal Grammar | |
EP3457397B1 (en) | Oos sentence generating method and apparatus | |
US11437023B2 (en) | Apparatus and method with speech recognition and learning | |
JP7231181B2 (ja) | 耐雑音音声認識装置及び方法、並びにコンピュータプログラム | |
EP3629248A1 (en) | Operating method and training method of neural network and neural network thereof | |
EP4163834A1 (en) | Electronic apparatus and method with uncertainty estimation implementing data labels | |
US12020136B2 (en) | Operating method and training method of neural network and neural network thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6751322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |