JP7231181B2 - 耐雑音音声認識装置及び方法、並びにコンピュータプログラム - Google Patents

耐雑音音声認識装置及び方法、並びにコンピュータプログラム Download PDF

Info

Publication number
JP7231181B2
JP7231181B2 JP2018133977A JP2018133977A JP7231181B2 JP 7231181 B2 JP7231181 B2 JP 7231181B2 JP 2018133977 A JP2018133977 A JP 2018133977A JP 2018133977 A JP2018133977 A JP 2018133977A JP 7231181 B2 JP7231181 B2 JP 7231181B2
Authority
JP
Japan
Prior art keywords
speech
signal
noise
speech recognition
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018133977A
Other languages
English (en)
Other versions
JP2020012928A (ja
Inventor
雅清 藤本
恒 河井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2018133977A priority Critical patent/JP7231181B2/ja
Priority to PCT/JP2019/024279 priority patent/WO2020017226A1/ja
Publication of JP2020012928A publication Critical patent/JP2020012928A/ja
Application granted granted Critical
Publication of JP7231181B2 publication Critical patent/JP7231181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Description

この発明は音声認識に関し、特に単一のマイクにより集音された音声に対しても高精度の音声認識を可能にする耐雑音音声認識装置及び方法、並びにコンピュータプログラムに関する。
近年、コンピュータの計算能力の高度化及びコンピュータサイエンスの発展に伴い、音声認識アプリケーションの利用範囲が大きく拡大している。従前から音声認識が用いられていた分野とは別に、いわゆる家電製品にも音声認識が取り入れられ、さらにスマートスピーカ等、音声認識を用いて従来にはなかった機能を提供する製品も利用者が急激に増大している。これに伴い、音声認識が利用されるシーンも多様になっている。
一方、音声認識にとって本質的に重要なのはその精度である。音声認識が利用されるシーンが多様になると、雑音が多く、またその種類も多様になり、音声認識の精度を常に高く保つのは困難になる。そこで、雑音に対しても精度を高く保つ音声認識(耐雑音音声認識)が重要性を増している。
耐雑音音声認識には、従来は大きく分けて2種類の手法が用いられてきた。すなわち以下の2つである。
・音声強調(雑音除去)
・雑音付加学習
音声強調とは、音声認識の対象となる音声信号から雑音を除去することによって音声認識の精度を高める技術である。典型的には、マイクロホンからの音声信号に対して音声強調を行ってから音声認識の処理を行う。
従来の音声強調技術として、後掲の非特許文献1に記載されたスペクトラル・サブトラクション法、非特許文献2に記載されたMMSE-STSA推定法(minimum mean square error short-time spectral amplitude estimator)、非特許文献3に記載されたベクトル・テイラー級数展開(Vector Taylor series)を用いた手法、及び非特許文献4に記載されたデノイジング・オートエンコーダ(denoising autoencoder)がある。
これら手法は、いずれも単一のマイクロホンから得られた音響信号について音声認識の前処理として音声強調を行う手法である。
図1に、従来の音声認識装置100の概略構成を示す。図1を参照して、この音声認識装置100は、図示しないマイクロホンが出力した、波形110により表される、雑音重畳音声である音声信号112を受けて上記したいずれかの手法により音声強調を行って強調音声信号116を出力するための音声強調部114と、この強調音声信号116から所定の特徴量を抽出するための特徴抽出部118と、この特徴量に対する音声認識を行って波形110により表される音声に対応するテキスト122を出力するための音声認識部120とを含む。音声認識部120としては、例えば特許文献1に開示されたものを使用できる。
音声認識装置100はさらに、音声認識部120が音声認識を行う際に用いる音響モデル124、発音辞書126及び言語モデル128とを含む。音響モデル124は、特徴抽出部118から入力された特徴量に基づいて、対応する音素を推定するためのものである。発音辞書126は、音響モデル124により推定された音素列に対応する単語を得るために用いられる。言語モデル128は、発音辞書126を用いて推定された単語列により構成される認識結果の発話文の候補の各々についてその確率を算出する際に使用される。
図2には、音響モデル124の概略構成を示す。図2から分かるように、この音響モデル124はいわゆる深層ニューラル・ネットワークからなり、特徴量を受ける入力層150及びこの特徴量から推定された音素を特定する情報を出力する出力層162と、入力層150及び出力層162の間に順番に設けられた複数の隠れ層152、隠れ層154、隠れ層156、隠れ層158、及び隠れ層160とを含む。音響モデル124の構成及び学習方法はよく知られているのでここではその詳細は繰返さない。音響モデル124の学習には雑音を含まないクリーン音声が用いられる。なお、推定された音素を特定する情報としては、例えば音素の集合の各要素についての確率ベクトルという形が考えられる。以下、本明細書では、記載を簡潔にするために、音素を特定する情報を出力することを単に「音素を出力する」という。
一方、雑音付加学習は、雑音を含む音声信号を学習データとして、深層ニューラル・ネットワークによる音響モデルを学習することにより、雑音を含む音声に対する音声認識精度を高めようとする手法である。この場合は、音声信号に対する前処理は行わないが、音声認識の対象はやはり単一の音声信号である。
近年では、単一チャネルのマイクロホンから得た音声信号に対する音声強調ではなく、複数チャネルのマイクロホン(マイクロホンアレイ)から得た多チャネル音声強調が音声認識の前処理とし幅広く利用されている。その好例がスマートスピーカである。スマートスピーカは、様々な企業により開発及び販売され、特に米国等で急速に普及している。
マイクロホンアレイを用いることにより、音源の空間情報も用いて雑音除去ができるため、高精度かつ低歪で音声強調が行える。
特開2017-219769
S. F. Boll, "Suppression of acoustic noise in speech using spectral subtraction", IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 27, no. 2, pp. 113-120, Apr. 1979. Y. Ephraim and D. Malah, "Speech enhancement using a minimum mean square error short-time spectral amplitude estimator", IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 32, issue 6, pp. 1109-1121, Dec. 1984. P. J. Moreno, B. Raj, and R. M. Stern, "A vector Taylor series approach for environment-independent speech recognition", in Proceedings of ICASSP '96, vol. II, pp. 733-736, May 1996. X. Lu, Y. Tsao, S. Matsuda, C. Hori: "Speech enhancement based on deep denoising autoencoder", in Proceedings of Interspeech '13, pp. 436-440, Aug. 2013. J. Barker, R. Marxer, E. Vincent, & S. Watanabe. The third 'CHiME' speech separation and recognition challenge: Analysis and outcomes. Computer Speech and Language, Volume 46, pp. 605-626, November 2017.
しかし、多チャネルの音声信号を用いる場合、そのためのマイクロホンアレイ及び多チャネルマイクアンプという特殊なデバイスが必要となる。また音声信号に対する処理量及び転送量が増大する。こうした問題のため、例えばいわゆるスマートホンのようにマイクロホンが1つしかなく、処理量にも限界があるデバイスには適用できないという問題がある。
このため、スマートホンでは前記した音声強調処理のいずれかが適用されるが、この場合には大幅な音声歪の増大が見られ、音声認識精度が著しく劣化してしまうという問題がある。
それ故に本発明の目的は、単一チャネルの音声信号しか利用可能でなくても音声認識精度を高くできる音響モデル及び音声認識装置、並びにそのためのコンピュータプログラムを提供することである。
本発明の第1の局面に係る耐雑音音声認識装置は、目的信号である音声信号に雑音信号が重畳した音響信号を入力とし、音声信号が強調された強調音声信号を出力する音声強調回路と、強調音声信号と、音響信号とを受け、音声信号の発話内容をテキスト化する音声認識部とを含む。
好ましくは、音声強調回路は、音響信号に対して第1の種類の音声強調処理を行って第1の強調音声信号を出力する第1の音声強調部と、音響信号に対して第1の種類と異なる第2の種類の音声強調処理を行って第2の強調音声信号を出力する第2の音声強調部とを含み、音声認識部は、第1及び第2の強調音声信号と、音響信号とを受け、音声信号の発話内容をテキスト化する。
より好ましくは、音声認識部は、音響信号から第1の特徴量を抽出する第1の特徴抽出手段と、強調音声信号から第2の特徴量を抽出する第2の特徴抽出手段と、第2の特徴量の各々について、第1の特徴量と、第2の特徴量とに応じて取捨選択する特徴選択手段と、特徴選択手段により選択された第2の特徴量を用いて音声信号の発話内容をテキスト化する音声認識手段とを含む。
さらに好ましくは、耐雑音音声認識装置は、音声認識手段が音声認識に用いる音響モデルを記憶する音響モデル記憶手段をさらに含み、当該音響モデルは複数の隠れ層を持つ深層ニューラル・ネットワークであり、音響モデルは、第1の特徴量を入力として受ける第1のサブネットワークと、第2の特徴量を入力として受ける第2のサブネットワークと、第1のサブネットワークの出力と第2のサブネットワークの出力とを受け、第1の特徴量及び第2の特徴量から推定される音素を出力する第3のサブネットワークとを含む。
本発明の第2の局面に係る耐雑音音声認識方法は、コンピュータが、目的信号である音声信号に雑音信号が重畳した単一チャネルの音響信号を入力として、音声信号が強調された強調音声信号を出力するステップと、コンピュータが、強調音声信号と、音響信号とを受け、音声信号の発話内容をテキスト化する音声認識ステップとを含む。
本発明の第3の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの耐雑音音声認識装置として機能させる。
本発明の解決した課題、本発明の構成及びその有利な効果は、添付の図面を参照しながら実施の形態の詳細な説明を読むことにより一層明らかとなる。
図1は、単一チャネルの音声信号に対して従来の音声強調手法による前処理を行って音声認識を行う音声認識装置の概略構成を示すブロック図である。 図2は、図1に示す音声認識装置で利用される深層ニューラル・ネットワークによる音響モデルの構成を示すブロック図である。 図3は、本発明の第1の実施の形態に係る音声認識装置の概略構成を示すブロック図である。 図4は、図3に示す音声認識装置で用いられる音響モデルの構成を示す概略ブロック図である。 図5は、本発明の第2の実施の形態に係る音声認識装置で用いられる音響モデルの構成を示すブロック図である。 図6は、本発明の第3の実施の形態に係る音声認識装置の概略構成を示すブロック図である。 図7は、図6に示す音声認識装置で用いられる音響モデルの構成を示すブロック図である。 図8は、本発明の第4の実施の形態に係る音声認識装置で用いられる音響モデルの概略構成を示すブロック図である。 図9は、本発明の第5の実施の形態に係る音声認識装置で用いられる音響モデルの概略構成を示すブロック図である。 図10は、本発明の第6の実施の形態に係る音声認識装置で用いられる音響モデルの概略構成を示すブロック図である。 図11は、本発明の第7の実施の形態に係る音声認識装置で用いられる音響モデルの概略構成を示すブロック図である。 図12は、本発明の第8の実施の形態に係る音声認識装置で用いられる音響モデルの概略構成を示すブロック図である。 図13は、本発明の第5の実施の形態~第8の実施の形態に係る音響モデルが有するゲート層の機能を説明する図である。 図14は、従来技術と本発明の第1~第8の実施の形態に係る音声認識装置による単語誤り率を対比して表形式で示す図である。 図15は、本発明に係る音声認識装置を実現する典型的なコンピュータのハードウェアブロック図である。
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。
[第1の実施の形態」
図3は、本発明の第1の実施の形態に係る音声認識装置180の概略構成を示すブロック図である。図3を参照して、音声認識装置180は、波形110により表される音声についてマイクロホンが出力する、雑音重畳音声である音声信号112に対し、既存の音声強調処理を行って強調音声信号203を出力する音声強調部202と、音声信号112及び強調音声信号203の双方を入力として、拡大された音声の特徴量210及び212を抽出する拡大特徴抽出部200と、拡大特徴抽出部200が出力する特徴量210及び212を入力として受けて音声認識を行って認識後のテキスト208を出力する音声認識部204とを含む。音声認識部204としては、図1に示す音声認識部120と同様のものを用いることができる。ただし、使用する特徴量については後述するように従来のものとは異なっている。
音声認識装置180はさらに、音声認識部204が音声認識の際に用いる、図2に示す従来のものとは異なる構成の音響モデル206と、図1に示すものとそれぞれ同じ発音辞書126及び言語モデル128とを含む。これら音響モデル206、発音辞書126及び言語モデル128はいずれも後述するハードディスク等の記憶装置に記憶される。
拡大特徴抽出部200は、雑音重畳音声である音声信号112の入力を受けて特徴量210を出力する、図1に示すものと同様の特徴抽出部118と、音声強調部202から出力される強調音声信号203から特徴量212を抽出する、特徴抽出部118と同様の機能を持つ特徴抽出部220とを含む。本実施の形態では、特徴抽出部118と特徴抽出部220とは同じ構成を持ち、特徴量210と特徴量212とは同じ意味を持つ特徴量である。しかし、一般的には両者の入力が異なるために特徴量210及び212の値は互いに異なる。
図4を参照して、図3に示す音響モデル206は、雑音が重畳された音声から得られた特徴量210と、強調音声信号203から得られた特徴量212との双方を入力とする入力層240と、推定された音素を出力する出力層256と、これら入力層240及び出力層256の間に順番に設けられた複数の隠れ層242~254とを含む。本実施の形態では、隠れ層の数は7層である。
図4に示す入力層240は、いずれもベクトルである特徴量210及び212の要素数の和だけの数の入力を受ける。これら特徴量210及び212を出力する特徴抽出部118及び220は、本実施の形態では図1に示す従来の特徴抽出部118と同じ構成である。したがって、音響モデル206が受ける特徴量の数は図1に示す従来のものと比較して2倍になる。そのうち半数は雑音重畳音声から得られた特徴量であり、残りの半数は強調音声から得られた特徴量である。
音声認識部204の動作は、図1に示す音響モデル124に代えて音響モデル206を用いること、及び処理対象となる音響特徴量が強調音声からのものに加えて雑音重畳音声の特徴量も含むことを除き、図1に示す音声認識装置100と同じである。したがってここではその詳細な説明は繰返さない。
このような構成の音響モデル206を採用することにより、図14を参照して後述するように、本実施の形態に係る音声認識装置180では、図1に示す従来のものと比較してより高い精度の音声認識を行うことができた。
なお、音響モデル206の学習は、予め雑音重畳音声と、その音声が表すテキストからなる学習データを準備することにより、通常の深層ニューラル・ネットワークと同様の誤差逆伝搬法により行うことができる。これは以下に述べる各実施の形態における学習でも同様である。
[第2の実施の形態]
図5に、本発明の第2の実施の形態に係る音響モデル280の構成を示す。第2の実施の形態に係る音声認識装置は、図3に示す音響モデル206に代えて図5に示す音響モデル280を用いる点を除き第1の実施の形態に係る音声認識装置180と同じである。
音響モデル280は、雑音重畳音声の特徴量210を受ける雑音重畳音声のためのサブネットワーク300と、強調音声の特徴量212を受ける強調音声のためのサブネットワーク302と、雑音重畳音声のためのサブネットワーク300の出力及び強調音声のためのサブネットワーク302の出力を受ける出力側サブネットワーク304と、出力側サブネットワーク304の出力を受けて音素を出力する出力層306とを含む。
雑音重畳音声のためのサブネットワーク300は、雑音重畳音声の特徴量210を受けるように接続された入力層320と、入力層320と出力側サブネットワーク304の入力との間に順番に接続された複数個(本実施の形態では3個)の隠れ層322、324及び326とを含む。
強調音声のためのサブネットワーク302は、強調音声の特徴量212を受けるように接続された入力層330と、入力層330と出力側サブネットワーク304の入力との間に順番に接続された複数個(本実施の形態では3個)の隠れ層332、334及び336とを含む。
出力側サブネットワーク304は、雑音重畳音声のためのサブネットワーク300及び強調音声のためのサブネットワーク302の出力を受けるように接続された隠れ層350と、この隠れ層350と出力層306との間に順に接続された隠れ層352、354及び356とを含む。
図5に示す音響モデル280が第1の実施の形態の音響モデル206と異なるのは、音響モデル206では入力層240が雑音重畳音声の特徴量210と強調音声の特徴量212の双方を受け、それ以後の隠れ層242~254の全てに双方からの情報が伝搬されていくのに対し、音響モデル280では、雑音重畳音声のためのサブネットワーク300を構成する入力層320及び隠れ層322~326には雑音重畳音声の特徴量210からの情報のみが伝搬し、強調音声のためのサブネットワーク302の入力層330及び隠れ層332~336には強調音声の特徴量212からの情報のみが伝搬することである。両者の情報は、隠れ層350で初めて統合され、以後、隠れ層352~356及び出力層306に伝搬する。
音響モデル280を採用した音声認識装置の構成は第1の実施の形態の音声認識装置180と同様である。
この第2の実施の形態に係る音響モデル280を用いた音声認識装置でも、図14に示すように従来技術より高い精度を達成できた。
[第3の実施の形態]
図6に、本発明の第3の実施の形態に係る音声認識装置380のブロック図を示す。この音声認識装置380は、波形110により表される音声についてマイクロホンが出力する音声信号112に対し、それぞれ既存の第1~第4の音声強調処理を行ってそれぞれ強調音声信号203、393、395及び397を出力する音声強調部202、392、394及び396と、音声信号112及び強調音声信号203、393、395及び397を入力として、拡大された音声の特徴量210、212、430、432及び434を抽出する拡大特徴抽出部390と、拡大特徴抽出部390が出力する特徴量210、212、430、432及び434を入力として受けて音声認識を行って認識後のテキスト400を出力する音声認識部402とを含む。
音声認識装置380はさらに、音声認識部402が音声認識の際に用いる音響モデル398と、図1に示すものとそれぞれ同じ発音辞書126及び言語モデル128とを含む。
拡大特徴抽出部390は、雑音が重畳された音声信号112を受けて特徴量210を抽出するための特徴抽出部118と、音声強調部202から強調音声信号203を受けて第1の強調音声の特徴量212を抽出するための特徴抽出部220と、音声強調部392から強調音声信号393を受けて第2の強調音声の特徴量430を出力する特徴抽出部410と、音声強調部394から強調音声信号395を受けて第3の強調音声の特徴量432を出力する特徴抽出部412と、音声強調部396から強調音声信号397を受けて第4の強調音声の特徴量434を出力する特徴抽出部414とを含む。
音声強調部202は非特許文献1に開示された手法により音声強調を行う。音声強調部392は非特許文献2に開示された手法により音声強調を行う。音声強調部394は非特許文献3に開示された手法により音声強調を行う。音声強調部396は非特許文献4に開示された手法により音声強調を行う。
図7に音響モデル398を形成する深層ニューラル・ネットワークの構成をブロック図形式で示す。図7を参照して、この音響モデル398は、図4に示す第1の実施の形態に係る音響モデル206を、4つの強調音声から抽出された特徴量を用いるよう拡張したものである。
音響モデル398は、雑音重畳音声の特徴量210、第1の強調音声の特徴量212、第2の強調音声の特徴量430、第3の強調音声の特徴量432及び第4の強調音声の特徴量434を受ける入力層450と、音響モデル398が推定した音素を出力する出力層454と、入力層450と出力層454との間に接続された複数の隠れ層からなる中間層452とを含む。
中間層452は、入力層450の出力に接続された入力を持つ隠れ層470と、それぞれの入力が前の層の出力に接続された隠れ層472、474、476、478、480及び482とを含む。隠れ層482の出力は出力層454の入力に接続されている。
この第3の実施の形態に係る音声認識装置380は、第2の実施の形態に係る音声認識装置180を4つの音声強調を使用するように拡張したものである。その動作も第1の実施の形態のものと基本的には同一である。
この第3の実施の形態でも、従来技術と比較して音声認識の精度を高くすることができた。
[第4の実施の形態]
第3の実施の形態では、雑音重畳音声の特徴量210及び第1~第4の強調音声の特徴量212、430、432及び434がいずれも入力層450に入力されており、中間層452を構成する全ての隠れ層にこの情報が伝搬されている。しかし本発明はそのような実施の形態には限定されない。
この第4の実施の形態に係る音声認識装置は基本的に図6に示す音声認識装置380の構成と同様である。異なる点は、音声認識装置380が使用していた音響モデル398に代えて図8に示すような構成の音響モデル500を用いている点である。
図8を参照して、この音響モデル500は、雑音重畳音声である音声信号112の特徴量210を受ける第1のサブネットワーク540と、第1の強調音声の特徴量212を受ける第2のサブネットワーク542と、第2の強調音声の特徴量430を受ける第3のサブネットワーク544と、第3の強調音声の特徴量432を受ける第4のサブネットワーク546と、第4の強調音声の特徴量434を受ける第5のサブネットワーク548と、第1のサブネットワーク540、第2のサブネットワーク542、第3のサブネットワーク544、第4のサブネットワーク546及び第5のサブネットワーク548の出力を受けるように接続された中間サブネットワーク550と、中間サブネットワーク550の出力に接続された入力を持ち、音響モデル500の出力である音素の推定結果を出力する出力層552とを含む。
第1のサブネットワーク540は、雑音重畳音声の特徴量210を受ける入力を持つ入力層570と、入力層570と中間サブネットワーク550の入力との間に順番に接続された隠れ層572、隠れ層574及び隠れ層576とを含む。
第2のサブネットワーク542は、第1の強調音声の特徴量212を受ける入力を持つ入力層580と、入力層580と中間サブネットワーク550の入力との間に順番に接続された隠れ層582、隠れ層584及び隠れ層586とを含む。
第3のサブネットワーク544は、第2の強調音声の特徴量430を受ける入力を持つ入力層590と、入力層590と中間サブネットワーク550の入力との間に順に接続された隠れ層592、隠れ層594及び隠れ層596とを含む。
第4のサブネットワーク546は、第3の強調音声の特徴量432を受ける入力を持つ入力層600と、入力層600と中間サブネットワーク550の入力との間に順に接続された隠れ層602、隠れ層604及び隠れ層606とを含む。
第5のサブネットワーク548は、第4の強調音声の特徴量434を受ける入力を持つ入力層610と、入力層610と中間サブネットワーク550の入力との間に順に接続された隠れ層612、隠れ層614及び隠れ層616とを含む。
中間サブネットワーク550は、第1~第5のサブネットワーク540、542、544、546及び548の出力を受けるように接続された隠れ層620と、隠れ層620から出力層552までの間に順に接続された隠れ層622、隠れ層624及び隠れ層626とを含む。
この実施の形態に係る音声認識装置の構成も図6に示すものと同様で、図6の音響モデル398に代えて図8に示す音響モデル500を用いる点のみが異なる。
第3の実施の形態では、全ての隠れ層が、雑音重畳音声の特徴量210、第1~第4の強調音声の特徴量212、430、432及び434を伝搬している。しかし本実施の形態では、雑音重畳音声の特徴量210は第1のサブネットワーク540の内部を伝搬した後隠れ層620に入力される。同様に、第1~第4の強調音声の特徴量212、430、432及び434はそれぞれ第2~第5のサブネットワーク542、544、546及び548のみの中を伝搬した後、隠れ層620に入力される。隠れ層620から始まる中間サブネットワーク550の内部では、全ての特徴量が統合されて順に隠れ層を伝搬し最終的に出力層552から音素の推定結果が出力される。
この第4の実施の形態に係る音響モデル500を用いた音声認識装置でも、従来の音声認識装置より高い精度で音声認識を行うことができた。
[第5の実施の形態]
図9に、第5の実施の形態に係る音声認識装置で使用される音響モデル650の概略構成を示す。図9から分かるように、この音響モデル650も深層ニューラル・ネットワークからなる。
図9に示す音響モデル650は、図4に示す音響モデル206において、雑音重畳音声の特徴量210と第1の強調音声の特徴量212の双方を受ける入力層240の前に、第1の強調音声の特徴量212を受け、区間[0,1]の重みを乗じて入力層240に入力するゲート層682を設けたものである。以後、図4に示すものと同様、隠れ層242から出力層256まで、これら特徴量からの情報はいずれも共通して伝搬される。
ゲート層682も一種の隠れ層ということができるが、その機能は通常の隠れ層と異なる。すなわち、図13を参照して、ゲート層682を一般的にゲート層1100として表現すると、ゲート層1100は入力ベクトルxの各要素に対してゲート重みg=σ(Wx+b)を要素ごとに乗じて出力ベクトルyを出力するゲート機能を持つ。ここでベクトルxをM次元とすると、WはM×M次元の重み行列、bはM次元のバイアスベクトル、σ(・)は区間[0,1]の値域である任意の活性化関数、を表す。ゲート重みの各要素は前述したとおり区間[0,1]内の値である。これら重み行列W及びバイアスベクトルbの各要素はいずれも学習の対象である。学習時には、上記した区間の制約に従うことを除き、重み行列W及びバイアスベクトルbの各要素の学習は通常の深層ニューラル・ネットワークと同じ手法を用いて学習できる。以後の説明でも、ゲート層と呼ばれる層はいずれも図13のゲート層1100と同じ機能を持ち、いずれのパラメータも上記した区間[0、1]という制約の下、他のパラメータと同様に学習できる。
なおこのゲート層は、入力ベクトルの各要素に対して別々にゲート処理を行うことに注意する必要がある。したがって、強調音声の特徴量ごとに、音声認識時に利用するか否かをゲート処理できる。
この結果、各特徴量からなる入力ベクトルの要素ごとに、その要素に対する重みに応じて取捨選択がされる。この取捨選択は重み行列Wとバイアスベクトルbと、各入力ベクトルに含まれる各要素の値とにより行われることになる。すなわち、入力される特徴量の値に応じて各要素が取捨選択され、音声認識に使用される。
この第5の実施の形態に係る音響モデル650を用いた音声認識装置でも、従来技術と比較して高い精度を達成できた。
[第6の実施の形態]
図10に、本発明の第6の実施の形態に係る音声認識装置で使用される音響モデル750の概略構成を示す。この実施の形態に係る音声認識装置自体の構成は図3に示すものと同様である。ただし、図3の音響モデル206に代えて音響モデル750を用いる点が異なる。
音響モデル750は、全体として1つの深層ニューラル・ネットワークを構成する。音響モデル750は、雑音重畳音声の特徴量210の入力を受ける第1のサブネットワーク770と、第1の強調音声の特徴量212の入力を受ける第2のサブネットワーク772と、第1のサブネットワーク770の出力と第2のサブネットワーク772の出力とを受けるように接続された、深層ニューラル・ネットワークの一部である第3のサブネットワーク774と、第3のサブネットワーク774の出力を受けて音響モデル750により推定された音素を特定する出力層776とを含む。
第1のサブネットワーク770は、雑音重畳音声の特徴量210を受ける入力層800と、入力層800から第3のサブネットワーク774の入力までの間に順に接続された隠れ層802、隠れ層804及び隠れ層806とを含む。
第2のサブネットワーク772は、第1の強調音声の特徴量212を受ける入力層810と、入力層810の後に順に接続された隠れ層812、隠れ層814及び隠れ層816と、隠れ層816の出力を受けるように接続され、第5の実施の形態のゲート層682と同様の機能を持つゲート層818とを含む。
第3のサブネットワーク774は、第1のサブネットワーク770の出力及び第2のサブネットワーク772の出力を受ける隠れ層830と、隠れ層830以後、出力層776までの間に順に接続された隠れ層832、隠れ層834及び隠れ層836とを含む。
この音響モデル750は、図9に示すものと異なり、雑音重畳音声の特徴量210及び第1の強調音声の特徴量212は、音響モデル750の前半では第1のサブネットワーク770と第2のサブネットワーク772とに分離されてそれぞれの内部で伝搬される。第1のサブネットワーク770の出力はそのまま第3のサブネットワーク774に入力されるが、第2のサブネットワーク772では、最後の隠れ層816の出力に対してゲート層818でのゲート処理が実行された後、その結果が隠れ層830に入力される。
こうした構成により、第1の強調音声の特徴量212を利用した方が有利なときには第1の強調音声の特徴量212が有効に利用され、第1の強調音声の特徴量212を利用すると不利になるときには第2のサブネットワーク772の出力は小さな値となり、結果として音声認識には利用されない。
この第6の実施の形態に係る音響モデル750を用いても、従来技術と比較して高い精度で音声認識できた。
[第7の実施の形態]
図11は第7の実施の形態に係る音声認識装置で使用される音響モデル850の概略構成を示す。図11からも分かるようにこの音響モデル850も深層ニューラル・ネットワークからなる。この第7の実親形態に係る音声認識装置は、図6に示す音声認識装置380と同様である。ただし、図7の音響モデル398に代えて音響モデル850を使用する点が異なる。
図11を参照して、この音響モデル850は、図7に示す音響モデル398の構成要素に加えて、入力層450の前に、第1の強調音声の特徴量212を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層892と、第2の強調音声の特徴量430を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層902と、第3の強調音声の特徴量432を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層912と、第4の強調音声の特徴量434を受けて区間[0,1]の重みを乗じて入力層450に入力するゲート層922とを含む。その他の点ではこの音響モデル850は、図7に示す音響モデル398と同一である。
この音響モデル850では、第1~第4の強調音声の特徴量212、430、432及び434のいずれに対してもゲート層892、902、912及び922の機能により、音声認識時に有利となるような特徴量については有効に利用し、そうでない特徴量については利用しないようにできる。その結果、この音響モデル850を用いた音声認識でも精度を高くできる。
実際、後述するようにこの実施の形態の音響モデル850を用いた音声認識装置では、従来の技術よりも高い精度で音声認識を行うことができた。
[第8の実施の形態]
図12に、本発明の第8の実施の形態に係る音声認識装置で使用される音響モデル950の概略構成を示す。音響モデル950もまた他の実施の形態に係る音響モデルと同様、深層ニューラル・ネットワークからなる。
音響モデル950は、雑音重畳音声の特徴量210を受ける第1の入力サブネットワーク960と、第1の強調音声の特徴量212を受ける第2の入力サブネットワーク962と、第2の強調音声の特徴量430を受ける第3の入力サブネットワーク964と、第3の強調音声の特徴量432を受ける第4の入力サブネットワーク966と、第4の強調音声の特徴量434を受ける第5の入力サブネットワーク968と、第1~第5の入力サブネットワーク960、962、964、966及び968の出力を受ける中間サブネットワーク970と、中間サブネットワーク970の出力を受けて音響モデル950が推定する音素を出力する出力層972とを含む。
第1の入力サブネットワーク960は、雑音重畳音声の特徴量210を受ける入力層980と、入力層980から中間サブネットワーク970までの間に順に接続された隠れ層982、隠れ層984及び隠れ層986とを含む。
第2の入力サブネットワーク962は、第1の強調音声の特徴量212を受ける入力層990と、入力層990の後に順に接続される隠れ層992、隠れ層994及び隠れ層996と、隠れ層996の出力と中間サブネットワーク970の入力との間に挿入されたゲート層998とを含む。
第3の入力サブネットワーク964は、第2の強調音声の特徴量430を受ける入力層1000と、入力層1000の後に順に接続された隠れ層1002、隠れ層1004及び隠れ層1006と、隠れ層1006の出力と中間サブネットワーク970の入力との間に挿入されたゲート層1008とを含む。
第4の入力サブネットワーク966は、第3の強調音声の特徴量432を受ける入力層1010と、入力層1010の後に順に接続された隠れ層1012、隠れ層1014及び隠れ層1016と、隠れ層1016の出力と中間サブネットワーク970の入力との間に挿入されたゲート層1018とを含む。
第5の入力サブネットワーク968は、第4の強調音声の特徴量434を受ける入力層1020と、入力層1020の後に順に接続された隠れ層1022、隠れ層1024及び隠れ層1026と、隠れ層1026の出力と中間サブネットワーク970の入力との間に挿入されたゲート層1028とを含む。
中間サブネットワーク970は、第1の入力サブネットワーク960並びに第2~第5の入力サブネットワーク962、964、966及び968の出力を受ける隠れ層1030と、隠れ層1030と出力層972との間に順に接続された隠れ層1032、隠れ層1034及び隠れ層1036とを含む。
この音響モデル950を用いた音声認識装置の動作も、音響モデルとして音響モデル950を使用することを除き、図6に示す音声認識装置380と同様である。
この実施の形態では、第1~第4の音声強調により得られた特徴量の各要素の各々について、区間[0、1]の値をとる係数で重み付けをして音素を推定できる。音声強調ごとに、かつその特徴量ごとに、音声認識に有利な特徴については有効に利用し、不利な特徴については使用しないようにできる。その結果、音声認識の精度を高くできる。
後述のように、この実施の形態では、従来技術での精度はもちろん、上記した第1~第7の実施の形態のいずれよりも高い精度を実現することができた。
[実験結果]
図14に、上記各実施の形態について行った実験結果(単語誤り率)を表形式で示す。この実験では、非特許文献5に記載されたCHiME3(タブレットを用いた屋外で収録した音声)を認識対象として使用した。この実験で使用した音声強調処理は以下のとおりである。
・音声強調1:非特許文献1に開示された技術
・音声強調2:非特許文献2に開示された技術
・音声強調3:非特許文献3に開示された技術
・音声強調4:非特許文献4に開示された技術
第1、第2、第5及び第6の実施の形態に関する実験では、例えば図3に示す音声強調部202として上記音声強調1~4をそれぞれ採用して各実施の形態の音響モデルを使用して音声認識精度を測定し、第3、第5、第7及び第8の実施の形態に関する実験では、図6に示す音声強調部202、392、394及び396として上記音声強調1~4をそれぞれ採用し、各実施の形態の音響モデルを使用して音声認識精度を測定した。
なお、図14には示していないが、従来の音声認識装置で音声強調なしで同じデータに対する音声認識を行った場合の単語誤り率は22.64%であった。
図14から明らかなように、本発明の第1~第8の実施の形態によれば、従来技術の音声強調を用いた場合よりも単語誤り率が低かった。すなわち音声認識の精度は高かった。従来の音声認識で音声強調なしの場合と比較しても、大部分の場合で精度はより高かった。特に第2の実施の形態ではいずれの音声強調を使用しても高い精度を実現できた。また第4の実施の形態及び第8の実施の形態では精度は非常に高く、特に第8の実施の形態では他の実施の形態と比較しても一段と高い精度を実現できた。
[コンピュータによる実現]
上記した各実施の形態に係る音声認識装置の各機能部は、それぞれコンピュータハードウェアと、そのハードウェア上でCPU(中央演算処理装置)及びGPU(Graphics Processing Unit)により実行されるプログラムとにより実現できる。図15に上記各音声認識装置を実現するコンピュータハードウェアを示す。GPUは通常は画像処理を行うために使用されるが、このようにGPUを画像処理ではなく通常の演算処理に使用する技術をGPGPU(General-purpose computing on graphics processing units)と呼ぶ。GPUは同種の複数の演算を同時並列的に実行できる。一方、ニューラル・ネットワークの場合、特に学習時には演算が大量に必要になるが、それらは同時に超並列的に実行可能である。したがって、音声認識装置とそこに用いられる音響モデルを構成するニューラル・ネットワークの訓練と推論にはGPUを備えたコンピュータが適している。なお、学習が終わった音響モデルを用いて音声認識を行う場合、十分高速なCPUを搭載したコンピュータであれば、必ずしもGPUを搭載していなくてもよい。
図15を参照して、このコンピュータシステム1130は、メモリポート1152及びDVD(Digital Versatile Disk)ドライブ1150を有するコンピュータ1140と、キーボード1146と、マウス1148と、モニタ1142とを含む。
コンピュータ1140はさらに、CPU1156及びGPU1158と、これら並びにメモリポート1152及びDVDドライブ1150に接続されたバス1166と、ブートプログラム等を記憶する読出専用メモリであるROM1160と、バス1166に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するコンピュータ読出可能な記憶媒体であるランダムアクセスメモリ(RAM)1162と、コンピュータ読出可能な不揮発性記憶媒体であるハードディスク1154を含む。コンピュータ1140はさらに、いずれもバス1166に接続され、ネットワーク1168への接続を提供するネットワークインターフェイス(I/F)1144と、外部との音声信号の入出力を行うための音声I/F1170とを含む。
コンピュータシステム1130を上記した実施の形態に係る各音声認識装置の各機能部及び音響モデルの記憶装置として機能させるためのプログラムは、DVDドライブ1150又はメモリポート1152に装着される、いずれもコンピュータ読出可能な記憶媒体であるDVD1172又はリムーバブルメモリ1164に記憶され、さらにハードディスク1154に転送される。又は、プログラムはネットワーク1168を通じてコンピュータ1140に送信されハードディスク1154に記憶されてもよい。プログラムは実行の際にRAM1162にロードされる。DVD1172から、リムーバブルメモリ1164から、又はネットワーク1168を介して、直接にRAM1162にプログラムをロードしてもよい。また、上記処理に必要なデータは、ハードディスク1154、RAM1162、CPU1156又はGPU1158内のレジスタ等の所定のアドレスに記憶され、CPU1156又はGPU1158により処理され、プログラムにより指定されるアドレスに格納される。最終的に訓練が終了した音響モデルのパラメータは、音響モデルの訓練及び推論アルゴリズムを実現するプログラムとともに例えばハードディスク1154に格納されたり、DVDドライブ1150及びメモリポート1152をそれぞれ介してDVD1172又はリムーバブルメモリ1164に格納されたりする。又は、ネットワークI/F1144を介して接続された他のコンピュータ又は記憶装置に送信される。
このプログラムは、コンピュータ1140を、上記実施の形態に係る各装置及びシステムとして機能させるための複数の命令からなる命令列を含む。上記各装置及びシステムにおける数値演算処理は、CPU1156及びGPU1158を用いて行う。CPU1156のみを用いてもよいがGPU1158を用いる方が高速である。コンピュータ1140にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ1140上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ1140にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態の音声認識装置を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、静的リンクにより必要な機能を全て組込んだプログラムをコンピュータにロードすることによって上記した音声認識装置を実現してもよい。
[変形例]
上記第3、第4、第7及び第8の実施の形態では、4種類の音声強調処理を用いている。しかし本発明はそのような実施の形態には限定されない。2種類、3種類、又は5種類以上の音声強調処理を用いるようにしてもよい。
また上記実施の形態では、音響モデルを構成する深層ニューラル・ネットワークの隠れ層は全部で7層であり、第3、第4、第7及び第8の実施の形態では、深層ニューラル・ネットワークの前半に3層、後半に4層の隠れ層を用いている。しかし本発明はそのような実施の形態に限定されるわけではない。隠れ層の層数が6層以下でも、8層以上でもよい。また第3、第4、第7及び第8の実施の形態にしたがって音響モデルを構築する際には、前半と後半の隠れ層の数をそれぞれ3層及び4層とする必要は全くない。ただし、上記実験では、前半に3層、後半に4層としたときに最もよい結果が得られたことは事実である。
なお、上記実施の形態では単一チャネルの音声信号に対して本発明を適用した。しかし本発明はそうした実施の形態には限定されず、複数チャネルの音声信号に対しても適用は可能である。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
100、180、380 音声認識装置
110 波形
112 音声信号
114、202、392、394、396 音声強調部
116、203、393、395、397 強調音声信号
118、220、410、412、414 特徴抽出部
120、204、402 音声認識部
122、208、400 テキスト
124、206、280、398、500、650、750、850、950 音響モデル
126 発音辞書
128 言語モデル
200、390 拡大特徴抽出部
210 雑音重畳音声の特徴量
212 第1の強調音声の特徴量
300 雑音重畳音声のためのサブネットワーク
302 強調音声のためのサブネットワーク
304 出力側サブネットワーク
430 第2の強調音声の特徴量
432 第3の強調音声の特徴量
434 第4の強調音声の特徴量
452 中間層
530、1130 コンピュータシステム
540、770 第1のサブネットワーク
542、772 第2のサブネットワーク
544、774 第3のサブネットワーク
546 第4のサブネットワーク
548 第5のサブネットワーク
550、970 中間サブネットワーク
682、818、892、902、912、922、998、1008、1018、1028、1100 ゲート層
960 第1の入力サブネットワーク
962 第2の入力サブネットワーク
964 第3の入力サブネットワーク
966 第4の入力サブネットワーク
968 第5の入力サブネットワーク

Claims (6)

  1. 目的信号である音声信号に雑音信号が重畳した音響信号を入力とし、前記音響信号から雑音を除去することにより前記音声信号が強調された強調音声信号を出力する音声強調回路と、
    前記強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する音声認識部とを含む、耐雑音音声認識装置であって、
    前記音声強調回路は、
    前記音響信号に対して第1の種類の音声強調処理を行って第1の強調音声信号を出力する第1の音声強調部と、
    前記音響信号に対して前記第1の種類と異なる第2の種類の音声強調処理を行って第2の強調音声信号を出力する第2の音声強調部とを含み、
    前記音声認識部は、前記第1及び第2の強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する、耐雑音音声認識装置。
  2. 目的信号である音声信号に雑音信号が重畳した音響信号を入力とし、前記音響信号から雑音を除去することにより前記音声信号が強調された強調音声信号を出力する音声強調回路と、
    前記強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する音声認識部とを含む、耐雑音音声認識装置であって、
    前記音声認識部は、
    前記音響信号から第1の特徴量を抽出する第1の特徴抽出手段と、
    前記強調音声信号をフレーム化することにより得られる複数のフレームの各々から第2の特徴量を抽出する第2の特徴抽出手段と、
    前記複数のフレームから得られる第2の特徴量の各々について、前記第2の特徴量の値に応じて取捨選択する特徴選択手段と、
    前記第1の特徴量と、前記特徴選択手段により選択された前記第2の特徴量を用いて前記音声信号の発話内容をテキスト化する音声認識手段とを含む、耐雑音音声認識装置。
  3. 前記音声認識手段が音声認識に用いる音響モデルを記憶する音響モデル記憶手段をさらに含み、
    当該音響モデルは複数の隠れ層を持つ深層ニューラル・ネットワークであり、
    前記音響モデルは、
    前記第1の特徴量を入力として受ける第1のサブネットワークと、
    前記第2の特徴量を入力として受ける第2のサブネットワークと、
    前記第1のサブネットワークの出力と前記第2のサブネットワークの出力とを受け、前記第1の特徴量及び第2の特徴量から推定される音素を出力する第3のサブネットワークとを含む、請求項に記載の耐雑音音声認識装置。
  4. コンピュータが、目的信号である音声信号に雑音信号が重畳した単一チャネルの音響信号を入力として、前記音響信号から雑音を除去することにより前記音声信号が強調された強調音声信号を出力するステップと、
    コンピュータが、前記強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する音声認識ステップとを含む、耐雑音音声認識方法であって、
    前記強調音声信号を出力するステップは、
    前記音響信号に対して第1の種類の音声強調処理を行って第1の強調音声信号を出力する第1の音声強調ステップと、
    前記音響信号に対して前記第1の種類と異なる第2の種類の音声強調処理を行って第2の強調音声信号を出力する第2の音声強調ステップとを含み、
    前記音声認識ステップは、前記第1及び第2の強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化するステップとを含む、耐雑音音声認識方法
  5. コンピュータが、目的信号である音声信号に雑音信号が重畳した単一チャネルの音響信号を入力として、前記音響信号から雑音を除去することにより前記音声信号が強調された強調音声信号を出力するステップと、
    コンピュータが、前記強調音声信号と、前記音響信号とを受け、前記音声信号の発話内容をテキスト化する音声認識ステップとを含む、耐雑音音声認識方法であって、
    前記音声認識ステップは、
    前記音響信号から第1の特徴量を抽出する第1の特徴抽出ステップと、
    前記強調音声信号をフレーム化することにより得られる複数のフレームの各々から第2の特徴量を抽出する第2の特徴抽出ステップと、
    前記複数のフレームの各々から得られる第2の特徴量の各々について、前記第2の特徴量の値に応じて取捨選択する特徴選択ステップと、
    前記第1の特徴量と、前記特徴選択ステップにおいて選択された前記第2の特徴量とを用いて前記音声信号の発話内容をテキスト化するステップとを含む、耐雑音音声認識装置
  6. コンピュータを、請求項1~請求項のいずれかに記載の耐雑音装置として機能させる、コンピュータプログラム。
JP2018133977A 2018-07-17 2018-07-17 耐雑音音声認識装置及び方法、並びにコンピュータプログラム Active JP7231181B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018133977A JP7231181B2 (ja) 2018-07-17 2018-07-17 耐雑音音声認識装置及び方法、並びにコンピュータプログラム
PCT/JP2019/024279 WO2020017226A1 (ja) 2018-07-17 2019-06-19 耐雑音音声認識装置及び方法、並びにコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018133977A JP7231181B2 (ja) 2018-07-17 2018-07-17 耐雑音音声認識装置及び方法、並びにコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2020012928A JP2020012928A (ja) 2020-01-23
JP7231181B2 true JP7231181B2 (ja) 2023-03-01

Family

ID=69164003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018133977A Active JP7231181B2 (ja) 2018-07-17 2018-07-17 耐雑音音声認識装置及び方法、並びにコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP7231181B2 (ja)
WO (1) WO2020017226A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508475B (zh) * 2020-04-16 2022-08-09 五邑大学 一种机器人唤醒的语音关键词识别方法、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092491A (ja) 1999-09-01 2001-04-06 Trw Inc 単一マイクロフォンを使用するノイズ減少のためのシステムおよび方法
JP2015102806A (ja) 2013-11-27 2015-06-04 国立研究開発法人情報通信研究機構 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム
JP2016143043A (ja) 2015-02-05 2016-08-08 日本電信電話株式会社 音声モデル学習方法、雑音抑圧方法、音声モデル学習装置、雑音抑圧装置、音声モデル学習プログラム及び雑音抑圧プログラム
JP2016180839A (ja) 2015-03-24 2016-10-13 日本放送協会 雑音抑圧音声認識装置およびそのプログラム
WO2017135148A1 (ja) 2016-02-02 2017-08-10 日本電信電話株式会社 音響モデル学習方法、音声認識方法、音響モデル学習装置、音声認識装置、音響モデル学習プログラムおよび音声認識プログラム
US20170256254A1 (en) 2016-03-04 2017-09-07 Microsoft Technology Licensing, Llc Modular deep learning model

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092491A (ja) 1999-09-01 2001-04-06 Trw Inc 単一マイクロフォンを使用するノイズ減少のためのシステムおよび方法
JP2015102806A (ja) 2013-11-27 2015-06-04 国立研究開発法人情報通信研究機構 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム
JP2016143043A (ja) 2015-02-05 2016-08-08 日本電信電話株式会社 音声モデル学習方法、雑音抑圧方法、音声モデル学習装置、雑音抑圧装置、音声モデル学習プログラム及び雑音抑圧プログラム
JP2016180839A (ja) 2015-03-24 2016-10-13 日本放送協会 雑音抑圧音声認識装置およびそのプログラム
WO2017135148A1 (ja) 2016-02-02 2017-08-10 日本電信電話株式会社 音響モデル学習方法、音声認識方法、音響モデル学習装置、音声認識装置、音響モデル学習プログラムおよび音声認識プログラム
US20170256254A1 (en) 2016-03-04 2017-09-07 Microsoft Technology Licensing, Llc Modular deep learning model

Also Published As

Publication number Publication date
WO2020017226A1 (ja) 2020-01-23
JP2020012928A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
Alharbi et al. Automatic speech recognition: Systematic literature review
JP7023934B2 (ja) 音声認識方法及び装置
Sun et al. Voice conversion using deep bidirectional long short-term memory based recurrent neural networks
EP3142106B1 (en) Apparatus and method for generating acoustic model, and apparatus and method for speech recognition
US10714077B2 (en) Apparatus and method of acoustic score calculation and speech recognition using deep neural networks
CN106688034B (zh) 具有情感内容的文字至语音转换
JP6622505B2 (ja) 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム
Erdogan et al. Deep recurrent networks for separation and recognition of single-channel speech in nonstationary background audio
JP4107613B2 (ja) 残響除去における低コストのフィルタ係数決定法
CN107615376B (zh) 声音识别装置及计算机程序记录介质
Lokesh et al. Speech recognition system using enhanced mel frequency cepstral coefficient with windowing and framing method
WO2018159402A1 (ja) 音声合成システム、音声合成プログラムおよび音声合成方法
JP6543820B2 (ja) 声質変換方法および声質変換装置
Wang et al. Recurrent deep stacking networks for supervised speech separation
US11694677B2 (en) Decoding method and apparatus in artificial neural network for speech recognition
CN113436643A (zh) 语音增强模型的训练及应用方法、装置、设备及存储介质
Saito et al. Voice conversion using input-to-output highway networks
Yuliani et al. Speech enhancement using deep learning methods: A review
Coto-Jiménez et al. Improving automatic speech recognition containing additive noise using deep denoising autoencoders of LSTM networks
JP2020086434A (ja) 音声検出のための雑音除去変分オートエンコーダ基盤の統合トレーニング方法および装置
CN113674733A (zh) 用于说话时间估计的方法和设备
JP6348427B2 (ja) 雑音除去装置及び雑音除去プログラム
Subakan et al. Exploring self-attention mechanisms for speech separation
JP7231181B2 (ja) 耐雑音音声認識装置及び方法、並びにコンピュータプログラム
JP2008064849A (ja) 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230209

R150 Certificate of patent or registration of utility model

Ref document number: 7231181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150