JP7170405B2 - ニューラルネットワークを用いた認識方法及び装置並びにトレーニング方法 - Google Patents

ニューラルネットワークを用いた認識方法及び装置並びにトレーニング方法 Download PDF

Info

Publication number
JP7170405B2
JP7170405B2 JP2018042978A JP2018042978A JP7170405B2 JP 7170405 B2 JP7170405 B2 JP 7170405B2 JP 2018042978 A JP2018042978 A JP 2018042978A JP 2018042978 A JP2018042978 A JP 2018042978A JP 7170405 B2 JP7170405 B2 JP 7170405B2
Authority
JP
Japan
Prior art keywords
neural network
sub
scaling factor
length
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018042978A
Other languages
English (en)
Other versions
JP2019035936A (ja
Inventor
尚 賢 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019035936A publication Critical patent/JP2019035936A/ja
Application granted granted Critical
Publication of JP7170405B2 publication Critical patent/JP7170405B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Description

以下の実施形態は、ルックアヘッド畳み込みレイヤ(lookahead convolution layer)を含むニューラルネットワークに基づいた認識方法及び装置、並びに前記ニューラルネットワークをトレーニングする方法及び装置に関する。
近年、プロセッサ基盤ニューラルネットワークモデルによって実行される音声認識技術に対する研究が盛んに行われている。トレーニングされたニューラルネットワークモデルによって入力パターンと出力パターンとの間のマッピングが生成される。また、人工ニューラルネットワークは、学習された結果に基づいて学習に利用されていない入力パターンに対して比較的に正しい出力を生成することができる。
本発明の目的は、ニューラルネットワークを用いた認識方法及び装置及び前記ニューラルネットワークをトレーニングする方法及び装置を提供することにある。
一実施形態に係るプロセッサ基盤認識方法は、メインニューラルネットワーク及びサブニューラルネットワークに音声信号を提供するステップと、前記サブニューラルネットワークを用いて、前記提供された音声信号を解釈することにより、スケーリングファクターを取得するステップと、音声認識を行うメインニューラルネットワークで考慮する未来コンテキストの長さを前記スケーリングファクターに基づいて決定するステップと、前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークを用いて前記音声信号の認識結果を取得するステップとを含む。
一実施形態に係る認識方法において、前記メインニューラルネットワークは、以前時間連結を含む第1レイヤ及び未来時間連結を含む第2レイヤを含み得る。
一実施形態に係る認識方法において、前記未来コンテキストの長さを決定するステップは、前記メインニューラルネットワークによる音声認識それぞれに対する未来コンテキストそれぞれの長さを決定し、前記未来コンテキストそれぞれの長さは、前記サブニューラルネットワークによる音声信号の対応するコンテキスト解釈に基づいて動的に決定され得る。
一実施形態に係る認識方法において、前記メインニューラルネットワーク及び前記サブニューラルネットワークに前記音声信号を提供するステップは、前記音声信号に含まれた複数の音声フレーム又はウィンドウを前記メインニューラルネットワークに提供し、前記複数の音声フレーム又はウィンドウの一部を前記サブニューラルネットワークに提供し、前記サブニューラルネットワークは、前記複数の音声フレーム又はウィンドウの一部を解釈することによって前記スケーリングファクターを生成し、前記メインニューラルネットワークは、前記複数の音声フレーム又はウィンドウに基づいて音声信号を認識し得る。
一実施形態に係る認識方法において、前記メインニューラルネットワーク及び前記サブニューラルネットワークに前記音声信号を提供するステップは、前記スケーリングファクターを取得するために、前記複数の音声フレーム又はウィンドウの全て又は一部のいずれか1つを前記サブニューラルネットワークに提供し得る。
一実施形態に係る認識方法において、前記スケーリングファクターを取得するステップは、前記サブニューラルネットワークを用いて、前記音声信号が認識されるとき前記メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示すスケーリングファクターを取得し得る。
一実施形態に係る認識方法において、前記スケーリングファクターを取得するステップは、前記サブニューラルネットワークによって解釈された前記音声信号に含まれたノイズ程度、及び前記音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定されたスケーリングファクターを取得し得る。
一実施形態に係る認識方法において、前記スケーリングファクターを取得するステップは、前記サブニューラルネットワークによって相対的に低く解釈された音声信号の明確性に基づいて予め決定された閾値よりも大きい値を有する成分が多くなるよう前記スケーリングファクターを決定し得る。
一実施形態に係る認識方法において、前記未来コンテキストの長さを決定するステップは、前記スケーリングファクターに基づいて前記サブニューラルネットワークによって相対的に低く解釈された音声信号の明確性により前記未来コンテキストの長さを大きく決定し、前記サブニューラルネットワークによって相対的に高く解釈された音声信号の明確性により前記未来コンテキストの長さを小さく決定し得る。
一実施形態に係る認識方法において、前記未来コンテキストの長さを決定するステップは、前記スケーリングファクターに含まれた成分の値と予め決定された閾値との間の比較によって前記未来コンテキストの長さを決定し得る。
一実施形態に係る認識方法において、前記未来コンテキストの長さを決定するステップは、前記予め決定された閾値よりも大きい値を有する前記スケーリングファクターの成分のうち最も高い次元に基づいて前記未来コンテキストの長さを決定し得る。
一実施形態に係る認識方法において、前記音声信号の認識結果を取得するステップは、前記メインニューラルネットワークに含まれたルックアヘッド畳み込みレイヤの未来コンテキストの長さを前記決定された未来コンテキストの長さに調整するステップと、前記調整されたルックアヘッド畳み込みレイヤを含むメインニューラルネットワークに前記音声信号を入力するステップと、前記調整されたルックアヘッド畳み込みレイヤを含むメインニューラルネットワークから出力される音声信号の認識結果を取得するステップとを含み得る。
一実施形態に係る認識方法において、前記ルックアヘッド畳み込みレイヤの未来コンテキストの長さを前記決定された未来コンテキストの長さに調整するステップは、前記決定された未来コンテキストの長さに基づいて、前記ルックアヘッド畳み込みレイヤに対するゼロ未来コンテキスト、一部の未来コンテキスト、全ての未来コンテキストのうちいずれか1つを選択し得る。
一実施形態に係る認識方法において、前記未来コンテキストの長さを決定するステップは、前記音声信号の複数のウィンドウのうち最初のウィンドウで取得したスケーリングファクターに基づいて前記未来コンテキストの長さを決定し、前記音声信号の認識結果を取得するステップは、前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークを用いて、前記音声信号に含まれた複数のウィンドウに対する認識結果を取得し得る。
一実施形態に係る認識方法において、前記メインニューラルネットワークは、ルックアヘッド畳み込みレイヤを含む単方向リカレントニューラルネットワークであり得る。
一実施形態に係る認識方法において、前記メインニューラルネットワーク及び前記サブニューラルネットワークは、共にトレーニングされるニューラルネットワークであり得る。
一実施形態に係るプロセッサ基盤トレーニング方法は、トレーニング入力が入力されたサブニューラルネットワークからスケーリングファクターを取得するステップと、前記スケーリングファクターに基づいてメインニューラルネットワークで考慮する未来コンテキストの長さを決定するステップと、前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークに前記トレーニング入力が入力されることによって、前記メインニューラルネットワークで前記トレーニング入力にマッピングされたトレーニング出力が出力されるよう、前記メインニューラルネットワーク及び前記サブニューラルネットワークをトレーニングさせるステップとを含む。
一実施形態に係るトレーニング方法において、前記メインニューラルネットワーク及び前記サブニューラルネットワークをトレーニングさせるステップは、前記メインニューラルネットワークと前記サブニューラルネットワークを同時にトレーニングさせ得る。
一実施形態に係る認識装置は、プロセッサを含み、前記少なくとも1つの命令語が前記プロセッサで実行されれば、前記プロセッサは、メインニューラルネットワーク及びサブニューラルネットワークに音声信号を提供し、前記サブニューラルネットワークを用いて、前記提供された音声信号を解釈することにより、スケーリングファクターを取得し、音声認識を行うメインニューラルネットワークで考慮する未来コンテキストの長さを前記スケーリングファクターに基づいて決定し、前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークを用いて、前記音声信号の認識結果を取得する。
一実施形態に係る認識装置は、前記プロセッサによって実行されれば、前記プロセッサによって音声認識が提供され、前記スケーリングファクターを取得し、前記未来コンテキストの長さを決定し、前記認識結果を取得するようにする少なくとも1つの命令語を含むメモリをさらに含み得る。
一実施形態に係る認識装置は、前記メインニューラルネットワーク及び前記サブニューラルネットワークのトレーニングされたパラメータそれぞれを含むメモリをさらに含み、前記プロセッサは、前記メインニューラルネットワーク及び前記サブニューラルネットワークが実行される場合、前記トレーニングされたパラメータそれぞれを前記メインニューラルネットワーク及び前記サブニューラルネットワークに適用させ得る。
一実施形態に係る認識装置において、前記プロセッサは、前記サブニューラルネットワークを用いて前記音声信号が認識されるとき、前記メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示すスケーリングファクターを取得し得る。
一実施形態に係る認識装置において、前記プロセッサは、前記サブニューラルネットワークによって解釈された前記音声信号に含まれたノイズ程度及び前記音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定されたスケーリングファクターを取得し得る。
一実施形態に係る認識装置において、前記プロセッサは、前記サブニューラルネットワークによって相対的に低く解釈された音声信号の明確性に基づいて予め決定された閾値よりも大きい値を有する成分が多くなるように前記スケーリングファクターを決定し得る。
一実施形態に係る認識装置において、前記プロセッサは、前記スケーリングファクターに含まれた成分の値と予め決定された閾値との間の比較によって前記未来コンテキストの長さを決定し得る。
一実施形態に係る認識装置において、前記認識装置は、電子装置であり、前記オーディオをキャプチャーする音声受信機をさらに含み、前記プロセッサは、前記キャプチャーされたオーディオから前記音声信号を抽出し、前記プロセッサは、前記認識結果に基づいて解釈された命令に基づいて前記認識装置の非音声認識機能を制御し得る。
一実施形態に係る電子装置は、オーディオをキャプチャーする音声受信機と、メインニューラルネットワークのトレーニングされたパラメータ及びサブニューラルネットワークのトレーニングされたパラメータを含むメモリと、前記オーディオから取得された音声信号が入力される前記サブニューラルネットワークを実現させるために前記サブニューラルネットワークのトレーニングされたパラメータを適用して、前記メインニューラルネットワークを実現させるために前記メインニューラルネットワークのトレーニングされたパラメータを適用することにより、前記サブニューラルネットワークから取得された結果に応じて決定された未来コンテキストに基づいて前記音声信号を認識するプロセッサとを含み、前記メインニューラルネットワークは、過去コンテキストを考慮するリカレントレイヤを含む。
一実施形態に係る電子装置は、前記サブニューラルネットワークのトレーニングされたパラメータは、前記サブニューラルネットワークによって前記音声信号の明確性が解釈され、前記サブニューラルネットワークによって前記明確性が相対的に低く解釈された場合、前記メインニューラルネットワークの前記未来コンテキストの長さは大きく決定され、前記サブニューラルネットワークによって前記明確性が相対的に大きく解釈された場合、前記メインニューラルネットワークの前記未来コンテキストの長さは小さく決定され得る。
一実施形態に係る電子装置において、前記プロセッサは前記音声信号の認識結果を表示し得る。
本発明によると、ニューラルネットワークを用いた認識方法及び装置、並びに前記ニューラルネットワークをトレーニングする方法及び装置を提供することができる。
一実施形態に係る認識装置で音声信号が認識される過程を示す図である。 一実施形態によりメインニューラルネットワークを示す図である。 一実施形態によりスケーリングファクターがメインニューラルネットワークに適用される過程を示す図である。 一実施形態によりサブニューラルネットワークを示す図である。 一実施形態によりスケーリングファクターに基づいて未来コンテキストの長さが決定される過程を示す図である。 一実施形態によりメインニューラルネットワーク及びサブニューラルネットワークをトレーニングする過程を示す図である。 一実施形態によりスケーリングファクターを説明するための図である。 一実施形態によりスケーリングファクターを決定する過程を示す図である。 一実施形態に係る認識方法を示す図である。 一実施形態に係るトレーニング方法を示す図である。 一実施形態に係る認識装置を示す図である。 一実施形態に係るトレーニング装置を示す図である。 一実施形態に係る電子装置を示す図である。
本明細書に開示されている本発明の概念による実施形態に対して特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明するための目的として例示されたものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明された実施形態に限定されることはない。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
下記で説明される実施形態は、音声を認識したり音声認識のためのニューラルネットワークをトレーニングさせるために使用される。実施形態は、パーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、スマート家電機器、知能型自動車、キオスク、ウェアラブル装置などの様々な形態の製品に実現できる。例えば、実施形態は、スマートフォン、モバイル機器、スマートホームシステムなどでユーザの音声を認識したり、当該の装置でユーザの音声を認識するためのニューラルネットワークをトレーニングさせるために適用される。また、実施形態は、音声認識を通した装置制御にも適用される。以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係る認識装置で音声信号が認識される過程を示す図である。
図1を参照すると、一実施形態に係る認識装置100は、メインニューラルネットワーク110及びサブニューラルネットワーク120を含む。
一実施形態に係る認識装置100は、メインニューラルネットワーク110及びサブニューラルネットワーク120を用いて音声信号を認識する装置として、例えば、下記で説明される少なくとも1つの動作のための命令語を格納するメモリ及び当該の命令語を実行するプロセッサを含む。例えば、例示的なメインニューラルネットワーク110及びサブニューラルネットワーク120の各構成要素は、認識装置100のメモリに格納されるものであって、認識装置100のプロセッサ又はプロセッシングエレメントによって読み出し及び実行されるハイパーパラメータ及びトレーニングされたパラメータ(例えば、トレーニングされた加重値)によってメインニューラルネットワーク110及びサブニューラルネットワーク120が構成され得る。
一実施形態に係るメインニューラルネットワーク110及びサブニューラルネットワーク120は、複数のレイヤを含むニューラルネットワークであってもよい。複数のレイヤのそれぞれは複数のニューロンを含む。隣接するレイヤのニューロンはシナプスに接続される。学習によりシナプスには加重値が付与され、パラメータはこのような加重値を含む。
ニューラルネットワークの複数のレイヤには、入力レイヤ、隠しレイヤ、及び出力レイヤが含まれている。例えば、入力レイヤは、トレーニング又は認識の対象となる入力を受信して隠しレイヤに伝達し、出力レイヤは、隠しレイヤのニューロンから受信した信号に基づいてニューラルネットワークの出力を生成する。隠しレイヤは、入力レイヤと出力レイヤとの間に位置する中間レイヤとして、入力レイヤによって伝達された学習データ又は認識の対象となるデータを予測しやすい値に変化し得る。
一実施形態に係るメインニューラルネットワーク110は、入力された音声信号に対応する認識結果をスケーリングファクター(scaling factor)に基づいて出力する。音声信号は、ユーザ音声を含む信号として音声シーケンスに称してもよく、複数の音声フレームに区分する。ここで、フレームはウィンドウにも称してもよい。
一実施形態に係るメインニューラルネットワーク110は、音響モデルを含む。音響モデルは、入力される音声信号の各フレームがどのような音素に近いかに関する情報を出力する。例えば、音響モデルは、入力される音声信号の各フレームの最も可能性の大きい音素を指示する情報を多次元ベクトル又は確率値などに提供する。音響モデルから出力される情報を用いて、入力された音声信号がどのような単語に近いか、又はどのような文章に近いかが確認できる。また、メインニューラルネットワーク110は、言語モデル及び/又はデコーダをさらに含む。言語モデルによって、入力された音声信号がどのような文章に近いかに関する情報が出力され得る。
メインニューラルネットワーク110は、少なくとも1つのリカレントレイヤ及びルックアヘッド畳み込みレイヤを含み得る。ルックアヘッド畳み込みレイヤは、単方向リカレントニューラルネットワーク(Unidirectional Recurrent Neural Network;Unidirectional RNN)で一定の長さ(size)の未来コンテキストをさらに用いて出力を生成するレイヤを示す。言い換えれば、単方向リカレントニューラルネットワークにルックアヘッド畳み込みレイヤが適用されることで、過去コンテキストのみならず、未来コンテキストがメインニューラルネットワーク110で考慮され得る。ルックアヘッド畳み込みレイヤについては図2を参照して後述する。
メインニューラルネットワーク110で考慮される未来コンテキストの長さは、サブニューラルネットワーク120から受信した1つ以上のスケーリングファクターに基づいて決定される。例えば、メインニューラルネットワーク110は、現在フレーム又は時間に対する音素を予測したり推定するため、例えば、1つ以上の未来フレーム又は時間に対応する動的にリアルタイム選択された未来コンテキストの長さを考慮する。
一実施形態に係るサブニューラルネットワーク120は、入力される音声信号に基づいてスケーリングファクターを決定する。サブニューラルネットワーク120は、リカレントニューラルネットワーク(RNN)、畳み込みニューラルネットワーク、又はディープニューラルネットワーク(DNN)を含む。
一実施形態に係るスケーリングファクターは、音声信号が認識されるとき、メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示す。スケーリングファクターは、音声信号の明確性に基づいて決定される。例えば、スケーリングファクターは、音声信号に含まれたノイズ程度、及び音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定される。このようなスケーリングファクターに基づいて、メインニューラルネットワーク110で考慮される未来コンテキストの長さが決定される。
例えば、サブニューラルネットワーク120によって音声信号に含まれたノイズが多い場合、又は、音声信号に含まれたユーザの発音が不正確なものとして解釈又は決定された場合、当該の音声信号を正確に認識するためには、より多くの未来コンテキストが動的に考慮される必要がある。一方、音声信号に含まれたノイズが少ない場合、又は、音声信号に含まれたユーザ発音が正確な場合、少ない未来コンテキストだけでも当該の音声信号を正確に認識することができる。
このように、スケーリングファクターを用いてメインニューラルネットワーク110で考慮する未来コンテキストの長さを適応的に調整することで、音声認識を効率よく行うことができる。また、スケーリングファクターに基づいて最小の未来コンテキストだけを考慮して音声認識を行うことで、高い正確度で音声認識を実行しながらも反応速度を最大化することができる。
図2は、一実施形態によりメインニューラルネットワークを示す図である。
図2を参照すると、一実施形態に係るメインニューラルネットワーク110は、リカレントレイヤ111及びルックアヘッド畳み込みレイヤ113を含む。図2には、説明の便宜のためにメインニューラルネットワーク110内に2つの隠しレイヤが図示されているが、メインニューラルネットワーク110には1つ以上の隠しレイヤが制限されることなく含まれてもよい。また、隠しレイヤには、1つ以上の隠しノードが制限されることなく含まれてもよい。
メインニューラルネットワーク110で隣接するレイヤに属するノードはシナプスによって接続され、シナプスには、予めトレーニングされた加重値が付与される。
一実施形態に係るリカレントレイヤ111は回帰ループを有し、図2では説明の便宜のために、リカレントレイヤ111が広げられた又は展開された(unfolded)状態に図示されている。例えば、時点tのリカレントレイヤ111の出力xは時点t+1のリカレントレイヤ111に再び入力されることで、時点t+1で新しい出力xt+1が出力される。
一実施形態に係るルックアヘッド畳み込みレイヤ113は、所定の長さの未来コンテキストを考慮する。図2では、説明の便宜のために未来コンテキストの長さτが2であると例示されている。
言い換えれば、時点tのルックアヘッド畳み込みレイヤ113は、時点tのリカレントレイヤ111の出力xのみならず、時点t+1、t+2のリカレントレイヤ111の出力xt+1、xt+2をさらに考慮して出力htを生成する。ここで、時点tのリカレントレイヤ111の出力xには加重値ベクトルwが適用され、時点t+1のリカレントレイヤ111の出力xt+1には加重値ベクトルwが適用され、時点t+2のリカレントレイヤ111の出力xt+2には加重値ベクトルwが適用される。
ルックアヘッド畳み込みレイヤ113で考慮される未来時点におけるリカレントレイヤ111の出力を未来コンテキストと称し、ルックアヘッド畳み込みレイヤ113でカバーする未来時点の範囲を未来コンテキストの長さと称する。
整理すれば、時点tのルックアヘッド畳み込みレイヤ113の出力htについて、下記のように示すことができる。
Figure 0007170405000001
上記の数式(1)において、htは時点tにおけるルックアヘッド畳み込みレイヤ113の出力を示し、xt+jは時点t+jにおけるリカレントレイヤ111の出力を示し、wjは時点t+jにおけるリカレントレイヤ111の出力に適用される加重値ベクトルを示す。
図3は、一実施形態によりスケーリングファクターがメインニューラルネットワークに適用される過程を示す図である。
図3を参照すると、一実施形態に係るメインニューラルネットワーク110は、リカレントレイヤ111及びルックアヘッド畳み込みレイヤ113を含み、リカレントレイヤ111の出力にスケーリングファクターがさらに適用される。
一実施形態に係るスケーリングファクターは、図2を参照して説明した加重値ベクトルと共にリカレントレイヤ111の出力に適用される。例えば、時点tのリカレントレイヤ111の出力xには加重値ベクトルwのみならず、スケーリングファクター内の0次元成分α0も適用され、ルックアヘッド畳み込みレイヤ113に伝達され得る。同様に、時点t+1のリカレントレイヤ111の出力xt+1には加重値ベクトルwとスケーリングファクター内の1次元成分α1が全て適用され、時点t+2のリカレントレイヤ111の出力xt+2には加重値ベクトルwとスケーリングファクター内の2次元成分α2が全て適用されて、ルックアヘッド畳み込みレイヤ113に伝達される。
整理すれば、スケーリングファクターが適用された時点tのルックアヘッド畳み込みレイヤ113の出力htについては、下記のように示すことができる。
Figure 0007170405000002
上記の数式(2)において、αjは時点t+jにおけるリカレントレイヤ111の出力に適用されるスケーリングファクター内のj次元成分を示す。
スケーリングファクターを用いてルックアヘッド畳み込みレイヤ113で考慮する未来コンテキストの長さを調整する過程については、図5を参照して説明する。
図4は、一実施形態によりサブニューラルネットワークを示す図である。
図4を参照すると、一実施形態によりサブニューラルネットワーク120でスケーリングファクター410が決定される例示が示されている。図4では、説明の便宜のためにサブニューラルネットワーク120内の1つの隠しレイヤが図示されているが、サブニューラルネットワーク120には1つ以上の隠しレイヤが制限されることなく含まれてもよい。また、隠しレイヤは、1つ以上の隠しノードを制限されることなく含まれてもよい。
サブニューラルネットワーク120で隣接するレイヤに属するノードは、シナプスによって接続され、シナプスには予めトレーニングされた加重値が付与される。
一実施形態に係るサブニューラルネットワーク120は、図3を参照して説明したメインニューラルネットワーク110と区別されるニューラルネットワークとして、例えば、リカレントニューラルネットワーク、畳み込みニューラルネットワーク、又は、一般的なディープニューラルネットワークであり得る。例えば、サブニューラルネットワーク120は、音声信号に対するコンテキストモデルであり得る。
サブニューラルネットワーク120は、認識の対象となる入力を受信して当該の入力に対応するスケーリングファクター410を出力する。例えば、サブニューラルネットワーク120は、認識の対象となる音声信号を受信し、当該の音声信号に対するスケーリングファクター410を出力する。
一実施形態に係るスケーリングファクター410は、図3に示すメインニューラルネットワーク110のリカレントレイヤ111からルックアヘッド畳み込みレイヤ113に接続される加重値ベクトルをスケーリングする要素として、n次元ベクトルを含む。図4では、説明の便宜のためにスケーリングファクター410が合計3次元ベクトルに該当するものと図示したが、スケーリングファクター410は制限されることなく1つ以上の次元ベクトルを有し得る。
一実施形態に係るスケーリングファクター410内の各成分は、当該の成分に対応するコンテキストの重要度を示す。例えば、スケーリングファクター410内の0次元成分α0は、時点tのリカレントレイヤ111の出力に適用されることにより、時点tのコンテキストに対する重要度を示す。同様に、1次元成分α1は、時点t+1のリカレントレイヤ111の出力に適用されて時点t+1のコンテキストに対する重要度を示し、2次元成分α2は、時点t+2のリカレントレイヤ111の出力に適用されて時点t+2のコンテキストに対する重要度を示す。
サブニューラルネットワーク120から出力されるスケーリングファクター410は、音声信号が認識されるとき、メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示す。スケーリングファクター410は、認識の対象となる音声信号の明確性に基づいて決定される。例えば、スケーリングファクター410は、音声信号に含まれたノイズ程度及び音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定される。
もし、音声信号に含まれたノイズ程度が大きい場合、又は、音声信号に含まれたユーザ発音の正確度が低い場合(例えば、ユーザが明確に発音せず、発音を曖昧にする場合)、スケーリングファクター410は、予め決定された閾値よりも大きい値を有する成分が多くなるよう決定される。例えば、音声信号の明確性が低いほど、スケーリングファクター410に含まれた低次元成分から順次予め決定された閾値よりも大きい値を有するよう決定される。したがって、音声信号の明確性が極めて低い場合、スケーリングファクター410に含まれた低次元成分のみならず、高次元成分も予め決定された閾値よりも大きい値を有するよう決定される。
反対に、音声信号に含まれたノイズ程度が小さい場合、又は、音声信号に含まれたユーザ発音の正確度が高い場合、スケーリングファクター410は予め決定された閾値よりも大きい値を有する成分が少なくなるように決定される。例えば、音声信号の明確性が高いほど、スケーリングファクター410に含まれた高次元成分から順次予め決定された閾値よりも小さい値を有するよう決定される。したがって、音声信号の明確性が相当高い場合、スケーリングファクター410に含まれた高次元成分のみならず、低次元成分も予め決定された閾値よりも小さい値を有するよう決定される。ただし、このような場合にも、スケーリングファクター410の0次元成分α0は、予め決定された閾値よりも大きい値を有するように決定され、同じ時点のコンテキストが考慮されるようにする必要がある。
図5は、一実施形態によりスケーリングファクターに基づいて未来コンテキストの長さが決定される過程を示す図である。
図5を参照すると、一実施形態に係るメインニューラルネットワーク110に含まれたルックアヘッド畳み込みレイヤ113の未来コンテキストの長さがスケーリングファクターに基づいて調整される例示が示されている。
図4に示すサブニューラルネットワーク120で決定されたスケーリングファクターの成分を予め決定された閾値εと比較することで、メインニューラルネットワーク110に適用される未来コンテキストの長さを決定する。
例えば、スケーリングファクターに含まれた成分のうち、2次元成分α2が予め決定された閾値εよりも低い値を有し、残りの成分α0,α1が全て閾値εよりも大きい値を有する場合、未来コンテキストの長さが1に決定され、時点tのルックアヘッド畳み込みレイヤ113の出力を決定するとき、時点t+2のリカレントレイヤ111の出力が排除される。
このように、予め決定された閾値εよりも大きい値を有するスケーリングファクターの成分のうち、最も高い次元の成分に基づいて未来コンテキストの長さが決定され得る。例えば、認識装置は、スケーリングファクターに含まれた複数の成分を高次元成分から順に予め決定された閾値εと比較し、予め決定された閾値εよりも大きい値を有するものとして最初に確認された成分の次元に基づいて、未来コンテキストの長さが決定され得る。
一実施形態に係る予め決定された閾値εは、未来コンテキストの長さを決定するために基準となる値として、試験的に予め決定される。例えば、予め決定された閾値εは、メインニューラルネットワーク110のトレーニング過程のうち決定され、又はトレーニング過程より前もって決定されてもよい。
認識装置は、スケーリングファクターに基づいてメインニューラルネットワーク110に含まれたルックアヘッド畳み込みレイヤ113の未来コンテキストの長さを適応的に調整することで、最小の未来コンテキストを用いて高い正確度及び迅速な反応速度を期待することができる。
図6は、一実施形態によりメインニューラルネットワーク及びサブニューラルネットワークをトレーニングする過程を示す図である。
図6を参照すると、一実施形態に係るメインニューラルネットワーク及びサブニューラルネットワークは同時にトレーニングされてもよい。
一実施形態に係るメインニューラルネットワーク及びサブニューラルネットワークは、トレーニングデータに基づいてトレーニングされる。トレーニングデータは、トレーニング入力及びトレーニング出力を含む。トレーニング出力は、トレーニング入力にマッピングされた出力として、例えば、トレーニング入力から出力されなければならないレーベル(label)であり得る。例えば、音声認識においてトレーニング入力は音声信号であり、トレーニング出力は当該の音声信号が示す音素情報である。
メインニューラルネットワーク及びサブニューラルネットワークは、バックプロパゲーション学習(back propagation learning)610によってメインニューラルネットワーク及びサブニューラルネットワークのレイヤ間の接続加重値、ノードの状態パラメータなどをトレーニングさせ得る。
例えば、メインニューラルネットワーク及びサブニューラルネットワークは、監督学習によってトレーニングされる。監督学習とは、トレーニング入力とそれに対応するトレーニング出力を共に神経網に入力し、トレーニング入力に対応するトレーニング出力が出力されるよう接続線の接続加重値をアップデートする方法である。
バックプロパゲーション学習610は、与えられたトレーニングデータに対して前方算出で損失を推定した後、出力レイヤから始まって隠しレイヤと入力レイヤへの逆方向に推定した損失を伝搬し、損失を減らす方向に接続加重値を調整する方法である。神経網の認識のための処理は、入力レイヤ、隠しレイヤ、出力レイヤの順に行われるが、バックプロパゲーション学習610で接続加重値のアップデート方向は、出力レイヤ、隠しレイヤ、入力レイヤの順に行われる。
ここで、サブニューラルネットワークで出力されたスケーリングファクターに基づいてルックアヘッド畳み込みレイヤの未来コンテキストの長さが調整された状態でバックプロパゲーション学習610が行われる。例えば、スケーリングファクターの2次元成分α2が予め決定された閾値よりも低い値を有し、1次元成分α1が予め決定された閾値よりも大きい値を有する場合、ルックアヘッド畳み込みレイヤの未来コンテキストの長さは1に調整されてトレーニングが実行される。そのため、認識を行うメインニューラルネットワークのみならず、スケーリングファクターを出力するサブニューラルネットワークも共に学習され得る。
一実施形態に係るサブニューラルネットワークは、出力されるスケーリングファクターの各成分が0に近い値を有するよう正規化によりトレーニングされる。そのため、スケーリングファクターに含まれた複数の成分のうち高次元成分であるほど、0に近い値を有するようサブニューラルネットワークがトレーニングされる。
図7は、一実施形態によりスケーリングファクターを説明するための図である。
図7を参照すると、一実施形態に係る第1スケーリングファクター710及び第2スケーリングファクター720が示されている。
第1スケーリングファクター710及び第2スケーリングファクター720は、互いに異なる音声信号に対応してサブニューラルネットワークで出力されたn次元ベクトルを有する。例えば、第1スケーリングファクター710は、第2スケーリングファクター720よりも高い明確性を有する音声信号に対応する。音声信号の明確性が高いことは当該の音声信号に含まれたノイズ程度が小さいか、当該の音声信号に含まれたユーザ発音の正確度が高いことを意味し、この場合、未来コンテキストを少なく考慮しても高い正確度で音声認識を実行することができる。
このように音声信号の明確性に基づいて決定された第1スケーリングファクター710は、第2スケーリングファクター720よりも大体的に小さい値を有する。第1スケーリングファクター710と第2スケーリングファクター720は、予め決定された閾値εとの比較によって、メインニューラルネットワーク内のルックアヘッド畳み込みレイヤで考慮する未来コンテキストの長さが決定され得る。
例示的に示された図7に示す第1スケーリングファクター710の場合、a+1次元成分は予め決定された閾値εよりも低い値を有し、1次元成分からa次元成分は予め決定された閾値εよりも大きい値を有する。したがって、第1スケーリングファクター710の場合、未来コンテキストの長さはa-1に決定される。また、第2スケーリングファクター720の場合、b+1次元成分は予め決定された閾値εよりも低い値を有し、1次元成分からb次元成分は予め決定された閾値εよりも大きい値を有する。したがって、第2スケーリングファクター720の場合、未来コンテキストの長さはb-1に決定され得る。
図8は、一実施形態によりスケーリングファクターを決定する過程を示す図である。
図8を参照すると、一実施形態に係る音声信号のウィンドウを基準としてスケーリングファクター820が決定される例示が示されている。
一実施形態に係る音声信号は、連続した一連のシーケンスデータとして、所定の長さのウィンドウに区分されて認識される。ウィンドウ長さは、設計に応じて相違に設定されてもよい。例えば、音声信号が入力されれば、これを200msecのウィンドウに分割して音声認識が実行され得る。
このようなウィンドウを基準としてサブニューラルネットワークを介してスケーリングファクター820も決定されるが、このようなスケーリングファクター820はウィンドウごとに決定される。音声信号が所定のウィンドウの大きさの連続的なデータで前処理されたキャプチャーされた音声であるか否か、又は音声信号が所定のウィンドウの大きさの連続的なデータのトレーニングデータであるか否かに応じて、当該のウィンドウで決定されたスケーリングファクター820によりルックアヘッド畳み込みレイヤの未来コンテキストの長さを調整し、当該のウィンドウに対する認識又はトレーニングが実行されることができる。
他の一実施形態に係るスケーリングファクター820は、認識の対象となる音声信号の最初のウィンドウ810に対して決定され、最初のウィンドウ810に対して決定されたスケーリングファクター820に基づいて調整された未来コンテキストの長さを有するルックアヘッド畳み込みレイヤを用いて全体ウィンドウに対する認識が実行されてもよい。これは、同じ音声信号内ではノイズ程度やユーザ発音の正確度が大きく変わらないことに着眼したものである。
例えば、反応速度に相対的に敏感でないトレーニングの場合、ウィンドウごとにスケーリングファクター820を決定するが、反応速度に敏感な認識の場合、音声信号の最初のウィンドウ810に対して決定したスケーリングファクター820を用いて全体ウィンドウに対して認識を行う。
図9は、一実施形態に係る認識方法を示す図である。
図9を参照すると、一実施形態に係る認識装置のプロセッサで実行される認識方法が示されている。
ステップS910において、認識装置は、サブニューラルネットワークを用いて音声信号からスケーリングファクターを取得する。スケーリングファクターは、音声信号が認識されるとき、メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示す。例えば、スケーリングファクターは、音声信号に含まれたノイズ程度及び音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定される。スケーリングファクターはτ次元ベクトルを含む。
ステップS920において、認識装置は、スケーリングファクター内の最も高い次元成分から先に考慮される。認識装置は、考慮しようとするj次元をτに設定する。
ステップS930において、認識装置は、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも小さいか否かを判断する。
もし、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも小さい場合、ステップS940において、認識装置は、メインニューラルネットワークから加重値ベクトルwを除去する。加重値ベクトルwは、時点tのルックアヘッド畳み込みレイヤに伝えられる時点t+jのリカレントレイヤの出力に適用される加重値であり得る。言い換えれば、メインニューラルネットワークから加重値ベクトルwを除去することにより、時点t+jの未来コンテキストは考慮から除外され得る。
ステップS950において、認識装置は次に考慮する次元をステップS930で判断した次元よりも一次元低くして設定する。
そして、ステップS930において、認識装置は、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも小さいか否かを判断する。予め決定された閾値εよりも大きい値を有するj次元成分αjが確認されるまで、ステップS930~ステップS950が繰り返して実行される。
もし、ステップS930でスケーリングファクターのj次元成分αjが予め決定された閾値εよりも大きい場合、ステップS960において、認識装置は、メインニューラルネットワークに含まれたルックアヘッド畳み込みレイヤの未来コンテキストの長さをjに調整する。
ステップS970において、認識装置は、未来コンテキストの長さがjに調整された畳み込みレイヤを含むメインニューラルネットワークを用いて音声信号を認識する。
図9に示された各ステップには図1~図8を参照して前述した事項が同様に適用され得るため、より詳細な説明は省略する。
図10は、一実施形態に係るトレーニング方法を示す図である。
図10を参照すると、一実施形態に係るトレーニング装置のプロセッサで実行されるトレーニング方法が示されている。
ステップS1010において、トレーニング装置は、サブニューラルネットワークを用いてトレーニング入力からスケーリングファクターを取得する。
ステップS1020において、トレーニング装置は、スケーリングファクター内の最も高い次元成分から先に考慮される。トレーニング装置は、考慮しようとするj次元をτに設定する。
ステップS1030において、トレーニング装置は、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも小さいか否かを判断する。
もし、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも小さい場合、ステップS1040において、トレーニング装置は、メインニューラルネットワークから加重値ベクトルwを除去する。加重値ベクトルwは、時点tのルックアヘッド畳み込みレイヤに伝えられる時点t+jのリカレントレイヤの出力に適用される加重値である。言い換えれば、メインニューラルネットワークから加重値ベクトルwを除去することにより、時点t+jの未来コンテキストは考慮から除外される。
ステップS1050において、トレーニング装置は、次に考慮する次元をステップS1030で判断した次元よりも一次元低くして設定する。
そして、ステップS1030においてトレーニング装置は、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも小さいか否かを判断する。予め決定された閾値εよりも大きい値を有するj次元成分αjが確認されるまで、ステップS1030~ステップS1050が繰り返して実行される。
もし、ステップS1030で、スケーリングファクターのj次元成分αjが予め決定された閾値εよりも大きい場合、トレーニング装置は、メインニューラルネットワークに含まれたルックアヘッド畳み込みレイヤの未来コンテキストの長さをjに調整する。
ステップS1060において、トレーニング装置は、未来コンテキストの長さがjに調整された畳み込みレイヤを含むメインニューラルネットワークとサブニューラルネットワークをトレーニングさせる。例えば、トレーニング装置は、未来コンテキストの長さがjに調整された畳み込みレイヤを含むメインニューラルネットワークとサブニューラルネットワークを用いてトレーニング入力からトレーニング出力が出力されるよう、メインニューラルネットワークとサブニューラルネットワークを同時にトレーニングさせ得る。
図10に示された各ステップには、図1~図9を参照して前述した事項が同様に適用され得るため、より詳細な説明は省略する。
図11は、一実施形態に係る認識装置を示す図である。
図11を参照すると、一実施形態に係る認識装置1100はプロセッサ1110及びメモリ1120を含む。
メモリ1120は先に説明したメインニューラルネットワーク1121及びサブニューラルネットワーク1123のパラメータを格納する。また、メモリ1120は、コンピュータで読み出し可能な命令語を含む。プロセッサ1110は、メモリ1120に格納された命令語がプロセッサ1110で実行されることにより、先に言及された動作を行う。メモリ1120は、揮発性メモリ又は不揮発性メモリであり得る。
プロセッサ1110は、メモリ1120でメインニューラルネットワーク1121及びサブニューラルネットワーク1123に関するデータを取得し、メインニューラルネットワーク1121及びサブニューラルネットワーク1123に関する動作を処理する。
一実施形態に係るプロセッサ1110は、音声信号が入力されたサブニューラルネットワーク1123からスケーリングファクターを取得し、スケーリングファクターに基づいてメインニューラルネットワーク1121で考慮する未来コンテキストの長さを決定し、決定された未来コンテキストの長さが適用されたメインニューラルネットワーク1121に音声信号が入力されることで、メインニューラルネットワーク1121から出力される音声信号の認識結果を取得する。
その他に、認識装置1100には前述された事項が適用することができ、より詳細な説明は省略する。
図12は、一実施形態に係るトレーニング装置を示す図である。
図12を参照すると、一実施形態に係るトレーニング装置1200はプロセッサ1210及びメモリ1220を含む。
メモリ1220は、先に説明したメインニューラルネットワーク1221及びサブニューラルネットワーク1223のパラメータを格納する。また、メモリ1220はコンピュータで読み出し可能な命令語を含む。
プロセッサ1210は、メモリ1220に格納された命令語がプロセッサ1210で実行されることにより、先に言及された動作を行う。プロセッサ1210は、メモリ1220でメインニューラルネットワーク1221及びサブニューラルネットワーク1223を取得する。メインニューラルネットワーク1221及びサブニューラルネットワーク1223の各トレーニングされたパラメータが最終決定されるまで、プロセッサ1210は、トレーニングデータ1201に基づいてメインニューラルネットワーク1221及びサブニューラルネットワーク1223をトレーニングさせ得る。
トレーニングデータ1201は、トレーニング入力及びトレーニング出力を含む。トレーニング入力は、メインニューラルネットワーク1221及びサブニューラルネットワーク1223に入力される入力データであって、例えば、音声データを含む。トレーニング出力は、トレーニング入力にマッピングされたデータであって、例えば、トレーニング入力がメインニューラルネットワーク1221及びサブニューラルネットワーク1223に入力されることで、メインニューラルネットワーク1221で出力されなければならないレーベルであり得る。
プロセッサ1210は、トレーニング入力からトレーニング出力が生成されるよう、メインニューラルネットワーク1221及びサブニューラルネットワーク1223をトレーニングさせる。メインニューラルネットワーク1221及びサブニューラルネットワーク1223を訓練させることは、メインニューラルネットワーク1221及びサブニューラルネットワーク1223のパラメータを訓練させること、メインニューラルネットワーク1221及びサブニューラルネットワーク1223を更新すること、あるいはメインニューラルネットワーク1221及びサブニューラルネットワーク1223のパラメータを更新することを含む。
プロセッサ1210は、トレーニング入力が入力されたサブニューラルネットワーク1223からスケーリングファクターを取得し、スケーリングファクターに基づいてメインニューラルネットワーク1221で考慮する未来コンテキストの長さを決定する。そして、プロセッサ1210は、決定された未来コンテキストの長さが適用されたメインニューラルネットワーク1221にトレーニング入力が入力されることによって、メインニューラルネットワーク1221でトレーニング入力にマッピングされたトレーニング出力が出力されるよう、メインニューラルネットワーク1221及びサブニューラルネットワーク1223をトレーニングさせる。
メインニューラルネットワーク1221は、サブニューラルネットワーク1223の出力(例えば、スケーリングファクター)に基づいて動作するため、メインニューラルネットワーク1221及びサブニューラルネットワーク1223は同時にトレーニングされ得る。
その他に、トレーニング装置1200には前述された事項が適用することができ、より詳細な説明は省略する。
図13は、一実施形態に係る電子装置を示す図である。
図13を参照すると、一実施形態により音声認識装置が電子装置1300として図示されている。
一実施形態によると、電子装置1300は、図1に示す音声認識装置100及び/又は図11に示す音声認識装置1100のような音声認識装置及び/又は図12に示すトレーニング装置1200を含む。電子装置1300は、TVset、セットトップボックス、デスクトップコンピュータ、ラップトップコンピュータ、翻訳マシーン、スマートフォン、タブレットPC、スマートウォッチ、ウェアラブル装置、車両の電子制御装置など、電子装置1300によって音声認識されたユーザ命令を処理できる装置である。ただし、電子装置1300の実施形態がこれに制限されることなく、音声認識が適用される異なる電子装置にも適用可能である。
図13によると、一実施形態に係る電子装置1300は、音声受信機1310、音声認識器1320、及びプロセッサ1330を含む。ここで、音声認識器1320は、図1~図12を参照して説明された音声認識装置及び/又はトレーニング装置に当該する。音声認識器1320は、前述した1つ以上のプロセッシング装置によって実現されるハードウェア、又は電子装置1300の他の動作を制御するように構成される前述した1つ以上のプロセッシング装置によって実現される。音声認識部1320により認識されたユーザの命令又はクエリに応答してユーザインターフェース動作が実行される。
音声受信機1310は、マイクロホンによって入力されたユーザのオーディオ信号を受信する。又は、音声受信機1310は、対応する音声認識システムの別途の装置(例えば、無線又は有線マイクロホン、又は受信されたりキャプチャーされたオーディオを送信するコントローラなど)に該当する。オーディオ信号は、電子装置1300又はその他の電子装置を制御するための単語、構文文章、命令に関する信号である。また、受信又はキャプチャーされたオーディオに対する前処理は、受信又はキャプチャーされたアナログオーディオ信号をデジタル信号にコンバーティングする動作、デジタル信号を複数のオーディオフレーム、又はウィンドウに分割する動作、及びオーディオフレームを音声認識器1320に送信する動作を含む。格納されたオーディオ又は格納された前処理されたオーディオは、音声認識器1320に提供される。したがって、実施形態によってコンテキストモデル、音響モデル、言語モデル、及びデコーダが1つ以上の遠隔サーバとして実現され得る。例えば、音声認識器1320は遠隔サーバで構成され、電子装置1300はキャプチャーされたオーディオを送信し、(a)音響モデル、(b)音響モデル及び言語モデル、又は(c)デコーダの適切な出力を受信する。
したがって、音声認識器1320は、音響モデル又は音響モデル及び言語モデルの結果をデコーダ又は次のレイヤに入力させ、デコーダの出力結果に基づいてオーディオ信号の最終認識結果を出力することができる。
プロセッサ1330は、電子装置1300の追加的な動作を制御したり行う。プロセッサ1330は、音声認識器1320からリターンされた最終の認識結果に応答して電子装置1300の現在又は追加動作を制御する。例えば、プロセッサ1330は、ユーザから入力された音声の認識結果をテキスト形態にディスプレイ上に表示する。そのため、メッセージ又は文書作成が実行され得る。加えて、プロセッサ1330は、追加的な非音声認識動作を行ったり、電子装置1300に関する命令(例えば、電源オン/オフ、ボリューム制御、音楽選択など)を行う。認識装置1300は、認識結果をディスプレイ上に表示したり、音声的に出力する。インターフェース1340は、電子装置1300のスピーカ、1つ以上のユーザインターフェースを示す。例えば、インターフェース1340は、ディスプレイ、キーボード及び/又はタッチスクリーン、及び/又はその他の外部装置とデータをやり取りするための1つ以上の通信ハードウェアモジュールを示す。その他にも、様々なインターフェースが制限されることなく適用されてもよい。また、インターフェース1340は、音声認識器1320によって前処理されたオーディオ信号を生成するマイクロホンを示してもよい。
図11に示すメモリ1120及び図12に示すメモリ1220などのような電子装置1300のメモリは、コンテキストモデル、音響モデル、及び言語モデルなどを格納する。メモリは電子装置1300の1つ以上のプロセッサに、前述の動作を行わせる実行可能な命令語を含む。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであり得る。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードのみならず、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。

Claims (27)

  1. プロセッサによる認識方法において、
    メインニューラルネットワーク及びサブニューラルネットワークに音声信号を提供するステップと、
    前記サブニューラルネットワークを用いて、前記提供された音声信号を解釈することにより、スケーリングファクターを取得するステップと、
    前記スケーリングファクターに基づいて、音声認識を行うメインニューラルネットワークで考慮する未来コンテキストの長さを決定するステップと、
    前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークを用いて前記音声信号の認識結果を取得するステップと、
    を含む認識方法。
  2. 前記メインニューラルネットワークは、以前時間連結を含む第1レイヤ及び未来時間連結を含む第2レイヤを含む、請求項1に記載の認識方法。
  3. 前記未来コンテキストの長さを決定するステップは、
    前記メインニューラルネットワークによる音声認識それぞれに対する未来コンテキストそれぞれの長さを決定し、
    前記未来コンテキストそれぞれの長さは、前記サブニューラルネットワークによる音声信号の対応するコンテキスト解釈に基づいて動的に決定される、請求項1に記載の認識方法。
  4. 前記メインニューラルネットワーク及び前記サブニューラルネットワークに前記音声信号を提供するステップは、
    前記音声信号に含まれた複数の音声フレーム又はウィンドウを前記メインニューラルネットワークに提供し、前記複数の音声フレーム又はウィンドウの一部を前記サブニューラルネットワークに提供し、
    前記サブニューラルネットワークは、前記複数の音声フレーム又はウィンドウの一部を解釈することによって前記スケーリングファクターを生成し、
    前記メインニューラルネットワークは、前記複数の音声フレーム又はウィンドウに基づいて音声信号を認識する、請求項1ないし3のうち何れか一項に記載の認識方法。
  5. 前記メインニューラルネットワーク及び前記サブニューラルネットワークに前記音声信号を提供するステップは、前記スケーリングファクターを取得するために、前記複数の音声フレーム又はウィンドウの全て又は一部のいずれか1つを前記サブニューラルネットワークに提供する、請求項4に記載の認識方法。
  6. 前記スケーリングファクターを取得するステップは、前記サブニューラルネットワークを用いて、前記音声信号が認識されるとき前記メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示すスケーリングファクターを取得する、請求項1ないし5のうち何れか一項に記載の認識方法。
  7. 前記スケーリングファクターを取得するステップは、前記サブニューラルネットワークによって解釈された前記音声信号に含まれたノイズ程度、及び前記音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定されたスケーリングファクターを取得する、請求項6に記載の認識方法。
  8. 前記スケーリングファクターを取得するステップは、前記サブニューラルネットワークによって相対的に低く解釈された音声信号の明確性に基づいて予め決定された閾値よりも大きい値を有する成分が多くなるよう前記スケーリングファクターを決定する、請求項6に記載の認識方法。
  9. 前記未来コンテキストの長さを決定するステップは、前記スケーリングファクターに基づいて前記サブニューラルネットワークによって相対的に低く解釈された音声信号の明確性により前記未来コンテキストの長さを大きく決定し、前記サブニューラルネットワークによって相対的に高く解釈された音声信号の明確性により前記未来コンテキストの長さを小さく決定する、請求項1に記載の認識方法。
  10. 前記未来コンテキストの長さを決定するステップは、前記スケーリングファクターに含まれた成分の値と予め決定された閾値との間の比較によって前記未来コンテキストの長さを決定する、請求項1に記載の認識方法。
  11. 前記未来コンテキストの長さを決定するステップは、前記予め決定された閾値よりも大きい値を有する前記スケーリングファクターの成分のうち最も高い次元に基づいて前記未来コンテキストの長さを決定する、請求項10に記載の認識方法。
  12. 前記音声信号の認識結果を取得するステップは、
    前記メインニューラルネットワークに含まれたルックアヘッド畳み込みレイヤの未来コンテキストの長さを前記決定された未来コンテキストの長さに調整するステップと、
    前記調整されたルックアヘッド畳み込みレイヤを含むメインニューラルネットワークに前記音声信号を入力するステップと、
    前記調整されたルックアヘッド畳み込みレイヤを含むメインニューラルネットワークから出力される音声信号の認識結果を取得するステップと、
    を含む、請求項1ないし11のうち何れか一項に記載の認識方法。
  13. 前記ルックアヘッド畳み込みレイヤの未来コンテキストの長さを前記決定された未来コンテキストの長さに調整するステップは、前記決定された未来コンテキストの長さに基づいて、前記ルックアヘッド畳み込みレイヤに対するゼロ未来コンテキスト、一部の未来コンテキスト、全ての未来コンテキストのうちいずれか1つを選択する、請求項12に記載の認識方法。
  14. 前記未来コンテキストの長さを決定するステップは、前記音声信号の複数のウィンドウのうち最初のウィンドウで取得したスケーリングファクターに基づいて前記未来コンテキストの長さを決定し、
    前記音声信号の認識結果を取得するステップは、前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークを用いて、前記音声信号に含まれた複数のウィンドウに対する認識結果を取得する、請求項1に記載の認識方法。
  15. 前記メインニューラルネットワークは、ルックアヘッド畳み込みレイヤを含む単方向リカレントニューラルネットワークである、請求項1ないし14のうち何れか一項に記載の認識方法。
  16. 前記メインニューラルネットワーク及び前記サブニューラルネットワークは、共にトレーニングされるニューラルネットワークである、請求項1ないし14のうち何れか一項に記載の認識方法。
  17. プロセッサによるトレーニング方法において、
    トレーニング入力が入力されたサブニューラルネットワークからスケーリングファクターを取得するステップと、
    前記スケーリングファクターに基づいてメインニューラルネットワークで考慮する未来コンテキストの長さを決定するステップと、
    前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークに前記トレーニング入力が入力されることによって、前記メインニューラルネットワークで前記トレーニング入力にマッピングされたトレーニング出力が出力されるよう、前記メインニューラルネットワーク及び前記サブニューラルネットワークをトレーニングするステップと、
    を含むトレーニング方法。
  18. 前記メインニューラルネットワーク及び前記サブニューラルネットワークをトレーニングするステップは、前記メインニューラルネットワークと前記サブニューラルネットワークを同時にトレーニングする、請求項17に記載のトレーニング方法。
  19. 請求項1ないし請求項18のいずれか一項に記載の方法をプロセッサに実行させる命令語を含むコンピュータプログラム。
  20. プロセッサと
    少なくとも1つの命令語を含むメモリと
    を有する認識装置であって、前記命令語が前記プロセッサにより実行されると、前記プロセッサは、
    メインニューラルネットワーク及びサブニューラルネットワークに音声信号を提供し、
    前記サブニューラルネットワークを用いて、前記提供された音声信号を解釈することによりスケーリングファクターを取得し、
    音声認識を行うメインニューラルネットワークで考慮する未来コンテキストの長さを前記スケーリングファクターに基づいて決定し、前記決定された未来コンテキストの長さが適用された前記メインニューラルネットワークを用いて、前記音声信号の認識結果を取得する、認識装置。
  21. 前記少なくとも1つの命令語は、前記プロセッサによって音声認識が提供され、前記スケーリングファクターを取得し、前記未来コンテキストの長さを決定し、前記認識結果を取得することを、前記プロセッサに実行させる、請求項20記載の認識装置。
  22. 前記メモリは、前記メインニューラルネットワーク及び前記サブニューラルネットワークのトレーニングされたパラメータそれぞれを含み、
    前記プロセッサは、前記メインニューラルネットワーク及び前記サブニューラルネットワークが実行される場合、前記トレーニングされたパラメータそれぞれを前記メインニューラルネットワーク及び前記サブニューラルネットワークに適用する、請求項20又は21に記載の認識装置。
  23. 前記プロセッサは、前記サブニューラルネットワークを用いて前記音声信号が認識される場合に、前記メインニューラルネットワークで考慮される未来コンテキストの時点ごとの重要度を示すスケーリングファクターを取得する、請求項20ないし22のうち何れか一項に記載の認識装置。
  24. 前記プロセッサは、前記サブニューラルネットワークによって解釈された前記音声信号に含まれたノイズ程度及び前記音声信号に含まれたユーザ発音の正確度のうち少なくとも1つに基づいて決定されたスケーリングファクターを取得する、請求項23記載の認識装置。
  25. 前記プロセッサは、前記サブニューラルネットワークによって相対的に低く解釈された音声信号の明確性に基づいて予め決定された閾値よりも大きい値を有する成分が多くなるように前記スケーリングファクターを決定する、請求項20ないし22のうち何れか一項に記載の認識装置。
  26. 前記プロセッサは、前記スケーリングファクターに含まれた成分の値と予め決定された閾値との間の比較によって前記未来コンテキストの長さを決定する、請求項20ないし25のうち何れか一項に記載の認識装置。
  27. 前記認識装置は、電子装置であり、オーディオをキャプチャーする音声受信機をさらに含み、前記プロセッサは、前記キャプチャーされたオーディオから前記音声信号を抽出し、
    前記プロセッサは、前記認識結果に基づいて解釈された命令に基づいて前記認識装置の非音声認識機能を制御する、請求項21ないし26のうち何れか一項に記載の認識装置。
JP2018042978A 2017-08-14 2018-03-09 ニューラルネットワークを用いた認識方法及び装置並びにトレーニング方法 Active JP7170405B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170103044A KR102410820B1 (ko) 2017-08-14 2017-08-14 뉴럴 네트워크를 이용한 인식 방법 및 장치 및 상기 뉴럴 네트워크를 트레이닝하는 방법 및 장치
KR10-2017-0103044 2017-08-14

Publications (2)

Publication Number Publication Date
JP2019035936A JP2019035936A (ja) 2019-03-07
JP7170405B2 true JP7170405B2 (ja) 2022-11-14

Family

ID=61563289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042978A Active JP7170405B2 (ja) 2017-08-14 2018-03-09 ニューラルネットワークを用いた認識方法及び装置並びにトレーニング方法

Country Status (5)

Country Link
US (1) US10504506B2 (ja)
EP (1) EP3444807B1 (ja)
JP (1) JP7170405B2 (ja)
KR (1) KR102410820B1 (ja)
CN (1) CN109410924B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615300B1 (en) * 2018-06-13 2023-03-28 Xilinx, Inc. System and method for implementing neural networks in integrated circuits
KR102292800B1 (ko) 2018-08-22 2021-08-25 한국전자통신연구원 신경망 융합 장치, 그것의 단위 신경망 융합 방법 및 정합 인터페이스 생성 방법
CN111341299B (zh) * 2018-11-30 2021-10-15 阿里巴巴集团控股有限公司 一种语音处理方法及装置
US11631399B2 (en) * 2019-04-16 2023-04-18 Microsoft Technology Licensing, Llc Layer trajectory long short-term memory with future context
EP3948854B1 (en) * 2019-04-16 2024-01-31 Google LLC Joint endpointing and automatic speech recognition
CN110298240B (zh) * 2019-05-21 2022-05-06 北京迈格威科技有限公司 一种汽车用户识别方法、装置、系统及存储介质
CN111383628B (zh) * 2020-03-09 2023-08-25 第四范式(北京)技术有限公司 一种声学模型的训练方法、装置、电子设备及存储介质
CN111968628B (zh) * 2020-08-22 2021-06-25 南京硅基智能科技有限公司 一种用于语音指令捕捉的信号精确度调节系统及方法
CN112259071A (zh) * 2020-09-22 2021-01-22 北京百度网讯科技有限公司 语音处理系统、语音处理方法、电子设备和可读存储介质
CN112201249B (zh) * 2020-09-29 2024-05-17 北京达佳互联信息技术有限公司 一种语音处理方法、装置、电子设备及存储介质
CN112613601B (zh) * 2020-12-24 2024-01-16 暨南大学 神经网络模型更新方法、设备及计算机存储介质
CN112885338B (zh) * 2021-01-29 2024-05-14 深圳前海微众银行股份有限公司 语音识别方法、设备、计算机可读存储介质及程序产品
CN114067800B (zh) * 2021-04-28 2023-07-18 北京有竹居网络技术有限公司 语音识别方法、装置和电子设备
CN114141317A (zh) * 2021-12-07 2022-03-04 北京百度网讯科技有限公司 化合物性质预测模型训练方法、装置、设备以及存储介质
CN117275499B (zh) * 2023-11-17 2024-02-02 深圳波洛斯科技有限公司 自适应神经网络的降噪方法及相关装置
CN117727306A (zh) * 2023-12-21 2024-03-19 青岛润恒益科技有限公司 一种基于原生声纹特征的拾音翻译方法、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117045A (ja) 2015-12-22 2017-06-29 日本電信電話株式会社 言語確率算出方法、言語確率算出装置および言語確率算出プログラム
JP2018513398A (ja) 2015-11-25 2018-05-24 バイドゥ ユーエスエー エルエルシーBaidu USA LLC 配置されたエンドツーエンド音声認識
US20180336887A1 (en) 2017-05-22 2018-11-22 Samsung Electronics Co., Ltd. User adaptive speech recognition method and apparatus

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US8189825B2 (en) * 1994-05-09 2012-05-29 Breed David S Sound management techniques for vehicles
JPH08227410A (ja) * 1994-12-22 1996-09-03 Just Syst Corp ニューラルネットワークの学習方法、ニューラルネットワークおよびニューラルネットワークを利用した音声認識装置
US7313467B2 (en) * 2000-09-08 2007-12-25 Automotive Technologies International Inc. System and method for in-vehicle communications
US7738678B2 (en) * 1995-06-07 2010-06-15 Automotive Technologies International, Inc. Light modulation techniques for imaging objects in or around a vehicle
US6381569B1 (en) * 1998-02-04 2002-04-30 Qualcomm Incorporated Noise-compensated speech recognition templates
EP2221805B1 (en) * 2009-02-20 2014-06-25 Nuance Communications, Inc. Method for automated training of a plurality of artificial neural networks
US9002765B1 (en) * 2010-11-11 2015-04-07 Muralidhar Ravuri Stable parallel loop systems
US9373085B1 (en) * 2012-05-15 2016-06-21 Vicarious Fpc, Inc. System and method for a recursive cortical network
CN102800316B (zh) * 2012-08-30 2014-04-30 重庆大学 基于神经网络的声纹识别系统的最优码本设计方法
US9263036B1 (en) 2012-11-29 2016-02-16 Google Inc. System and method for speech recognition using deep recurrent neural networks
US9406017B2 (en) 2012-12-24 2016-08-02 Google Inc. System and method for addressing overfitting in a neural network
GB2513105A (en) * 2013-03-15 2014-10-22 Deepmind Technologies Ltd Signal processing systems
US20150269481A1 (en) 2014-03-24 2015-09-24 Qualcomm Incorporated Differential encoding in neural networks
US10275705B2 (en) * 2014-08-08 2019-04-30 Vicarious Fpc, Inc. Systems and methods for generating data explanations for neural networks and related systems
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US10540957B2 (en) 2014-12-15 2020-01-21 Baidu Usa Llc Systems and methods for speech transcription
KR102305584B1 (ko) 2015-01-19 2021-09-27 삼성전자주식회사 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치
US20160284349A1 (en) * 2015-03-26 2016-09-29 Binuraj Ravindran Method and system of environment sensitive automatic speech recognition
WO2016197046A1 (en) * 2015-06-05 2016-12-08 Google Inc. Spatial transformer modules
KR102413692B1 (ko) * 2015-07-24 2022-06-27 삼성전자주식회사 음성 인식을 위한 음향 점수 계산 장치 및 방법, 음성 인식 장치 및 방법, 전자 장치
US9607616B2 (en) * 2015-08-17 2017-03-28 Mitsubishi Electric Research Laboratories, Inc. Method for using a multi-scale recurrent neural network with pretraining for spoken language understanding tasks
KR102386854B1 (ko) * 2015-08-20 2022-04-13 삼성전자주식회사 통합 모델 기반의 음성 인식 장치 및 방법
US10147442B1 (en) * 2015-09-29 2018-12-04 Amazon Technologies, Inc. Robust neural network acoustic model with side task prediction of reference signals
KR102423302B1 (ko) * 2015-10-06 2022-07-19 삼성전자주식회사 음성 인식에서의 음향 점수 계산 장치 및 방법과, 음향 모델 학습 장치 및 방법
US10733979B2 (en) 2015-10-09 2020-08-04 Google Llc Latency constraints for acoustic modeling
WO2017083695A1 (en) * 2015-11-12 2017-05-18 Google Inc. Generating target sequences from input sequences using partial conditioning
US9928435B2 (en) * 2015-12-30 2018-03-27 Samsung Electronics Co., Ltd System and method for providing an on-chip context aware contact list
US11263514B2 (en) * 2016-01-13 2022-03-01 Google Llc Processing and generating sets using recurrent neural networks
KR102501838B1 (ko) * 2016-02-01 2023-02-23 삼성전자주식회사 심전도 신호를 이용한 인증 장치 및 방법
ES2874629T3 (es) * 2016-03-07 2021-11-05 Fraunhofer Ges Forschung Unidad de ocultación de error, decodificador de audio y método y programa informático relacionados que desvanecen una trama de audio ocultada según factores de amortiguamiento diferentes para bandas de frecuencia diferentes
US10460747B2 (en) * 2016-05-10 2019-10-29 Google Llc Frequency based audio analysis using neural networks
US10431206B2 (en) * 2016-08-22 2019-10-01 Google Llc Multi-accent speech recognition
US11080591B2 (en) * 2016-09-06 2021-08-03 Deepmind Technologies Limited Processing sequences using convolutional neural networks
EP3497629B1 (en) * 2016-09-06 2020-11-04 Deepmind Technologies Limited Generating audio using neural networks
US10685285B2 (en) * 2016-11-23 2020-06-16 Microsoft Technology Licensing, Llc Mirror deep neural networks that regularize to linear networks
US11133011B2 (en) * 2017-03-13 2021-09-28 Mitsubishi Electric Research Laboratories, Inc. System and method for multichannel end-to-end speech recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018513398A (ja) 2015-11-25 2018-05-24 バイドゥ ユーエスエー エルエルシーBaidu USA LLC 配置されたエンドツーエンド音声認識
JP2017117045A (ja) 2015-12-22 2017-06-29 日本電信電話株式会社 言語確率算出方法、言語確率算出装置および言語確率算出プログラム
US20180336887A1 (en) 2017-05-22 2018-11-22 Samsung Electronics Co., Ltd. User adaptive speech recognition method and apparatus

Also Published As

Publication number Publication date
EP3444807B1 (en) 2020-05-13
EP3444807A1 (en) 2019-02-20
KR102410820B1 (ko) 2022-06-20
KR20190018278A (ko) 2019-02-22
US10504506B2 (en) 2019-12-10
CN109410924A (zh) 2019-03-01
CN109410924B (zh) 2023-09-08
JP2019035936A (ja) 2019-03-07
US20190051291A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
JP7170405B2 (ja) ニューラルネットワークを用いた認識方法及び装置並びにトレーニング方法
JP7066349B2 (ja) 翻訳方法、翻訳装置及びコンピュータプログラム
US10957309B2 (en) Neural network method and apparatus
JP6758811B2 (ja) 言語モデル学習方法及び装置、音声認識方法及び装置
JP7109302B2 (ja) 文章生成モデルのアップデート方法及び文章生成装置
KR102305584B1 (ko) 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치
US11100296B2 (en) Method and apparatus with natural language generation
JP6802005B2 (ja) 音声認識装置、音声認識方法及び音声認識システム
US10529319B2 (en) User adaptive speech recognition method and apparatus
US10580432B2 (en) Speech recognition using connectionist temporal classification
CN108885870A (zh) 用于通过将言语到文本系统与言语到意图系统组合来实现声音用户接口的系统和方法
US11776269B2 (en) Action classification in video clips using attention-based neural networks
Hou et al. Gaussian Prediction Based Attention for Online End-to-End Speech Recognition.
US10825445B2 (en) Method and apparatus for training acoustic model
JP2020086436A (ja) 人工神経網における復号化方法、音声認識装置及び音声認識システム
US11694677B2 (en) Decoding method and apparatus in artificial neural network for speech recognition
KR20220130565A (ko) 키워드 검출 방법 및 장치
US20230096805A1 (en) Contrastive Siamese Network for Semi-supervised Speech Recognition
JP2020027609A (ja) 応答推論方法及び装置
KR20210042696A (ko) 모델 학습 방법 및 장치
EP4030352A1 (en) Task-specific text generation based on multimodal inputs
US11775617B1 (en) Class-agnostic object detection
KR20200120595A (ko) 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치
US20240104311A1 (en) Hybrid language translation on mobile devices
KR102382191B1 (ko) 음성 감정 인식 및 합성의 반복 학습 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7170405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150