JP6574169B2 - 多方向の復号をする音声認識 - Google Patents

多方向の復号をする音声認識 Download PDF

Info

Publication number
JP6574169B2
JP6574169B2 JP2016517330A JP2016517330A JP6574169B2 JP 6574169 B2 JP6574169 B2 JP 6574169B2 JP 2016517330 A JP2016517330 A JP 2016517330A JP 2016517330 A JP2016517330 A JP 2016517330A JP 6574169 B2 JP6574169 B2 JP 6574169B2
Authority
JP
Japan
Prior art keywords
channel
speech recognition
feature vector
speech
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016517330A
Other languages
English (en)
Other versions
JP2016536626A (ja
Inventor
マクシミリアン エマニュエル ビサーニ、マイケル
マクシミリアン エマニュエル ビサーニ、マイケル
ストロム、ニッコ
ホフマイスター、ビョルン
ポール トーマス、ライアン
ポール トーマス、ライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2016536626A publication Critical patent/JP2016536626A/ja
Application granted granted Critical
Publication of JP6574169B2 publication Critical patent/JP6574169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/01Noise reduction using microphones having different directional characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/21Direction finding using differential microphone array [DMA]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Telephonic Communication Services (AREA)

Description

人間とコンピュータの相互作用は、人間がコンピューティング装置を制御し、話すことによって、装置への入力を提供できるところまで進展している。コンピューティング装置は、受信した音声入力の様々な品質に基づいて、人間のユーザによって話された単語を識別する技術手法を採用している。これらの技術手法は、音声認識または自動音声認識(ASR)と呼ばれている。言語処理技術と組み合わせた音声認識は、ユーザの音声コマンドに基づいて、ユーザがタスクを実行するためにコンピューティング装置を制御することを可能にする。音声認識は、また、ユーザの音声をテキストデータに変換し、様々なテキストベースのプログラムやアプリケーションに提供されてもよい。
人間とコンピュータの相互作用を改善するコンピュータ、ハンドヘルドデバイス、電話コンピュータシステム、キオスク及びその他の多種多様なデバイスは、音声認識を使用することができる。
本開示のより完全な理解のために、添付の図面と併せて、以下の記述を参照する。
本開示の一態様によるビーム形成器からの多チャネルの音声を復号するための1つの技術手法を図示している。 本開示の一態様による分離された音声認識で使用するコンピュータネットワークを図示している。 本開示の一態様による音声認識装置を概念的に図示するブロック図である。 本開示の一態様による処理されたオーディオ波形を図示している。 本開示の一態様による音素処理を図示している。 本開示の一態様による隠れマルコフモデルを使用して音素処理を図示している。 本開示の一態様による単語結果ネットワークを図示している。 本開示の一態様による音声認識格子を図示している。 本開示の一態様による音声認識のニューラルネットワークを図示している。 本開示の一態様による音声認識のニューラルネットワークを図示している。 本開示の一態様によるHMM結果ネットワークを図示している。 本開示の態様によるビーム形成器から受信された多チャネルの音声の復号に基づく音声処理法を示す。
自動音声認識(ASR)技術手法は、ユーザが音声取込装置(例えば、音声入力/取込要素及び/またはマイクロフォン)に話しかけることができ、音声を含む音声信号がASR装置によって認識されるコマンドに変換される。装置への音声入力は、一人または複数のユーザからの音声を含みながら、他のソースからの音声(例えば、他の個人、家庭用電気機器からのバックグラウンド音声)などのバックグラウンドノイズを含む場合がある。他のソースからの音声は、異なる方向から生じて、所望の音声の受け取りと処理を複雑にする。また、これら他のソースからの音声は、ASR装置がユーザからの処理音声の解釈をさらに困難にする。
本開示では、ビーム形成器から受信された多チャンネルの音声に基づく音声処理方法を提供する。本開示の一態様では、ASR装置がマイクロフォンアレイ及びビーム形成器を備えてもよく、ビーム形成器は、各チャネルが特定の方向に音声を分離するように多チャネルの音声を出力できる。ASR装置は、ビーム形成器から多チャンネルの音声を受信する。多チャンネルの音声信号は、1つまたは複数のスピーカからの発声/発言の他に、家庭用電気機器からの騒音などの不要な音声を含むことがある。ASR装置は、より正確な音声認識結果を提供するために、多チャンネル音声の音声認識を同時に行うことができる。
図1は、本開示の態様による音声処理方法を図示している。図1は、ビーム形成器モジュール128を含むマイクロフォンアレイ126を有するASR装置100、ユーザ120、食器洗浄機122及びASR装置100の周囲に配置されたステレオスピーカ124を示す。マイクロフォンアレイは、円形の構成で示されているが、マイクロフォンアレイは異なる方向からの音声信号の受信を容易にするために、他のマイクロフォンアレイ構成(多くのアレイを有するものを含む)で配置されてもよい。ブロック102において示すように、ASR装置100は、多数の方向から、ユーザからの発言及び/または食器洗浄機122、ステレオ出力124などを含む音声を受信することができる。ユーザからの発言の受信及び他のソースからの音声の受信は同時であってもよい。線110によって図示されているビームの数は、ビーム形成器128によって分離できる方向を表している。本開示の一態様では、ASR装置100は、音声認識の結果を改善するために、多チャネルの音声データについて音声認識を同時に実行する。
本開示において記述する技術手法は、ASR装置100のようなローカルデバイス、ネットワーク装置、または異なるデバイスのいくつかの組み合わせで実行できる。例えば、ローカルデバイスは多チャンネルの音声データを受信し、処理のためにリモートデバイスは音声にデータを送信できる。リモートデバイスは、音声認識を決定するために多チャンネルの音声についてASR処理を実行することができる。また、ローカルデバイスとリモートデバイスは、他の方法で協働することができる。これらの多くのASR装置は、ネットワークを介して接続されていてもよい。図2に図示するように、多くのデバイスがネットワーク202を介して接続されていてもよい。ネットワーク202は、ローカルまたはプライベートネットワークを含み、あるいはインターネットのようなワイドネットワークを含むことができる。デバイスは、有線または無線接続を介してネットワーク202に接続されてもよい。例えば、無線デバイス204は、ワイヤレスサービスプロバイダを介して、ネットワーク202に接続されてもよい。コンピュータ212などの他のデバイスは、有線接続を介して、ネットワーク202に接続することができる。家庭やショッピング施設などに配置されている冷蔵庫218は、有線または無線接続を介して、ネットワーク202に接続することができる。ラップトップ208またはタブレットコンピュータ210などの他の装置は、無線サービスプロバイダ、WiFi(登録商標)接続などを含む接続を介して、様々な接続方法を使用してネットワーク202に接続可能であってもよい。ネットワークデバイスは、ヘッドセット206または214を含むいくつかの音声入力デバイスなどを介して、発声音声を入力できる。音声入力装置は、有線または無線の接続を介して、ネットワークデバイスに接続されてもよい。ネットワーク装置は、ラップトップ208内の内蔵マイクロフォン(図示せず)、無線装置204またはテーブルコンピュータ210などの埋め込み音声入力装置を含んでもよい。
特定のASRシステム構成では、1つのデバイスは音声信号を取り込み、別のデバイスはASRの処理を行うことができる。例えば、ヘッドセット214に入力された音声は、コンピュータ212によって取り込まれ、処理のためにコンピュータ220またはサーバ216にネットワーク202を介して送信される。また、コンピュータ212は、ネットワーク202を介して、音声信号を送信する前に、それを部分的に処理してもよい。ASR処理は、ストレージと処理能力の両方の点で、かなりの計算リソースを含む可能性があるため、音声を取り込むデバイスは、リモートデバイスより低い処理能力を有し、より高品質のASR結果が求められた場合に音声信号を処理する分割構成が採用される。音声の取り込みは、ユーザの近くで行われ、取り込まれた音声信号は処理のために別のデバイスに送信される。例えば、1つ以上のマイクロフォンアレイは、ASR装置において異なる位置に配置されてもよく、取り込まれた音声は、処理のためにアレイからASR装置に送信されてもよい。
図3は、音声認識を実行するための自動音声認識装置(ASR)302を図示している。本開示の態様は、ASR装置302にあり得るコンピュータ可読及びコンピュータ実行可能命令が含まれている。図3は、ASR装置302に含まれるいくつかの構成要素を図示しているが、他の図示しない構成要素が含まれてもよい。図示の構成要素のいくつかは、本開示の態様を採用することが可能なあらゆる装置中になくてもよい。さらに、ASR装置302において単一の構成要素として示されたいくつかの構成要素は、単一の装置内に多数回含まれることがある。例えば、ASR装置302は、多くの入力装置306、出力装置307、または多くのコントローラ/プロセッサ308を含んでもよい。
単一の音声認識システムでは、多くのASR装置が採用されてもよい。このようなマルチデバイスシステムでは、ASR装置は、音声認識プロセスのさまざまな態様を実行するために別の構成要素を含んでもよい。多くのデバイスは重なり合う構成要素を含んでもよい。図3に図示するASR装置は、例示的であり、スタンドアローンデバイスであってもよく、より大きな装置またはシステムの構成要素として、全体的または部分的に、含まれてもよい。
本開示の教示は、例えば、汎用コンピューティングシステム、サーバクライアントコンピューティングシステム、メインフレームコンピューティングシステム、電話コンピューティングシステム、ラップトップコンピュータ、携帯電話機、パーソナルデジタルアシスタント(PDA)、タブレットコンピュータ、他のモバイルデバイスなどの様々なデバイス及びいくつかのコンピュータシステムの中に適用することができる。ASR装置302は、例えば、現金自動預け払い機(ATM)、キオスク、家電用製品(冷蔵庫、オーブン、など)、自動車(車、バス、オートバイ、など)、及び/または運動器具などの音声認識機能を提供できる他の装置またはシステムの構成要素であってもよい。
図3に図示するように、ASR装置302は、処理のために発声を取り込む音声取込装置304を含んでもよい。音声取込装置304は、音を取り込むためのマイクロフォンまたは他の適切な構成要素を含むことができる。音声取込装置304は、ASR装置302に内蔵されてもよく、ASR装置302から分離されてもよい。ASR装置302は、ASR装置302の構成要素間でデータを送信するアドレス/データバス324を含んでもよい。ASR装置302内の各構成要素は、バス324を経由して他の構成要素に接続されていることに加えて(または代わりに)、直接に他の構成要素に接続されてもよい。図3では、特定の構成要素が直接に接続されているように図示されているが、これは単なる例示であり、他の構成要素が直接お互いに接続されてもよい(例えば、ASRモジュール314がコントローラ/プロセッサ308に接続されているように)。
ASR装置302は、データ処理及びコンピュータ可読命令のための中央処理装置(CPU)であるコントローラ/プロセッサ308及びデータと命令を保存するメモリ310を含んでもよい。メモリ310は、揮発性ランダムアクセスメモリ(RAM)、不揮発性読み出し専用メモリ(ROM)、及び/または他のタイプのメモリを含むことができる。ASR装置302は、データ及び命令を保存するためのデータストレージコンポーネント312を含んでもよい。データストレージコンポーネント312は、磁気記憶装置、光学記憶装置、固体記憶装置などの1つ以上の記憶装置タイプを含んでもよい。ASR装置302は、入力装置306または出力装置307を介して取り外し可能な、または外部メモリ及び/または記憶装置(例えば、リムーバブルメモリカード、メモリーキードライブ、ネットワークストレージなど)に接続されてもよい。ASR装置302及びその様々な構成要素を操作するためのコントローラ/プロセッサ308による処理のコンピュータ命令は、コントローラ/プロセッサ308によって実行されてもよく、そして以下に説明するASRモジュール314に含まれるメモリ310、記憶装置312、外部デバイス、またはメモリ内/記憶装置に保存されてもよい。選択的に、実行可能命令の一部または全ては、ソフトウエアに代えてまたはその代わりに、ハードウエアまたはファームウエアに埋め込まれてもよい。本開示の教示は、例えば、ソフトウエア、ファームウエア及び/またはハードウエアの様々な組合せで実行され得る。
ASR装置302は、入力装置306及び出力装置307を含んでいる。様々な入力/出力装置が装置に含まれてもよい。例示的な入力装置306は、例えば、マイクロフォン(別個の構成要素として表示)のような音声取込装置304、タッチ入力装置、キーボード、マウス、スタイラスまたはその他の入力装置を含む。例示的な出力装置307は、例えば、視覚ディスプレイ、触覚ディスプレイ、音声スピーカ、ヘッドホン、プリンタまたは他の出力装置を含んでいる。入力装置306及び/または出力装置307は、例えば、ユニバーサルシリアルバス(USB)、ファイヤーワイヤー、サンダーボルトまたは他の接続プロトコルのような接続のために外部周辺機器用インターフェースを含んでもよい。入力装置306及び/または出力装置307は、イーサネット(登録商標)のポート、モデムなどのネットワーク接続を含んでもよい。入力装置306及び/または出力装置307は、無線周波数(RF)、赤外線、ブルートゥース、無線ローカルエリアネットワーク(WLAN)(例えば、WiFi)などの無線通信装置、またはロングタームエボリューション(LTE)ネットワーク、WiMAXネットワーク、3Gネットワークなど無線通信ネットワークと通信可能な無線などの無線ネットワークの無線機を含んでいる。入力装置306及び/または出力装置307を介してASR装置302は、分散コンピューティング環境を含むことができ、インターネットやプライベートネットワークなどのネットワークに接続することができる。
当該装置は、発声音声データをテキストに処理するためにASRモジュール314を含んでもよい。ASRモジュール314は、音声データを音声データに含まれている発言の言葉を表すテキストデータに転写する。テキストデータは、システムコマンド、データ入力など様々な目的のために、他の構成要素によって使用されてもよい。発声を含めた音声データは、リアルタイムに処理されてもよく、保存して後の時点で処理してもよい。音声データに含まれた発声は、ASRモジュール314に入力され、ASRモジュール314が発声とASRモジュール314に知られているモデルとの間の類似性に基づいて、発声を解釈する。例えば、ASRモジュール314は、入力された音声データを音(例えば、音声単位または音素)のモデル及び音のシーケンスと比較してもよく、音声データの発声における話された音のシーケンスに一致する単語を識別する。発声が解釈できる異なる方法は、それぞれに単語の特定のセットが発声に話された単語に一致する尤度を表す確率または認識スコアを割り当てることができる。認識スコアは、例えば、発声中の音と言語の音のモデル(例えば、音響モデル)との類似度及び音に一致する特定の単語は文章の特定の場所に含まれる(例えば、言語モデルまたは文法を使用して)尤度を含む多くの要因に基づいてもよい。考慮される要因及び割り当てられた認識スコアに基づいて、ASRモジュール314は音声データに認識される最も可能性の高い単語を出力してもよい。ASRモジュール314は、多くの代りとして認識された単語を格子またはN個ベストリストの形で出力できる(以下でより詳細に記述する)。
認識スコアは、音声データの一部が特定の音素または単語に対応する確率を表す一方、認識スコアは、他の音声データのASR処理との相対的なスコアが割り当てられた音声データのASR処理品質を示す他の情報を組み込むことができる。認識スコアは、1から100の尺度の数字、0から1の確率、対数確率またはその他の指標として表すことができる。認識スコアは、音声データのセクションで特定の音素、単語などに対応する相対的な正確度を示してもよい。
ASRモジュール314は、バス324、入力装置306及び/または出力装置307、音声取込装置304、エンコーダ/デコーダ322、コントローラ/プロセッサ308及び/またはASR装置302の他の構成要素に接続できる。ASRモジュール314に送信される音声データは、音声取込装置304から入力されるか、入力装置306によって受信される、例えば、リモートエンティティによって取り込まれた音声データはネットワークを介してASR装置302に送信される。音声データは、発声のオーディオ波形のデジタル表現の形態であってもよい。サンプリングレート、フィルタリング、及びアナログからデジタルへの変換処理の他の態様は、音声データの全体的な品質に影響を与えることがある。音声取込装置304及び入力装置306の各種設定は、品質とデータサイズとの典型的なトレードオフまたはその他の考慮事項に基づいて、音声データを調整するように構成されてもよい。
ASRモジュール314は、音響フロントエンド(AFE)316、音声認識エンジン318及び音声記憶装置320を含んでいる。AFE316は、音声データを音声認識エンジン318によって処理するデータに変換する。音声認識エンジン318は、元の音声データに含まれている音声を認識するために、音声認識データを音声記憶装置320に記憶された音響、言語及びその他のデータモデルと情報を比較する。AFE316及び音声認識エンジン318は、例えば、独自のコントローラ/プロセッサ及びメモリを含むか、またはASR装置302のコントローラ/プロセッサ308及びメモリ310を使用することができる。同様に、AFE316及び音声認識エンジン318を動作させるための命令は、ASR装置302のASRモジュール314、メモリ310及び/または記憶装置312内に配置されてもよく、外部デバイス内に配置されてもよい。
受信した音声データは、処理のためにAFE316に送信されてもよい。AFE316は、音声データの雑音を低減し、処理のための発声を含む音声データの部分を識別し、識別された音声成分を区分して処理してもよい。AFE316は、デジタル化された音声データをフレームまたは音声セグメントに区分し、各フレームが、例えば、10ミリ秒(ms)の時間間隔を表してもよい。フレームの間に、AFE316は、フレーム内の部分の発声の機能/品質を表す特徴ベクトルと呼ばれる値のセットを決定する。特徴ベクトルは、変化するいくつかの値、例えば、40を含むことができる。特徴ベクトルは、フレーム内の音声データの異なる性質を表してもよい。図4は、最初の単語404が処理されている間に、最初の単語404の多数の点406を有するデジタル化された音声データの波形402を示している。これらの点の音声品質は、特徴ベクトルに保存されてもよい。特徴ベクトルは発声の時間期間を表現するマトリックスにストリーミングまたは組み合わせることができる。これらの特徴ベクトルマトリックスは、次いで処理のために、音声認識エンジン318に送られてもよい。音声データを処理するために、いくつのアプローチがAFE316によって使用されてもよい。それらのアプローチは、メル周波数ケプストラム係数(MFCC)、知覚線形予測(PLP)技術手法、ニューラルネットワークの特徴ベクトルの技術手法、線形判別分析、半結共分散行列、またはこの分野の通常の知識を有する者に周知の他の方法の使用を含むことができる。
処理された特徴ベクトルは、ASRモジュール314から出力され、更なる処理のために別のデバイスに送信する出力装置407に送信されてもよい。特徴ベクトルは、送信前にエンコーダ/デコーダ322によって符号化及び/または圧縮されてもよい。エンコーダ/デコーダ322は、デジタル化された音声データ、特徴ベクトルなどのASRデータを符号化及び復号化するためにカスタマイズできる。エンコーダ/デコーダ322は、例えば、.zipのような一般的な符号化スキームを使用して、ASR装置302の非ASRデータを符号化できる。エンコーダ/デコーダ322の機能性は、図3に図示されているように別個の構成要素内に配置されてもよく、コントローラ/プロセッサ308、ASRモジュール314、または他の構成要素によって実行されてもよい。
音声認識エンジン318は、音声記憶装置320に保存されている情報を参照して、AFE316からの出力を処理してもよい。代替的に、フロントエンド処理された後のデータ(特徴ベクトルなど)は、内部AFE316の他に別のソースからASRモジュール314によって受信されてもよい。例えば、別のエンティティは、音声データを特徴ベクトルに処理して、入力装置306を介して、その情報をASR装置302に送信してもよい。特徴ベクトルが符号化された形でASR装置302に到達することがあり、その場合、音声認識エンジン318(例えば、エンコーダ/デコーダ322)によって処理される前に復号化される。
音声記憶装置320は、音素の発音を特定の単語に一致するデータなど音声認識の様々な情報が含まれている。このデータは、音響モデルとも呼ばれる。音声記憶装置は単語の辞書または語彙を含んでもよい。音声記憶装置は、特定の文脈内において一緒に使用される可能性が高い単語を記述するデータを含んでもよい。このデータは、言語または文法モデルとも呼ばれる。音声記憶装置320は、記録された音声及び/または対応する転写を含んでもよい訓練コーパスを含んでもよく、この訓練コーパスは音声認識においてASRモジュール314によって使用されるモデルを訓練し改善するために使用されてもよい。訓練コーパスは、事前に、音響モデルと言語モデルを含む音声認識モデルを訓練するために使用されてもよい。モデルは、次に、ASR処理中に使用されてもよい。
訓練コーパスは、関連する特徴ベクトル及び関連する正しいテキストを有するいくつかのサンプル発声を含んでもよく、これらは、例えば、音響モデルと言語モデルを作成するために使用することができる。サンプル発声は、特定の音声単位の予想される音声に対応する数学的モデルを作成するために使用されてもよい。これらの音声単位は、音素、音節、音節の一部、単語の一部などを含んでもよい。音声単位は、トライフォン、キンフォンなど文脈内の音素を含んでもよい。音声の中に定期的に使用される文脈内の音素は独自のモデルと関連付けられる場合がある。一般的にあまり使用されていない文脈内の音素は、グループモデルに所属するように、一緒にクラスタ化することができる。このように、音素グループをクラスタ化することによって、より少ないモデルが訓練コーパスに含まれてもよく、ASR処理を容易にする。訓練コーパスは、ASRモジュール314に異なる発声の比較を提供するために、異なる話者から同じ発声の多くのバージョンを含むことができる。訓練コーパスは、正しいと認識された発声だけでなく、正しくないと認識された発声を含んでもよい。これらの正しくないと認識された発声には、例えば、文法の間違い、不正確な認識エラー、雑音、またはASRモジュール314にエラーの種類とそれに対応する訂正の例を提供する他のエラーを含んでもよい。
他の情報も、音声認識に使用する音声記憶装置320に記憶することができる。音声記憶装置320の内容は、一般的な使用のASRのために設定されてもよく、または特定のアプリケーションで使用される可能性がある音や単語を含むようにカスタマイズしてもよい。例えば、ATM(現金自動預け払い機)におけるASR処理のために、音声記憶装置320は、銀行取引に固有のカスタマイズされたデータを含んでもよい。特定の例では、音声記憶装置320は、ユーザの個別の音声入力に基づいて、個々のユーザのためにカスタマイズされてもよい。性能を改善するために、ASRモジュール314は、ASR処理の結果のフィードバックに基づいて、音声記憶装置320の内容を修正/更新し、これにより、ASRモジュール314が訓練コーパスに提供される機能を越えて音声認識を改善することを可能にする。
音声認識エンジン318は、受信した特徴ベクトルを音声記憶装置320に知られている単語やサブワード単位に一致させようとする。サブワード単位は、音素、文脈内の音素、音節、音節の一部、文脈での音節、または単語の他の部分であってもよい。音声認識エンジン318は、音響情報と言語情報に基づいて、特徴ベクトルの認識スコアを計算する。音響情報は、特徴ベクトルの集合で表される意図された音が、サブワード単位と一致する尤度を表す音響スコアを計算するために使用される。言語情報は、どの単語が一緒に文脈において使用されているかを考慮することにより、音響スコアを調整するために使用され、それにより、ASRモジュールが文法的に意味のある音声を出力して尤度を改善する。
音声認識エンジン318は、特徴ベクトルを音素またはバイフォン、トライフォンなどの他の音声単位と一致させるために多くの技術手法を使用してもよい。隠れマルコフモデル(HMM)の使用は、1つの一般的な技術手法である。HMMは、特徴ベクトルが音素と一致する確率を判定するために使用される。HMMを使用して、いくつかの状態が表現され、これらの状態は一緒に潜在的な音素(またはトライフォンなどの他の音声単位)を表し、各状態がガウス混合モデルなどのモデルと関連付けられる。状態間の遷移は、関連付けられた確率を有し、現状の状態が以前の状態から到達できる尤度を表現する。受信された音は、HMMの状態間の経路として表現されてもよく、そして多数の経路は同じ音に対する多数の一致する可能性があるテキストを表してもよい。各音素は、音素とその部分(発声の音の最初、中間、最後など)の異なる既知の発音に対応する多数の潜在的な状態によって表現されてもよい。潜在的な音素の確率に関する初期の決定は、1つの状態に関連付けられてもよい。新たな特徴ベクトルは、音声認識エンジン318によって処理される間に、状態は、新たな特徴ベクトルの処理に基づいて、変更する場合と変化しない場合がある。ビタビアルゴリズムは、処理された特徴ベクトルに基づいて、状態の最も可能性の高いシーケンスを検索するために使用されてもよい。
一実施例では、音声認識エンジン318は、「こんにちは、今日はお元気ですか」(“Hello,how are you?“)を発言するユーザに対応する音の一連の特徴ベクトルを受けてもよい。音声認識エンジン318は、各特徴ベクトルを音声認識データベース320にある音素と一致するように試みてもよい。例えば、図5は、X0からX9まで10個の特徴ベクトルを含む音素PN(「hello」の「e」の音を表す)に対応する特徴ベクトル502のシリーズを図示している。第1の特徴ベクトルを処理すると、音声認識エンジン318は、図5にスコアとして示されているように、特徴ベクトルが音素に一致している確率を予備的に決定する。特徴ベクトルに基づいて、音素/E/に0.43の初期スコア、音素/e/(/E/とは異なる発音)に0.24のスコアなどが割り当てられてもよい。スコアは、特徴ベクトルが音声記憶装置320に記憶された1つ以上の音響モデル内の音素の状態に関連付けられている分布にどの程度一致していかに基づいてもよい。特徴ベクトルには、特徴ベクトルが雑音または無音を表すスコアを割り当ててもよい。図5の例では、特徴ベクトルが雑音を表すスコアは0.05である。
図5に示す音素/E/のスコア0.43を有する特徴ベクトルを例にすると、音声認識エンジン318は、図6に示す隠れマルコフモデルでの状態Sとして示される、特徴ベクトルが音素/E/の最初の状態と一致するスコア0.43を最初に割り当てる。さらに処理すると、音声認識エンジン318は、状態が同じのままにするか、または新しい状態に変更するかどうかを決定する。例えば、状態はそのまま604でいいかどうかは、対応する遷移確率(P(S0|S0)と記述し、状態SからSに遷移する確率を意味する)及び後続のフレームがSとSと一致することに依存してもよい。状態Sは、最も可能性が高い場合、計算は状態Sに移動し、そこから継続する。その後のフレームについて、音声認識エンジン318は、同様に、P(S|S)608で表される遷移確率を使用して、状態はSのままでいいかどうか、またはP(S|S)610で表される遷移確率を使用して、次の状態へ移動するかを決定する。処理を継続すると、音声認識エンジン318は、Sの状態のままの確率612、または示された音素/E/の状態から他の音素の状態に移動するかを含む確率の計算を継続する。状態Sのための特徴ベクトルを処理した後で、音声認識は、発声の次の音素に移動してもよい。
確率と状態は、多くの技術手法を用いて計算することができる。例えば、各状態の確率は、ガウスモデル、ガウス混合モデル、または特徴ベクトル及び音声記憶部320の内容に基づく他の技術を用いて計算することができる。例えば、音素状態の確率を推定するために最尤推定(MLE)などを使用することができる。
1音素の潜在的な状態を特徴ベクトルと潜在的に一致するとして計算することに加えて、音声認識エンジン318は、特徴ベクトルが潜在的に一致するとして、図5に示す実施例の音素/e/及び/または音素/a/などの他の音素の潜在的な状態を計算することができる。このように、多くの状態と状態遷移確率が計算されてもよい。
音声認識エンジン318によって計算された可能性の高い状態及び可能性の高い状態遷移が、経路に形成される。各経路は、特徴ベクトルで表される音声データと潜在的に一致する音素の進行を示している。1つの経路は、各音素について計算された認識スコアに応じて、1つまたは複数の他の経路と重複する場合がある。一定の確率は、状態から状態への各遷移に関連付けられている。累積経路スコアが、また、各経路に対して計算されてもよい。ASR処理の一部として、スコアを組み合わせた場合、所望の組み合わせスコアに到達するために、スコアが乗算(または他の方法で結合)され、または確率が対数領域に変換され、処理を支援するために加算されてもよい。
音声認識エンジン318は、また、言語モデルや文法に基づいて、経路のブランチのスコアを計算することができる。言語のモデルを作るには、理路整然とした単語や文を形成するために、どの単語が一緒に使用される可能性があるかについてスコアを決定することを伴う。言語モデルを適用すると、ASRモジュール314が音声データに含まれている音声を正しく解釈する尤度を改善させる可能性がある。例えば、「HELO」、「HALO」、「YELO」の潜在的な音素経路を戻す音響モデルの処理は、発声内の各単語の言語文脈に基づいて、「HELO」(「hello」という単語として解釈)、「HALO」(「halo」という単語として解釈)、と「YELO」(「yellow」という単語として解釈)の認識スコアを調整するために、言語モデルによって調整することができる。言語のモデル作りは、音声記憶装置320に保存された訓練コーパスから決定され、特定の用途のためにカスタマイズすることができる。
言語のモデル作り(またはASR処理の他の段階)の一環として、音声認識装置318は、計算リソースを節約するために、言語モデルに基づく低い認識スコア、またはその他の理由のいずれかによる発声に対応する低い尤度を有する低い認識スコア状態または経路を取り除いて廃棄することができる。さらに、ASR処理中に、音声認識エンジン318は、反復して、追加の処理段階を以前に処理した発声部分に対して実行してもよい。後の段階は、結果を改善するために、以前の段階の結果を組み込むことができる。音声認識エンジン318が入力音声から潜在的な単語を決定すると共に、多くの潜在的な音や単語が入力音声について潜在的に一致していると考えられるため、格子が非常に大きくなることがある。潜在的な一致は単語結果ネットワークとして示され得る。音声認識結果ネットワークは、認識できる音声単位の可能なシーケンス及び各シーケンスの尤度を表現するアークとノードの接続ネットワークである。単語結果ネットワークは、単語レベルでの音声認識結果ネットワークである。他のレベルの音声認識ネットワークも可能である。結果ネットワークは、音声認識デコーダ(またはエンジン)の任意のタイプによって生成されてもよい。例えば、以下でより詳細に記述されるように、結果ネットワークは、FSTに基づくデコーダによって生成されてもよい。結果ネットワークは、最高のスコア結果の格子、またはN個ベストリストとしての音声認識結果の最終セットを作成するために使用されてもよい。
図7は、本開示のいくつかの態様に従って、音声を認識する音声認識エンジン318によって使用される単語結果ネットワークの実施例を図示するものである。単語結果ネットワークは、認識できる単語のシーケンス及び各シーケンスの尤度から構成されてもよい。単語結果ネットワーク内の任意の経路の尤度は、音響モデル及び言語モデルによって決定されてもよい。図7において、示された経路は、例えば、「head」、「hello I」、「hello I’m」、「hen」、「help I」、「help I’m」「hem」、「Henry I」、「Henry I’m」及び「hedge」を含んでいる。
図7に図示するように、単語結果ネットワークは初期ノード710で開始してもよい。ノード710において、音声認識エンジン318が処理を開始するので、単語はまだ認識されていないかもしれない。ノード710から、音声認識エンジン318は、アーク及び追加のノードを作成し、各アークが認識できる潜在的な単語に関連付けられ得る。いくつかの用途では、単語は、ノードの代わりに、アークによって表すことができる。図7では、ノード710からノード720までのアーク、ノード726までのアークには、音声認識エンジン318によって認識できる例語が付されている。
初期ノード710から、音声認識エンジン318は、ノード710を去る最も発生する可能性が高いアークを決定するために音響モデル及び言語モデルを適用することができる。HMMを採用する音響モデルのために、音声認識エンジン318は、ノード710を去る各アークについて別々のHMMを作成できる。音響モデルと言語モデルを適用して、音声認識エンジン318は、ノード710を去るアークのために、いくつかのサブセットの追求を決定することができる。例えば、図7では、音声認識エンジン318は、アークのそれぞれのスコアに基づき、正しい結果をもたらす可能性が最も高いアークにコンピューティングリソースを集中しようと努力して、音声認識エンジン318が高いスコアを持つアークのみを追求し、「hello」、「help」、「Henry」で始まる経路に従うことを決定して、「head」、「hen」及び「hedge」で始まる経路の追求停止を決定することができる。
音声認識エンジン318は、経路のN個ベストリストと共に、音声認識エンジン318によって決定された上位N個経路に対応するそれぞれの認識スコアを戻してもよい。N個ベストリストを受けたアプリケーション(ASR装置302の内部または外部の構成要素またはプログラムなど)は、受けたリスト及び関連付けられた認識スコアに対して更なる操作または解析を行う。例えば、N個ベストリストは、誤りの訂正及びASRモジュール314の様々なオプションと処理条件を訓練するために使用することができる。音声認識エンジン318は、実際の正しい発声を最高の結果及びN個ベストリスト上の他の結果と比較し、どうして誤った認識が特定の認識スコアを受けたかを決定できる。音声認識エンジン318は、将来の処理の試行における誤ったアプローチの認識スコアを削減するために、そのアプローチを訂正(音声記憶装置320内の情報を更新)することができる。
本開示の一態様では、音声認識エンジン318は、有限状態トランスデューサ(FST)を使用することができる。FSTは、音声認識エンジン318によって認識できる全ての可能な単語を含むグラフである。事前に作成されたため、FSTは静的であってもよく、同じFSTが全ての発声を認識するために使用することができる。
FSTは、認識され得る全ての単語シーケンスの経路を含んでもよい。FSTは、サイズを低減するために、決定がなされ及び/または最小化される。FSTの各ノードについて、ノードから出る各アークが異なるラベルを持っている場合に、FSTが決定されてもよい。可能なノードの最小数を有する場合、FSTを最小化することができる。例えば、アプリケーションに応じて、与えられた単語は、FSTに一度だけ表示され、FSTの与えられたアークは、単一の発声に対して複数回横断することができるように、FSTが周期的であってもよい。他のアプリケーションでは、単語の文脈を識別できるように、単語が一回以上FSTに表れてもよい。上記の例では、言葉のFSTを考察しているが、FSTはHMMのシーケンスやHMM状態のような他の種類のシーケンスを表すことができる。他のFSTと合成することによって、より大きなFSTを作成することができる。例えば、単語や単音を含むFSTは、単語のFSTを単音のFSTと合成することによって作成され得る。
音声認識エンジン318は、音声認識結果を表す格子の中に潜在的な経路を組み合わせることができる。サンプル格子は、図8に図示されている。格子802は、音声認識結果の多数の潜在的経路を示している。大きなノード間の経路は、潜在的な単語(例えば、「hello」、「yellow」、など)を表現し、小さいノード間の経路は、潜在的な音素(例えば、「H」、「E」、「L」、「O」と「Y」、「E」、「L」、「O」)を表現している。例示のために、格子の最初の2つの単語の個々の音素のみが示されている。ノード804とノード806の間にある2つの経路は、2つの潜在的な単語の選択肢、つまり「hello how」または「yellow now」を表している。ノード(潜在的な単語など)間の各経路のポイントは、認識スコアと関連付けられている。格子を横切る各経路は、認識スコアが割り当てられてもよい。認識スコアは、音響モデルのスコア、言語モデルスコア及び/または他の要因の組み合わせの場合、最高の認識スコア経路は、音声認識エンジン318によって関連付けられた特徴ベクトルのASR結果として戻されてもよい。
ASR処理後、ASRの結果は、更なる処理(解釈のテキストに含むコマンドの実行など)のために、ASRモジュール314によってコントローラ/プロセッサ308などのASR装置302の別の構成要素または外部デバイスに送信する出力装置307に送信されてもよい。
ニューラルネットワークも、音響モデル処理及び言語処理モデル処理を含むASR処理を実行するために使用されてもよい。ASRのためのニューラルネットワークの実施例は、図9に図示されている。ニューラルネットワークは、入力レイヤ902、中間レイヤ904及び出力レイヤ906によって構成されてもよい。中間レイヤは、隠れレイヤとして知られているものでもよい。隠れレイヤの各ノードは、入力レイヤ内の各ノードと出力レイヤ内の各ノードに接続されている。図9に図示されているが、単一の隠れレイヤによりニューラルネットワークは、多数の中間レイヤを含むことができる。この場合、隠れレイヤの各ノードは、次の上位レイヤ及び次の下レイヤの各ノードとつながる。入力レイヤの各ノードはニューラルネットワークへの潜在的な入力を表し、出力レイヤの各ノードはニューラルネットワークの潜在的な出力を表している。次のレイヤにおけるあるノードから別のノードへの各接続は、重量またはスコアに関連付けられてもよい。ニューラルネットワークは、単一出力または可能な出力の重み付けセットを出力してもよい。
一態様では、ネットワークの隠れレイヤの出力が、次のセットの入力のために、再び隠れレイヤにフィードバックするように、ニューラルネットワークが回帰接続で構築されてもよい。このようなニューラルネットワークは、図10に示されている。入力レイヤ1002の各ノードは、隠れレイヤ1004の各ノードに接続している。隠れレイヤ1004の各ノードが出力レイヤ1006の各ノードに接続している。図示されているように、隠れレイヤ1004の出力は、次の入力のセットを処理するために隠れレイヤにフィードバックされている。
音響モデルがニューラルネットワークを利用する場合には、ニューラルネットワークの入力レイヤの各ノードは、AFE316によって出力されるような音響的特徴の特徴ベクトルの音響的特性を表現してもよく、出力レイヤの各ノードは、特徴ベクトルで表される音に対応するサブワード単位(音素、トライフォンなど)及び/または関連付けられた状態に対応するスコアを表現している。ニューラルネットワークに与えられた特定の入力のために、そのネットワークは、特定の出力が特定の入力に対して与えられた正しい出力である旨の確率を表す割り当てられたスコアをそれぞれ有する多くの潜在的な出力を提供する。音響モデルニューラルネットワークのトップスコアの出力は、言語モデルに結果を渡す前に音の間の遷移を決定してもよいHMMに供給される。
言語モデルがニューラルネットワークを利用する場合には、訓練されたニューラルネットワーク言語モデルによって決定された通り、ニューラルネットワークの入力レイヤの各ノードは、前の単語を表し、ニューラルネットワークの出力レイヤの各ノードは、次の潜在的な単語を表すことができる。言語モデルは、図10に示すネットワークのように、ニューラルネットワークによって処理された単語のある履歴を組み入れる回帰性ニューラルネットワークとして構成され得るので、潜在的な次の単語の予測は最新の単語だけでなく、以前の発声内の単語に基づくことができる。言語モデルニューラルネットワークは、次の単語の重み付けの予測を出力してもよい。
ニューラルネットワークによる処理は、各ノードの入力とネットワークの構造で学習した重みによって決定される。特定の入力が与えられると、ニューラルネットワークは、ネットワーク全体の出力レイヤが計算されるまで1レイヤずつの出力を決定する。
接続の重みは、初期状態では、訓練中にニューラルネットワークによって学習されてもよく、この訓練では指定された入力が既知の出力に関連付けられている。訓練データセットでは、様々な訓練例がネットワークに供給される。それぞれの例では、一般的に入力から出力への正しい接続の重みを1に設定し、全ての接続には0の重みを与える。訓練データにおける例がニューラルネットワークによって処理中に、ネットワークのパフォーマンスと目標パフォーマンスとの比較方法を決定するために、入力がネットワークに送信され、関連付けられている出力と比較されてもよい。バックプロパゲーションのような訓練手法を使用して、ニューラルネットワークの重みは、訓練データを処理中にニューラルネットワークによって起こされたエラーを低減するために更新されてもよい。ニューラルネットワークの訓練は、一般的に事前に行われている。つまり、音響モデリング、言語モデルなど呼び出された機能を実行するために、ニューラルネットワークが訓練された後に、ASRシステムに展開されることを意味する。
音声認識処理のための音声を受信するとき、ASR装置は、ユーザから発話のような所望の音声と、他の人からお互いに話をする音声や家庭用電気機器からの騒音などのような望ましくない音声の両方を受信することがある。特定の状況では、音声は、騒音とは異なる方向から到来することがある。異なる方向から到来する音声を分離するために、装置は、ビームフォーミングという多くの音声入力デバイスを使用して、特定の音声入力を分離する処理を実行することができる。ビームフォーミングを行うために、装置はマイクロフォンアレイ及び関連する構成要素など、方向に基づく処理の構成要素を含んでもよい。方向に基づく処理構成要素は、マイクロフォンアレイに結合されていれば、マイクロフォンアレイに対して局所であっても及び/または別個であってもよい。マイクロフォンアレイは、固定であっても、方向が変えられてもよい。方向が変えられる場合、マイクロフォンアレイは電子焦点合わせを可能にし、ビームとして周知である特定の方向から到来する音声にマイクロフォンアレイの焦点をあわせるデータ処理の技術手法が使用されてもよい。そのように方向が変えられると、ユーザの方向から受ける音声にASR処理を集中することによって、ユーザの発話を分離するために使用され得る。
ユーザからの音声の方向が既知である場合、マイクロフォンアレイは、その既知の方向に変えることができる。所望の位置からの音声は、所望の音声の質を改善するために処理され得る。例えば、装置は、話者の方向からの音声信号の信号対雑音比を増加させることができる。残響、エコーキャンセルなど他の技術手法も、所望の音声を受けることを改善するために使用できる。
しかし、ユーザからの音声の方向が不明な場合は、幾つかの技術手法及び検討が、所望の音声の方向を決定するために使用され得る。例えば、所望のユーザの発話は、ASR装置の特定の位置においてより高い強度を有し得る。ASR装置に対して話者の相対的な位置が未知の場合、最大音量(または最高強度)の音声源が所望の話者である前提で、ビームフォーミングが一般的に行われる。この場合、低い強度の異なる方向から他の音声は減衰されるが、より高い強度を持つ音声は増幅される。しかし、より高容量の音声は、所望の音声(例えば、ユーザからの音声)ではないかもしれない。例えば、異なる方向の家庭用電気機器に由来する騒音は、ユーザからの音声よりも高い強度を有する場合がある。その結果、音声の最高強度に基づいて、所望の音声の検出は、誤った結果を出す場合がある。
所望の音声を決定するために、受信された音声の強度にのみ依存するよりも、本開示の態様は、所望の音声を分離するために多チャンネルの音声の復号に基づいて、異なる方向で音声認識を同時に行うことにより、所望の音声の識別を改善する。装置は、異なる方向からの音声を受け取り、音声検出及び/または音声認識の技術手法を使用して音声を処理することができる。この装置は次いで、ユーザから所望の発声に対応する最も近い音声を含む方向を決定してもよく、更なる処理のために、その方向からの音声認識結果/音声に焦点を置くものである。多チャネルの音声を復号するために、1つまたは複数のASR装置は、図3に示すビーム形成器モジュール128を含むことができる。ビーム形成器モジュール128は、異なる方向から複数の音源から音声信号を受け、所望の発声を分離するために同時に異なる方向の音声認識を実行することができる。
本開示のいくつかの態様では、所望の方向からの発声とそれ以外の方向からの音声との関係(例えば、類似度)を決定するために、音声認識は異なる方向に対して同時に行われる。例えば、音声がそれぞれの方向から受信されたかどうかを決定するために、音声認識(各方向についての仮説の生成を含む)は同時に異なる方向で行われている。異なる方向の仮説の生成を含む音声認識は、ローカルASR装置及び/またはリモートデバイスで並列に実行され得る。従って、所望の発声の最も可能性の高い方向は、全ての方向の音声認識結果(例えば、仮説)の少なくとも一部が生成された後に識別される。
本開示の一態様では、音声の異なる方向のそれぞれについて得られた各音声認識結果には、特定の結果がユーザからの最も可能性の高い方向及び最も可能性の高い発声に対応している確率を表す信頼度スコアが割り当てられている。いくつかの態様では、信頼度スコアは、パーセンテージとして表されてもよい。信頼度スコアは、例えば、異なる方向からの音/音声と言語音のモデル(例えば、音響モデル)との類似度、音声と一致する特定の単語が文の特定の位置に含まれる尤度(例えば、言語モデルまたは文法モデルを使用)及び特定の方向に対応するビーム強度を含むいくつかの要因に基づくことができる。例えば、所望の音声のための最強ビームエネルギーに対応する方向は、より高い信頼度スコアが割り当てられてもよい。いくつかの例では、最も高い信頼度スコアは、ユーザの方向を表すために選択できる。特定の態様において、閾値信頼度スコアを得ていない結果を廃棄し、より高いスコアリングの結果のために、処理リソースの制限をなくする。
音声認識は、上述したような音声認識モデルによって実行されてもよい。方向の特徴が、特定の方向からの音声が音声を含んでいるかどうかを判定するために、ASR装置を支援する方向性モデル(例えば、軌道モデル)に従って実行されてもよい。音声認識モデルと方向性モデルは、多くの方向で音声認識結果を同時に評価するために、共同でまたは別々に実行することができる。モデルが共同で実行された場合は、ASRシステムは、方向を分離し、同時に音声認識の使用を試みることができる。このような同時処理が同時に音声の発信の方向だけでなく、音声のトランスクリプト(例えば、仮説)の識別を実行することができる。音声認識結果は、全ての方向について評価され得るので、システムは、その音声認識結果に基づいて、最も可能性が高い方向を決定できる。方向モデルは、音声と最も類似している音を含む方向、音声エネルギーまたはその他の音響情報(例えば、話者検出など)などの他の要因、あるいはカメラ、ジャイロスコープ、コンパス、GPS、加速度計、モーションセンサまたは音声入力装置に対してユーザの相対的な方向の決定を支援する他の装置の構成要素から得られた情報に基づくことができる。同時に異なる方向に音声を処理することによって、ASR装置は、ユーザが異なる方向に移動している場合に、ユーザの方向検出を改善することができる。
本開示の一態様において、ユーザの話を聴くために選択された方向が、別方向の同時音声認識に基づいて識別されると、その選択された方向からの以降のビームの方が、他の方向からのビームに比べてユーザの方向をより表していると思われる。その結果、以前に選定された方向に対応する以降のビームには、その他の方向からのビームに比べてより信頼度の高いスコアが割り当てられ得る。
本開示の一態様において、各々異なった方向について同時に得られる各々の音声認識結果は、有限状態トランスデューサ(FST)において使用されてもよい。この態様では、復号グラフは、異なった方向について音声認識が同時に実行された結果を表している。その復号グラフは、あり得る仮説または単語の探索空間と、それらに対応した方向を表すことができる。例えば、N個の復号グラフが、N本の異なるビームによる多方向の同時復号を促進し、かつ結果のプルーニングを促進するために提供されてもよい。この態様において、音声の異なった方向については、FSTのグラフ上の音声認識の結果(例えば、書写または仮説)が一対にされてもよく、そのため復号グラフは、異なった方向を介して遷移する。従って、ユーザの方向と対応する音声認識の結果が、復号グラフ上で同時に明らかにされる。本開示の一態様において、音声の方向は、ユーザから発声されている期間変化し、グラフを通して探索で決定される隠れた変数として実行されてもよい。
ASR装置及び/またはネットワークにおいて音声認識を行う1つの方法は、単語のシーケンスW=(W、W、W...)を識別する予測(例えば、確率)を提供する言語モデルと音声/音響信号XのメッセージWを符号化する確率密度関数p(X|W)によって表現される音響モデルを提供することを含んでいる。音声認識は、観察された音響信号によって与えられる最も相応しい単語シーケンスを識別するために行われる。例えば、音声認識は、音声信号Xで与えられる確率W(つまり、p(W))を最大化するか、または、等価的に、確率Wと方程式p(X,W)=p(X|W)p(W)で示される確率密度関数の積を最大化するために行われる。
本開示の態様は、ユーザの方向Dを表す変数またはASR装置に関する所望の音声の起点を導入することによって、音声認識の実行性を改善するものである。例えば、方向Dが、隠れた変数として提供されてもよい。次の方程式は、ユーザの方向、並びに全方向のユーザの発話を表す音声信号の特徴を説明する改善された音声認識の実行性を表している。
p(X’,W)=maxp(X’,W,D)=maxp(X’|D,W)p(W)p(D)
ここで、X’は、全方向または多方向のユーザからの音声信号を表し、Dはユーザの方向を表している。
本開示の一態様では、ユーザの方向Dは、発声中静止としてもよい。本開示の別の態様では、ユーザの方向Dは、時間に依存し、またはD=d,...,Dと示されるように静止していなくてもよい。注釈されている通り、音声認識エンジン318は、特徴ベクトルをバイフォン、トリフォンなどの音素または他の音声単位に整合する多くの技術手法を使用することができる。1つの共通の技術手法は、ハイデンマルコフモデル(HMM)を使用することである。本開示の態様によっては、p(D)〜p(d|dt−1)としてマルコフチェーンとして具現化されてもよいものもある。話者の方向p(d)を表す(初期)分布は、前の相互作用におけるユーザの場所に基づいてもよい。
本開示の一態様では、確率密度関数p(X’|D,W)は、p(X(D)|W)p(E|D)で近似されてもよく、ここで、X(D)は、方向Dのビーム形成信号から抽出された標準音響的特徴であり、Eは、エネルギー分布(または音声活動の大きさ)である。近似された表記p(X(D)|W)p(E|D)は、ビーム形成信号のコンテンツ依存及び方向依存態様の分離を考慮している。第1要因p(X(D)|W)は、標準の無方向を意識している音響モデルに基づくものであって、かつ、従来通り訓練され得るものである。第2要因p(E|D)は、受信されたビーム形成信号源が方向Dにあるものである。この場合、ユーザが方向Dから話している場合、EはDで最高となるはずと仮説される。場合によっては、より高いビーム強度またはより大きな声の話者が、p(E|D)モデルに基づく望ましい話者とみなされてもよい。
多チャンネルの音声を復号する異なった方法もまた可能である。一態様において、静止スピーカを仮説し、N個の別々のデコーダが各方向dに備えられている。時間依存の方向dがHMMデコーダの追加の潜在的または隠れた変数として具現化されてもよい。時間依存の方向dの実施は、静止ではないスピーカを考慮に入れている。ビームプルーニングを通して、ありそうもない方向が探索空間から除外され得ることになり、以前の実行に比べて多数方向の実施効率(例えば、運用時間効率)が改善する。態様によっては、dは、独立で、かつ、識別できるように分布する(iid)。われわれは、Σp(e|d)p(x(d)|s)、つまりフレームについて重み付けスコアの組み合わせを得ており、ここで、eは、特定時間のある方向のエネルギーであり、sは、特定時間のHMM状態である。
本開示の一態様では、各音声認識タスクが単一方向からのデータを使用する多くの音声認識タスクが行われてもよい。例えば、音声認識タスクは、多チャンネルのビーム形成器の各チャンネルについて実行され得る。音声認識モデルは、音声を識別するために訓練を受けるので、入力として最高品質の音声信号を有する音声認識タスクは、一般に、音声認識結果に最高スコアを提供することになる。音声認識タスクが終了すると、ユーザの方向と音声認識結果は、最高尤度を生じた音声認識タスクを選択することによって決定され得る。
本開示の一態様では、方向は音声認識期間に動的に選択されてもよい。例えば、ユーザが歩いているとき、最善の方向は変化するかもしれない。この場合、よりよい音声認識結果は、音声が受信されるに従って方向を更新することによって得ることができる。所与の時間に処理されている音声入力のために、音声入力は各チャンネルについて処理することができ、ユーザの発話を含んでいる最も可能性のあるチャンネルを決定する。そのチャンネルは違った技術手法を使用して選択されてもよい。例えば、最高のエネルギーを有しているチャンネルが選択されてもよい。更に、音声を含んでいそうなチャンネルが音声活性検出器によって決定されてもよい。代わりとして、音声認識が最高尤度を提示したチャンネルを使用し、その他のチャンネルの処分を継続しながら、音声認識が各チャンネル(現行時間に関して)から入力された音声について逐次的に実行されてもよい。更に、チャンネルについては、あるチャンネルが他のチャンネルよりも可能性を高めるために、重み付けられてもよい。例えば、より高い重み付けが、余りにも多くのチャンネル変更を防ぎきれないために、現行のチャンネルに置かれてもよく、従って、ユーザが部屋の他の側に対応している遠いチャンネルよりも、近くのチャンネルに歩いていることがもっともらしいという状況に応じて、もっと遠いチャンネルよりも近くのチャンネルに高い重み付けがなされてもよい。実施態様によっては、チャンネルの重みは、マルコフチェーンとして具現化されてもよい。
本開示の一態様では、同時音声認識が多チャンネルについて実行されてもよい。従来の音声認識システムにおいては、1チャンネルが一度に処理され、そのチャンネルに対応するフレームは順次処理される。多チャンネルの同時音声認識を実行する可能な実施策は、(1)各チャンネルの連結特徴ベクトルからなるスーパーベクトルに関して訓練された音声認識モデルを使用すること、(2)従来の音声認識を使用するが、結果ネットワークを生成するときに、選択肢として各チャンネルからの特徴ベクトルを使用すること、及び(3)方向を選択し音声認識結果を同時に決定するため、ニューラルネットワークを使用することを含んでいる。
結果のネットワークは、認識期間に作成され得る構造である。結果のネットワークは、入力データを使用して作成されてもよく、データから認識される音声認識ユニットの適当なシーケンス(例えば、HMM状態、文脈の音素または音素)を示してもよい。結果のネットワークは、適切な形態で表現されてもいので、本開示は結果のネットワークの特定の構造を全く限定するものではない。態様によっては、HMM結果のネットワークがノードやアークで表され、認識されているHMM状態がアーク及び/またはノードに関連付けられることもあり得る。態様によっては、結果のネットワークは、ツリー、ラチスまたは有向グラフであってもよい。結果ネットワーク経路のノード及び/またはアークは、重みを持っており、その重みは尤度、または結果ネットワークの経路あるいは経路の一部のコストを示している。
音声認識の処理は、単語のネットワーク、言語モデル、音声ユニットネットワーク、ガウシアンミクスチャモデル(GMM)ネットワーク及びHMMネットワークなどの多くのネットワークに関与していてもよい。例えば、単語結果のネットワークは、上述の図7を参照して記述されている。音声認識パラメータ、例えば、コンテキスト中の音声ユニットは、多くの状態から構成されているHMMとして具現化され、各音声パラメータに異なったHMMがあってもよい。HMMネットワークは、認識されているHMM状態のシーケンスを示すHMM結果ネットワークを含むこともできる。HMMネットワークはASRシステムによって知られているHMM状態を示すセットのトークンを含むこともできる。HMM結果は、HMMモデルを含むことができ、各HMMの状態シーケンスを示し、グラフとして表現されてもよい。HMMの各状態は、ガウシアン確率密度の混合から構成されてもよい。
スーパーベクトルアプローチに関して、各チャンネルについて計算された特徴ベクトルが連結されてより長いベクトルになってもよい。例えば、各チャンネルが40の長さの特徴ベクトルを有し、6チャンネルあれば、スーパーベクトルは長さ240となる。音声認識モデルは、そのスーパーベクトルに対応して生成され得る。例えば、多チャンネルデータのコーパスが、スーパーベクトルに基づいた音響モデルを訓練するために使用され得る。スーパーベクトルとして多チャンネルを有する音声認識モデルを訓練することによって、音声認識モデルは、雑音がそれらのチャンネルにあっても、音声を認識するために学習し、ユーザがチャンネルを越えて動いているときも、音声を認識するために学習し、多くの発言者がいる場合にも、音声を認識するために学習することができる。スーパーベクトルで訓練された声認識モデルは、スーパーベクトルに基づいた音声認識を実行するシステムに備えられてもよい。
多チャンネルの同時音声認識は、また、異なったチャンネルからの特徴ベクトルによっても実行され得る。異なったチャンネルからの特徴ベクトルは、結果ネットワークを生成するとき、代替として使用されてもよい。図7は単一のチャンネルの音声について作用する従来の音声認識エンジンを使用して構築され得る単語結果ネットワークを図示している。図7の単語結果ネットワークは、単一のチャンネルから特徴ベクトルの単一のシーケンスに基づいて構築される。しかし、多チャンネルの音声を処理するとき、各チャンネルの音声はフレームのシーケンスを有することができるので、各チャンネルの音声のフレームは、結果ネットワークを構築する際に同時に処理されてもよい。多チャンネルの音声に関する例示的なHMM結果ネットワークは、図11によって図示されている。
図11は、多チャンネルの音声を同時に処理する場合に作成される例示の結果ネットワークを示している。異なった線スタイルは、異なったチャンネルから生成され得る仮説を示している。例えば、実線はチャンネル1を表し、破線はチャンネル2を表し、そして点線はチャンネル3を表すことができる。各チャンネルは、潜在的なHMM状態の指示を提示している。図11はHMM状態に基づく結果ネットワークを示しているが、実際はいかなるタイプの結果ネットワークでも使用され得る。HMM結果ネットワーク1100は、左から右へ進行し、左端ノードは発声の開始を示している。HMM結果ネットワーク1100の各アークは、HMM状態を表し、アークのシーケンスは、HMM状態のシーケンスを表すことができる。
図11の最初の過程(時間1)では、状態S1からS5までに対応する多くのアークがある。状態S1は、チャンネル1に対応し、状態S2、S3及びS4は、チャンネル2に対応し、状態S4及びS5は、チャンネル3に対応する。各時間過程、例えば、時間1は、音声フレームを表す所定の時間(例えば、10ms)に対応してもよい。図示されているように、時間1の終わりの可能なHMM状態は、S1、S2、S3、S4及びS5であり、時間2の終わりの可能なHMM状態は、S1、S7、S8、S9及びS10であり、時間5の終わりの可能な状態は、S11、S13、S14及びS15であり、時間6の終わりの可能な状態は、S21、S22、S23、S24及びS25である。確率値及び/またはスコアは、各潜在的HMM状態に関係付けられてもよい。態様によっては、各潜在的HMM状態に関係付けられた確率値及び/またはスコアに基づいて、システムは潜在的HMM状態を選択できる。しかし、場合によっては、チャンネルのHMM状態が実質的に類似しているか、または類似結果を指しているとき、選択は不要となることもある。例えば、同じ音素に対する各チャンネルの潜在的HMM状態パターンが同じ音素を指しており、音素が同じ単語を指しているとき、選択は不要となろう。
説明を目的として、受信音声の始期(すなわち、時間1)で、ユーザはチャンネル2及び3の間であり、ユーザの発話は両チャンネル2及び3によって取り上げられている結果となってもよい。しかし、チャンネル1は、食器洗浄機からの音声などの発話以外の音声を取り上げているのみであるかもしれない。どの時間過程でも、最高のスコアとなる仮説のみが維持され得る。例えば、重要な音声を有しない他のチャンネル(チャンネル4、5などのように)または音声モデルに一致しない音声が存在することもあろう。次の幾らかの時間過程(例えば、時間2ないし時間4(図示せず))の間に、ユーザは同じ場所にとどまり、チャンネル1が食器洗浄機に対応するフレームを生成し続けるが、HMM状態がチャンネル2及び3に対応するフレームから生成される場合、当該状態はユーザの発話に対応して示される。
時間5で、ユーザは食器洗浄機に歩み寄り、次の幾らかの時間過程の間(例えば、時間5及び時間6)、チャンネル1及び2からのフレームは、ユーザの発話に対応する状態を生成し、チャンネル3は、もはやフレームを生成しない。各時間過程で、音声を導く各チャンネルからのフレームがHMMに対して評点され、フレームとHMM状態の最高スコアの組み合わせが結果ネットワークに加えられてもよい。ユーザの発話の音声認識の実行が終了すると、最高スコアの仮説が、ユーザの発話に対応する可能性が最もあるとして選択され、3チャンネルの各々からのフレームがその仮説を生成するために使用されてもよい。
態様によっては、異なったチャンネルによって生成されたHMM状態に置かれる制約がある場合もない場合もある。態様によっては、2チャンネルが反対方向を示しているとしても、制約が全くなく、チャンネル1によって生成されたHMM状態が、チャンネル4によって生成されたHMM状態で追随されてもよいこともある。態様によっては、制約が課せられることもある。例えば、ペナルティがチャンネル間の距離に基づいて課せられ得ることもある。同じチャンネルにはペナルティはなく、近接チャンネルにはより小さなペナルティがあり、近接していないチャンネルにはより酷なペナルティがあり得る。
態様によっては、チャンネルの事前選択が、音声認識のチャンネルからの音声のフレームを使用する前に実行されてもよいものもある。例えば、エネルギー検出または音声活動性検出のような技術手法が音声を最も含んでいそうなチャンネルを選択するために使用されてもよい。チャンネルを事前に選択することによって、音声認識の計算効率がより上がることがある。
態様によっては、同時に多チャンネルの音声を処理することによって、人が部屋を歩き回ると、音声認識システムがその人を追跡させることもある。他の態様では、異なった方向から到来する騒々しい音(例えば、食器洗浄機など)があっても、多チャンネルの同時音声処理により、音声認識システムがユーザの発話を認識するようにできる。態様によっては、同時に多チャンネルの音声を処理することによって、多くの話者について同時に認識をすることができる。例えば、第1ユーザがチャンネル1及び2にいて、第2ユーザがチャンネル4及び5にいる場合、結果ネットワークは、第1ユーザについて完全な音声認識結果を含み、第2ユーザについてもう一つの完全な音声認識結果を含むことができる。
他の選択肢として、異なった方向の同時音声認識が、ニューラルネットワークに関連して実行されてもよい。従来、ニューラルネットワークは、単一チャンネルまたは方向のデータによって訓練される。その代わりに、ニューラルネットワークは、各チャンネルがマイクロフォンアレイとは違った方向である場合のように、多チャンネルデータによって訓練されてよい。ニューラルネットワークが、多チャンネルデータについて訓練を受けると、ニューラルネットワークについては、同時に音声方向の選択と音声認識の実行をする訓練がなされ得る。訓練データは、例えば、音楽または音声ではない雑音のように、音声以外のデータを含むことができる。例えば、音声は異なった方向から発しながら、音楽は一方向の源から発するようにしてもよい。このような方法で訓練を受けるニューラルネットワークは、ユーザが部屋を歩き回るに従って、そのユーザを追跡できるようにしてもよい。ユーザの動きに応じて、ニューラルネットワークは、ユーザの発話をよりよく認識するために、各チャンネルから最も関連するデータを自動的に選択することができるようにする。
図12は、本開示の態様に従って、多チャンネルの音声に基づく音声の処理方法を図示している。この方法は、ビーム形成器モジュール128、マイクロフォンアレイ126、ASR装置100及び/または遠隔音声処理置(例えば、ASR装置302)において実装され得る。ブロック1202で、ASR装置100は、第1チャンネル及び第2チャンネルを含んでいる多チャンネルの音声信号を受信することができる。第1チャンネル及び第2チャンネルは、ビーム形成器及びマイクロフォンアレイを使用して作成されてもよい。第1チャンネルは、第1方向からの音声を表し、第2チャンネルは、第2方向からの音声を表している。ブロック1204では、ASR装置100は、第1チャンネルの第1シーケンスの特徴ベクトルを作成し、第2チャンネルの第2シーケンスの特徴ベクトルを作成することができる。ブロック1206においては、ASR装置100は、の第1シーケンスの特徴ベクトルと第2シーケンスの特徴ベクトルを使用して音声認識を実行することができる。音声認識の実行は、音声認識モデルと特徴ベクトルの第1シーケンスの第1特徴ベクトルを使用して、ブロック1208において、第1仮説を生成することを含んでもよい。音声認識の実行は、また、ブロック1210において、音声認識モデルと特徴ベクトルの第2シーケンスの第2特徴ベクトルを使用して、第2仮説を生成することを含んでもよい。第2仮説は、音声認識結果ネットワークの第1仮説に続いて生じる。
本開示の上述の態様は、例示的であることが意図されている。当該態様は、開示の原理と応用を明らかにするために選択されたものであり、本開示がこれに尽きるという意図でも本開示を限定する意図でもない。開示された態様の多くの修正や変形が、この分野の通常の知識を有する者にとって明らかであろう。例えば、ここで記述されたASR技術手法は、音声記憶装置に保存された言語情報に基づき、多くの異なった言語に応用されてもよい。
本開示の態様は、コンピュータ実装方法、システムあるいはメモリ装置または非一時的コンピュータ可読記憶媒体などの製品として実施されてもよい。コンピュータ可読記憶媒体は、コンピュータによって可読であり、コンピュータまたは他のデバイスに本開示に開示されたプロセスを実行させる命令から構成できる。コンピュータ可読記憶媒体は、揮発性コンピュータメモリ、不揮発性コンピュータメモリ、ハードドライブ、固体メモリ、フラッシュドライブ、リムーバブルディスク及び/または他のメモリで実装されてもよい。
本開示の態様は、異なった形式のソフトウエア、ファームウエア及び/またはハードウエアで実行されてもよい。更に、本開示による教示は、例えば、特定用途集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のコンポーネントによって実行されてもよい。
本開示の態様は、単一の装置で実行され、または多くの装置で実行されてもよい。例えば、ここで記述された1つまたは複数のコンポーネントを含むプログラムモジュールが異なったデバイスに配置され、または本開示の1つまたは複数の態様のそれぞれを実行してもよい。この開示で使用されているように、用語「a」または「1つ」は、特にそれに反する記述がない限り、1つまたは複数の項目を含むことができる。更に、単語「基づく」は、特にそれに反する記述がない限り、「少なくとも部分的に基づく」を意図している。
まとめ
1.音声認識実行方法であって、この方法は第1チャンネル及び第2チャンネルから成る多チャンネルの音声信号を受信することであって、第1チャンネル及び第2チャンネルはビーム形成器及びマイクロフォンアレイを使用して作成され、第1チャンネルは第1方向からの音声を表し、第2チャンネルは第2方向からの音声を表す、受信することと、第1チャンネルの第1シーケンスの特徴ベクトル及び第2チャンネルの第2シーケンスの特徴ベクトルを作成することと、第1シーケンスの特徴ベクトル及び第2シーケンスの特徴ベクトルを使用して音声認識を実行することであって、その音声認識の実行は音声認識モデルと第1シーケンスの特徴ベクトルの第1特徴ベクトルを使用して第1仮説を生成し、音声認識モデルと第2シーケンスの特徴ベクトルの第2特徴ベクトルを使用して第2仮説を生成することとを含み、第2仮説は音声認識結果ネットワークの第1仮説に続いている、実行することとを含む方法。
2.第1チャンネルの音声の特性に少なくとも部分的に基づいて第1チャンネルを選択することを更に含む、節1に記載の方法。
3.当該特性が第1チャンネルの音声エネルギーまたは第1チャンネルの音声に発話が存在する、節2に記載の方法。
4.当該多チャンネルの音声信号が、更に、第3チャンネルを含み、当該方法は、更に、第3シーケンスの第3チャンネルの特徴ベクトルを作成することを含み、音声認識の実行は、更に、音声認識モデル及び第3シーケンスの特徴ベクトルの第3特徴ベクトルを使用して第3仮設を生成することを含み、第3仮設は音声認識結果ネットワークの第1仮説と並列である、節1に記載の方法。
5.第1仮説が隠れマルコフモデルの状態、文脈の音素または単語から構成されている、節1に記載の方法。
6.少なくとも1つのプロセッサと、アクションセットを実行する少なくとも1つのプロセッサによって実行されるように作動する命令を含んでいるメモリデバイスを含み、少なくとも1つのプロセッサが第1チャンネル及び第2チャンネルから成る多チャンネルの音声信号を受信し、第1チャンネル及び第2チャンネルはビーム形成器及びマイクロフォンアレイを使用して作成され、第1チャンネルの第1シーケンスの特徴ベクトル及び第2チャンネルの第2シーケンスの特徴ベクトルを作成し、第1シーケンスの特徴ベクトルの第1フレーム及び第2シーケンスの特徴ベクトルの第2フレームを処理して少なくとも1つの第1音声認識仮説を生成し、第1フレーム及び第2フレームは第1時間に対応し、第1シーケンスの特徴ベクトルの第3フレーム及び第2シーケンスの特徴ベクトルの第4フレームを処理して少なくとも1つの第2音声認識仮説を生成し、第3フレーム及び第4フレームは第2時間に対応し、第1フレーム及び第2フレームを処理した後で第3フレーム及び第4フレームを処理する、コンピューティング装置。
7.少なくとも1つのプロセッサが、更に、第1フレーム及び第2フレームを実質的に同時に処理するように構成にされた、節6に記載のコンピューティング装置。
8.少なくとも1つのプロセッサが、更に、第1フレーム及び第2フレームを結合して結合されたフレームを作成し、その結合されたフレームを処理することによって第1フレーム及び第2フレームを処理する構成にされている、節6に記載のコンピューティング装置。
9.少なくとも1つのプロセッサが、更に、結合されたフレームで訓練された音響モデルを使用して第1フレーム及び第2フレームを処理するように構成された、節8に記載のコンピューティング装置。
10.少なくとも1つのプロセッサが、更に、第1フレーム及び第2フレームを処理して、第1フレームに対応する音声認識仮説を生成し、第2フレームに対応する音声認識仮説を生成することによって、少なくとも1つの第1音声認識を生成するように構成された、節9に記載のコンピューティング装置。
11.少なくとも1つのプロセッサが、更に、第1フレーム及び第2フレームを処理し、ニューラルネットワーク音声認識モデルを使用して少なくとも1つの第1音声認識を生成する構成にされている、節6に記載のコンピューティング装置。
12.少なくとも1つのプロセッサが、更に、少なくとも1つの第1音声認識仮説及び少なくとも1つの第2音声認識仮説から成る音声認識結果ネットワークを生成する構成にされている、節6に記載のコンピューティング装置。
13.第1チャンネルが第1方向に対応し、第2チャンネルが第2方向に対応し、音声認識結果ネットワークの第3音声認識仮説及び第4音声認識仮説の間の接続は第1方向及び第2方向の間の距離に少なくとも部分的に依存する構成にされている、節12に記載のコンピューティング装置。
14.第1チャンネル及び第2チャンネルから成る多チャンネルの音声信号を受信するプログラムコードと、第1チャンネルは第1方向からの音声から成り、第2チャンネルは第2方向からの音声から成り、第1チャンネルの第1シーケンスの音響的特徴及び第2チャンネルの第2シーケンスの音響的特徴を作成するプログラムコードと、第1時間フレームに対応する第1シーケンス及び第1時間フレームに対応する第2シーケンスからの音響的特徴を処理して少なくとも1つの第1音声認識仮説を生成するプログラムコードと、第2時間フレームに対応する第1シーケンス及び第2時間フレームに対応する第2シーケンスからの音響的特徴を処理して少なくとも1つの第2音声認識仮説を生成するプログラムコードから構成されており、第1時間フレームに対応する音響的特徴処理することは第2時間フレームに対応する音響的特徴を処理する後で生じる構成にされている、コンピューティング装置を制御するプロセッサ実行可能命令を保存する非一時的コンピュータ可読記憶媒体。
15.第1時間フレームに対応する音響的特徴を実質的に同時に処理するプログラムコードを更に含む、節14に記載の非一時的コンピュータ可読記憶媒体。
16.第1時間フレームに対応する音響的特徴を結合して結合された特徴を作成し、その結合された特徴を処理して第1時間フレームに対応する音響的特徴を処理するプログラムコードを更に含む、節14に記載の非一時的コンピュータ可読記憶媒体。
17.結合された特徴によって訓練された音響モデルを使用して第1時間フレームに対応する音響的特徴を処理するプログラムコードを更に含む、節16に記載の非一時的コンピュータ可読記憶媒体。
18.第1時間フレームに対応する第1シーケンスから音響的特徴に対応する第1音声認識仮説を生成し、第1時間フレームに対応する第2シーケンスから音響的特徴に対応する第2音声認識仮説を生成することによって第1フレームに対応する音響的特徴を処理するプログラムコードを更に含む、節17に記載の非一時的コンピュータ可読記憶媒体。
19.ニューラルネットワークの音声認識モデルを使用して第1時間フレームに対応する音響的特徴を処理するプログラムコードを更に含む、節14に記載の非一時的コンピュータ可読記憶媒体。
20.少なくとも1つの第1音声認識仮説及び少なくとも1つの第2音声認識仮説を含む音声認識結果ネットワークを生成するプログラムコードを更に含む、節14に記載の非一時的コンピュータ可読記憶媒体。
21.音声認識結果ネットワークの第3音声認識仮説及び第4音声認識仮説の間の接続が第1方向及び第2方向の間の距離に少なくとも部分的に依存するように構成された、節20に記載の非一時的コンピュータ可読記憶媒体。

Claims (13)

  1. 音声認識実行方法であって、
    第1チャンネル及び第2チャンネルを含む多チャンネルの音声信号を受信することであって、前記第1チャンネル及び前記第2チャンネルはビーム形成器及びマイクロフォンアレイを使用して作成され、前記第1チャンネルは第1方向からの音声を表し、前記第2チャンネルは第2方向からの音声を表す、前記受信することと、
    前記第1チャンネルの第1シーケンスの特徴ベクトル及び前記第2チャンネルの第2シーケンスの特徴ベクトルを作成することと、
    前記第1シーケンスの第1特徴ベクトル及び前記第2シーケンスの第2特徴ベクトルを結合し、第1の結合された特徴ベクトルを作成することであって、前記第1特徴ベクトル及び前記第2特徴ベクトルは第1時間に対応する、前記第1の結合された特徴ベクトルを作成することと、
    声認識モデルと前記第1の結合された特徴ベクトルを使用して第1仮説を生成、前記音声認識モデルと第2時間に対応する第2の結合された特徴ベクトルを使用して第2仮説を生成することにより音声認識を実行することと
    を含み、前記第2仮説は音声認識結果ネットワークの前記第1仮説に続いている前記方法。
  2. 前記音声認識の実行の後に、前記第1チャンネルの音声の特性に少なくとも部分的に基づいて将来の処理のために前記第1チャンネルを選択することを更に含む、請求項1に記載の前記方法。
  3. 前記特性が前記第1チャンネルの音声エネルギーまたは前記第1チャンネルの前記音声に発話が存在する、請求項2に記載の前記方法。
  4. 前記多チャンネルの音声信号が、更に、第3チャンネルを含み、
    前記方法は、更に、前記第3チャンネルのために第3シーケンスの特徴ベクトルを作成することを含み、
    音声認識の実行は、更に、音声認識モデル及び第3シーケンスの特徴ベクトルの第3特徴ベクトルを使用して第3仮設を生成することを含み、前記第3仮設は前記音声認識結果ネットワークの前記第1仮説と並列である、請求項1に記載の前記方法。
  5. 前記第1仮説が隠れマルコフモデルの状態、文脈の音素または単語を含む、請求項1に記載の前記方法。
  6. 少なくとも1つのプロセッサと、
    アクションセットを実行する前記少なくとも1つのプロセッサによって実行されるように作動する命令を含んでいるメモリデバイスを含み、前記少なくとも1つのプロセッサが、
    第1チャンネル及び第2チャンネルを含む多チャンネルの音声信号を受信し、前記第1チャンネル及び前記第2チャンネルはビーム形成器及びマイクロフォンアレイを使用して作成され、
    前記第1チャンネルの第1シーケンスの特徴ベクトル及び前記第2チャンネルの第2シーケンスの特徴ベクトルを作成し、
    第1シーケンスの特徴ベクトルの第1特徴ベクトル及び第2シーケンスの特徴ベクトルの第2特徴ベクトルを結合し、第1の結合された特徴ベクトルを作成し、前記第1特徴ベクトル及び前記第2特徴ベクトルは第1時間に対応し、
    前記第1の結合された特徴ベクトルを処理して少なくとも1つの第1音声認識仮説を生成し、
    第1シーケンスの特徴ベクトルの第3特徴ベクトル及び第2シーケンスの特徴ベクトルの第4特徴ベクトルを結合し、第2の結合された特徴ベクトルを作成し、前記第3特徴ベクトル及び前記第4特徴ベクトルは第2時間に対応し、
    前記第2の結合された特徴ベクトルを処理して少なくとも1つの第2音声認識仮説を生成し、前記第1の結合された特徴ベクトルを処理した後で前記第2の結合された特徴ベクトルを処理する、コンピューティング装置。
  7. 前記少なくとも1つのプロセッサが、更に、前記第1特徴ベクトル及び前記第2特徴ベクトルを実質的に同時に処理するように構成にされた、請求項6記載の前記コンピューティング装置。
  8. 前記少なくとも1つのプロセッサが、更に、前記第1の結合された特徴ベクトルを処理してニューラルネットワークの音声認識モデルを使用することによって前記少なくとも1つの第1音声認識仮説を生成するように構成された、請求項6記載の前記コンピューティング装置。
  9. 前記少なくとも1つのプロセッサが、更に、前記少なくとも1つの第1音声認識仮説及び前記少なくとも1つの第2音声認識仮説から音声認識結果ネットワークを生成するように構成された、請求項6記載の前記コンピューティング装置。
  10. 1つまたは複数のプロセッサを含み、コンピューティング装置を制御するプロセッサ実行可能命令を保存する非一時的コンピュータ可読記憶媒体であって、
    第1チャンネル及び第2チャンネルを含む多チャンネルの音声信号を受信するプログラムコードであって、前記第1チャンネルは第1方向からの音声を含み、前記第2チャンネルは第2方向からの音声を含む、前記プログラムコードと、
    前記第1チャンネルの第1シーケンスの音響的特徴及び前記第2チャンネルの第2シーケンスの音響的特徴を作成するプログラムコードと、
    第1時間フレームに対応する前記第1シーケンスからの第1音響的特徴及び第1時間フレームに対応する前記第2シーケンスからの第2音響的特徴を結合し、第1の結合された音響的特徴を作成するプログラムコードと、
    前記第1の結合された音響的特徴を処理して少なくとも1つの第1音声認識仮説を生成するプログラムコードと、
    第2時間フレームに対応する前記第1シーケンスからの第3音響的特徴及び第2時間フレームに対応する前記第2シーケンスからの第4音響的特徴を結合し、第2の結合された音響的特徴を作成するプログラムコードと、
    前記第2の結合された音響的特徴を処理して少なくとも1つの第2音声認識仮説を生成するプログラムコードとを含み、前記第1の結合された音響的特徴の処理は前記第2の結合された音響的特徴の処理の後で生じる、前記非一時的コンピュータ可読記憶媒体。
  11. 結合された特徴で訓練された音響モデルを使用する前記第1の結合された音響的特徴を処理するプログラムコードを更に含む、請求項10に記載の前記非一時的コンピュータ可読記憶媒体。
  12. 前記第1の音響的特徴に対応する第1音声認識仮説を生成し、前記第2の音響的特徴に対応する第2音声認識仮説を生成することによって、前記第1の結合された音響的特徴を処理するプログラムコードを更に含む、請求項11に記載の前記非一時的コンピュータ可読記憶媒体。
  13. 前記少なくとも1つの第1音声認識仮説及び前記少なくとも1つの第2音声認識仮説を含む音声認識結果ネットワークを生成するプログラムコードを更に含む、請求項10に記載の前記非一時的コンピュータ可読記憶媒体。
JP2016517330A 2013-09-27 2014-09-17 多方向の復号をする音声認識 Active JP6574169B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/039,383 US9286897B2 (en) 2013-09-27 2013-09-27 Speech recognizer with multi-directional decoding
US14/039,383 2013-09-27
PCT/US2014/056022 WO2015047815A1 (en) 2013-09-27 2014-09-17 Speech recognizer with multi-directional decoding

Publications (2)

Publication Number Publication Date
JP2016536626A JP2016536626A (ja) 2016-11-24
JP6574169B2 true JP6574169B2 (ja) 2019-09-11

Family

ID=52740981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016517330A Active JP6574169B2 (ja) 2013-09-27 2014-09-17 多方向の復号をする音声認識

Country Status (5)

Country Link
US (1) US9286897B2 (ja)
EP (1) EP3050052B1 (ja)
JP (1) JP6574169B2 (ja)
CN (1) CN105765650B (ja)
WO (1) WO2015047815A1 (ja)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112016012363B1 (pt) * 2013-12-05 2021-03-30 Bic-Violex Sa Cartucho de lâmina de barbear, ângulo de lâmina de barbear e barbeador
US9535897B2 (en) * 2013-12-20 2017-01-03 Google Inc. Content recommendation system using a neural network language model
US9351060B2 (en) 2014-02-14 2016-05-24 Sonic Blocks, Inc. Modular quick-connect A/V system and methods thereof
US10510343B2 (en) * 2014-06-11 2019-12-17 Ademco Inc. Speech recognition methods, devices, and systems
US10199034B2 (en) * 2014-08-18 2019-02-05 At&T Intellectual Property I, L.P. System and method for unified normalization in text-to-speech and automatic speech recognition
KR102380833B1 (ko) * 2014-12-02 2022-03-31 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
US10609475B2 (en) 2014-12-05 2020-03-31 Stages Llc Active noise control and customized audio system
US9654868B2 (en) 2014-12-05 2017-05-16 Stages Llc Multi-channel multi-domain source identification and tracking
US9747367B2 (en) 2014-12-05 2017-08-29 Stages Llc Communication system for establishing and providing preferred audio
US9508335B2 (en) 2014-12-05 2016-11-29 Stages Pcs, Llc Active noise control and customized audio system
KR102387567B1 (ko) * 2015-01-19 2022-04-18 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
US9703394B2 (en) * 2015-03-24 2017-07-11 Google Inc. Unlearning techniques for adaptive language models in text entry
US10403269B2 (en) 2015-03-27 2019-09-03 Google Llc Processing audio waveforms
US9697826B2 (en) * 2015-03-27 2017-07-04 Google Inc. Processing multi-channel audio waveforms
WO2016167779A1 (en) * 2015-04-16 2016-10-20 Mitsubishi Electric Corporation Speech recognition device and rescoring device
US9524716B2 (en) * 2015-04-17 2016-12-20 Nuance Communications, Inc. Systems and methods for providing unnormalized language models
US9865265B2 (en) * 2015-06-06 2018-01-09 Apple Inc. Multi-microphone speech recognition systems and related techniques
US10013981B2 (en) 2015-06-06 2018-07-03 Apple Inc. Multi-microphone speech recognition systems and related techniques
US9646628B1 (en) * 2015-06-26 2017-05-09 Amazon Technologies, Inc. Noise cancellation for open microphone mode
US10134425B1 (en) * 2015-06-29 2018-11-20 Amazon Technologies, Inc. Direction-based speech endpointing
KR102386854B1 (ko) 2015-08-20 2022-04-13 삼성전자주식회사 통합 모델 기반의 음성 인식 장치 및 방법
KR20170034227A (ko) * 2015-09-18 2017-03-28 삼성전자주식회사 음성 인식 장치 및 방법과, 음성 인식을 위한 변환 파라미터 학습 장치 및 방법
US9875081B2 (en) 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
US10339921B2 (en) 2015-09-24 2019-07-02 Google Llc Multichannel raw-waveform neural networks
US9715874B2 (en) * 2015-10-30 2017-07-25 Nuance Communications, Inc. Techniques for updating an automatic speech recognition system using finite-state transducers
US20170206898A1 (en) * 2016-01-14 2017-07-20 Knowles Electronics, Llc Systems and methods for assisting automatic speech recognition
US9799327B1 (en) * 2016-02-26 2017-10-24 Google Inc. Speech recognition with attention-based recurrent neural networks
US9865254B1 (en) * 2016-02-29 2018-01-09 Amazon Technologies, Inc. Compressed finite state transducers for automatic speech recognition
US10176802B1 (en) * 2016-03-21 2019-01-08 Amazon Technologies, Inc. Lattice encoding using recurrent neural networks
KR102151682B1 (ko) 2016-03-23 2020-09-04 구글 엘엘씨 다중채널 음성 인식을 위한 적응성 오디오 강화
CN107290711A (zh) * 2016-03-30 2017-10-24 芋头科技(杭州)有限公司 一种语音寻向系统及方法
US10089974B2 (en) * 2016-03-31 2018-10-02 Microsoft Technology Licensing, Llc Speech recognition and text-to-speech learning system
US10388274B1 (en) 2016-03-31 2019-08-20 Amazon Technologies, Inc. Confidence checking for speech processing and query answering
US10332508B1 (en) * 2016-03-31 2019-06-25 Amazon Technologies, Inc. Confidence checking for speech processing and query answering
US10923137B2 (en) * 2016-05-06 2021-02-16 Robert Bosch Gmbh Speech enhancement and audio event detection for an environment with non-stationary noise
US10445356B1 (en) * 2016-06-24 2019-10-15 Pulselight Holdings, Inc. Method and system for analyzing entities
US9875747B1 (en) * 2016-07-15 2018-01-23 Google Llc Device specific multi-channel data compression
US11263516B2 (en) * 2016-08-02 2022-03-01 International Business Machines Corporation Neural network based acoustic models for speech recognition by grouping context-dependent targets
JP6567478B2 (ja) * 2016-08-25 2019-08-28 日本電信電話株式会社 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム、信号処理学習装置
US10224058B2 (en) 2016-09-07 2019-03-05 Google Llc Enhanced multi-channel acoustic models
US10424317B2 (en) * 2016-09-14 2019-09-24 Nuance Communications, Inc. Method for microphone selection and multi-talker segmentation with ambient automated speech recognition (ASR)
KR102562287B1 (ko) 2016-10-14 2023-08-02 삼성전자주식회사 전자 장치 및 전자 장치의 오디오 신호 처리 방법
CN107978312A (zh) * 2016-10-24 2018-05-01 阿里巴巴集团控股有限公司 一种语音识别的方法、装置及系统
US9980075B1 (en) 2016-11-18 2018-05-22 Stages Llc Audio source spatialization relative to orientation sensor and output
US10945080B2 (en) 2016-11-18 2021-03-09 Stages Llc Audio analysis and processing system
US9980042B1 (en) 2016-11-18 2018-05-22 Stages Llc Beamformer direction of arrival and orientation analysis system
CN108288470B (zh) * 2017-01-10 2021-12-21 富士通株式会社 基于声纹的身份验证方法和装置
US10366702B2 (en) 2017-02-08 2019-07-30 Logitech Europe, S.A. Direction detection device for acquiring and processing audible input
US10362393B2 (en) 2017-02-08 2019-07-23 Logitech Europe, S.A. Direction detection device for acquiring and processing audible input
US10229667B2 (en) 2017-02-08 2019-03-12 Logitech Europe S.A. Multi-directional beamforming device for acquiring and processing audible input
US10366700B2 (en) 2017-02-08 2019-07-30 Logitech Europe, S.A. Device for acquiring and processing audible input
US10460727B2 (en) 2017-03-03 2019-10-29 Microsoft Technology Licensing, Llc Multi-talker speech recognizer
US11133011B2 (en) * 2017-03-13 2021-09-28 Mitsubishi Electric Research Laboratories, Inc. System and method for multichannel end-to-end speech recognition
US10621980B2 (en) * 2017-03-21 2020-04-14 Harman International Industries, Inc. Execution of voice commands in a multi-device system
JP6591477B2 (ja) * 2017-03-21 2019-10-16 株式会社東芝 信号処理システム、信号処理方法及び信号処理プログラム
CN107039041B (zh) * 2017-03-24 2020-10-20 广东美的制冷设备有限公司 语音扩展的方法与语音助手
US10373630B2 (en) * 2017-03-31 2019-08-06 Intel Corporation Systems and methods for energy efficient and low power distributed automatic speech recognition on wearable devices
KR20180111271A (ko) * 2017-03-31 2018-10-11 삼성전자주식회사 신경망 모델을 이용하여 노이즈를 제거하는 방법 및 장치
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
WO2018209608A1 (en) * 2017-05-17 2018-11-22 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for robust language identification
US10726828B2 (en) 2017-05-31 2020-07-28 International Business Machines Corporation Generation of voice data as data augmentation for acoustic model training
US10649060B2 (en) * 2017-07-24 2020-05-12 Microsoft Technology Licensing, Llc Sound source localization confidence estimation using machine learning
US10311872B2 (en) 2017-07-25 2019-06-04 Google Llc Utterance classifier
US10482904B1 (en) 2017-08-15 2019-11-19 Amazon Technologies, Inc. Context driven device arbitration
US10839822B2 (en) 2017-11-06 2020-11-17 Microsoft Technology Licensing, Llc Multi-channel speech separation
US10482878B2 (en) 2017-11-29 2019-11-19 Nuance Communications, Inc. System and method for speech enhancement in multisource environments
US10546593B2 (en) * 2017-12-04 2020-01-28 Apple Inc. Deep learning driven multi-channel filtering for speech enhancement
CN110047478B (zh) * 2018-01-16 2021-06-08 中国科学院声学研究所 基于空间特征补偿的多通道语音识别声学建模方法及装置
CN110070855B (zh) * 2018-01-23 2021-07-23 中国科学院声学研究所 一种基于迁移神经网络声学模型的语音识别系统及方法
JP6839333B2 (ja) * 2018-01-23 2021-03-03 グーグル エルエルシーGoogle LLC 呼び出しフレーズの検出における雑音低減技術の選択的適応および利用
KR101972545B1 (ko) * 2018-02-12 2019-04-26 주식회사 럭스로보 음성 명령을 통한 위치 기반 음성 인식 시스템
US11600273B2 (en) 2018-02-14 2023-03-07 Nec Corporation Speech processing apparatus, method, and program
US10192554B1 (en) 2018-02-26 2019-01-29 Sorenson Ip Holdings, Llc Transcription of communications using multiple speech recognition systems
US10540981B2 (en) * 2018-02-28 2020-01-21 Ringcentral, Inc. Systems and methods for speech signal processing to transcribe speech
US10957337B2 (en) 2018-04-11 2021-03-23 Microsoft Technology Licensing, Llc Multi-microphone speech separation
US20190324117A1 (en) * 2018-04-24 2019-10-24 Mediatek Inc. Content aware audio source localization
KR20190133100A (ko) 2018-05-22 2019-12-02 삼성전자주식회사 어플리케이션을 이용하여 음성 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법
CN110164446B (zh) * 2018-06-28 2023-06-30 腾讯科技(深圳)有限公司 语音信号识别方法和装置、计算机设备和电子设备
KR102544250B1 (ko) 2018-07-03 2023-06-16 삼성전자주식회사 소리를 출력하는 디바이스 및 그 방법
KR102635434B1 (ko) * 2018-08-07 2024-02-07 엘지전자 주식회사 인공지능을 이용하여 홈어플라이언스 및 클라우드 서버에서 수행되는 사고 예방 제어 방법
JP6965846B2 (ja) * 2018-08-17 2021-11-10 日本電信電話株式会社 言語モデルスコア算出装置、学習装置、言語モデルスコア算出方法、学習方法及びプログラム
US20200075044A1 (en) * 2018-08-31 2020-03-05 CloudMinds Technology, Inc. System and method for performing multi-model automatic speech recognition in challenging acoustic environments
US10878812B1 (en) * 2018-09-26 2020-12-29 Amazon Technologies, Inc. Determining devices to respond to user requests
US10325597B1 (en) 2018-10-08 2019-06-18 Sorenson Ip Holdings, Llc Transcription of communications
KR102102387B1 (ko) 2018-10-29 2020-04-21 주식회사 사운드잇 다채널오디오스트리밍에서 화자의 발화구간을 검출하는 방법 및 시스템
US11660509B2 (en) 2018-11-06 2023-05-30 Court Bots, Inc. Ball retrieval system and method
US11826616B2 (en) 2018-11-06 2023-11-28 Court Bots, Inc. Ball retrieval system and method
JP2022506725A (ja) 2018-11-06 2022-01-17 コート ボッツ インコーポレイテッド ボール回収システム(ball retrieval system)および方法
US11537853B1 (en) 2018-11-28 2022-12-27 Amazon Technologies, Inc. Decompression and compression of neural network data using different compression schemes
US11170761B2 (en) 2018-12-04 2021-11-09 Sorenson Ip Holdings, Llc Training of speech recognition systems
US11017778B1 (en) 2018-12-04 2021-05-25 Sorenson Ip Holdings, Llc Switching between speech recognition systems
US10573312B1 (en) 2018-12-04 2020-02-25 Sorenson Ip Holdings, Llc Transcription generation from multiple speech recognition systems
US10388272B1 (en) 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences
CN111627425B (zh) * 2019-02-12 2023-11-28 阿里巴巴集团控股有限公司 一种语音识别方法及系统
US11335347B2 (en) * 2019-06-03 2022-05-17 Amazon Technologies, Inc. Multiple classifications of audio data
US11328712B2 (en) * 2019-08-02 2022-05-10 International Business Machines Corporation Domain specific correction of output from automatic speech recognition
CN110738989B (zh) * 2019-10-21 2021-12-07 浙江大学 一种利用多种语言模型的端到端网络学习解决基于地点的语音的自动识别任务的方法
US11277689B2 (en) 2020-02-24 2022-03-15 Logitech Europe S.A. Apparatus and method for optimizing sound quality of a generated audible signal
US11373657B2 (en) 2020-05-01 2022-06-28 Raytheon Applied Signal Technology, Inc. System and method for speaker identification in audio data
CN111862987B (zh) * 2020-07-20 2021-12-28 北京百度网讯科技有限公司 语音识别方法和装置
US11488604B2 (en) 2020-08-19 2022-11-01 Sorenson Ip Holdings, Llc Transcription of audio
US11929087B2 (en) * 2020-09-17 2024-03-12 Orcam Technologies Ltd. Systems and methods for selectively attenuating a voice
US11715461B2 (en) * 2020-10-21 2023-08-01 Huawei Technologies Co., Ltd. Transformer-based automatic speech recognition system incorporating time-reduction layer
US20220157315A1 (en) * 2020-11-13 2022-05-19 Apple Inc. Speculative task flow execution
CN113206997B (zh) * 2021-04-30 2022-10-28 中国工商银行股份有限公司 一种多业务的录制音频数据的同时质检方法及装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273298A (ja) * 1991-02-28 1992-09-29 Fujitsu Ltd 音声認識装置
JP3163109B2 (ja) * 1991-04-18 2001-05-08 沖電気工業株式会社 多方向同時収音式音声認識方法
JP3522954B2 (ja) * 1996-03-15 2004-04-26 株式会社東芝 マイクロホンアレイ入力型音声認識装置及び方法
US6363345B1 (en) 1999-02-18 2002-03-26 Andrea Electronics Corporation System, method and apparatus for cancelling noise
US6526148B1 (en) * 1999-05-18 2003-02-25 Siemens Corporate Research, Inc. Device and method for demixing signal mixtures using fast blind source separation technique based on delay and attenuation compensation, and for selecting channels for the demixed signals
US6937980B2 (en) 2001-10-02 2005-08-30 Telefonaktiebolaget Lm Ericsson (Publ) Speech recognition using microphone antenna array
GB2388001A (en) 2002-04-26 2003-10-29 Mitel Knowledge Corp Compensating for beamformer steering delay during handsfree speech recognition
US7617104B2 (en) 2003-01-21 2009-11-10 Microsoft Corporation Method of speech recognition using hidden trajectory Hidden Markov Models
DE10339973A1 (de) * 2003-08-29 2005-03-17 Daimlerchrysler Ag Intelligentes akustisches Mikrofon-Frontend mit Spracherkenner-Feedback
US7099821B2 (en) 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
KR100754385B1 (ko) 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
US20070033042A1 (en) * 2005-08-03 2007-02-08 International Business Machines Corporation Speech detection fusing multi-class acoustic-phonetic, and energy features
US8068619B2 (en) 2006-05-09 2011-11-29 Fortemedia, Inc. Method and apparatus for noise suppression in a small array microphone system
US7689417B2 (en) * 2006-09-04 2010-03-30 Fortemedia, Inc. Method, system and apparatus for improved voice recognition
CN101030369B (zh) * 2007-03-30 2011-06-29 清华大学 基于子词隐含马尔可夫模型的嵌入式语音识别方法
JP5156260B2 (ja) * 2007-04-27 2013-03-06 ニュアンス コミュニケーションズ,インコーポレイテッド 雑音を除去して目的音を抽出する方法、前処理部、音声認識システムおよびプログラム
US20090037171A1 (en) * 2007-08-03 2009-02-05 Mcfarland Tim J Real-time voice transcription system
US8249867B2 (en) * 2007-12-11 2012-08-21 Electronics And Telecommunications Research Institute Microphone array based speech recognition system and target speech extracting method of the system
CN101620851B (zh) * 2008-07-01 2011-07-27 邹采荣 一种基于改进Fukunage-koontz变换的语音情感识别方法
KR101178801B1 (ko) * 2008-12-09 2012-08-31 한국전자통신연구원 음원분리 및 음원식별을 이용한 음성인식 장치 및 방법
US20100217590A1 (en) * 2009-02-24 2010-08-26 Broadcom Corporation Speaker localization system and method
CN101599271B (zh) * 2009-07-07 2011-09-14 华中科技大学 一种数字音乐情感的识别方法
JP5184467B2 (ja) * 2009-08-31 2013-04-17 日本放送協会 適応化音響モデル生成装置及びプログラム
JP5595112B2 (ja) * 2010-05-11 2014-09-24 本田技研工業株式会社 ロボット
US8972253B2 (en) * 2010-09-15 2015-03-03 Microsoft Technology Licensing, Llc Deep belief network for large vocabulary continuous speech recognition
US9031844B2 (en) * 2010-09-21 2015-05-12 Microsoft Technology Licensing, Llc Full-sequence training of deep structures for speech recognition
CN102693724A (zh) * 2011-03-22 2012-09-26 张燕 一种基于神经网络的高斯混合模型的噪声分类方法
CN102324232A (zh) * 2011-09-12 2012-01-18 辽宁工业大学 基于高斯混合模型的声纹识别方法及系统
CN102737633B (zh) * 2012-06-21 2013-12-25 北京华信恒达软件技术有限公司 一种基于张量子空间分析的说话人识别方法及其装置
GB2505400B (en) * 2012-07-18 2015-01-07 Toshiba Res Europ Ltd A speech processing system

Also Published As

Publication number Publication date
EP3050052A1 (en) 2016-08-03
WO2015047815A1 (en) 2015-04-02
US9286897B2 (en) 2016-03-15
JP2016536626A (ja) 2016-11-24
EP3050052A4 (en) 2017-03-22
US20150095026A1 (en) 2015-04-02
EP3050052B1 (en) 2018-11-07
CN105765650B (zh) 2019-08-06
CN105765650A (zh) 2016-07-13

Similar Documents

Publication Publication Date Title
JP6574169B2 (ja) 多方向の復号をする音声認識
US10134421B1 (en) Neural network based beam selection
US11475881B2 (en) Deep multi-channel acoustic modeling
EP3433855B1 (en) Speaker verification method and system
US9070367B1 (en) Local speech recognition of frequent utterances
US9484030B1 (en) Audio triggered commands
US9153231B1 (en) Adaptive neural network speech recognition models
US10923111B1 (en) Speech detection and speech recognition
US9443527B1 (en) Speech recognition capability generation and control
US10121494B1 (en) User presence detection
EP3114679B1 (en) Predicting pronunciation in speech recognition
US10650802B2 (en) Voice recognition method, recording medium, voice recognition device, and robot
US11043214B1 (en) Speech recognition using dialog history
US9613624B1 (en) Dynamic pruning in speech recognition
US10650306B1 (en) User representation using a generative adversarial network
US11302310B1 (en) Language model adaptation
US10796563B1 (en) Configuring a secondary device
US11574628B1 (en) Deep multi-channel acoustic modeling using multiple microphone array geometries
US11367431B2 (en) Synthetic speech processing
US11302329B1 (en) Acoustic event detection
US11145296B1 (en) Language and grammar model adaptation
US10143027B1 (en) Device selection for routing of communications
US11348579B1 (en) Volume initiated communications
US11308939B1 (en) Wakeword detection using multi-word model
US11693622B1 (en) Context configurable keywords

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180425

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190815

R150 Certificate of patent or registration of utility model

Ref document number: 6574169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250