JP6755843B2 - 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム - Google Patents

音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム Download PDF

Info

Publication number
JP6755843B2
JP6755843B2 JP2017177022A JP2017177022A JP6755843B2 JP 6755843 B2 JP6755843 B2 JP 6755843B2 JP 2017177022 A JP2017177022 A JP 2017177022A JP 2017177022 A JP2017177022 A JP 2017177022A JP 6755843 B2 JP6755843 B2 JP 6755843B2
Authority
JP
Japan
Prior art keywords
voice
target area
feature amount
outside
determination model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017177022A
Other languages
English (en)
Other versions
JP2019053180A (ja
Inventor
籠嶋 岳彦
岳彦 籠嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017177022A priority Critical patent/JP6755843B2/ja
Priority to US15/904,738 priority patent/US10950227B2/en
Publication of JP2019053180A publication Critical patent/JP2019053180A/ja
Application granted granted Critical
Publication of JP6755843B2 publication Critical patent/JP6755843B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Description

本実施形態は、音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラムに関する。
従来より、音声認識装置は、マイクロフォンで対象とする話者の音声を収録し、その収録信号から音声認識すべき目的の区間を検出し、検出された区間の音声について認識処理を行う。このとき、マイクロフォンに目的の音声以外の音声や雑音などが混入すると、音声区間として誤って検出された状態で認識処理が行われることになり、誤った不要な認識結果が出力されてしまう。そこで、従来では、複数のマイクアレイを用いて、音源の位置に基づいて目標の音声区間を検出する技術が開発されている。例えば、複数のマイクアレイそれぞれの指向性を制御して、目的エリア内を音源位置とする音声のみを強調する技術、複数のマイクロフォンで集音した音声の特徴量を、音源位置が既知の特徴量辞書と照合することにより、入力音声の音源位置を推定する技術が開示されている。
上述したような、目的音声以外の音声や雑音の混入による誤認識の問題は、発声開始のボタンを押して口元のマイクロフォンで集音する場合は発生しにくい。逆に、遠くのマイクロフォンで集音したり、ボタンを押さずにハンズフリーで集音したりする場合は発生しやすい。例えば、テレビに搭載したマイクロフォンでテレビの音声操作を実現する場合や、店頭に配置された情報処理端末に搭載のマイクロフォンで音声対話による商品案内を実現する場合などが考えられる。このような例では、マイクロフォンが搭載される機器によってマイクロフォンの本数や位置が異なり、また機器が設置される場所や用途によって音声を認識すべき目的エリアが異なる。このため、機器毎に目的エリアに応じたカスタマイズが必要となるが、その実現は極めて困難である。
特許第5482844号公報 特開2008−079256号公報
以上のように、従来の音声認識装置では、機器毎に目的エリアに応じたカスタマイズすることが困難であるという課題がある。特に、複数のマイクアレイそれぞれの指向性を制御して、目的エリア内を音源位置とする音声のみを強調する手法では、マイクアレイと目的エリアとの相対的な位置関係の測定に基づいてマイクアレイの指向性を制御するなどの設定が必要であり、専門家以外が設定するのは困難である。また、複数のマイクロフォンで集音した音声の特徴量を、音源位置が既知の特徴量辞書と照合して、入力音声の音源位置を推定する手法でも、予め辞書を作成した音源位置でなければ照合できないため、未知の環境では利用することができない。
本実施形態は上記課題に鑑みなされたもので、目的エリア外での話者の音声についてはその音声認識を実行せず、目的エリアでの話者の音声については確実に収録して音声認識を実行することのできる音声認識装置、音声認識方法及び音声認識プログラムを提供することを目的とする。
実施形態に係る音響処理装置は、目的エリア外が存在する空間の、互いに異なる位置に複数の第1のマイクロフォンを配置し、複数の第1のマイクロフォンでそれぞれ集音された音声から特徴量を抽出し、抽出される目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成し、前記空間に第2のマイクロフォンを配置して、前記第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力する。
第1の実施形態に係る音声認識機能を備えた音響処理装置の運用例を示す配置図。 第1の実施形態に係る音響処理装置の構成を示すブロック図。 第1の実施形態に係る音響処理装置の処理の流れを示すフローチャート。 第2の実施形態に係る音響処理装置の構成の示すブロック図。 第2の実施形態に係る音響処理装置の処理の流れを示すフローチャート。 第2の実施形態に係る音響処理装置の判定モデルで使用されるニューラルネットワークの学習データの例を示す図。 第3の実施形態に係る音声認識機能を備えた音響処理装置を搭載する案内装置を示す外観図。 第1〜第3の実施形態に係る音響処理装置をコンピュータ装置によって実現する場合の構成を示すブロック図。
以下、本発明の一実施形態に係る音響処理装置について説明する。
(第1の実施形態)
図1は、第1の実施形態に係る音響処理装置100を搭載したテレビ200の他、電話機300、椅子400が配置された部屋を表している。テレビ200には、表示画面の上部左右と下部中央にそれぞれ音響処理装置100のマイクロフォン101、102、103が搭載されている。本実施形態の音響処理装置100は、ユーザが発声した音声コマンドをマイクロフォン101〜103で集音し、その集音結果を音声認識してテレビ200を制御する機能を備えている。この環境下では、音響処理装置100において、電話機300のベルの音や電話機300で会話する人の音声が音声コマンドと誤って認識され、テレビ200が誤動作する恐れがある。そこで、本実施形態に係る音響処理装置100では、初期設定モードで部屋の中で音声認識領域から除外したい位置を目的エリア外として登録しておき、運用モードで、その登録位置からの音声を排除し、それ以外の位置からの音声を認識するように制御する。
図2は、テレビ200に搭載されている本実施形態に係る音声認識機能を搭載した音響処理装置100の構成を示すブロック図である。
図2において、マイクロフォン101,102,103は、それぞれテレビ200の下部中央、上部左右に装備される。
制御部104は、ユーザがテレビ200を操作して音声認識の初期設定モード/運用モードに設定したときに、テレビ200から音響処理装置100に供給される音声認識の初期設定モード/運用モードの通知を受け取り、初期設定のための処理と運用時の処理を選択的に切り替えて実行する。スイッチ105は、音声認識の初期設定モード/運用モードの入力切り替えを行う。
特徴量抽出部106は、マイクロフォン101、102、103で集音されたユーザの音声をデジタルデータに変換して3チャンネルの音声信号を生成し、その3チャンネルの音声信号から一定のフレーム周期(例えば8ms)で特徴量を抽出する。特徴量としては、各種のスペクトルパラメータ(FFTスペクトル、ケプストラム、LPCなど)やパワー、SNRなどのチャンネル毎に算出される特徴量に加えて、チャンネル間の時間差、位相差、パワー差などの複数チャンネル間で算出される特徴量を用いることができる。
音声特徴量抽出部107は、スイッチ105を介して供給される特徴量抽出部106で抽出された特徴量から背景音部分の特徴量を除去し、音声部分の特徴量を抽出する。目的エリア外特徴量記憶部108は、音声特徴量抽出部107で抽出された音声部分の特徴量を記憶する。
判定モデル生成部109は、目的エリア外特徴量記憶部108に記憶された目的エリア外の特徴量に基づいて、運用時の入力音声の音源位置が目的エリア外か否かを判定するための判定モデルを学習によって生成する。判定モデル記憶部110は、学習により生成された判定モデルを記憶する。
雑音除去部111は、マイクロフォン101、102、103で集音された音声にビームフォーミングなどの雑音除去処理や残響除去処理などを施して1チャンネルの音声信号を生成する。音声検出部112は、雑音除去部111で生成された音声信号から音声が存在する区間を検出し、音声検出区間において、スイッチ105を介して特徴量抽出部106から出力される特徴量と判定モデル記憶部110に記憶されている判定モデルとを比較参照して、入力音声の音源位置が目的エリア外であるか否かを判定する。さらに、音声が存在する区間から音源位置が目的エリア外と判定された区間を削除し、音声認識の対象とする音声認識区間を決定し、雑音除去部111の出力から、音声認識区間に対応する音声を切り出して出力する。音声認識部113は、音声検出部112で切り出された音声について音声認識処理を行ってテキストデータに変換し、そのテキストデータを音声認識結果として出力する。
上記構成による本実施形態に係る音響処理装置100において、一連の処理の流れを図3に示し、その処理動作を説明する。
まず、ユーザがテレビ200を操作して音声認識の初期設定モードに設定すると、テレビ200は音響処理装置100に音声認識の初期設定モードの通知を送信する。音響処理装置100において、制御部104は、初期設定モードの通知を受けると(ステップS11)、スイッチ105を初期設定側に接続し(ステップS12)、テレビ200の表示画面に「コマンド発声の認識領域から除外したい位置で、テレビに向かってお話しください」という目的エリア外での発声要求メッセージを表示させる(ステップS13)。
上記のメッセージを見たユーザが、電話機300の設置場所に移動し、目的エリア外登録を指示して、任意の内容で発声したとする。このとき、制御部104は、目的エリア外の登録指示を受けると(ステップS14)、マイクロフォン101、102、103によってユーザが発声した音声を集音して3チャンネルの音声信号を生成する(ステップS15)。次に、特徴量抽出部106によって一定のフレーム周期でそれぞれの音声信号の特徴量を抽出し(ステップS16)、音声特徴量抽出部107によって抽出された特徴量から背景音部分の特徴量を削除し、音声部分の特徴量を抽出して(ステップS17)、目的エリア外特徴量記憶部108に登録(記憶)する(ステップS18)。制御部104は、登録完了と共に他の登録の有無の指示要求をテレビ200に表示させる(ステップS19)。
ここで、制御部104は、次の目的エリア外の登録指示の有無を判断し(ステップS20)、登録指示があった場合にはステップS15に戻り、登録指示がない場合には、音声認識の初期設定モード終了の指示を待機する(ステップS21)。ユーザがテレビ200を操作して音声認識の初期設定モードの終了を指示入力すると、テレビ200は音響処理装置100に音声認識の初期設定モード終了の通知を送信する。音響処理装置100において、制御部104は、その初期設定モードの終了通知を受けると(ステップS21)、判定モデル生成部109を起動して、目的エリア外特徴量記憶部108に蓄積された目的エリア外の特徴量データに基づいて、特徴量から目的エリア外か否かを判定するための判定モデルを学習によって生成し(ステップS22)、学習により生成された判定モデルを判定モデル記憶部110に記憶する(ステップS23)。
初期設定モード終了後、ユーザがテレビ200を操作して音声認識の運用モードに設定すると、テレビ200は音響処理装置100に音声認識の運用モードの通知を送信する。制御部104は、テレビ200から運用モードの通知を受けると(ステップS24)、スイッチ105を運用側に接続する(ステップS25)。この状態で、ユーザが任意の位置で任意のコマンドを発声すると、制御部104は、マイクロフォン101、102、103によってその音声を集音し、特徴量抽出部106によって特徴量を抽出する(ステップS26)。
また、雑音除去部111によって、集音された音声信号についてビームフォーミングなどの雑音除去処理や残響除去処理などを実行して、1チャンネルの音声信号を生成し(ステップS27)、音声検出部112によって雑音除去部111で生成された音声信号から音声が存在する区間を検出する(ステップS28)。そして、音声検出区間において、スイッチ105を介して特徴量抽出部106から出力される特徴量と判定モデル記憶部110に記憶されている判定モデルとを比較参照して、入力音声の音源位置が目的エリア外であるか否かを判定する(ステップS29)。
目的エリア外の場合には、音声が存在する区間から音源位置が目的エリア外と判定された区間を削除して、ステップS26に戻って処理を進める。一方、入力音声の音源位置が目的エリア外でなかった場合には、音声認識の対象とする音声認識区間を決定し(ステップS30)、雑音除去部111の出力から、音声認識区間に対応する音声を切り出し(ステップS31)、音声認識部113によって、音声検出部112で切り出された音声について音声認識処理を行ってテキストデータに変換し、そのテキストデータを音声認識結果として出力する(ステップS32)。
上記構成において、以下に具体的な運用処理動作を説明する。
例えば、ユーザが目的エリア内の椅子400に座って、テレビ200に対する操作のための音声コマンドとして「今晩8時に予約」と発声したとする。このとき、目的エリア外特徴量記憶部108には類似する特徴量が存在しないため、判定モデル記憶部110に記憶されている判定モデルでは、集音された音声の特徴量に相当する特徴量が得られない。その結果、音声検出部112ではユーザの発声位置は目的エリア内と判定される。これにより、音声検出部112では「今晩8時に予約」と発声された音声が切り出され、音声認識部113から「今晩8時に予約」というテキストが出力される。このように本実施形態では、音声認識結果に基づいて、録画予約を起動するなどのテレビの操作を行うことができる。
一方、ユーザが電話機300の設置場所で、例えばレストランを予約するために「午後7時に予約をお願いします」と発声したとする。このとき、電話機300の設置場所は、初期設定モードで目的エリア外として登録されており、判定モデルには、集音された音声の特徴量に近い特徴量が備わっている。このため、音声検出部112では、判定モデルと集音した音声の特徴量と比較参照すると、両者の特徴量類似関係が得られる。その結果、入力音声の音源位置は目的エリア外であると判定され、音声の切り出し出力は実行されない。したがって、音声認識部113による音声認識も実行されず、電話機300の設置場所からの予約指示によってテレビ200の録画予約が起動されるという誤動作を防止することができる。
次に、本実施形態の特徴である判定モデル生成部109および音声検出部112の詳細な実施形態について説明する。ここでは、目的エリア外特徴量記憶部108に記憶されている特徴量は、テレビ下部中央のマイクロフォン103の集音信号を基準とした場合のテレビ上部左右のマイクロフォン101およびマイクロフォン102の集音信号の時間差を表す2次元ベクトルとする。この特徴ベクトルは、2つの集音信号の相互相関の最大値を検出する手法で求めることが可能である。
ここで、音声特徴量抽出部107で抽出された音声区間に対応する特徴ベクトルは目的エリア外特徴量記憶部108に記憶されている。以下の説明において、記憶されている特徴ベクトルの個数をNとし、特徴ベクトルをxn(1≦n≦N)で表す。
まず、判定モデルを特徴ベクトルのセントロイドx-で表す手法について説明する。判定モデルx-は次式で求められ、判定モデル記憶部110に記憶される。
Figure 0006755843

音声検出部112では、入力信号の特徴量のうち、音量(パワー)などのパラメータを用いて音声が存在すると推定される区間を特定し、当該区間の特徴ベクトルyk (1≦k≦K)を求める。ただし、Kは当該区間のフレーム数(特徴ベクトルの個数)を表す。特徴ベクトルykのセントロイドを次式のy-で表すと、判定はy-とx-との距離に基づいて行わる。
Figure 0006755843

すなわち、予め設定された閾値dと比較して、|y--x-|<dであれば目的エリア外と判定して当該区間は削除し、それ以外であれば目的エリア内と判定して、雑音除去部111から出力された音声のうち、当該区間に対応する音声を切り出して出力する。あるいは、ykとx-とを比較して、フレーム毎に判定を行うようにしてもよい。この場合は、目的エリア外と判定されたフレームの割合が一定以上であれば当該区間の全てを削除してもよいし、目的エリア外と判定されたフレームのみを削除してもよい。
上述した実施形態では、セントロイドx-を全てのxnの平均として説明したが、ベクトル量子化によるクラスタリングを行って、複数のセントロイドを判定モデルとして記憶するようにしてもよい。この場合、判定すべき特徴ベクトルとモデルとの距離は、最も近いセントロイドとの距離で定義すればよい。このようにすることで、目的エリア外となる場所が広範囲である場合や、複数個所存在する場合にも対応することができる。
次に、判定モデルを特徴ベクトルの混合ガウスモデル(GMM)で表す実施形態について説明する。特徴ベクトルxの確率分布p(x)を次式でモデル化する。
Figure 0006755843

ここで、N(x|μm ,σm )は、平均μm 、分散σm のガウス分布を表している。Mは、予め定めた混合数である。特徴ベクトルxn(1≦n≦N)を学習データとして、その確率分布を表すモデルパラメータπm ,μm ,σm (m=1,…,M)を学習する。パラメータの学習には、EMアルゴリズムなど既存の手法を用いることができる。このようにして求められたモデルパラメータは、判定モデル記憶部110に記憶される。
上記音声検出部112における検出の判定には、上述した実施形態と同様に特徴ベクトルykを用いる。判定は、判定モデルを用いて求められるy-の尤度に基づいて行われる。すなわち、予め設定された尤度の閾値λと比較して、p(y-)>λあれば目的エリア外と判定して当該区間は削除し、それ以外であれば目的エリア内と判定して、雑音除去部111から出力された音声のうち、当該区間に対応する音声を切り出して出力する。あるいは、p(yk)>λを評価してフレーム毎に判定を行うようにしてもよい。この場合は、目的エリア外と判定されたフレームの割合が一定以上であれば、当該区間の全てを削除してもよいし、目的エリア外と判定されたフレームのみを削除してもよい。このように、混合ガウスモデルGMMを用いることにより、音源位置の分布に従って、より正確に目的エリア外からの音声を削除することが可能となる。
(第2の実施形態)
次に、図4を参照して第2の実施形態に係る音響処理装置の構成について説明する。図4において、図2と機能が同じ構成要素については同一の符号をつけて説明を省略する。
本実施形態では、目的エリア外の音声に加えて目的エリア内の音声を用いて判定モデルを学習する点が第1の実施形態と異なっている。すなわち、本実施形態では、音声認識しない目的エリア外の特徴量抽出・蓄積処理を行う第1初期設定モード(以下、第1モード、第1の実施形態と同様の初期設定モード)と、音声認識の目的エリア内の特徴量抽出・蓄積処理を行う第2初期設定モード(以下、第2モード)とを備え、ユーザがテレビ200を操作して音声認識の初期設定を指示した場合に、第1モードと第2モードを順に選択処理するようになされている。
図4において、スイッチ114は、制御部104からの指示に従って、第1モード側、第2モード側に選択的に切り替える。目的エリア外特徴量記憶部108は、スイッチ114の第1モード側選択時に、第1の実施形態と同様に、音声特徴量抽出部107で抽出された音声特徴量を目的エリア外の特徴量として記憶する。これに対して、目的エリア内特徴量記憶部115は、スイッチ114の第2モード側選択時に、音声特徴量抽出部107で抽出された音声特徴量を目的エリア内の特徴量として記憶する。判定モデル生成部116は、目的エリア外特徴量記憶部108に記憶された目的エリア外特徴量と目的エリア内特徴量記憶部115に記憶された目的エリア内特徴量に基づいて、運用時の入力音声の音源位置が目的エリア外か目的エリア内かを直接的に判定するための判定モデルを学習する。判定モデル記憶部117は、判定モデル生成部116で学習により生成された判定モデルを記憶する。
音声検出部118は、雑音除去部111で生成された音声信号から音声が存在する区間を検出し、音声検出区間において、スイッチ105を介して特徴量抽出部106から出力される特徴量と判定モデル記憶部117に記憶されている判定モデルとを比較参照して、入力音声の音源位置が目的エリア外であるか目的エリア内であるかを判定する。さらに、音声が存在する区間から音源位置が目的エリア外と判定された区間を削除し、目的エリア内と判定された区間を音声認識の対象とする音声認識区間として決定し、雑音除去部111の出力から、音声認識区間に対応する音声を切り出して出力する。
上記構成による本実施形態に係る音響処理装置100において、一連の処理の流れを図5に示し、その処理動作を説明する。
まず、ユーザがテレビ200を操作して音声認識の初期設定モードに設定すると、テレビ200は音響処理装置100に音声認識の初期設定モードの通知を送信する。音響処理装置100において、制御部104は、初期設定モードの通知を受けると(ステップS41)、スイッチ105を初期設定側に、スイッチ114を第1モード側に接続し(ステップS42)、テレビ200の表示画面に「コマンド発声の認識領域から除外したい位置で、テレビに向かってお話しください」という目的エリア外での発声要求メッセージを表示させる(ステップS43)。
上記のメッセージを見たユーザが、電話機300の設置場所に移動し、目的エリア外登録を指示して、任意の内容で発声したとする。このとき、テレビ200は、音響処理装置100に目的エリア外登録指示を送信する。音響処理装置100において、制御部104は、目的エリア外の登録指示を受けると(ステップS44)、マイクロフォン101、102、103によってユーザが発声した音声を集音して3チャンネルの音声信号を生成する(ステップS45)。次に、特徴量抽出部106によって一定のフレーム周期でそれぞれの音声信号の特徴量を抽出し(ステップS46)、音声特徴量抽出部107によって抽出された特徴量から背景音部分の特徴量を削除し、音声部分の特徴量を抽出して(ステップS47)、目的エリア外特徴量記憶部108に記憶する(ステップS48)。制御部104は、登録完了と共に他の登録の有無の指示要求をテレビ200に表示させる(ステップS49)。
ここで、制御部104は、次の目的エリア外の登録指示の有無を判断し(ステップS50)、登録指示があった場合にはステップS45に戻り、登録指示がない場合には、目的エリア外の登録終了指示を待機する(ステップS51)。ユーザがテレビ200を操作して目的エリア外の登録終了を指示入力すると、テレビ200は音響処理装置100に目的エリア外の登録終了の通知を送信する。音響処理装置100において、制御部104は、その目的エリア外の登録終了通知を受けると(ステップS51)、スイッチ114を第2モード側に接続し(ステップS52)、テレビ200の表示画面に「コマンド発声の認識対象領域から、テレビに向かってお話しください」という目的エリア内での発声要求メッセージを表示させる(ステップS53)。
上記のメッセージを見たユーザが、椅子400の設置場所に移動し、目的エリア内登録を指示して、任意の内容で発声したとする。このとき、テレビ200は、音響処理装置100に目的エリア内登録指示を送信する。音響処理装置100において、制御部104は、目的エリア内の登録指示を受けると(ステップS54)、マイクロフォン101、102、103によってユーザが発声した音声を集音して3チャンネルの音声信号を生成する(ステップS55)。次に、特徴量抽出部106によって一定のフレーム周期でそれぞれの音声信号の特徴量を抽出し(ステップS56)、音声特徴量抽出部107によって抽出された特徴量から背景音部分の特徴量を削除し、音声部分の特徴量を抽出して(ステップS57)、目的エリア内特徴量記憶部115に記憶する(ステップS58)。制御部104は、登録完了と共に他の登録の有無の指示要求をテレビ200に表示させる(ステップS59)。
ここで、制御部104は、次の目的エリア内の登録指示の有無を判断し(ステップS60)、登録指示があった場合にはステップS55に戻り、登録指示がない場合には、初期設定モードの終了指示を待機する(ステップS61)。ユーザがテレビ200を操作して初期設定モードの終了を指示入力すると、テレビ200は音響処理装置100に初期設定モード終了の通知を送信する。音響処理装置100において、制御部104は、その初期設定モード終了通知を受けると(ステップS61)、判定モデル生成部116を起動して、目的エリア外特徴量記憶部108及び目的エリア内特徴量記憶部115に蓄積された目的エリア外及び目的エリア内それぞれの特徴量データに基づいて、特徴量から目的エリア外か目的エリア内かを判定するための判定モデルを学習し(ステップS62)、学習により生成された判定モデルを判定モデル記憶部117に記憶する(ステップS63)。
初期設定モード終了後、ユーザがテレビ200を操作して音声認識の運用モードに設定すると、テレビ200は音響処理装置100に音声認識の運用モードの通知を送信する。制御部104は、テレビ200から運用モードの通知を受けると(ステップS64)、スイッチ105を運用側に接続する(ステップS65)。この状態で、ユーザが任意の位置で任意のコマンドを発声すると、制御部104は、マイクロフォン101、102、103によってその音声を集音し、特徴量抽出部106によって特徴量を抽出する(ステップS66)。また、雑音除去部111によって、集音された音声信号についてビームフォーミングなどの雑音除去処理や残響除去処理などを実行して、1チャンネルの音声信号を生成し(ステップS67)、音声検出部118によって雑音除去部111で生成された音声信号から音声が存在する区間を検出する(ステップS68)。そして、音声検出区間において、スイッチ105を介して特徴量抽出部106から出力される特徴量と判定モデル記憶部117に記憶されている判定モデルとを比較参照して、入力音声の音源位置が目的エリア外か目的エリア内かを判定し(ステップS69)、音声が存在する区間から音源位置が目的エリア外と判定された区間を削除し、目的エリア内と判定された区間を音声認識の対象とする音声認識区間として決定する(ステップS70)。さらに、雑音除去部111の出力から、音声認識区間に対応する音声を切り出し(ステップS71)、音声認識部113によって、音声検出部112で切り出された音声について音声認識処理を行ってテキストデータに変換し、そのテキストデータを音声認識結果として出力する(ステップS72)。
上記構成において、以下に具体的な運用処理動作を説明する。
例えば、ユーザが目的エリア内の椅子400に座って、テレビ200に対する操作のための音声コマンドとして「今晩8時に予約」と発声したとする。このとき、目的エリア内特徴量記憶部115には類似する特徴量が記憶されているため、判定モデル記憶部117に記憶されている判定モデルでは、目的エリア内において、集音された音声の特徴量に相当する特徴量が得られる。その結果、音声検出部118ではユーザの発声位置は目的エリア内と判定される。これにより、音声検出部118では「今晩8時に予約」と発声された音声が切り出され、音声認識部113から「今晩8時に予約」というテキストが出力される。このように本実施形態では、音声認識結果に基づいて、録画予約を起動するなどのテレビの操作を行うことができる。
一方、ユーザが電話機300の設置場所で、例えばレストランを予約するために「午後7時に予約をお願いします」と発声したとする。このとき、電話機300の設置場所は、初期設定モードで目的エリア外として登録されており、判定モデルでは、目的エリア外において、集音された音声の特徴量に類似する特徴量が得られる。その結果、音声検出部118ではユーザの発声位置は目的エリア外と判定され、音声の切り出し出力は実行されない。したがって、音声認識部113による音声認識も実行されず、電話機300の設置場所からの予約指示によってテレビ200の録画予約が起動されるという誤動作を防止することができる。
次に、本実施形態の特徴である判定モデル生成部116および音声検出部118の詳細な実施形態について説明する。目的エリア外特徴量記憶部108および目的エリア内特徴量記憶部115に記憶されている特徴量は、第1の実施形態と同様に、テレビ下部中央に配置されたマイクロフォン103の集音信号を基準とした場合のテレビ上部左右に配置されたマイクロフォン101およびマイクロフォン102の信号との時間差を表す2次元ベクトルとする。目的エリア外特徴量記憶部108に記憶されている特徴ベクトルの個数をNoutとし、特徴ベクトルをxn(1≦n≦Nout)で表す。また、目的エリア内特徴量記憶部115に記憶されている特徴ベクトルの個数をNinとし、特徴ベクトルをzn(1≦n≦Nin)で表す。
判定モデルを特徴ベクトルのGMMで表す場合について説明する。特徴ベクトルxおよびzの確率分布Pout(x)およびPin(z)を次式でモデル化する。
Figure 0006755843
Figure 0006755843

特徴ベクトルxn(1≦n≦Nout)および特徴ベクトルzn(1≦n≦Nin)を用いて、それぞれモデルパラメータπm ,μm ,σm (m=1,…,M)およびモデルパラメータπ’m ,μ’m ,σ’m (m=1,…,M)をEMアルゴリズムで学習し、求められたモデルパラメータを判定モデル記憶部117に記憶する。
音声検出部118では、入力信号の特徴量のうち、音量(パワー)などのパラメータを用いて、音声が存在すると推定される区間を特定し、当該区間の特徴ベクトルyk (1≦k≦K)を求める。ただし、Kは当該区間のフレーム数(特徴ベクトルの個数)を表す。判定は、ykのセントロイドy-と、予め設定された閾値qを用いて行なわれる。すなわち、Pout(y-)−Pin(y-)>qであれば目的外エリアと判定して当該区間は削除し、それ以外であれば目的エリア内と判定して、雑音除去部111から出力された音声のうち、当該区間に対応する音声を切り出して出力する。あるいは、フレーム毎にPout(y-)−Pin(y-)>qを評価して判定するようにしてもよい。この場合は、目的エリア外と判定されたフレームの割合が一定以上であれば当該区間の全てを削除してもよいし、目的エリア外と判定されたフレームのみを削除してもよい。
次に、目的エリアの判定をニューラルネットワークで行う実施形態について説明する。判定に用いる特徴ベクトルとして、上述したマイクロフォン間の時間差に加えて、マイクロフォン間のパワー差を用いる。マイクロフォン103の集音信号を基準とした場合のマイクロフォン101およびマイクロフォン102の集音信号のパワーの比(あるいはその対数)を表す2次元を加えた4次元ベクトルを特徴ベクトルとする。
目的エリア外特徴量記憶部108に記憶されている特徴ベクトルの個数をNoutとし、特徴ベクトルをxn(1≦n≦Nout)で表す。また、目的エリア内特徴量記憶部115に記憶されている特徴ベクトルの個数をNinとし、特徴ベクトルをzn(1≦n≦Nin)で表す。Nout=1000、Nin=2000の場合のニューラルネットワークの学習データの例を図6に示す。「判定」の欄は、目的エリア外の場合に1、目的エリア内の場合に0となる。ニューラルネットワークは、時間差およびパワー差の4次元ベクトルを入力として、「判定」を表すスカラー値を予測するように学習する。ネットワークの構成は、入力層4ノード、出力層1ノードで、中間層は例えば5ノード×2層などに設定すればよい。学習アルゴリズムとしては、誤差逆伝搬法などの既存の手法を用いればよい。学習で得られた各ノード間の重みの値が判定モデル記憶部117に記憶される。
音声検出部118では、入力信号の特徴量のうち、パワーなどを用いて音声が存在すると推定される区間を特定し、当該区間の特徴ベクトルyk (1≦k≦K)を求める。判定は、ykのセントロイドy-と、予め設定された閾値qを用いて行なわれる。学習したニューラルネットワークに特徴ベクトルyを入力して出力される推定値をPnn(y)と表すと、Pnn(y-)>qであれば目的エリア外と判定して当該区間は削除し、それ以外であれば目的エリア内と判定して、雑音除去部111から出力された音声のうち、当該区間に対応する音声を切り出して出力する。あるいは、フレーム毎にPnn(yk)>qを評価して判定するようにしてもよい。この場合は、目的エリア外と判定されたフレームの割合が一定以上であれば当該区間の全てを削除してもよいし、目的エリア外と判定されたフレームのみを削除してもよい。ニューラルネットワークを判定に用いることで、目的エリア外の範囲が複数存在する場合、複雑な形状の場合や、目的エリアが小さい場合など、様々なケースで精度よく判別することが可能となる。また、閾値qを大きくすれば目的エリアを広く、逆に小さくすれば目的エリアを狭くするように調整することが可能である。
以上述べたGMMに基づく手法とニューラルネットワークに基づく手法以外にも、サポートベクターマシンによる手法やN近傍法など、様々な判別方法を用いることができる。
(第3の実施形態)
以上述べた実施形態では、雑音除去部111には特徴量抽出部106に入力されるマイクロフォン101、102、103の集音信号が入力されるものとして説明したが、これ以外の構成も可能である。例えば3本のマイクロフォンのうち、いずれか1本または2本を雑音除去部111の入力として用いるようにしてもよい。あるいは、マイクロフォン101、102、103と別のマイクロフォンを1本以上用意し、それらを用いるようにしてもよい。あるいは、マイクロフォン101、102、103の一部または全部と、別に用意された1本以上のマイクロフォンを組み合わせて用いるようにしてもよい。目的エリア内外の判定に用いるマイクロフォンと音声認識の入力音声を集音するためのマイクロフォンでは、好適な特性や取り付け位置が異なる場合があることから、それぞれに適したマイクロフォンを用いるようにすればよい。
ショッピングセンターの案内端末に本実施形態に係る音響処理装置を適用した例を図7に示す。この例では、表示画面の上部中央にマイクロフォン121を配置し、その両側にマイクロフォン122,123を近接配置し、表示画面の下部左右にマイクロフォン124,125を離間して配置している。上記マイクロフォン121,124,125で集音された信号は特徴量抽出部106に入力され、マイクロフォン121,122,123で集音された信号が雑音除去部111に入力されるように構成されている。
すなわち、目的エリア内外の判定では音源位置によるマイクロフォン間の時間差が大きい方が判定が容易となるため、マイクロフォン間の距離をある程度大きくとる必要がある。一方、雑音除去のためのビームフォーミングに用いるマイクロフォン間の距離は比較的小さく設定する必要がある。このことから、上記のようなレイアウトでマイクロフォン121〜126を配置することが好適である。
なお、上述した実施形態では、音声認識部113がテレビや案内端末に搭載されているものとして説明したが、ネットワークを介して接続するようにしてもよい。すなわち、音声検出部112,118で検出されて出力された音声を、ネットワークを介してサーバに送信し、サーバ上に構築された音声認識部113で受信して音声認識処理を実行するように構成してもよい。このように構成することで、十分な計算機リソースで音声認識処理を行うことができるため、高い認識精度を実現することができる。
また、上述した実施形態では、音声検出部112または118で検出されて出力された音声が音声認識されるものとして説明したが、これ以外の構成も可能である。例えば、出力された音声を録音装置に入力して録音するように構成することも可能である。応用例としては、店員と顧客の会話のうち、店員の音声のみを録音したい場合などが考えられる。この場合、店員の位置が目的エリア内に、顧客の位置が目的エリア外になるように設定すれば、店員の音声だけを選択的に録音することが可能である。
以上述べたように、本実施形態に係る音響処理装置は、目的エリア外の位置および目的エリア内の位置から発声して教示することにより、装置が置かれた環境に合わせて容易に目的エリアを設定でき、目的エリア内からの発声のみを選択的に集音することができるという効果がある。
次に、第1乃至第3の実施形態に係る音声認識機能を有する音響処理装置のハードウェア構成について、図8を用いて説明する。図8は、第1から第3の実施形態に係る音響処理装置のハードウェア構成例を示すブロック図である。
第1乃至第3の実施形態にかかる音響処理装置100は、CPU(Central Processing Unit)131などの制御装置と、ROM(Read Only Memory)132やRAM(Random Access Memory)133などの記憶装置と、マイクロホン101〜103,121〜125、操作入力装置、表示装置(テレビ)が接続される入出力I/F134と、ネットワークに接続して通信を行う通信I/F135と、各部を接続するバス136とを備えている。
第1乃至第3の実施形態に係る音響処理装置で実行されるプログラムは、ROM132等に予め組み込まれて提供される。
第1乃至第3の実施形態に係る音響処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1乃至第3の実施形態に係る音響処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1乃至第3の実施形態に係る音響処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1乃至第3の実施形態に係る音響処理装置で実行されるプログラムは、コンピュータを上述した信号処理装置の各部として機能させうる。このコンピュータは、CPU131がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
100…音響処理装置、200…テレビ、300…電話機、400…椅子、
101〜103,121〜125…マイクロフォン、104…制御部、105…スイッチ、106…特徴量抽出部、107…音声特徴量抽出部、108…目的エリア外特徴量記憶部、109…判定モデル生成部、110…判定モデル記憶部、111…雑音除去部、112…音声検出部、113…音声認識部、114…スイッチ、115…目的エリア内特徴量記憶部、116…判定モデル生成部、117…判定モデル記憶部、118…音声検出部、131…CPU、132…ROM、133…RAM、134…入出力I/F、135…通信I/F、136…バス。

Claims (10)

  1. 目的エリア外が存在する空間の、互いに異なる位置に配置される複数の第1のマイクロフォンと、
    前記複数の第1のマイクロフォンでそれぞれ集音された音声から特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部で抽出される前記目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成する判定モデル生成部と、
    前記空間に配置される第2のマイクロフォンと、
    前記第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力する音声検出部と
    を有する音響処理装置。
  2. 前記判定モデル生成部は、前記空間に設定される目的エリア内で発声された音声の特徴量と、前記目的エリア外で発声された音声の特徴量とに基づいて、前記判定モデルの学習を行う請求項1記載の音響処理装置。
  3. 前記第2のマイクロフォンには、前記複数の第1のマイクロフォンのいずれか1つを用いる請求項1記載の音響処理装置。
  4. さらに、前記複数の第1のマイクロフォンの全部または一部で集音された音声から雑音を除去する雑音除去部を備え、
    前記音声検出部は、前記雑音除去部で雑音を除去された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力する請求項1記載の音響処理装置。
  5. 前記音声検出部で検出された音声の内容を認識する認識部をさらに備える請求項1に記載の音響処理装置。
  6. 目的エリア外が存在する空間の、互いに異なる位置に配置される複数の第1のマイクロフォンと、
    前記複数の第1のマイクロフォンでそれぞれ集音された音声から特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部で抽出される前記目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成する判定モデル生成部と、
    前記空間に配置される第2のマイクロフォンと、
    前記第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力する音声検出部と、
    前記音声検出部で検出された音声の内容を認識する認識部と
    を具備する音声認識装置。
  7. 目的エリア外が存在する空間の、互いに異なる位置に複数の第1のマイクロフォンを配置し、
    前記複数の第1のマイクロフォンでそれぞれ集音された音声から、前記目的エリア外で発声された音声の特徴量を抽出し、
    前記目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成し、
    前記空間に第2のマイクロフォンを配置し、
    前記第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力する音響処理方法。
  8. 目的エリア外が存在する空間の、互いに異なる位置に複数の第1のマイクロフォンを配置し、
    前記複数の第1のマイクロフォンでそれぞれ集音された音声から、前記目的エリア外で発声された音声の特徴量を抽出し、
    前記目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成し、
    前記空間に第2のマイクロフォンを配置し、
    前記第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力し、
    前記検出された音声の内容を認識する音声認識方法。
  9. 音響処理をコンピュータに実行させるための音響処理プログラムであって、
    目的エリア外が存在する空間の、互いに異なる位置に配置される複数の第1のマイクロフォンでそれぞれ集音された音声から、前記目的エリア外で発声された音声の特徴量を抽出する特徴量抽出ステップと、
    前記目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成する判定モデル生成ステップと、
    前記空間に配置される第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力する音声検出ステップと
    を備える音響処理プログラム。
  10. 音声認識処理をコンピュータに実行させるための音声認識プログラムであって、
    目的エリア外が存在する空間に配置される、互いに異なる位置に複数の第1のマイクロフォンでそれぞれ集音された音声から、前記目的エリア外で発声された音声の特徴量を抽出する特徴量抽出ステップと、
    前記目的エリア外で発声された音声の特徴量に基づいて、前記空間における音声の発声位置が目的エリア外か否かを判定する判定モデルを学習によって生成する判定モデル生成ステップと、
    前記空間に配置される第2のマイクロフォンで集音された音声から、前記特徴量と前記判定モデルとに基づいて、前記目的エリア外で発声された音声を除去し、残った音声を検出出力し、
    前記検出された音声の内容を認識する認識ステップと
    を備える音声認識プログラム。
JP2017177022A 2017-09-14 2017-09-14 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム Active JP6755843B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017177022A JP6755843B2 (ja) 2017-09-14 2017-09-14 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
US15/904,738 US10950227B2 (en) 2017-09-14 2018-02-26 Sound processing apparatus, speech recognition apparatus, sound processing method, speech recognition method, storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177022A JP6755843B2 (ja) 2017-09-14 2017-09-14 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム

Publications (2)

Publication Number Publication Date
JP2019053180A JP2019053180A (ja) 2019-04-04
JP6755843B2 true JP6755843B2 (ja) 2020-09-16

Family

ID=65632380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177022A Active JP6755843B2 (ja) 2017-09-14 2017-09-14 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム

Country Status (2)

Country Link
US (1) US10950227B2 (ja)
JP (1) JP6755843B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11574628B1 (en) * 2018-09-27 2023-02-07 Amazon Technologies, Inc. Deep multi-channel acoustic modeling using multiple microphone array geometries
KR20210061115A (ko) * 2019-11-19 2021-05-27 엘지전자 주식회사 인공지능형 로봇 디바이스의 음성 인식 방법

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421471B2 (en) 2002-05-17 2008-09-02 Sony Computer Entertainment America Inc. Configuration switching: dynamically changing between network communication architectures
US7613310B2 (en) 2003-08-27 2009-11-03 Sony Computer Entertainment Inc. Audio input system
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US7970147B2 (en) 2004-04-07 2011-06-28 Sony Computer Entertainment Inc. Video game controller with noise canceling logic
US8073157B2 (en) 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7697700B2 (en) 2006-05-04 2010-04-13 Sony Computer Entertainment Inc. Noise removal for electronic device with far field microphone on console
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7783061B2 (en) * 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7545926B2 (en) 2006-05-04 2009-06-09 Sony Computer Entertainment Inc. Echo and noise cancellation
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US20070260517A1 (en) 2006-05-08 2007-11-08 Gary Zalewski Profile detection
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
USD572254S1 (en) 2006-05-08 2008-07-01 Sony Computer Entertainment Inc. Video game controller
US7854655B2 (en) 2002-07-27 2010-12-21 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
US7352358B2 (en) 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to acoustical tracking
US7391409B2 (en) 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US7918733B2 (en) 2002-07-27 2011-04-05 Sony Computer Entertainment America Inc. Multi-input game control mixer
US7803050B2 (en) 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
USD571806S1 (en) 2006-05-08 2008-06-24 Sony Computer Entertainment Inc. Video game controller
USD621836S1 (en) 2006-05-06 2010-08-17 Sony Computer Entertainment America Llc Controller face with tracking sensors
US7850526B2 (en) 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
USD629000S1 (en) 2006-05-08 2010-12-14 Sony Computer Entertainment America Llc Game interface device with optical port
US7352359B2 (en) 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US10086282B2 (en) 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US20060256081A1 (en) 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
USD571367S1 (en) 2006-05-08 2008-06-17 Sony Computer Entertainment Inc. Video game controller
US9174119B2 (en) * 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US20060264260A1 (en) 2002-07-27 2006-11-23 Sony Computer Entertainment Inc. Detectable and trackable hand-held controller
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US20060282873A1 (en) 2002-07-27 2006-12-14 Sony Computer Entertainment Inc. Hand-held controller having detectable elements for tracking purposes
USD630211S1 (en) 2006-05-08 2011-01-04 Sony Computer Entertainment Inc. Video game controller front face
US20070015559A1 (en) 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US20070061413A1 (en) 2005-09-15 2007-03-15 Larsen Eric J System and method for obtaining user information from voices
US7782297B2 (en) 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US20070261077A1 (en) 2006-05-08 2007-11-08 Gary Zalewski Using audio/visual environment to select ads on game platform
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
EP2587481B1 (en) 2002-10-23 2020-01-08 Nuance Communications, Inc. Controlling an apparatus based on speech
US20070223732A1 (en) 2003-08-27 2007-09-27 Mao Xiao D Methods and apparatuses for adjusting a visual image based on an audio signal
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8930561B2 (en) 2003-09-15 2015-01-06 Sony Computer Entertainment America Llc Addition of supplemental multimedia content and interactive capability at the client
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
EP1878013B1 (en) * 2005-05-05 2010-12-15 Sony Computer Entertainment Inc. Video game control with joystick
US8645985B2 (en) 2005-09-15 2014-02-04 Sony Computer Entertainment Inc. System and method for detecting user attention
US8825482B2 (en) 2005-09-15 2014-09-02 Sony Computer Entertainment Inc. Audio, video, simulation, and user interface paradigms
US8616973B2 (en) 2005-09-15 2013-12-31 Sony Computer Entertainment Inc. System and method for control by audible device
EP1946203A2 (en) 2005-10-26 2008-07-23 Sony Computer Entertainment America, Inc. System and method for interfacing with a computer program
US8888593B2 (en) 2005-10-26 2014-11-18 Sony Computer Entertainment Inc. Directional input for a video game
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20110298829A1 (en) 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
WO2007117485A2 (en) 2006-04-03 2007-10-18 Sony Computer Entertainment Inc. Screen sharing method and apparatus
US20070243930A1 (en) 2006-04-12 2007-10-18 Gary Zalewski System and method for using user's audio environment to select advertising
US20070244751A1 (en) 2006-04-17 2007-10-18 Gary Zalewski Using visual environment to select ads on game platform
US20070255630A1 (en) 2006-04-17 2007-11-01 Gary Zalewski System and method for using user's visual environment to select advertising
US20070265075A1 (en) 2006-05-10 2007-11-15 Sony Computer Entertainment America Inc. Attachable structure for use with hand-held controller having tracking ability
US8210943B1 (en) 2006-05-06 2012-07-03 Sony Computer Entertainment America Llc Target interface
USD567814S1 (en) 2006-05-08 2008-04-29 Sony Computer Entertainment America Inc. Ergonomic game interface device with LEDs
JP2008079256A (ja) 2006-09-25 2008-04-03 Toshiba Corp 音響信号処理装置、音響信号処理方法及びプログラム
US8269822B2 (en) 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
MX2010001180A (es) 2007-08-02 2010-05-20 Fujitsu Ltd Metodo de disposicion de piloto en un sistema de comunicacion por radio movil y transmisor/receptor que adopta el mismo.
US8620213B2 (en) 2009-12-24 2013-12-31 Sony Computer Entertainment Inc. Wireless device pairing methods
US9167071B2 (en) 2008-06-24 2015-10-20 Sony Computer Entertainment Inc. Wireless device multimedia feed switching
US8463182B2 (en) 2009-12-24 2013-06-11 Sony Computer Entertainment Inc. Wireless device pairing and grouping methods
JP5339501B2 (ja) 2008-07-23 2013-11-13 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声収集方法、システム及びプログラム
US8221229B2 (en) 2008-10-27 2012-07-17 Sony Computer Entertainment Inc. Spherical ended controller with configurable modes
US9037468B2 (en) 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
JP2010256421A (ja) 2009-04-21 2010-11-11 Panasonic Electric Works Co Ltd 集音エリア制御方法および音声入力装置
US8953029B2 (en) 2009-05-08 2015-02-10 Sony Computer Entertainment America Llc Portable device interaction via motion sensitive controller
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
WO2011008626A1 (en) 2009-07-14 2011-01-20 Sony Computer Entertainment America Llc System and method of displaying multiple video feeds
JP2011139409A (ja) 2010-01-04 2011-07-14 Mitsunori Mizumachi 音響信号処理装置、音響信号処理方法、及びコンピュータプログラム
US9901828B2 (en) 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US20110288860A1 (en) * 2010-05-20 2011-11-24 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair
US10585472B2 (en) 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
JPWO2013179464A1 (ja) 2012-05-31 2016-01-14 トヨタ自動車株式会社 音源検出装置、ノイズモデル生成装置、ノイズ抑圧装置、音源方位推定装置、接近車両検出装置及びノイズ抑圧方法
JP5482844B2 (ja) 2012-08-02 2014-05-07 富士通株式会社 移動無線通信システムにおけるパイロット配置方法及びこれを適用する送受信装置
JP5815489B2 (ja) * 2012-08-28 2015-11-17 日本電信電話株式会社 音源別音声強調装置、方法、プログラム
JP2015069063A (ja) 2013-09-30 2015-04-13 日本電気通信システム株式会社 音声認識システム、音声認識方法、及び音声認識プログラム
JP6314475B2 (ja) * 2013-12-25 2018-04-25 沖電気工業株式会社 音声信号処理装置及びプログラム
JP2016126022A (ja) 2014-12-26 2016-07-11 アイシン精機株式会社 音声処理装置

Also Published As

Publication number Publication date
JP2019053180A (ja) 2019-04-04
US10950227B2 (en) 2021-03-16
US20190080689A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
US9318103B2 (en) System and method for recognizing a user voice command in noisy environment
CN107799126B (zh) 基于有监督机器学习的语音端点检测方法及装置
JP4369132B2 (ja) 話者音声のバックグランド学習
JP6314219B2 (ja) 自己生成ウェイク表現の検出
KR101610151B1 (ko) 개인음향모델을 이용한 음성 인식장치 및 방법
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US7620547B2 (en) Spoken man-machine interface with speaker identification
JP6450139B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP2016045487A (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP4964204B2 (ja) 複数信号区間推定装置、複数信号区間推定方法、そのプログラムおよび記録媒体
CN102194456A (zh) 信息处理设备、信息处理方法和程序
JP2009031951A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP6797338B2 (ja) 情報処理装置、情報処理方法及びプログラム
TW201926316A (zh) 語音信號識別方法和裝置
EP1429314A1 (en) Correction of energy as input feature for speech processing
JP6755843B2 (ja) 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
JP2019040123A (ja) 変換モデルの学習方法および変換モデルの学習装置
KR20090025939A (ko) 음성 인식을 이용한 홈 미디어 pc 시스템 및 그 제어방법
JP3838159B2 (ja) 音声認識対話装置およびプログラム
JPH07306692A (ja) 音声認識装置及び音声入力装置
KR20180065761A (ko) 디지털 목소리 유전 요소에 기반한 사용자 적응형 음성 인식 시스템 및 방법
JP2018005122A (ja) 検出装置、検出方法及び検出プログラム
JP2005354223A (ja) 音源情報処理装置、音源情報処理方法、音源情報処理プログラム
Ji et al. Text-independent speaker identification using soft channel selection in home robot environments
WO2019207912A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200826

R151 Written notification of patent or utility model registration

Ref document number: 6755843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151