JP7119117B2 - マイクロフォンアレイ内のインテリジェントビームステアリング - Google Patents

マイクロフォンアレイ内のインテリジェントビームステアリング Download PDF

Info

Publication number
JP7119117B2
JP7119117B2 JP2020555790A JP2020555790A JP7119117B2 JP 7119117 B2 JP7119117 B2 JP 7119117B2 JP 2020555790 A JP2020555790 A JP 2020555790A JP 2020555790 A JP2020555790 A JP 2020555790A JP 7119117 B2 JP7119117 B2 JP 7119117B2
Authority
JP
Japan
Prior art keywords
acoustic
microphone array
speaker system
physical environment
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020555790A
Other languages
English (en)
Other versions
JP2021520141A (ja
Inventor
ジェイミー・マイケル・アルダース
エリオ・ダンテ・クエルゼ・ザ・サード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bose Corp
Original Assignee
Bose Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bose Corp filed Critical Bose Corp
Publication of JP2021520141A publication Critical patent/JP2021520141A/ja
Application granted granted Critical
Publication of JP7119117B2 publication Critical patent/JP7119117B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

(関連出願の相互参照)
本出願は、2018年4月13日に出願された米国特許出願第15/952,920号に対する優先権を主張し、この特許出願は、その全体が参照により本明細書に組み込まれる。
(発明の分野)
本開示は、概して音響ビームステアリングに関する。より具体的には、本開示は、物理的環境の音響マップに基づいてマイクロフォンアレイ内のビーム方向を制御することに関する。
音響信号の指向性は、ユーザエクスペリエンスに大きく影響する場合がある。携帯型音響システム、ユーザ及び/又はノイズ生成デバイスなどの動的システムは、音響システムが物理的環境内で移動する際に音響システムに対して位置を変化させる。加えて、音響システムが、家庭、オフィス、又は他の環境などの固定位置に留まる場合、ユーザ及び/又はノイズ生成デバイスの位置は、その音響システムに対して変化することができる。それらの周囲環境に適合できないシステムは、望ましくないユーザエクスペリエンスを提供する場合がある。
下記の全ての例及び特徴は、技術的に可能な任意の方法で組み合わせることができる。
本開示の様々な実装形態は、インテリジェント音響ビームステアリングのための手法を含む。いくつかの実装形態では、スピーカシステム内のマイクロフォンアレイを制御する方法が開示される。他の実装形態では、スピーカシステムが開示される。
特定の態様では、マイクロフォンアレイを制御するコンピュータ実装方法は、スピーカシステムに近接する物理的環境の音響記述を含む音響マップを生成することと、マイクロフォンアレイにおいて音声コマンド入力を受信する前に、音響マップに基づいた方向にマイクロフォンアレイを集束させることと、を含む。
他の特定の態様では、スピーカシステムは、マイクロフォンアレイと、マイクロフォンアレイと接続された制御システムであって、制御システムが、スピーカシステムに近接する物理的環境の音響記述を含む音響マップを生成することと、マイクロフォンアレイにおいて音声コマンド入力を受信する前に、音響マップに基づいた方向にマイクロフォンアレイを集束させることと、を行うようにプログラムされている、制御システムと、を含む。
特定の態様では、音響マップを生成することは、初期マッピング期間、前進マッピング期間、又は継続マッピング期間のうちの少なくとも1つを含む。特定の場合において、初期マッピング期間は、試験音響信号のセットをスピーカシステム内のトランスデューサから物理的環境に送信することと、マイクロフォンアレイにおける物理的環境から戻り音響信号のセットを受信することと、試験音響信号のセットと戻り音響信号のセットとの間の差に基づいて、物理的環境内の少なくとも1つのゾーンを特徴付けることと、を含む。いくつかの実装形態では、前進マッピング期間は、ある期間にわたってマイクロフォンアレイにおける物理的環境から音響信号のセットを受信することと、期間にわたって受信された音響信号のセットに基づいて、物理的環境内の少なくとも1つの追加ゾーンを特徴付けるか、又は物理的環境内の少なくとも1つのゾーンを再特徴付けすることと、を含む。特定の場合では、継続マッピング期間は、マイクロフォンアレイにおける物理的環境から音響信号のセットを継続的に受信することと、継続マッピング期間中に継続的に受信された音響信号のセットに基づいて、物理的環境内の少なくとも1つの追加ゾーン又は少なくとも1つのゾーンを再特徴付けすることと、を含む。
特定の実装形態では、前進マッピング期間は、初期マッピング期間の後に開始される。場合によっては、継続マッピング期間は、前進マッピング期間の後に開始される。
特定の実装形態では、音響マップを生成することは、物理的環境内の少なくとも1つのノイズ源の位置を検出すること、又は物理的環境内の頻繁な音声コマンド位置を検出することのうちの少なくとも1つと、少なくとも1つのノイズ源を少なくとも部分的に排斥するか、又は頻繁な音声コマンド位置から入力された音声コマンドの検出を向上させるように構成されたマイクロフォンアレイフィルタを作成することと、を含む。
いくつかの態様では、コンピュータ実装方法は、スピーカシステムに関するユーザ入力識別情報を受信することと、ユーザ入力識別情報に基づいて物理的環境の音響マップを更新することと、を更に含む。
特定の実装形態では、スピーカシステムは、携帯型スピーカシステムを含み、コンピュータ実装方法は、スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することと、第2の物理的位置においてスピーカシステムに近接する物理的環境の音響記述を含む更新された音響マップを生成することと、マイクロフォンアレイにおいて後続の音声コマンド入力を受信する前に、更新された音響マップに基づいた更新された方向にマイクロフォンアレイを集束させることと、を更に含む。特定の場合では、マイクロフォンアレイは、更新された音響マップが生成されている間、音響マップに基づいた方向に集束されたままである。いくつかの態様では、スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することは、移動閾値を超える期間にわたってスピーカシステムの移動を検出することを含み、移動閾値は、スピーカシステムの電源の位置、スピーカシステムの配向、スピーカシステムの位置、少なくとも1つの通信ネットワークへの近接性、又は少なくとも1つの他の接続された電子デバイスへの近接性のうちの少なくとも1つの変化によって測定される。
特定の実装形態では、コンピュータ実装方法は、音響マップに関する音声フィードバック入力をユーザに促すことと、ユーザからマイクロフォンアレイで音声フィードバック入力を受信することと、受信した音声フィードバック入力に基づいて物理的環境の音響マップを更新することと、を更に含む。
特定の場合において、スピーカシステムは、制御システムと接続されたトランスデューサを更に含み、初期マッピング期間は、試験音響信号のセットをトランスデューサから物理的環境に送信することと、マイクロフォンアレイにおける物理的環境から戻り音響信号のセットを受信することと、試験音響信号のセットと戻り音響信号のセットとの間の差に基づいて、物理的環境内の少なくとも1つのゾーンを特徴付けることと、を含む。特定の態様では、前進マッピング期間は、ある期間にわたってマイクロフォンアレイにおける物理的環境から音響信号のセットを受信することと、期間にわたって受信された音響信号のセットに基づいて、物理的環境内の少なくとも1つの追加ゾーンを特徴付けるか、又は物理的環境内の少なくとも1つのゾーンを再特徴付けすることと、を含む。いくつかの実装形態では、継続マッピング期間は、マイクロフォンアレイにおける物理的環境から音響信号のセットを継続的に受信することと、継続マッピング期間中に継続的に受信された音響信号のセットに基づいて、物理的環境内の少なくとも1つの追加ゾーン又は少なくとも1つのゾーンを再特徴付けすることと、を含む。
特定の場合では、音響マップを生成することは、物理的環境内の少なくとも1つのノイズ源の位置を検出すること、又は物理的環境内の頻繁な音声コマンド位置を検出することのうちの少なくとも1つと、少なくとも1つのノイズ源を少なくとも部分的に排斥するか、又は頻繁な音声コマンド位置から入力された音声コマンドの検出を向上させるように構成されたマイクロフォンアレイフィルタを作成することと、を含む。
特定の実装形態では、制御システムは、スピーカシステムに関するユーザ入力識別情報を受信することと、ユーザ入力識別情報に基づいて物理的環境の音響マップを更新することと、を行うように更に構成されている。
特定の場合では、スピーカシステムは、携帯型スピーカシステムを含み、制御システムは、スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することと、第2の物理的位置においてスピーカシステムに近接する物理的環境の音響記述を含む更新された音響マップを生成することと、マイクロフォンアレイにおいて後続の音声コマンド入力を受信する前に、更新された音響マップに基づいた更新された方向にマイクロフォンアレイを集束させることと、を行うように更に構成されている。いくつかの態様では、マイクロフォンアレイは、更新された音響マップが生成されている間、音響マップに基づいた方向に集束されたままである。特定の実装形態では、スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することは、移動閾値を超える期間にわたってスピーカシステムの移動を検出することを含み、移動閾値は、スピーカシステムの電源の位置、スピーカシステムの配向、スピーカシステムの位置、少なくとも1つの通信ネットワークへの近接性、又は少なくとも1つの他の接続された電子デバイスへの近接性のうちの少なくとも1つの変化によって測定される。
特定の態様では、制御システムは、音響マップに関する音声フィードバック入力をユーザに促すことと、ユーザからマイクロフォンアレイで音声フィードバック入力を受信することと、受信した音声フィードバック入力に基づいて物理的環境の音響マップを更新することと、を行うように更に構成されている。
特定の場合では、スピーカシステムは、制御システムと接続されたトランスデューサを更に含み、トランスデューサ及びマイクロフォンアレイは、音響環境内の物理的に分離されたハウジング内に位置する。
いくつかの実装形態では、制御システムは、音響マップに基づいてマイクロフォンアレイの集束方向を修正するためのデジタル信号プロセッサを含む。
特定の態様では、音響マップを生成することは、マイクロフォンアレイにおける物理的環境から音響信号のセットを受信することと、受信した音響信号のセットから少なくとも1つのノイズ源を識別することと、少なくとも1つのノイズ源を少なくとも部分的に排斥するように構成されたマイクロフォンアレイフィルタを作成することと、マイクロフォンアレイフィルタのライブラリ内にマイクロフォンアレイフィルタを記憶することと、を含む。特定の場合では、マイクロフォンアレイフィルタのセットを作成することは、受信した音響信号のセットを周波数又は振幅のうちの少なくとも1つに従って分類することと、マイクロフォンアレイ上の利得を修正するための制御命令を受信した音響信号の分類されたセットと相関させることと、を含む。特定の実装形態では、制御システムは、識別された少なくとも1つのノイズ源からの音響信号を検出したことに応じて、記憶されたマイクロフォンフィルタに従ってマイクロフォンアレイの方向を修正する。特定の場合では、マイクロフォンアレイフィルタのライブラリは、識別された少なくとも1つのノイズ源からのマイクロフォンアレイフィルタと音響信号との間の関係を有するリレーショナルデータベースを含み、制御システムは、マイクロフォンアレイにおいて音声コマンド入力を受信している間にマイクロフォンアレイフィルタを適用するように構成され、マイクロフォンアレイフィルタを適用することは、マイクロフォンアレイにおいて音響ノイズ信号を受信することと、音響ノイズ信号を、マイクロフォンアレイフィルタのライブラリ内の識別された少なくとも1つのノイズ源からの音響信号と比較することと、識別された少なくとも1つのノイズ源からの音響信号に一致する音響ノイズ信号に応じて、マイクロフォンアレイ上の利得を修正することと、を含む。
本概要の項に記載される特徴を含む、本開示に記載される特徴の2つ以上は、特に本明細書に記載されない実装形態を形成するために組み合わされ得る。
1つ以上の実装形態の詳細が、添付図面及び以下の説明において述べられる。他の特徴、目的、及び利点は、本説明及び図面から、並びに特許請求の範囲から明らかになるであろう。
様々な実装形態によるマイクロフォンアレイ制御システムを示す環境の概略図を示す。 マイクロフォンアレイ制御の態様を示す例示的な極性プロットである。 図2の極性プロットを修正するための制御プロセスを示す例示的な極性プロットである。 様々な実装形態による、音響環境をマッピングするプロセスを示すフロー図である。 様々な実装形態に従って利用される、例示的な音響マップの概略図を示す。
様々な実装形態の図面は必ずしも縮尺どおりではないことに留意されたい。図面は、本開示の典型的な態様のみを示すことを意図するものであり、したがって、発明の範囲を限定するものとみなされるべきではない。図面において、同様の番号付けは、図面間の同様の要素を表す。
本明細書に記載されるように、本開示の様々な態様は、一般に音響ビームステアリングに関する。より具体的には、本開示の態様は、物理的環境の音響マップに基づいてマイクロフォンアレイ内のビーム方向を制御することに関する。
図中の共通にラベル付けされた構成要素は、例示目的のために略同等の構成要素であるとみなされ、それらの構成要素の重複する説明は、明確化のために省略する。
本明細書に開示される態様及び実装形態は、パーソナルオーディオデバイス、スピーカ(例えば、固定スピーカシステム又は携帯スピーカシステム)、ヘッドホンなどの多種多様なスピーカシステム、及び腕時計、眼鏡、首装着スピーカ、肩装着スピーカ、身体装着スピーカなどの様々なフォームファクタのウェアラブルオーディオデバイスに適用可能であり得る。別段の指定がない限り、本文書で使用されるようなヘッドホンという用語は、耳周囲、耳上部及び耳内ヘッドセット、イヤホン、イヤーバッド、補聴器、又はユーザの1つ若しくは両方の耳の近く、その周囲、若しくはその中に位置付けられるように構造化された他の無線対応オーディオデバイスなどの様々な種類のパーソナルオーディオデバイスを含む。別段の指定がない限り、本文書で使用されるようなウェアラブルオーディオデバイスという用語は、頭、肩、又は1つ以上の音響ドライバを含む身体装着音響デバイスなどの様々な他の種類のパーソナルオーディオデバイスを含み、ユーザの耳に接触することなく音を生成する。開示されるいくつかの特定の態様は、眼鏡又は他のヘッドマウントオーディオデバイスなどのパーソナル(ウェアラブル)オーディオデバイスに特に適用可能であり得る。オーディオを音響的に出力する目的を主に果たすスピーカシステムの具体的な実装形態は、ある程度の詳細が提示されているが、そのような特定の実装形態の提示は、実施例の提供を通じて理解を容易にすることを意図するものであり、開示の範囲又は特許請求の範囲のいずれかを限定するものとして解釈されるべきではないことに留意されたい。
本明細書に開示される態様及び実装形態は、双方向通信をサポートするか、又はサポートしないスピーカシステムに適用可能であり得、アクティブノイズ低減(active noise reduction、ANR)をサポートするか、又はサポートしないスピーカシステムに適用可能であり得る。双方向通信又はANRのいずれかをサポートするスピーカシステムの場合、本明細書で開示及び特許請求されるものは、使用時に耳の外側に残るスピーカシステムの一部分(例えば、フィードフォワードマイクロフォン)、使用時に耳の一部分に挿入される一部分(例えば、フィードバックマイクロフォン)、又はそのような部分の両方に配置された1つ以上のマイクロフォンを組み込むスピーカシステムに適用可能であることが意図されている。本明細書で開示及び特許請求されるものが適用可能であるスピーカシステムの、更に他の実装形態は、当業者には明らかであろう。
本開示の様々な特定の実装形態には、物理的環境の音響マップに基づいてインテリジェントなビームフォーミングを提供するように、そのようなシステムを制御するためのスピーカシステム及び方法が挙げられる。仮想パーソナルアシスタントシステム(virtual personal assistant system、VPA)、音声ユーザインターフェースシステム(voice user interface system、VUI)、スマートスピーカシステム、サウンドバーシステム、会議システム、ウェアラブルオーディオデバイスなど、音響入力を受信するためのマイクロフォンアレイを有する従来のスピーカシステムでは、制御システムは、スピーカシステム又はオーディオ入力の配向に基づいて、そのマイクロフォンアレイ(又は、「マイクロフォンアレイビーム」、又は単純に「ビーム」)によって形成されるビームの方向を決定付ける。例えば、いくつかの従来のスピーカシステムは、それらのマイクロフォンアレイを、スピーカシステム(例えば、ハウジング)の形状又は所望の配向に基づいた方向に方向付ける。これらの場合、電源コード、補助接続、又はスピーカグリルの位置は、スピーカシステムが環境(例えば、ユーザに面するグリル)内で特定の方法で配向される可能性を向上させることができる。他の実施例では、スピーカシステムは、そのマイクロフォンアレイで受信した音響入力の方向に基づいて修正可能なデフォルトのマイクロフォンアレイ方向に構成されてもよい。これらの場合、デフォルトのマイクロフォン方向が設定され(例えば、スピーカグリルの中心から直接外向きに)、音響入力(例えば、音声コマンド)が受信されると、制御システムは、マイクロフォンアレイ方向を修正して、音響入力(例えば、ユーザ)のソースに向かって「指示」する。すなわち、マイクロフォンアレイは、音声指向性を検出することができ、例えば、ユーザが部屋の特定の部分で発語し、制御システムは、デジタル信号処理(digital signal processing、DSP)を使用してビームの方向を修正して、そのユーザからのオーディオ信号の信号対ノイズ比を向上させることができる。
しかしながら、これらの従来のシステムでは、多くの状況において、品質の高い音響入力(例えば、音声コマンド)を捕捉することができない。例えば、これらの従来のスピーカシステムは、ユーザがスピーカから遠い距離に位置するとき、かつ/又はスピーカが高音量で音響信号を出力しているとき(例えば、音楽を大音量で再生しているとき)、ノイズ環境での品質の音響入力を捕捉することができない。これらのシステムは、音声コマンドを正確に捕捉するか、又はノイズを介してコマンド及び/又は他のオーディオ信号を解析するのに労苦を要する場合がある。
これらの従来のシステム及び手法とは対照的に、本開示の様々な実装形態は、スピーカシステムと、スピーカシステムの周囲の局所音響環境をマッピングすることによってマイクロフォンアレイ指向性を制御するための関連する方法を含む。いくつかの実装形態では、スピーカシステム(例えば、ホームオーディオシステム、サウンドバー、自動車オーディオシステム、又はオーディオ会議システムなどの固定スピーカシステム、又はスマートスピーカ、ウェアラブルオーディオデバイス若しくはハンドヘルドスピーカシステムなどの携帯スピーカシステム)が開示されている。このスピーカシステムは、スピーカシステムに近接する物理的環境の音響記述を含む音響マップを生成し、その音響マップに基づいた方向にマイクロフォンアレイを集束させるように構成されている。スピーカシステムは、マイクロフォンを事前に集束させるように構成することができ、すなわち、マイクロフォンアレイにおいて音声コマンド入力を受信する前に、マイクロフォンを方向に集束させるように構成することができる。特定の実装形態では、スピーカシステムは、別個の物理的位置に移動可能である。例えば、スピーカシステムは、その第1の物理的位置から別個の物理的位置への移動を検出し、別個の物理的環境の音響記述に基づいて音響マップを更新し、その更新されたマップに基づいて、マイクロフォンアレイを更新された方向に事前に集束させることができる。
図1は、様々な実装形態によるスピーカシステム20を含む例示的な物理的環境10を示す。図示のように、スピーカシステム20は、1つ以上のユーザからの音声コマンド(図示される1人のユーザ50)などの音響信号を受信するための複数のマイクロフォン40を有するマイクロフォンアレイ30を含むことができる。マイクロフォンアレイ30は、本明細書で論じるように、1つ以上の条件に基づいてマイクロフォンアレイ30のビーム方向を制御するようにプログラムされた制御システム60と接続することができる。
スピーカシステム20又は実装形態に従って開示される他のシステム内の別の構成要素に接続又は連結されたものとして説明される任意の構成要素は、任意の従来の有線接続及び/又は追加の通信プロトコルを使用して通信することができることが理解される。場合によっては、通信プロトコル(複数可)は、無線ローカルエリアネットワーク(local area network、LAN)、IEEE 802.11 b/gなどの通信プロトコル(例えば、第3世代、第4世代、又は第5世代(3G、4G、5Gのセルラーネットワーク))、又はBluetooth、BLE Bluetooth、ZigBee(メッシュLAN)、Z波(サブGHzメッシュネットワーク)、6LoWPAN(軽量IPプロトコル)、LTEプロトコル、RFID、超音波オーディオプロトコルなどの、複数のモノのインターネット(internet-of-things、IoT)プロトコルのうちの1つを含むことができる。様々な特定の実装形態では、スピーカシステム20内に別個に収容された構成要素は、1つ以上の従来の無線送受信機を使用して通信するように構成される。
本明細書で述べられるように、制御システム60は、本明細書に記載されるプロセスに従ってプログラム命令又はコードを実行するための従来のハードウェア及び/又はソフトウェア構成要素を含むことができる。例えば、制御システム60は、1つ以上のプロセッサ、メモリ、構成要素間の通信経路、及び/又はプログラムコードを実行するための1つ以上の論理エンジンを含んでもよい。制御システム60は、任意の従来の無線接続及び/又は有線接続を介してマイクロフォンアレイ30と連結することができ、制御システム60は、マイクロフォンアレイ30への/マイクロフォンアレイ30からの信号の送受信を可能にし、その動作を制御することができる。様々な実装形態では、制御システム60及びマイクロフォンアレイ30は、音響信号(音響出力)をユーザ(複数可)50に送信するためのトランスデューサ(スピーカ)80を含み得るスピーカハウジング70(任意に疑似的に示される)内に集合的に収容されている。しかしながら、本明細書に記載されるように、制御システム60、マイクロフォンアレイ30及び/又はトランスデューサ80は、任意の通信プロトコル(例えば、本明細書に記載される無線通信プロトコル)によって、かつ/又は有線接続を介して接続されるスピーカシステム(例えば、スピーカシステム20)内に別々に収容されてもよい。
制御システム60は、スピーカシステム20に近接する物理的環境(例えば、環境10)の音響記述を含む音響マップ100を生成するためのマッピングエンジン90を含むことができる。様々な実装形態によれば、マッピングエンジン90は、環境10からの音響信号、スピーカシステム20に関するユーザ入力識別情報、ユーザ(複数可)50から入力された音声フィードバック及び/又はスピーカシステム20(移動インジケータを含む)に関する位置情報を処理するように構成され、スピーカシステム20に対する環境10の音響特性を記述する音響マップ100(例えば、データファイル又はデータ構造)を生成する。すなわち、マッピングエンジン90は、音響マップ100を生成するために、環境10からの1つ以上の音響信号に関するデータを処理するためのロジック、スピーカシステム20に関するユーザ入力識別情報、ユーザ50(複数可)からの音声フィードバック入力及び/又はスピーカシステム20(移動インジケータを含む)に関する位置情報を含むことができる。
スピーカシステム20は、スピーカシステム20内の1つ以上の構成要素、及び/又は1つ以上の無線ネットワーク(例えば、ローカルWiFiネットワーク、Bluetooth接続、若しくは無線周波数(radio frequency、RF)接続)を介して接続された他の電子デバイスと通信するように構成された無線送受信機(wireless transceiver、WT)110を更に含むことができる。WT110は、グローバル測位システム(global positioning system、GPS)、位置システム、Wi-Fi位置システム、赤外線(infra-red、IR)位置システム、Bluetoothビーコンシステムなどの1つ以上の位置ベース検出システムを含み得る位置追跡システム(Location ID)120と接続されてもよい。様々な実装形態では、位置追跡システム120は、環境内のスピーカシステム20の配向を追跡するための配向追跡システムを含むことができる。特定の場合では、位置追跡システム120は、多軸加速度計、ジャイロスコープ、及び/又は磁力計(IMU又は慣性測定ユニットと呼ばれることもある)を組み合わせる微小電気機械システム(microelectromechanical system、MEMS)デバイスを含む。しかしながら、追加又は代替のセンサは、位置追跡システム120の一部を形成してもよく、例えば、ウェアラブルスピーカシステムの場合、ユーザが向いている方向、並びにユーザ及びスピーカシステム20の移動を検出するための別個のヘッドトラッキング又はボディトラッキングシステム(例えば、光学ベースの追跡システム、加速度計、磁力計、ジャイロスコープ、又はレーダー)を形成してもよい。位置追跡システム120は、スピーカシステム20の物理的位置の変化を検出し、スピーカシステム20の位置の変化を示すために、更新されたセンサデータを制御システム60に提供するように構成することができる。位置追跡システム120はまた、スピーカシステム20の配向、例えば、スピーカシステム20の方向、又はスピーカシステム20の配向の変化(例えば、特定の程度の回転など)を検出するように構成することができる。これらの実施例では、IMUは、配向の変化を検出するのに特に有用であり得る。しかしながら、位置追跡システム120はまた、スピーカシステム20に位置する1つ以上の光学的若しくは視覚的検出システム、又はスピーカシステム20の配向を検出するように構成された別の接続デバイスを含むことができることが理解される。
特定の例示的実装形態では、位置追跡システム120は、スピーカシステム20の位置及び/又は配向を判定するために、1つ以上の位置システム及び/又は配向システムを利用することができ、例えば、一般的な位置情報についてはGPS位置システムに依存し、より正確な位置情報についてはIR位置システムに依存し、スピーカシステム20の方向(例えば、トランスデューサ(複数可)80が配向される方向)を検出するために、IMUなどの配向追跡システムを利用する。いずれの場合にも、位置追跡システム120は、スピーカシステム20の位置及び/又は配向に関するセンサデータを制御システム60に提供することができる。場合によっては、位置追跡システム120が加速度計/ジャイロスコープ/磁力計を含み得るIMUを含む場合、IMUは、別個の加速度計構成要素、ジャイロスコープ構成要素及び/若しくは磁力計構成要素を含み得るか、又は単一のセンサ構成要素に集合的に収容することができる。
場合によっては、スピーカシステム20は、環境10並びに/又は1つ以上のユーザ50の視覚的特性(例えば、存在、位置、近接性、識別性、及び/若しくはジェスチャ)を検出するように構成された制御システム60と接続されたカメラシステム130を更に含むことができる。場合によっては、カメラシステム130は、スピーカシステム20に位置し、ユーザ(複数可)50及び/又は環境10(例えば、壁又は大物体の提示)の視覚的特性(例えば、ジェスチャ又は識別)を検出するように構成されている。いずれの場合にも、カメラシステム130は、環境10内の1つ以上の物体又はユーザ50の視覚的特性(例えば、存在、位置、近接性、識別性、及び/又はジェスチャ)を検出するように構成することができる。様々な実装形態では、カメラシステム130は、例えば、ユーザプロンプトを介して能動的に有効にされて、1つ以上のユーザ(複数可)50の視覚的特性を追跡することができるか、又は1つ以上のマッピング期間中に有効にすることができる。特定の一実装形態では、カメラシステム130は、カメラシステム130で捕捉された画像データを処理するための視覚的特性(visual characteristic、VC)追跡エンジン140を含むことができる。視覚的特性(例えば、ユーザ50又は環境10の視覚的特性)は、ユーザ50の存在、1つ以上の他の基準項目(例えば、スピーカシステム20又は他のユーザ(複数可)50)に対するユーザ50の近接性、1つ以上のユーザ(複数可)50の位置、又はユーザ50の識別性のうちの1つ以上を含むことができる。これらの場合のいくつかにおいて、VC追跡エンジン140は、カメラシステム130からの画像データ(例えば、定期的又は継続的に取得された画像データのいずれか)を使用してユーザ50の識別情報を検出し、識別されたユーザ50の位置を示すように構成することができる。これらの例示的実装形態では、VC追跡エンジン140は、ユーザ50が環境を通って移動する際にユーザ50を視覚的に識別し、環境10のマップを動的に更新するために、その位置の指示を制御システム60に送信することができる。他の場合には、VC追跡エンジン140は、(例えば、視覚的識別を介して)音響的に有意な特性を有する環境10内の特定の物体を識別し、環境10を音響的にマッピングする際に使用するための視覚的特性データを制御システム60に提供することができる。
制御システム60は、本明細書に記載される様々な実装形態に従ってマイクロフォンアレイ30の集束方向を修正するためのデジタル信号プロセッサ(digital signal processor、DSP)150と接続することができる。すなわち、DSP150は、音響マップ100に基づいて、マイクロフォンアレイ30の集束方向(方向A、方向Bなど)を、ユーザ50に向かう方向に、又は既知のノイズ源から離れる方向(方向B、方向Cなど)に修正するように構成することができる。
本明細書で述べられるように、マイクロフォンアレイ30は、オーディオ信号(例えば、音響入力などの音響信号)を受信するための従来の受信機をそれぞれ含み得る、複数のマイクロフォン40を含むことができる。場合によっては、マイクロフォン40は、1つ以上の指向性マイクロフォンを含むことができる。しかしながら、他の場合には、アレイ30内の各マイクロフォン40は、DSP150によって方向付けられるように構成された全指向性マイクロフォンを含むことができる。DSP150は、マイクロフォン40(及びマッピングエンジン90)と連結することができ、例えば、DSPビームフォーミングによってアレイ30の方向を制御するために、音響入力及び/又は音響出力を処理するための1つ以上のDSPフィルタ160を含むことができる。DSPビームフォーミングは、特定の方向(例えば、方向A、方向Bなど)からの入力(複数可)に対するより狭い応答を達成するために、複数の方向からの入力(例えば、音響入力)を合計するための既知の技術である。図1は、それぞれx座標値及びy座標値を有する弓状経路に沿って配置された複数のマイクロフォン40を含む、例示的な曲線状マイクロフォンアレイ30を示す。
マイクロフォン40における所与の環境(ビームフォーミングなし)からの例示的な応答は、図2の極性グラフィック描写に示されており、所望の指示方向(例えば、方向A、方向Bなど、図1)は、最大応答角度(maximum response angle、MRA)と呼ばれ、図2の極性グラフにおける角度は、そのMRAからオフセットされ、半径は、そのMRA方向における振幅応答である。図3は、マイクロフォン40におけるフィルタリングされた応答を示し、DSPフィルタ160は、マイクロフォンアレイ30を特定の方向(例えば、音響マップ100を指示することができるMRA方向)に方向付けるように適用されている。
図1に戻ると、制御システム60は、本明細書に記載されるように、様々な手法に従ってマイクロフォンアレイ30を制御するようにプログラムされる。特定の実装形態では、(マッピングエンジン90を有する)制御システム60は、i)スピーカシステム20に近接する(物理的)環境10の音響記述を含む音響マップ100を生成することと、ii)マイクロフォンアレイ30において音声コマンド入力170を受信する前に、音響マップ100に基づいてマイクロフォンアレイ30を1つ以上の方向(例えば、方向A、方向B、方向C)に集束させることと、を行うように構成されている。本明細書に記載されるように、音響マップ100は、トランスデューサからの音響出力を送信する(かつ音響応答を測定する)か、かつ/又はマイクロフォンアレイ30で受信した音響入力(例えば、音声コマンド入力)から収集した音響データを用いて生成することができる。特定の場合では、これらの入力のうちの1つのみが音響マップ100を生成するために必要である。本明細書で述べられるように、制御システム60は、マイクロフォンアレイにおいて音声コマンド入力170を受信する前に、マイクロフォンアレイ30を制御するために、音響マップ100を使用する。
すなわち、スピーカシステム20は、1つ以上の集束方向に関してマイクロフォンアレイ30における音声コマンド入力170を必要とせずに、マイクロフォンアレイ30集束させることを可能にし得る。この事前集束プロセスは、マイクロフォンアレイ30が音響マップ100に基づいて少なくとも1つの方向に集束するように既に事前配置されているため、コマンド、送信などにおいて所望の方向(複数可)(例えば、方向A、方向B、方向C)からの改善された信号品質を可能にすることができる。様々な実装形態では、用語「音声コマンド入力」は、人間又は他のシステムユーザを含むユーザ50からの任意の音声コマンドを指すことができることが理解される。制御システム60は、音声コマンド入力170を使用して音響マップ100を精緻化及び更新することができるが、制御システム60は、その音声コマンド入力170を受信する前の方向にマイクロフォンアレイ30を事前に集束させるように構成されている。
特定の実装形態では、制御システム60(マッピングエンジン90を含む)は、1つ以上のマッピング期間にわたって音響マップ100を生成するように構成されている。例えば、制御システム60(マッピングエンジン90を含む)は、初期マッピング期間、前進マッピング期間、及び継続マッピング期間にわたって音響マップ100を生成するように構成されている。用語「初期」、「前進」、及び「継続」は、1つ以上のマッピングの期間が他の期間に必要な部位として作用することを示唆し得るが、これは必ずしも真ではない場合がある。例えば、「前進」マッピングプロセス及び/又は「継続」マッピングプロセスは、「初期」マッピングプロセスを実行することを必要とせずに(又は、初期マッピング機能が別のエンティティによって実行される場合に)実行することができる。場合によっては、スピーカシステム20は、前進マッピング期間の機能のみ、又は前進マッピング期間及び継続マッピング期間の機能のみを実行するように構成することができる。図4のフロー図は、マルチ期間マッピングプロセスの単なる一例であり、本明細書に記載されるマッピング機能を限定するものとみなされるべきではない。
図4は、環境10を音響的にマッピングする方法におけるプロセスを示すフロー図である。図示のように、初期マッピング期間は、以下のプロセスを含むことができる。
プロセスP1は、試験音響信号のセットをトランスデューサ80から物理的環境10に送信する。これは、1つ以上の周波数範囲、電力レベルなどで、トランスデューサ80を介して環境10内に音響信号を送信することを含むことができる。特定の実装形態では、トランスデューサ80は、全範囲試験信号を環境10内に(例えば、トランスデューサ80が生成することができる周波数及び/又は電力レベルの全範囲で)送信する。
プロセスP2は、マイクロフォンアレイ30における物理的環境10から戻り音響信号のセットを受信する。様々な実装形態では、戻り音響信号は、指定された期間(例えば、分、時間、日、又は数週間)にわたって受信され、音響マップ100を定期的に(又は継続的に)更新するために使用される。戻り音響信号からのデータは、本明細書に記載される任意の記憶デバイスを介して記憶することができ、音響マップ100を維持及び/又は更新するために使用することができる。
プロセスP3は、試験音響信号のセットと戻り音響信号のセットとの間の差に基づいて、物理的環境10内の少なくとも1つのゾーン(例えば、ゾーンA、B、Cなど、図1)を特徴付ける。様々な実装形態では、このプロセスは、物理的環境10内の1つ以上のゾーンに別様で帰属する音響特性をカタログ化することを含むことができる。ゾーンA、ゾーンB、及びゾーンCの例は、本明細書に記載されるマッピング期間のいずれかにおいて特徴付けることができる多くのゾーンの例示であることが理解される。ゾーンの数は、様々な実装形態に従って説明されるマッピングプロセスを使用して特徴付けることができる。
物理的環境10内の特性ゾーン(例えば、ゾーンA、B、Cなど)を特徴付けることは、送信された試験音響信号(プロセスP1)と戻り音響信号(プロセスP2)との間の差によって検出される物理的環境10の音響特性を分析することを含むことができる。これらの音響特性としては、例えば、全体の音圧レベル(sound pressure level、SPL)、音圧レベルの経時変化、いくつかの周波数帯域における音圧レベル、各帯域におけるレベルの経時変化、推定された信号対ノイズ比、周波数スペクトル、振幅変調スペクトル、クロス周波数エンベロープ相関、クロス変調周波数エンベロープ相関、聴覚モデルの出力、音声伝達指標(speech transmission index、STI)、及び/又はメル周波数ケプストラム係数を含む、様々なスペクトル、時間的、又はスペクトル-時間的統計を含むことができる。音響特性はまた、所望の1つ以上の音響源(例えば、人間のスピーカ)、又は所定の種類の音響源の存在を識別する情報を含むことができる。所定の種類の音響源は、家電製品(例えば、空調機又は冷蔵庫)などのノイズ源(及び関連するシグネチャ)、開口窓及び/又は別のオーディオ源からの背景音楽を介して検出されるロードノイズを含むことができる。
様々な実装形態では、マッピングエンジン90は、環境の音響マップ100を生成する際に、追加のパラメータを利用することができる。いくつかの追加のパラメータが、米国特許出願第14/841,166号(米国特許出願公開第2017/0060880号)に開示されており、その全体が参照により本明細書に組み込まれる。
初期マッピング期間の後、又は別の時間に、例えば、所定のスケジュールに従って、又は指定された待機期間の後に、前進マッピング期間を開始することができる。特定の実装形態では、物理的環境10内の少なくとも1つのゾーンが初期マッピング期間で特徴付けられた後に、前進マッピング期間を開始することができる。前進マッピング期間は、追加のプロセスで示され、以下を含む。
プロセスP4は、ある期間にわたってマイクロフォンアレイ30における物理的環境10から音響信号のセットを受信する。場合によっては、この期間は、システム設定に従って(例えば、スピーカシステム20の工場設定又はユーザ定義設定に従って)指定することができる。いくつかの実施例では、この期間は、約数日から約数週間持続することができる。この期間の長さはまた、マイクロフォンアレイ30に受信された利用可能なデータ(音響信号)の量によって決定することもできる。例えば、この前進マッピング期間は、音響データの閾値量が環境10から収集された後に終了するように構成することができる。
プロセスP5は、物理的環境10内の少なくとも1つの追加ゾーン(複数可)(例えば、図1には示されていないゾーンD、E、Fなどの追加ゾーン)を特徴付けるか、又は、期間にわたって受信された音響信号のセットに基づいて、物理的環境10内の既に特徴付けられたゾーン(複数可)(ゾーンA、B、C、図1など)を再特徴付けする。
前進マッピング期間の後、又は別の時間に、例えば、所定のスケジュールに従って、又は指定された待機期間の後に、継続マッピング期間を開始することができる。特定の実装形態では、継続マッピング期間は、物理的環境10内の初期ゾーン(例えば、ゾーンA、B、C)のうちの1つが再特徴付けされた後、又は追加ゾーン(例えば、ゾーンD、E、Fなど)が前進マッピング期間内に特徴付けられた後に開始され得る。継続マッピング期間は、追加のプロセスで示され、以下を含む。
プロセスP6は、マイクロフォンアレイ30における物理的環境10から音響信号のセットを継続的に受信する。
プロセスP7は、継続マッピング期間中に継続的に受信された音響信号のセットに基づいて、物理的環境10内の少なくとも1つの追加ゾーン(例えば、ゾーンD、E、Fなど)又は最初に特徴付けられたゾーン(例えば、ゾーンA、B、C)を再特徴付けする。
物理的環境10内のゾーンを特徴付けるプロセス及び再特徴付けするプロセスは、反復的に(及び場合によっては継続的に)実行されて、音響マップ100(図4のループとして示される)を生成し、更新することができる。いくつかの実装形態では、収集された音響信号は、マッピングエンジン90によって前処理されて、各後続のマッピング動作の効率を改善することができる。例えば、音響信号内の音響特徴の完全なセットは、より少数の独立した特徴を使用して環境10を表すために、次元削減プロセス(例えば、主成分分析(principal components analysis、PCA)、又は独立成分分析(independent component analysis、ICA))に供され得る。いくつかの実装形態では、スピーカシステム20内の他の構成要素によって収集された位置識別情報及び視覚的特性データについて、同じ次元削減プロセスを繰り返すことができる。次元削減とは、多次元空間においてそれぞれ指定された多数のデータセットが、より少ない次元の空間に変換される機械学習又は統計的技術を指す。変換は、線形又は非線形であってもよく、例えば、主成分分析、因子分析、多次元スケーリング、人工ニューラルネットワーク(入力ノードよりも少ない出力を有する)、自己組織化マップ、及びk平均クラスタ解析を含むことができる。
図1に戻ると、特定の実装形態では、制御システム60は、音響マップ100を生成する追加のプロセスを実行することができる。例えば、本明細書で述べられるように、制御システム60は、マイクロフォンアレイ30で物理的環境10から音響信号のセットを受信することができる。制御システム60は、受信した音響信号のセットから少なくとも1つのノイズ源を更に識別することができる。例示的なノイズ源としては、真空クリーナー、加熱/換気/空調(heating/ventilating/air-conditioning、HVAC)ユニット、食品プロセッサなどを挙げることができる。制御システム60は、音響信号がノイズ源に属することを示す一致性を識別するために、受信した音響信号のセットと、接続されたライブラリ190内の記憶されたノイズシグネチャ180を比較することができる。ノイズ源を識別することに応じて、制御システム60は、ノイズ源(複数可)を少なくとも部分的に排斥するように構成されたマイクロフォンアレイフィルタ200を作成することができる。マイクロフォンアレイフィルタ(複数可)200の作成後、制御システム60は、ライブラリ190及び/又はDSP150内にマイクロフォンアレイフィルタ(複数可)200を記憶することができる。
特定の実装形態では、マイクロフォンアレイフィルタ200のセットを作成することは、受信した音響信号のセットを周波数又は振幅のうちの少なくとも1つに従って分類することと、マイクロフォンアレイ30上の利得を受信した音響信号の分類されたセットと相関させることと、を含む。例えば、マイクロフォンアレイフィルタ200は、1つ以上のノイズ源の特定のスペクトルに沿って周波数をノックアウト(干渉)するように選択された周波数依存フィルタを含むことができる。
ライブラリ190は、制御システム60の1つ以上の部分として、共通の地理的位置におけるローカルライブラリであってもよく、又は、少なくとも部分的に別個の位置又はクラウドベースのサーバ内に記憶されたリモートライブラリであってもよいことが理解される。ライブラリ190は、メモリなどの従来の記憶デバイスを含むことができ、又は本明細書に記載されるような分散及び/若しくはクラウドベースの記憶デバイスを含むことができる。ライブラリ190は、別個のユーザ、プロファイル、及び/又は環境からの複数のノイズ源のための複数のマイクロフォンアレイフィルタ200を含むことができることが更に理解される。この意味では、ライブラリ190は、特定のユーザ50、プロファイル又は環境に適用可能なマイクロフォンアレイフィルタ200を記憶することができるが、別個のユーザ50、プロファイル又は他の環境で使用され得るマイクロフォンアレイフィルタ200も記憶することができ、例えば、ノイズ源は、複数のユーザ50、プロファイル及び/又は環境に共通である。
様々な実装形態では、ライブラリ190は、マイクロフォンアレイフィルタ(複数可)200と識別されたノイズ源サンプル(複数可)からの音響信号との間の関係を含むリレーショナルデータベースを含むことができる。場合によっては、ライブラリ190はまた、例えば、事前設定された又はユーザ定義可能なカテゴリを有するノイズ源のテキストインデックスも含むことができる。このことにより、ユーザは(例えば、プロンプトに応じて)、メニュー(例えば、ユーザインターフェース又は制御システム60で提供される)からソースの種類を選択することなどによって、ノイズ源の種類に関する情報を提供することを可能となる。制御システム60は、例えば、ユーザのノイズ源(例えば、洗濯機又は真空クリーナー)の群から選択されるソースの種類を学習するように構成された学習エンジン(例えば、人工ニューラルネットワークなどの機械学習/人工知能構成要素)を更に含むことができる。
更なる実装形態では、識別されたノイズ源からの音響信号の検出に応じて、スピーカシステム20は、記憶されたマイクロフォンフィルタ200に従ってマイクロフォンアレイ30の方向を修正するように構成されている。特定の実装形態では、(DSP150を介した)制御システム60は、マイクロフォンアレイ30でユーザ50から音声コマンド入力170を受信している間、又はトランスデューサ80で音響出力信号を送信している間、マイクロフォンアレイフィルタ200を適用するように構成されている。より具体的な実装形態では、マイクロフォンアレイフィルタ200は、受信した音声コマンド入力170の明瞭さを向上させるために、マイクロフォンアレイ30でユーザから音声コマンド入力170を受信している間に適用される。実際には、マイクロフォンアレイフィルタ200を適用することは、マイクロフォンアレイ30において音響ノイズ信号を受信することと、音響ノイズ信号を、マイクロフォンアレイフィルタ200のライブラリ190内の識別された少なくとも1つのノイズ源からの音響信号と比較することと、識別された少なくとも1つのノイズ源からの音響信号に一致する音響ノイズ信号に応じて、マイクロフォンアレイ30上の利得を修正することと、を含むことができる。様々な特定の実装形態では、ユーザ50が音声コマンド入力170を提供しない場合であっても、マイクロフォン利得は修正される。すなわち、マイクロフォンアレイ30の利得を修正して、単語(又はフレーズ)認識を向上させることができ、これにより、スピーカシステム20は、ユーザ50から音声コマンド入力170を受信する前に、音響マップ100に従ってマイクロフォンアレイフィルタ200を適用する。
本明細書で述べられるように、DSP150は、オーディオノイズ信号を、ライブラリ190に記憶されたノイズ源サンプルと比較し、それらのノイズ源サンプルのうちの少なくとも1つに一致するオーディオノイズ信号に応じてマイクロフォンアレイ30上の利得を修正するように構成され得る。具体的には、制御システム60は、ノイズ源(複数可)からノイズをノックアウト(干渉)するために、DSP150を利用して、マイクロフォンアレイ30の利得及び方向を修正することができる。
更なる実装形態では、音響マップ100は、物理的環境10内のノイズ源の位置、並びに物理的環境10内の頻繁な音声コマンド位置を考慮することができる。すなわち、環境10内のノイズ源を識別することと同様に、スピーカシステム20は、それらのノイズ源及び/又は頻繁な音声コマンド位置(例えば、ユーザ(複数可)50が音声コマンドを提供する位置)を検出するように更に構成されている。(DSP150を有する)制御システムは、識別された位置にノイズ源を少なくとも部分的に排斥し、かつ/又はその頻繁な音声コマンド位置からの音声コマンド入力の検出を向上させるように構成された追加のマイクロフォンアレイフィルタ200を作成することができる。本明細書で述べられるように、これらの追加のマイクロフォンアレイフィルタ200は、例えば、ユーザ50から音声コマンド入力170を受信する前に、単語(又はフレーズ)検出のために適用することができる。いくつかの例示的実装形態では、頻繁な音声コマンド位置は、部屋内の1つ以上の座席(例えば、ソファ又は椅子上)、又はユーザが集まるための共通領域(例えば、キッチンアイランドの周り)を含むことができる。これらの頻繁な音声コマンド位置は、ノイズ源(例えば、テレビ又は食器洗浄機)と同じ又は隣接するゾーン内に配置することができる。マイクロフォンアレイフィルタ200は、ノイズ源位置からの音響受信を減少させながら、頻繁な音声コマンド位置からの音響受信を向上させるために、アレイ30内の1つ以上のマイクロフォン40上の利得を修正するように構成することができる。
特定の実装形態では、制御システム60は、ユーザ(複数可)50が、(例えば、ユーザインターフェース220を介して、又は接続されたスマートデバイス上でアクセス可能なダウンロード可能アプリケーションなどのソフトウェアアプリケーションを介して)スピーカシステム20に関する識別(identification、ID)情報210に入ることを可能にすることによって、1つ以上のマッピング期間を向上させることができる。例えば、制御システム60は、スピーカシステム20に関するユーザ入力識別情報210を受信し、そのユーザ入力識別情報210に基づいて環境10の音響マップ100を更新するように構成することができる。いくつかの特定の実施例では、ユーザ入力識別情報210は、スピーカシステム20の名前、ニックネーム、又は位置名を含むことができる。これらの場合、制御システム60は、例えば、無線ネットワーク若しくは電源に、又はクラウドベースのアカウント若しくはストリーミングコンテンツアカウントなどのリンクされたアカウントに、スピーカシステム20を接続するときに、ユーザ50に識別情報210を入力するように促すことができる。識別情報210は、環境内のスピーカシステム20の位置又は位置を判定するために使用することができる。例えば、ユーザ50が「キッチン」としてスピーカシステムを識別するとき、制御システム60は、キッチン(例えば、食器洗浄機、ブレンダー、又はマイクロ波)に典型的に見られるノイズ源に従って、マイクロフォン40上の利得を修正するために、記憶されたマイクロフォンアレイフィルタ200を適用するように構成することができる。加えて、制御システム60は、本明細書に記載されているマッピングプロセスを、キッチンで典型的に見出されるノイズ源に向かって重み付けするように構成することができる。いくつかの実施例では、制御システム60は、識別情報210に基づいて、例えば、ユーザ50の名前、ノイズプロファイル、又はユーザ50からの別の入力に基づいて適用する特定のマイクロフォンアレイフィルタ200を判定するためのルールベースのエンジンを含む。特定の実施例では、スピーカシステム20に関する識別情報210は、「オフィス」、「バックヤード」又は「ジム」などの名前を含むことができ、制御システム60が、例えば電話、風調、又は運動機器のためのアプリケーションのための可能性の高いフィルタを事前選択することを可能にし得る。
追加の実装形態では、制御システム60は、音響マップ100に関する音声フィードバック入力(例えば、音声コマンド170と同様)をユーザ50(複数可)に促すように更に構成されている。これらの場合、プロンプトは、トランスデューサ80を介して提供されるオーディオプロンプト、及び/又はスピーカシステム20又は別の接続されたデバイス(例えば、スマートデバイス)に提供される視覚的、触覚的、若しくは他のプロンプトを含むことができる。オーディオプロンプトは、音響マップ100の特性に関するフィードバックをユーザ50から要求することができる。場合によっては、オーディオプロンプトは、ユーザに、「通常この部屋で時間を過ごす場所に立ったり座ったりしてください...、お気に入りのフレーズを繰り返してください(又は、お気に入りの曲を歌ったり、他の音声コマンドを提供してください)。」など、環境10内の1つ以上の位置から音声フィードバックを提供するように尋ねることができる。制御システム60は、ユーザ50から(例えば、マイクロフォンアレイ30で)音声フィードバック入力を受信し、その音声フィードバック入力に基づいて音響マップ100を更新することができる。場合によっては、制御システム60は、環境10の音響マップ100を更新するために、音声フィードバック入力のコンテンツ(例えば、「はい」又は「いいえ」の回答)並びにその音声フィードバック入力の品質(例えば、1つ以上のノイズ源又は音響干渉の存在)を利用するように構成される。いくつかの追加的な実装形態では、制御システム60は、音声フィードバックを反復的に要求し、それらの音声フィードバック入力を処理して、所与の期間にわたって音響マップ100を更に精緻化することができる。
更に他の場合では、スピーカシステム20は、ノイズ源をサンプリングし、それらの種類のノイズを後で中和するためにカスタマイズされたマイクロフォンアレイフィルタ200を作成するために、ユーザ50と相互作用するように構成される。スピーカシステム20は、ノイズ源(例えば、家庭、オフィス、又は他の環境内の共通のノイズ源)をサンプリングするために、ユーザ50又は他のシステム制御(例えば、家電製品又は娯楽デバイスなどの接続されたデバイス用の制御システム)にプロンプトを提供することができ、後の実装形態のために、それらのノイズのために、音響マップ100内に特定のマイクロフォンアレイフィルタ200を作成して記憶することができる。用語「ユーザプロンプト」は、ノイズサンプリングプロセスを開始するためにヒトユーザを必要としない場合があることが理解される。例えば、場合によっては、「ユーザ」は、ロボットユーザ、人工知能(artificial intelligence、AI)システム、又はプロンプトに応じてノイズ源を開始するように構成された制御システムであってもよい。いずれの場合も、スピーカシステム20は、特定のノイズ信号をフィルタリングすることによってマイクロフォンアレイ30におけるオーディオ信号品質を向上させるように構成することができる。
更なる実装形態では、本明細書に記載されるように、スピーカシステム200は、携帯型スマートスピーカ又はパーソナルオーディオデバイスなどの携帯型スピーカシステムを含むことができる。これらの場合では、スピーカシステム20(例えば、位置追跡システム120を使用する)は、スピーカシステム20の第1の物理的位置から第2の物理的位置への移動を検出するように構成される。いくつかの場合において、位置追跡システム120は、移動閾値を超える期間にわたってスピーカシステム20の移動を検出することによって、スピーカシステム20の第1の物理的位置から第2の物理的位置への移動を検出するように構成される。例えば、移動閾値は、スピーカシステム20の音響特性を修正するために、十分な移動量(例えば、閾値距離の並進、閾値距離の高度変化、閾値角度の回転)として指定することができる。この閾値は、スピーカシステム20が一時的な目的(例えば、洗浄、充電など)のためにのみ移動されているときにスピーカシステム20を取り巻く環境の再マッピングを回避するために、移動期間(例えば、数秒超又は数分超)と相関させることができる。いくつかの場合において、移動閾値は、スピーカシステム20の電源の位置(例えば、第1の電源位置から第2の電源位置への電力源の変化)、スピーカシステムの配向(例えば、特定の数の角度の回転又は傾斜)、スピーカシステムの位置(例えば、特定の量の並進又は高度変化)、少なくとも1つの通信ネットワークへの近接性(例えば、WiFiアクセスポイント若しくは他の通信ハブへの近接性)、又は少なくとも1つの他の接続された電子デバイス(例えば、Bluetooth又はWiFi接続デバイス)への近接性のうちの少なくとも1つの変化によって測定される。
スピーカシステム20の第1の物理的位置から第2の物理的位置への移動を検出することに応じて、制御システム60は、第2の物理的位置においてスピーカシステム20に近接する物理的環境の音響記述を含む更新された音響マップ100を生成することができる。このプロセスは、第1の物理的位置に対する初期音響マップ100を生成するのと同様の方法で実行することができる。第1の物理的位置にあるスピーカシステム20の初期音響マップ100を生成すると、更新された音響マップ100を生成した後、制御システム20は、マイクロフォンアレイ30において後続の音声コマンド入力170を受信する前に、更新された音響マップ100に基づいて、マイクロフォンアレイを更新された方向に集束させることができる。すなわち、制御システム20は、音響マップ100を更新し、その更新されたマップに基づいてマイクロフォンアレイ30を集束させるために、第2の物理的位置に対するマッピングプロセス(プロセスP1~P6)を繰り返すように構成することができる。
スピーカシステム20が別の位置に移動されるいくつかの特定の実装形態では、制御システム60は、更新された音響マップが生成されている間に、マイクロフォンアレイ30が音響マップ100に基づいて元の集束方向に集束させるように構成されている。これらの例示的実装形態では、位置追跡システム120は、スピーカシステム20の配向を判定するように構成され、制御システム60は、この配向情報を、音響マップ100からのデータと共に使用して、更新された音響マッピングプロセスが実行されている間、マイクロフォンアレイ30の元の(相対的な)集束方向を維持するように構成される。
特定の実装形態では、位置追跡システム120は、音響マップ100の1つ以上の特性が、更新された位置に適用可能(又は適用不可能)であるように、スピーカシステム20が環境10を越えて移動したかどうかを判定することができる。場合によっては、位置追跡システム120は、スピーカシステム20が環境10を越えて移動していないと判定する場合、制御システム60は、音響マップ100の1つ以上の部分を利用して、マイクロフォンアレイ30を更新位置に集束させることができる。
スピーカシステム20の追加の実装形態は、例えば、1つ以上のパーソナルオーディオデバイス、スマートデバイス(例えば、スマートウェアラブルデバイス、スマートフォン)、ネットワーク接続デバイス(例えば、スマート家電製品)、又は他の非ヒトユーザ(例えば、仮想パーソナルアシスタント、ロボットアシスタントデバイス)を含む外部デバイス230からのデータ入力を利用することができる。外部デバイス230は、環境10の音響マップ100の周囲で制御システム60に追加情報を提供する様々なデータ収集機構を装備することができる。例えば、外部デバイス230は、環境10内の1つ以上のユーザ50の位置、環境内の1つ以上の音響的に有意な物体(例えば、ソファ、デスク又は壁)、又は高対低輸送位置の位置に関するデータを提供することができる。加えて、外部デバイス230は、特定のテレビ、食器洗浄機又はエスプレッソメーカーの製造元メーク又はモデルに関する画像データなど、1つ以上のノイズ源に関する識別情報を提供することができる。ビーコン又は他のスマートデバイスなどの外部デバイス230の例は、参照によりその全体が本明細書に組み込まれる米国特許出願第15/687,961号に記載されている。
図5は、様々な実装形態に従って形成される、例示的な音響マップ500の概略図を示す。図示のように、音響マップ500は、4つの壁520によって画定された部屋510の上面図を示す。構成要素Aは、スピーカシステム20(図1)などのスピーカシステムである。構成要素Bは、壁520のうちの1つの内部又はその背後にあるノイズ源である。構成要素Cは、部屋510内のノイズ源である。位置D、E、F、及びGは、スピーカシステム(A)によって認識されるように、ユーザ(例えば、ユーザ50、図1)が以前にスピーカシステムの音声インターフェースに参加した位置を示す。
ゾーン1は、ノイズ源(例えば、ノイズ源(B))が(スピーカシステム(A)に対して)支配的である方向であり、スピーカシステム(A)がマイクロフォンアレイ(例えば、マイクロフォンアレイ30、図1)からの利得を低減することができる方向である。ゾーン2は、スピーカシステム(A)に対して、ユーザコマンドが発生することがある方向であり、スピーカシステム(A)は、そのゾーン内の音声コマンドの精度を維持又は改善するために、マイクロフォンアレイからのデフォルト利得又は増加した利得を使用することができる。ゾーン3は、スピーカシステム(A)に対して、ユーザコマンドが頻繁に発生する方向であり、スピーカシステム(A)は、そのゾーン内の音声コマンドの精度を維持又は改善するために、デフォルト利得又はマイクロフォンアレイからの増加した利得を使用することができる。いくつかの場合において、ゾーン3は、より高い検出された音声コマンドの周波数を有する方向(例えば、ゾーン2と比較した場合)であり、ゾーン3の増加した利得は、ゾーン2の増加した利得よりも高くなり得る。この利得差は、特定のゾーンからの音声コマンドの周波数及び/又は特定のゾーンから受信した音声コマンドのデシベルレベルなどの所定の閾値に従って設定することができる。図5の音響マップ500の実施例では、これらの周波数は、ゾーン内の位置の数(例えば、ゾーン3内の3つの位置E、F、G対ゾーン2内の1つの位置D)、又はゾーン内の特定の位置のサイズ(例えば、周波数が表示されるか又は別様に示された位置のそれぞれのサイズ差として描かれる)によって区別することができる。ゾーン4は、スピーカシステム(A)に対する方向であって、任意の既知のノイズ源又はユーザ相互作用のない(例えば、ノイズ源なしの壁520の方向)方向である。ゾーン4では、スピーカシステム(A)は、デフォルト利得、又はマイクロフォンアレイ30(図1)上の低減した利得を使用することができる。この例示的な音響マップ500は、スピーカシステム(例えば、スピーカシステム20、図1)がマイクロフォンアレイ(例えば、図1のマイクロフォンアレイ30)を制御するために適用することができる、一般的な規則のほんの一部を例示することを意図している。本明細書の実装形態に記載されるように、スピーカシステムによって様々な追加の制御ルールを適用することができることが理解される。
本明細書に記載される機能性又はその部分、及びその様々な修正(以下「機能」)は、少なくとも部分的にコンピュータプログラム製品(例えば、1つ以上のデータ処理装置(例えば、プログラム可能プロセッサ、コンピュータ、複数のコンピュータ、及び/又はプログラム可能論理構成要素など)の動作による実行のための、又はその動作を制御するための、1つ以上の非一時的機械可読媒体などの情報担体において有形に具現化されたコンピュータプログラム)を介して実装され得る。
コンピュータプログラムは、コンパイラ型言語又はインタープリタ型言語を含む任意の形態のプログラム言語で書くことができ、それは、スタンドアローンプログラムとして、又はコンピューティング環境での使用に好適なモジュール、構成要素、サブルーチン、若しくは他のユニットとして含む任意の形態で配備され得る。コンピュータプログラムは、1つのコンピュータ上で、若しくは1つのサイトにおける複数のコンピュータ上で実行されるように配備されるか、又は複数のサイトにわたって配信されて、ネットワークによって相互接続され得る。
機能の全部又は一部を実装することと関連した動作は、較正プロセスの機能を実施するために1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサによって実施され得る。機能の全部又は一部は、特殊目的論理回路、例えば、FPGA及び/又はASIC(特定用途向け集積回路)として実装され得る。コンピュータプログラムの実行に好適なプロセッサとしてはまた、例として、一般的及び特殊目的マイクロプロセッサの両方、並びに任意の種類のデジタルコンピュータの1つ以上のプロセッサが挙げられる。一般的に、プロセッサは、読み出し専用メモリ、ランダムアクセスメモリ、又はそれらの両方から命令及びデータを受信することになる。コンピュータの構成要素は、命令を実行するためのプロセッサ、並びに命令及びデータを記憶するための1つ以上のメモリデバイスを含む。
様々な実装形態では、互いに「連結」されているとして説明される構成要素は、1つ以上のインターフェースに沿って接合することができる。いくつかの実装形態では、これらのインターフェースは、別個の構成要素間の接合部を含むことができ、他の場合には、これらのインターフェースは、強固に及び/又は一体的に形成された相互接続部を含み得る。すなわち、場合によっては、互いに「連結された」構成要素は同時に形成されて、単一の連続部材を画定することができる。しかしながら、他の実装形態では、これらの連結された構成要素は、別個の部材として形成され、その後、既知のプロセス(例えば、はんだ付け、締結、超音波溶接、接合)によって接合され得る。様々な実装形態では、「連結された」と記載される電子構成要素は、これらの電子構成要素が互いにデータを通信することができるように、従来の有線及び/又は無線手段を介してリンクすることができる。更に、所与の構成要素内の下位構成要素は、従来の経路を介してリンクされていると考えることができるが、必ずしも図示されない。
具体的に本明細書に記載されていない他の実施形態もまた、以下の特許請求の範囲内にある。本明細書に記載される異なる実装形態の要素は、特に上に記載されない他の実施形態を形成するために組み合わされ得る。要素は、それらの動作に悪影響を及ぼすことなく、本明細書に記載される構造から除かれ得る。更にまた、様々な別個の要素は、本明細書に記載される機能を実施するために、1つ以上の個々の要素と組み合わされ得る。
10 物理的環境
20 スピーカシステム
30 マイクロフォンアレイ
40 マイクロフォン
50 ユーザ
60 制御システム
80 トランスデューサ
90 マッピングエンジン
100 音響マップ
110 無線送受信機(wireless transceiver、WT)
120 位置追跡システム
130 カメラシステム
140 視覚的特性(visual characteristic、VC)追跡エンジン
150 デジタル信号プロセッサ(digital signal processor、DSP)
160 フィルタ
170 音声コマンド
180 ノイズシグネチャ
190 ライブラリ
200 マイクロフォンアレイフィルタ
210 ユーザ入力識別情報
220 ユーザインターフェース
230 外部デバイス
500 音響マップ
510 部屋
520 壁

Claims (20)

  1. スピーカシステム内のマイクロフォンアレイを制御するコンピュータ実装方法であって、前記方法が、
    前記スピーカシステムに近接する物理的環境の音響記述を含む音響マップを生成することであって、
    前記物理的環境内の少なくとも1つのノイズ源の位置を検出することと、
    前記少なくとも1つのノイズ源を少なくとも部分的に排斥するように構成されたマイクロフォンアレイフィルタを作成することと、
    を含む、音響マップを生成することと、
    前記マイクロフォンアレイにおいて音声コマンド入力を受信する前に、前記音響マップに基づいた方向に前記マイクロフォンアレイを集束させることと、
    前記マイクロフォンアレイでユーザから音声フィードバック入力を受信することと、
    前記受信した音声フィードバック入力に基づいて、前記物理的環境の前記音響マップを更新することと、
    を含む、コンピュータ実装方法。
  2. 前記音響マップに関する音声フィードバック入力をユーザに促すこと
    をさらに具備する、請求項1に記載のコンピュータ実装方法。
  3. 前記音響マップを生成することが、初期マッピング期間、前進マッピング期間、および継続マッピング期間を含み、
    前記初期マッピング期間が、
    試験音響信号のセットを前記スピーカシステム内のトランスデューサから前記物理的環境に送信することと、
    前記マイクロフォンアレイにおける前記物理的環境から戻り音響信号のセットを受信することと、
    前記試験音響信号のセットと前記戻り音響信号のセットとの間の差に基づいて、前記物理的環境内の少なくとも1つのゾーンを特徴付けることと、
    含む、請求項1に記載のコンピュータ実装方法。
  4. 前記前進マッピング期間が、
    ある期間にわたって前記マイクロフォンアレイにおける前記物理的環境から音響信号のセットを受信することと、
    前記期間にわたって受信された前記音響信号のセットに基づいて、前記物理的環境内の少なくとも1つの追加ゾーンを特徴付けるか、又は前記物理的環境内の前記少なくとも1つのゾーンを再特徴付けすることと、
    を含む、請求項3に記載のコンピュータ実装方法。
  5. 前記継続マッピング期間が、
    前記マイクロフォンアレイにおける前記物理的環境から音響信号のセットを継続的に受信することと、
    前記継続マッピング期間中に継続的に受信された前記音響信号のセットに基づいて、前記物理的環境内の前記少なくとも1つの追加ゾーン又は前記少なくとも1つのゾーンを再特徴付けすることと、
    を含む、請求項4に記載のコンピュータ実装方法。
  6. 前記スピーカシステムに関するユーザ入力識別情報を受信することと、
    前記ユーザ入力識別情報に基づいて前記物理的環境の前記音響マップを更新することと、
    を更に含む、請求項1に記載のコンピュータ実装方法。
  7. 前記スピーカシステムが、携帯型スピーカシステムを含み、前記方法が、
    前記スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することと、
    前記第2の物理的位置において前記スピーカシステムに近接する物理的環境の音響記述を含む更新された音響マップを生成することと、
    前記マイクロフォンアレイにおいて後続の音声コマンド入力を受信する前に、前記更新された音響マップに基づいた更新された方向に前記マイクロフォンアレイを集束させることと、
    を更に含む、請求項1に記載のコンピュータ実装方法。
  8. 前記マイクロフォンアレイが、前記更新された音響マップが生成されている間、前記音響マップに基づいた前記方向に集束されたままである、請求項に記載のコンピュータ実装方法。
  9. 前記スピーカシステムの前記第1の物理的位置から前記第2の物理的位置への移動を検出することが、前記スピーカシステムの電源の位置、前記スピーカシステムの配向、前記スピーカシステムの位置、少なくとも1つの通信ネットワークへの近接性、又は少なくとも1つの他の接続された電子デバイスへの近接性のうちの少なくとも1つの変化を検出することによって前記スピーカシステムの移動を検出することを含む、請求項に記載のコンピュータ実装方法。
  10. スピーカシステムであって、
    マイクロフォンアレイと、
    前記マイクロフォンアレイと接続された制御システムであって、前記制御システムが、
    前記スピーカシステムに近接する物理的環境の音響記述を含む音響マップを生成することであって、
    前記マイクロフォンアレイにおける前記物理的環境から音響信号のセットを受信することと、
    前記受信した音響信号のセットから少なくとも1つのノイズ源を識別することと、
    前記少なくとも1つのノイズ源を少なくとも部分的に排斥するように構成されたマイクロフォンアレイフィルタを作成することであって、前記受信した音響信号のセットを周波数又は振幅のうちの少なくとも1つに従って分類することと、前記マイクロフォンアレイ上の利得を修正するための制御命令を前記受信した音響信号の分類されたセットと相関させることと、を含む、マイクロフォンアレイフィルタのセットを作成することと、
    マイクロフォンアレイフィルタのライブラリ内に前記マイクロフォンアレイフィルタを記憶することと、
    を含む、前記音響マップを生成することと、
    前記マイクロフォンアレイにおいて音声コマンド入力を受信する前に、前記音響マップに基づいた方向に前記マイクロフォンアレイを集束させることと
    を行うようにプログラムされている、制御システムと、
    を含む、スピーカシステム。
  11. 前記音響マップを生成することが、初期マッピング期間、前進マッピング期間、および継続マッピング期間を含み、前記スピーカシステムが、前記制御システムと接続されたトランスデューサを更に含み、
    前記初期マッピング期間が、
    試験音響信号のセットを前記トランスデューサから前記物理的環境に送信することと、
    前記マイクロフォンアレイにおける前記物理的環境から戻り音響信号のセットを受信することと、
    前記試験音響信号のセットと前記戻り音響信号のセットとの間の差に基づいて、前記物理的環境内の少なくとも1つのゾーンを特徴付けることと、
    を含み、
    前記前進マッピング期間が、
    ある期間にわたって前記マイクロフォンアレイにおける前記物理的環境から音響信号のセットを受信することと、
    前記期間にわたって受信された前記音響信号のセットに基づいて、前記物理的環境内の少なくとも1つの追加ゾーンを特徴付けるか、又は前記物理的環境内の前記少なくとも1つのゾーンを再特徴付けすることと、
    を含み、
    前記継続マッピング期間が、
    前記マイクロフォンアレイにおける前記物理的環境から音響信号のセットを継続的に受信することと、
    前記継続マッピング期間中に継続的に受信された前記音響信号のセットに基づいて、前記物理的環境内の前記少なくとも1つの追加ゾーン又は前記少なくとも1つのゾーンを再特徴付けすることと、
    を含む、請求項10に記載のスピーカシステム。
  12. 前記音響マップを生成することが、
    前記物理的環境内の少なくとも1つのノイズ源の位置を検出すること、又は前記物理的環境内の頻繁な音声コマンド位置を検出することのうちの少なくとも1つと、
    前記少なくとも1つのノイズ源を少なくとも部分的に排斥するか、又は前記頻繁な音声コマンド位置から入力された音声コマンドの検出を向上させるように構成されたマイクロフォンアレイフィルタを作成することと、
    を含む、請求項10に記載のスピーカシステム。
  13. 前記制御システムが、
    前記スピーカシステムに関するユーザ入力識別情報を受信することと、
    前記ユーザ入力識別情報に基づいて前記物理的環境の前記音響マップを更新することと、
    を行うように更に構成されている、請求項10に記載のスピーカシステム。
  14. 前記スピーカシステムが、携帯型スピーカシステムを備え、前記制御システムが、
    前記スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することと、
    前記第2の物理的位置において前記スピーカシステムに近接する物理的環境の音響記述を含む更新された音響マップを生成することと、
    前記マイクロフォンアレイにおいて後続の音声コマンド入力を受信する前に、前記更新された音響マップに基づいた更新された方向に前記マイクロフォンアレイを集束させることと、
    を行うように更に構成され、
    前記マイクロフォンアレイが、前記更新された音響マップが生成されている間、前記音響マップに基づいた前記方向に集束されたままである、請求項10に記載のスピーカシステム。
  15. 前記スピーカシステムの前記第1の物理的位置から前記第2の物理的位置への移動を検出することが、前記スピーカシステムの電源の位置、前記スピーカシステムの配向、前記スピーカシステムの位置、少なくとも1つの通信ネットワークへの近接性、又は少なくとも1つの他の接続された電子デバイスへの近接性のうちの少なくとも1つの変化を検出することによって前記スピーカシステムの移動を検出することを含む、請求項14に記載のスピーカシステム。
  16. 前記制御システムが、
    前記音響マップに関する音声フィードバック入力をユーザに促すことと、
    前記ユーザから前記マイクロフォンアレイで前記音声フィードバック入力を受信することと、
    前記受信した音声フィードバック入力に基づいて前記物理的環境の前記音響マップを更新することと、
    を行うように更に構成されている、請求項10に記載のスピーカシステム。
  17. 前記制御システムと接続されたトランスデューサを更に備え、前記トランスデューサ及び前記マイクロフォンアレイが、音響環境内の物理的に分離されたハウジング内に位置する、請求項10に記載のスピーカシステム。
  18. 前記マイクロフォンアレイフィルタのライブラリが、前記識別された少なくとも1つのノイズ源からの前記マイクロフォンアレイフィルタと前記音響信号との間の関係を含むリレーショナルデータベースを含み、前記制御システムが、前記マイクロフォンアレイにおいて前記音声コマンド入力を受信している間に前記マイクロフォンアレイフィルタを適用するように構成され、前記マイクロフォンアレイフィルタを適用することが、
    前記マイクロフォンアレイにおいて音響ノイズ信号を受信することと、
    前記音響ノイズ信号を、前記マイクロフォンアレイフィルタのライブラリ内の前記識別された少なくとも1つのノイズ源からの前記音響信号と比較することと、
    前記識別された少なくとも1つのノイズ源からの前記音響信号に一致する前記音響ノイズ信号に応じて、前記マイクロフォンアレイ上の利得を修正することと、
    を含む、請求項17に記載のスピーカシステム。
  19. スピーカシステム内のマイクロフォンアレイを制御するコンピュータ実装方法であって、前記方法が、
    前記スピーカシステムに近接する物理的環境の音響記述を含む音響マップを生成することであって、
    前記物理的環境内の少なくとも1つのノイズ源の位置を検出することと、
    前記少なくとも1つのノイズ源を少なくとも部分的に排斥するように構成されたマイクロフォンアレイフィルタを作成することと、
    を含む、音響マップを生成することと、
    前記スピーカシステムの第1の物理的位置から第2の物理的位置への移動を検出することと、
    前記第2の物理的位置において前記スピーカシステムに近接する物理的環境の音響記述を含む更新された音響マップを生成することと、
    前記マイクロフォンアレイにおいて後続の音声コマンド入力を受信する前に、前記更新された音響マップに基づいた更新された方向に前記マイクロフォンアレイを集束させることと、
    を含む、コンピュータ実装方法。
  20. 前記マイクロフォンアレイが、前記更新された音響マップが生成されている間、前記音響マップに基づいた前記方向に集束されたままである、請求項19に記載のコンピュータ実装方法。
JP2020555790A 2018-04-13 2019-04-11 マイクロフォンアレイ内のインテリジェントビームステアリング Active JP7119117B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/952,920 2018-04-13
US15/952,920 US10524048B2 (en) 2018-04-13 2018-04-13 Intelligent beam steering in microphone array
PCT/US2019/026896 WO2019200038A1 (en) 2018-04-13 2019-04-11 Intelligent beam steering in microphone array

Publications (2)

Publication Number Publication Date
JP2021520141A JP2021520141A (ja) 2021-08-12
JP7119117B2 true JP7119117B2 (ja) 2022-08-16

Family

ID=66334555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020555790A Active JP7119117B2 (ja) 2018-04-13 2019-04-11 マイクロフォンアレイ内のインテリジェントビームステアリング

Country Status (5)

Country Link
US (2) US10524048B2 (ja)
EP (1) EP3777233A1 (ja)
JP (1) JP7119117B2 (ja)
CN (1) CN112020864B (ja)
WO (1) WO2019200038A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10609475B2 (en) 2014-12-05 2020-03-31 Stages Llc Active noise control and customized audio system
US10945080B2 (en) 2016-11-18 2021-03-09 Stages Llc Audio analysis and processing system
US11150869B2 (en) 2018-02-14 2021-10-19 International Business Machines Corporation Voice command filtering
KR102443052B1 (ko) * 2018-04-13 2022-09-14 삼성전자주식회사 공기 조화기 및 공기 조화기의 제어 방법
US11200890B2 (en) * 2018-05-01 2021-12-14 International Business Machines Corporation Distinguishing voice commands
US11238856B2 (en) 2018-05-01 2022-02-01 International Business Machines Corporation Ignoring trigger words in streamed media content
US10929099B2 (en) * 2018-11-02 2021-02-23 Bose Corporation Spatialized virtual personal assistant
US12057114B2 (en) * 2018-11-02 2024-08-06 Spotify Ab Media content steering
US11048472B2 (en) 2019-01-27 2021-06-29 Listen AS Dynamically adjustable sound parameters
US11126398B2 (en) * 2019-03-13 2021-09-21 Listen AS Smart speaker
EP3709194A1 (en) 2019-03-15 2020-09-16 Spotify AB Ensemble-based data comparison
TWI752328B (zh) * 2019-06-28 2022-01-11 仁寶電腦工業股份有限公司 可拆式智慧音箱系統及其控制方法
US11355108B2 (en) 2019-08-20 2022-06-07 International Business Machines Corporation Distinguishing voice commands
US11094319B2 (en) 2019-08-30 2021-08-17 Spotify Ab Systems and methods for generating a cleaned version of ambient sound
US10827028B1 (en) 2019-09-05 2020-11-03 Spotify Ab Systems and methods for playing media content on a target device
US11557307B2 (en) 2019-10-20 2023-01-17 Listen AS User voice control system
US11483670B2 (en) * 2019-10-30 2022-10-25 Sonos, Inc. Systems and methods of providing spatial audio associated with a simulated environment
US11638111B2 (en) * 2019-11-01 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for classifying beamformed signals for binaural audio playback
US11039265B1 (en) * 2019-12-13 2021-06-15 Bose Corporation Spatialized audio assignment
US11328722B2 (en) 2020-02-11 2022-05-10 Spotify Ab Systems and methods for generating a singular voice audio stream
US11308959B2 (en) 2020-02-11 2022-04-19 Spotify Ab Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices
CN111754967A (zh) * 2020-05-11 2020-10-09 北京安声浩朗科技有限公司 噪声处理方法、装置、可移动设备、存储介质及电子设备
CN111986678B (zh) * 2020-09-03 2023-12-29 杭州蓦然认知科技有限公司 一种多路语音识别的语音采集方法、装置
US20220268925A1 (en) * 2021-02-23 2022-08-25 Google Llc Presence detection using ultrasonics and audible sound
US20220283774A1 (en) * 2021-03-03 2022-09-08 Shure Acquisition Holdings, Inc. Systems and methods for noise field mapping using beamforming microphone array
CN113077802B (zh) * 2021-03-16 2023-10-24 联想(北京)有限公司 一种信息处理方法和装置
US11741982B2 (en) * 2021-10-05 2023-08-29 Dell Products L.P. Contextual beamforming to improve signal-to-noise ratio sensitive audio input processing efficiency in noisy environments
CN114915875B (zh) * 2022-07-18 2022-10-21 南京航空航天大学 一种可调波束形成方法、电子设备及存储介质
US11937047B1 (en) * 2023-08-04 2024-03-19 Chromatic Inc. Ear-worn device with neural network for noise reduction and/or spatial focusing using multiple input audio signals

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007329702A (ja) 2006-06-08 2007-12-20 Toyota Motor Corp 受音装置と音声認識装置とそれらを搭載している可動体
JP2014207589A (ja) 2013-04-15 2014-10-30 シャープ株式会社 音声入力装置、および画像表示装置
WO2015029296A1 (ja) 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声認識方法及び音声認識装置
JP2017500785A (ja) 2013-11-22 2017-01-05 アップル インコーポレイテッド ハンズフリー・ビームパターン構成

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
EP1184676B1 (en) * 2000-09-02 2004-05-06 Nokia Corporation System and method for processing a signal being emitted from a target signal source into a noisy environment
AT410597B (de) * 2000-12-04 2003-06-25 Vatter Acoustic Technologies V Verfahren, computersystem und computerprodukt zur messung akustischer raumeigenschaften
US8073157B2 (en) * 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7039199B2 (en) * 2002-08-26 2006-05-02 Microsoft Corporation System and process for locating a speaker using 360 degree sound source localization
US7720212B1 (en) * 2004-07-29 2010-05-18 Hewlett-Packard Development Company, L.P. Spatial audio conferencing system
US7970150B2 (en) * 2005-04-29 2011-06-28 Lifesize Communications, Inc. Tracking talkers using virtual broadside scan and directed beams
US7970123B2 (en) * 2005-10-20 2011-06-28 Mitel Networks Corporation Adaptive coupling equalization in beamforming-based communication systems
WO2007058130A1 (ja) * 2005-11-15 2007-05-24 Yamaha Corporation 遠隔会議装置及び放収音装置
DE602007007581D1 (de) 2007-04-17 2010-08-19 Harman Becker Automotive Sys Akustische Lokalisierung eines Sprechers
US8831936B2 (en) * 2008-05-29 2014-09-09 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for speech signal processing using spectral contrast enhancement
EP2197219B1 (en) * 2008-12-12 2012-10-24 Nuance Communications, Inc. Method for determining a time delay for time delay compensation
US20120113224A1 (en) * 2010-11-09 2012-05-10 Andy Nguyen Determining Loudspeaker Layout Using Visual Markers
US10726861B2 (en) * 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9264553B2 (en) * 2011-06-11 2016-02-16 Clearone Communications, Inc. Methods and apparatuses for echo cancelation with beamforming microphone arrays
EP2810453B1 (en) * 2012-01-17 2018-03-14 Koninklijke Philips N.V. Audio source position estimation
US20130329908A1 (en) * 2012-06-08 2013-12-12 Apple Inc. Adjusting audio beamforming settings based on system state
US8885815B1 (en) * 2012-06-25 2014-11-11 Rawles Llc Null-forming techniques to improve acoustic echo cancellation
US9615172B2 (en) * 2012-10-04 2017-04-04 Siemens Aktiengesellschaft Broadband sensor location selection using convex optimization in very large scale arrays
WO2014207990A1 (ja) * 2013-06-27 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御装置、及び、制御方法
US9640179B1 (en) * 2013-06-27 2017-05-02 Amazon Technologies, Inc. Tailoring beamforming techniques to environments
US9565497B2 (en) * 2013-08-01 2017-02-07 Caavo Inc. Enhancing audio using a mobile device
US9319532B2 (en) * 2013-08-15 2016-04-19 Cisco Technology, Inc. Acoustic echo cancellation for audio system with bring your own devices (BYOD)
US9532131B2 (en) * 2014-02-21 2016-12-27 Apple Inc. System and method of improving voice quality in a wireless headset with untethered earbuds of a mobile device
US9530407B2 (en) 2014-06-11 2016-12-27 Honeywell International Inc. Spatial audio database based noise discrimination
US20160071526A1 (en) * 2014-09-09 2016-03-10 Analog Devices, Inc. Acoustic source tracking and selection
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
US9369186B1 (en) * 2014-12-04 2016-06-14 Cisco Technology, Inc. Utilizing mobile devices in physical proximity to create an ad-hoc microphone array
US10334390B2 (en) * 2015-05-06 2019-06-25 Idan BAKISH Method and system for acoustic source enhancement using acoustic sensor array
CN106297809A (zh) * 2015-05-29 2017-01-04 杜比实验室特许公司 基于远端用户控制的音频信号处理
US10255285B2 (en) 2015-08-31 2019-04-09 Bose Corporation Predicting acoustic features for geographic locations
JP6625383B2 (ja) * 2015-09-18 2019-12-25 株式会社ディーアンドエムホールディングス コンピュータで読み取り可能なプログラム、オーディオコントローラ、およびワイヤレスオーディオシステム
JP6551155B2 (ja) * 2015-10-28 2019-07-31 株式会社リコー 通信システム、通信装置、通信方法およびプログラム
US20170134853A1 (en) * 2015-11-09 2017-05-11 Stretch Tech Llc Compact sound location microphone
US9947316B2 (en) * 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US10063965B2 (en) * 2016-06-01 2018-08-28 Google Llc Sound source estimation using neural networks
US10482899B2 (en) * 2016-08-01 2019-11-19 Apple Inc. Coordination of beamformers for noise estimation and noise suppression
US10409548B2 (en) * 2016-09-27 2019-09-10 Grabango Co. System and method for differentially locating and modifying audio sources
US10170134B2 (en) * 2017-02-21 2019-01-01 Intel IP Corporation Method and system of acoustic dereverberation factoring the actual non-ideal acoustic environment
US10074356B1 (en) * 2017-03-09 2018-09-11 Plantronics, Inc. Centralized control of multiple active noise cancellation devices
US11183181B2 (en) * 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US10297267B2 (en) * 2017-05-15 2019-05-21 Cirrus Logic, Inc. Dual microphone voice processing for headsets with variable microphone array orientation
US9866308B1 (en) 2017-07-27 2018-01-09 Quantenna Communications, Inc. Composite WiFi and acoustic spatial diagnostics for smart home management
US10580411B2 (en) * 2017-09-25 2020-03-03 Cirrus Logic, Inc. Talker change detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007329702A (ja) 2006-06-08 2007-12-20 Toyota Motor Corp 受音装置と音声認識装置とそれらを搭載している可動体
JP2014207589A (ja) 2013-04-15 2014-10-30 シャープ株式会社 音声入力装置、および画像表示装置
WO2015029296A1 (ja) 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声認識方法及び音声認識装置
JP2017500785A (ja) 2013-11-22 2017-01-05 アップル インコーポレイテッド ハンズフリー・ビームパターン構成

Also Published As

Publication number Publication date
US10721560B2 (en) 2020-07-21
EP3777233A1 (en) 2021-02-17
US20190320260A1 (en) 2019-10-17
WO2019200038A1 (en) 2019-10-17
US10524048B2 (en) 2019-12-31
US20200092644A1 (en) 2020-03-19
CN112020864A (zh) 2020-12-01
JP2021520141A (ja) 2021-08-12
CN112020864B (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
JP7119117B2 (ja) マイクロフォンアレイ内のインテリジェントビームステアリング
US11089402B2 (en) Conversation assistance audio device control
US10817251B2 (en) Dynamic capability demonstration in wearable audio device
US11809775B2 (en) Conversation assistance audio device personalization
US20200137487A1 (en) User-controlled beam steering in microphone array
CN105679302B (zh) 定向声音修改
US10922044B2 (en) Wearable audio device capability demonstration
KR102670118B1 (ko) 다중 스피커를 통한 다중 오디오 스트림 재생 관리
CN107465970B (zh) 用于语音通信的设备
JP6643818B2 (ja) 両耳用補聴システムにおける無指向性感知
US11438710B2 (en) Contextual guidance for hearing aid
WO2021064468A1 (en) Sound source localization with co-located sensor elements
KR102333476B1 (ko) 레이더 기반 음성 인식 서비스 장치 및 방법
KR102407872B1 (ko) 레이더 기반 음성 인식 서비스 장치 및 방법
CN117958654A (zh) 一种清洁机器人及其语音控制方法、装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R150 Certificate of patent or registration of utility model

Ref document number: 7119117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150