JP6101989B2 - 拡張現実環境における信号増強ビーム形成 - Google Patents

拡張現実環境における信号増強ビーム形成 Download PDF

Info

Publication number
JP6101989B2
JP6101989B2 JP2014517130A JP2014517130A JP6101989B2 JP 6101989 B2 JP6101989 B2 JP 6101989B2 JP 2014517130 A JP2014517130 A JP 2014517130A JP 2014517130 A JP2014517130 A JP 2014517130A JP 6101989 B2 JP6101989 B2 JP 6101989B2
Authority
JP
Japan
Prior art keywords
signal
data
beam pattern
beam patterns
signal source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014517130A
Other languages
English (en)
Other versions
JP2014523679A (ja
Inventor
エス.チェトリ アミット
エス.チェトリ アミット
ヴェルサミー カビタ
ヴェルサミー カビタ
ディエツ クランプ エドワード
ディエツ クランプ エドワード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2014523679A publication Critical patent/JP2014523679A/ja
Application granted granted Critical
Publication of JP6101989B2 publication Critical patent/JP6101989B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/21Direction finding using differential microphone array [DMA]

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

関連出願の相互参照
本願は、2011年6月21日に出願された米国特許出願第13/165,620号の優先権を主張し、同特許出願に関する。なお同特許出願は参照することにより本願に援用される。
拡張現実環境は、ユーザおよび実世界の物体と、仮想物体すなわちコンピュータ生成された物体および情報との間の相互作用を可能にする。実世界と仮想世界との間のこの融合化は新しい相互作用の機会への道を開くものである。しかしこれらの相互作用に関するデータ(例えば音声または可聴ジェスチャ(audible gesture)を含む聴覚データ)を取得することは、物理的環境に存在する雑音または複数の信号により損なわれ得る。
詳細な説明は添付の図面を参照して説明される。これらの図面において、参照番号の最も左側の桁(単数または複数)はその参照番号が最初に現れる図面を示す。異なる図面における同一の参照番号の使用は同様または同一の構成要素または特徴を示す。
拡張現実機能ノードと、関連するビーム形成モジュールを有する計算装置と、を備える拡張現実環境内における例示的シーンを示す図である。 ビーム形成モジュールおよび他の選択された構成要素を有する例示的な拡張現実機能ノードを示す図である。 マイクロフォンアレイの俯瞰図である。 図3のマイクロフォンアレイの側面図である。 複数のユーザからの聴覚信号を取得するよう構成された複数の同時ビームパターンを有する複数のユーザを含む部屋を示す図である。 マイクロフォンアレイから取得された信号データにビーム形成係数を適用することにより形成されるビームパターンの概略図である。 アレイにおけるマイクロフォンのうちの少なくとも1部分のゲインが調節された場合のマイクロフォンアレイから取得された信号にビーム形成係数を適用することにより形成されたビームパターンの概略図である。 非ビーム形成と比較してビーム形成を用いる場合の信号取得における改善を示すグラフである。 事前計算されたビーム形成器係数および関連するデータを格納するよう構成されたビーム形成器係数データストアの例示的な図である。 異なるビーム形成器係数から結果的に生成される複数の異なるビームパターンとそれらの同時使用とを示す図である。 ビーム形成モジュールとの相互作用を示す図である。 信号源への方向が既知である場合にビーム形成器を用いて信号を取得する例示的処理を示す図である。 信号源への方向を判定するために連続的に微細化される空間的特徴を有するビームパターンを生成するビーム形成器の使用を示す図である。 ビーム形成器を用いる信号の取得に少なくとも部分的に基づいて信号源への方向を判定する例示的処理を示す図である。
拡張現実システムはシーン内の物体と相互作用し拡張現実環境を生成するよう構成され得る。拡張現実環境は、仮想的物体および情報が、有形の実世界物体と相互作用および融合化することを可能にする。
拡張現実環境の物理的環境内で発生する聴覚信号を取得または拒否するためにビーム形成とともに音響マイクロフォンアレイを使用することに対して好適である音響技術および装置が本明細書で開示される。聴覚信号は、ユーザ音声、可聴ジェスチャ、聴覚信号発生装置、ならびに雑音源(例えば街路雑音、機械的システム、その他)等の有用な情報を含む。聴覚信号は、人間の耳に一般的に可聴である周波数、または人間の耳に不可聴である周波数(例えば超音波)を含み得る。
信号データはマイクロフォンアレイ内に配列された複数のマイクロフォンから受け取られる。マイクロフォンは、直線状、平面状、または3次元的な配列で、規則的もしくは不規則的に分散され得る。次いで信号データはビーム形成器モジュールにより処理され、それにより処理済みデータが生成される。いくつかの実装において、信号データは後の処理のために格納され得る。
ビーム形成は、1組のビーム形成器係数を信号データに適用しそれによりビームパターン(すなわち効果的なゲインまたは減衰のボリューム)が作られるプロセスである。いくつかの実装において、これらのボリュームは、マイクロフォンアレイ内の個々のマイクロフォンからの信号同士間の建設的相互作用または破壊的相互作用から生じる結果であるとみなされ得る。
1組のビーム形成器係数を信号データに適用することにより、処理済みデータはこれらのビーム形成器係数に関連付けられたビームパターンを表現することとなる。異なるビーム形成器係数を信号データに適用することにより異なる処理済みデータが生成される。異なるいくつかの組のビーム形成器係数を信号データに適用すると、複数の同時ビームパターンが生成され得る。これらのビームパターンのそれぞれは異なる形状、方向、ゲイン、等を有し得る。
ビーム形成器係数は特定の特徴を有するビームパターンを生成するために事前計算され得る。係る事前計算は全体的な計算要求を低減する。一方、他の事例において、係数はオンデマンドベースで計算され得る。いずれの事例においても、係数はローカルに、遠隔(例えばクラウドストレージ内)に、またはその両方にまたがって分散されて格納され得る。
所与のビームパターンは、信号源が存在する特定の空間的場所から信号を選択的に収集するために用いられ得る。信号源の場所を記述する拡張現実環境内で利用可能な定位データは、その場所に集束された特定のビームパターンを選択するために用いられ得る。信号源は、パターン投影、画像キャプチャ、手動入力、聴覚信号の三辺測量等を含む様々な技術により、物理的環境内で定位(すなわちその空間的位置が判定)され得る。パターン投影はシーン内の物体上にパターンを投影することを含むものであり、物体とパターンとの相互作用を、撮像装置を用いて検出することに基づいて位置を判定し得る。パターンは、規則的、ランダム、疑似ランダム、その他であり得る。例えば、パターン投影システムはユーザの顔が部屋内の特定座標にあることを判定し得る。
選択されたビームパターンは、信号源に対するゲインまたは減衰を提供するよう構成される。例えば、ビームパターンは特定ユーザの頭部に集束し得る。それにより、部屋全体に及ぶ動作中の空調装置からの雑音は減衰され、その一方でユーザの音声の復元が可能となる。
ビーム形成を用いることによる係る空間的選択性はビームパターン外の望ましくない信号の拒否または減衰を可能にする。ビームパターンの選択性が向上することにより、聴覚信号に対する信号対雑音比が改善される。信号対雑音比が改善されることにより拡張現実環境内における聴覚信号の解釈が改善される。
次いでビーム形成器モジュールからの処理済みデータは、付加的なフィルタリングが施されるか、または直接的に他のモジュールにより使用され得る。例えば、ユーザからの音声を取得して環境内で動作中の機械が発する残存聴覚雑音を除去するフィルタが処理済みデータに適用され得る。
ビーム形成モジュールは、方向を判定するためにも、または聴覚信号源を定位するためにも、用いられ得る。この判定は、他の手法(例えばパターン投影)で判定された場所を確認するために、または初期場所データが存在しない場合に判定された場所を確認するために用いられ得る。マイクロフォンアレイに対する信号源の方向は、方位角を基準にする等の平面的な手法で、または方位角および仰角を基準にする等の3次元的な手法で、判定され得る。いくつかの実装において、信号源は特定の1組の座標(例えば方位角、仰角、既知の基準点からの距離等)を基準にして定位され得る。
方向または定位は複数のビームパターン中の最大信号を検出することにより判定され得る。これらのビームパターンのそれぞれは、異なる方向のゲインを有し、異なる形状、その他を有し得る。ビームパターン方向、トポロジー、寸法、相対的ゲイン、周波数応答、その他等の特徴が与えられると、信号源の方向と、いくつかの実装においては場所とが判定され得る。
例示的環境
図1は、関連する計算装置とともに拡張現実機能ノード(ARFN)102を有する例示的な拡張現実環境100を示す。いくつかの実装において、追加的なARFN102(1)、102(2)、102(N)が用いられ得る。ARFN102は物理的環境(例えば天井のコーナー部もしくは中央部、卓上、フロアスタンド、等)に配置され得る。作動中、1つの係るARFN102は実世界の物体等のシーン内の品目の一部または全部を組み込む拡張現実環境を生成し得る。
マイクロフォンアレイ104、入出力装置106、ネットワークインターフェース108、その他が、プロセッサ112を含む計算装置110に入出力インターフェース114を介して連結され得る。マイクロフォンアレイ104は複数のマイクロフォンを備える。マイクロフォンは規則的パターンまたは不規則的なパターンで分散され得る。そのパターンは直線状、平面状、または3次元的であり得る。アレイ内のマイクロフォンは異なる能力、パターン、その他を有し得る。マイクロフォンアレイ104は、以下で図3および図4に関してより詳細に論じられる。
ARFN102は、入出力装置106に組み込まれてもよく、または入出力装置106に連結されてもよい。これらの入出力装置は、プロジェクタ、カメラ、マイクロフォン、他のARFN102、他の計算装置110、その他を含む。計算装置110と入出力装置106との間はワイヤ、光ファイバケーブル、またはワイヤレス接続を介した連結であり得る。ARFN102の入出力装置106のうちのいくつかについては以下で図2に関してより詳細に説明する。
ネットワークインターフェース108は計算装置110をネットワーク(ローカルエリアネットワーク、広域ネットワーク、ワイヤレス広域ネットワーク、その他)に連結するよう構成される。例えば、ネットワークインターフェース108はインターネットを介して計算装置110とクラウドリソースとの間でデータを転送するために用いられ得る。
プロセッサ112は、命令を実行するよう構成された1つまたは複数のプロセッサを備え得る。これらの命令はメモリ116内に、またはプロセッサ112へのアクセスが可能な他のメモリ(例えばネットワークインターフェース108を介してのクラウド)内に格納され得る。
メモリ116はコンピュータ可読記憶媒体(「CRSM」)を含み得る。CRSMは任意の利用可能な物理的媒体であり、物理的媒体上に格納された命令を実行するために計算装置によりアクセス可能である。CRSMは、ランダムアクセスメモリ(「RAM」)、リードオンリーメモリ(「ROM」)、電気的消去書込み可能リードオンリーメモリ(「EEPROM」)、フラッシュメモリもしくは他のメモリ技術、コンパクトディスクリードオンリーメモリ(「CD−ROM」)、デジタル汎用ディスク(「DVD」)もしくは他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスク記憶装置もしくは他の磁気記憶装置、または所望の情報を格納するために使用可能且つ計算装置によりアクセス可能な任意の他の媒体を含み得るが、これらに限定されない。
いくつかのモジュール(命令、データストア、その他)はメモリ116内に格納され、プロセッサ(例えばプロセッサ112)上で実行されるよう構成され得る。オペレーティングシステムモジュール118は、ハードウェアおよびハードウェア内のサービスを管理するよう構成され、他のモジュールのために計算装置110に連結される。拡張現実モジュール120は拡張現実環境を維持するよう構成される。
定位モジュール122はマイクロフォンアレイ104に対する信号源の場所および方向を判定するよう構成される。定位モジュール122は、聴覚信号源の場所を判定するために、入出力装置106またはマイクロフォンアレイ104を介して取得されたパターン投影および測距データ等を含むデータを少なくとも部分的に利用し得る。例えば、パターン投影プロジェクタおよびカメラは、ユーザの頭部の物理的場所を判定するために用いられ得る。なおこのユーザの頭部からは可聴信号が発せられ得る。他の事例においては、音声到着時間差技術が場所判定のために用いられ得る。
ビーム形成モジュール124はマイクロフォンアレイ104から信号データを受け取り、その信号データにビーム形成器係数を適用して処理済みデータを生成するよう構成される。ビーム形成器係数を信号データに適用することにより、ゲイン、減衰、指向性、その他を示し得るビームパターンが形成される。係るゲイン、減衰、指向性、その他は処理済みデータにおいて示される。例えば、ビームパターンはユーザから発せられる音声に対するゲインを集束および増加させ得る。ユーザの物理的場所に集束されたゲインを有するビームパターンを形成するよう構成されたビーム形成器係数を適用することにより、取得された信号はいくつかの方法で改善され得る。例えば、結果的に生成される処理済みデータは、非ビーム形成器信号と比較してより大きい信号対雑音比を有する音声信号を示す。他の事例において、処理済みデータは、他の空間的場所からはより低い雑音を示し得る。他の実装において、他の改善も示され得る。ゲインにおける増加は以下で図8に関連してより詳細に論じられる。
ビーム形成器係数はオンザフライで計算されてもよく、またはビーム形成器係数の少なくとも1部分が使用前に事前計算されてもよい。事前計算されたビーム形成器係数は、以下で図9に関連してより深く説明されるビーム形成器係数データストア126内に格納され得る。いくつかの実装において、ビーム形成器係数データストア126の少なくとも1部分は外部ストレージ(例えばネットワークインターフェース108を介してアクセス可能なクラウドストレージ)上に配置され得る。
いくつかの実装において、拡張現実環境内のマイクロフォンアレイ104および/または他の入力装置からの信号データは信号データストア128内に格納され得る。例えば、聴覚信号を生成する拡張現実環境内の物体に関するデータ(例えば係る物体の寸法、形状、運動、その他)が格納され得る。この格納されたデータはビーム形成モジュール124または他のモジュールにより後の処理のためにアクセスされ得る。
モジュールが、ARFN102、ローカルネットワーク上でアクセス可能なストレージ装置、またはネットワークインターフェース108を介してアクセス可能なクラウドストレージのメモリ内に、格納され得る。例えば、ディクテーションモジュールが格納され、クラウドリソース内から操作され得る。
図2は、拡張現実機能ノード102の1例と、入出力装置106を含む選択された構成要素と、の概略図200を示す。ARFN102は、シーン202とシーン202内の物体との少なくとも1部分を走査するよう構成される。ARFN102は拡張現実出力(例えば画像、音響、その他)も提供するよう構成される。
シャシー204はARFN102の構成要素を保持する。シーン202に画像を生成および投影するプロジェクタ206はシャシー204内に配置され得る。これらの画像は、ユーザに知覚可能な可視光線画像、ユーザに知覚不能な可視光線画像、不可視光線による画像、またはこれらの組み合わせであり得る。このプロジェクタ206は、画像を生成しその画像を拡張現実環境内の表面上に投影する能力を有する任意個数の技術を用いて実装され得る。好適な技術はデジタルマイクロミラーデバイス(DMD)、液晶オンシリコンディスプレイ(LCOS)、液晶ディスプレイ、3LCD、その他を含む。プロジェクタ206は特定の立体角を描写するプロジェクタ視野域208を有する。プロジェクタ視野域208はプロジェクタの構成における変化に応じて変動し得る。例えば、プロジェクタ視野域208はプロジェクタに光学ズームを適用すると狭くなり得る。いくつかの実装においては複数のプロジェクタ206が用いられ得る。
カメラ210もシャシー204内に配置され得る。カメラ210は可視光線波長、不可視光線波長、またはその両方でシーンを撮像するよう構成される。カメラ210は特定の立体角を描写するカメラ視野域212を有する。カメラ視野域212はカメラ210の構成における変化に応じて変動し得る。例えば、カメラの光学ズームによりカメラ視野域212は狭くなり得る。いくつかの実装においては複数のカメラ210が用いられ得る。
シャシー204は固定された方向付けで取り付けられてもよく、またはシャシー204が可動となるようアクチュエータを介して固定具に連結されてもよい。アクチュエータは、圧電アクチュエータ、モータ、線形アクチュエータ、またはシャシー204もしくはシャシー204内の他の構成要素(例えばプロジェクタ206および/またはカメラ210)に移動または運動を生じさせるよう構成された他の装置を含み得る。例えば、1つの実装において、アクチュエータはパンモータ214、チルトモータ216、その他を含み得る。パンモータ214は、方位角における変化を生じさせるヨーイング運動においてシャシー204を回転させるよう構成される。チルトモータ216は、仰角における変化を生じさせるシャシー204のピッチを変化させるよう構成される。シャシー204のパンおよび/またはチルトにより、シーンの異なる視野が取得され得る。
1つまたは複数のマイクロフォン218は、シャシー204内にまたはシーン内のいずれかの場所(例えばマイクロフォンアレイ104内)に、配置され得る。これらのマイクロフォン218は、音響の反響定位、場所判定、またはシーンからの入力の特徴評価または受容が別様に支援されるよう、ユーザからの入力を取得するために用いられ得る。例えば、ユーザにより発せられた特定の雑音(例えば壁部を軽く叩く音、指のスナップ音)が喚起コマンド入力として事前設計され得る。ユーザは代替的に音声コマンドを用い得る。いくつかの実装において、聴覚入力は、マイクロフォンの間の到着時間差異を用いて、および/または以下で図13〜図14に関連して説明するようにビーム形成を用いて、シーン内で定位され得る。
1つまたは複数のスピーカ220も可聴出力を提供するために存在し得る。例えば、スピーカ220は、テキスト音声変換モジュールからの出力を提供するために、または事前録音された音声を再生するために、用いられ得る。
トランスデューサ222も、ARFN102内にまたは拡張現実環境内のいずれかの場所に存在し、低周波音または超音波等の不可聴信号を検出および/または生成するよう構成され得る。これらの不可聴信号は付属装置とARFN102との間の信号通信を提供するために用いられ得る。
測距システム224もARFN102内に提供され得る。測距システム224は、ARFN102から走査される1つの物体または1組の物体までの距離情報、場所情報、または距離・場所情報を提供するよう構成され得る。測距システム224は、レーダー、光検出測距(LIDAR)、超音波測距、ステレオ測距、その他を含み得る。測距システム224はいくつかの実装においては方向情報も提供し得る。トランスデューサ222、マイクロフォン218、スピーカ220、またはこれらの組み合わせは、距離的特徴および空間的特徴を判定するために、反響定位または反響測距を用いるように構成され得る。
他の実装において、測距システム224は音響トランスデューサを備え得、マイクロフォン218は音響トランスデューサにより生成された信号を検出するよう構成され得る。例えば、1組の超音波トランスデューサが配置され得る。なお、この配列では、各超音波トランスデューサが部屋の特定セクタに向かって超音波を発する。マイクロフォン218は超音波信号を受け取るよう構成されてもよく、または専用の超音波マイクロフォンが用いられてもよい。相互に対するマイクロフォンの既知の場所が与えられると、アクティブソナー測距または位置特定が提供され得る。
この図面においては、計算装置110はシャシー204内に示される。しかし、他の実装においては、計算装置110の全部または一部は他の場所に配置され、ARFN102に連結されてもよい。この連結は、ワイヤ、光ファイバケーブル、ワイヤレス、またはこれらの組み合わせを介してなされ得る。さらに、ARFN102の外部にある追加的なリソース(例えばネットワークインターフェース108およびローカルエリアネットワークを介してアクセス可能な他のARFN102内のリソース、広域ネットワーク接続を介してアクセス可能なクラウドリソース、またはこれらの組み合わせ)もアクセスされ得る。
この図面に示すように、プロジェクタ/カメラ直線偏位は「O」と示される。直線偏位とは、プロジェクタ206とカメラ210との間の直線距離である。プロジェクタ206およびカメラ210を相互から「O」の距離に配置することは、シーンからパターン投影データを復元することを支援する。既知のプロジェクタ/カメラ直線偏位「O」も、シーン202内の物体の距離および寸法を計算するために、および係る物体の特徴評価を別様に支援するために、用いられ得る。他の実装においては、プロジェクタ視野域208およびカメラ視野域212の相対的角度および寸法は変動し得る。またシャシー204に対するプロジェクタ206およびカメラ210の角度も変動し得る。
他の実装において、ARFN102の構成要素は環境100内の1つまたは複数の場所に分散され得る。上述のように、マイクロフォン218およびスピーカ220はシーンの全域に分散され得る。プロジェクタ206およびカメラ210も別個のシャシー204に配置され得る。ARFN102は、コマンド喚起入力を発行するためにユーザにより用いられる単品の可搬型信号発生装置も備え得る。例えば、これらの可搬型装置は、音響クリッカ(可聴または超音波)、電子信号発生装置(例えば赤外線エミッタ)、無線送信器、その他であり得る。
図3はマイクロフォンアレイ104の1つの実装の俯瞰図300を示す。この図面において、支持構造体302は、相互に対して直交して配置された2つの直線部材(それぞれ長さD1およびD2を有する)を有するクロスと、以下で図4に示す直交部材と、であり得る。支持構造体302は、既知の事前決定された距離をマイクロフォン218同士の間に保持することを支援する。なお、これらのマイクロフォン218は音響信号の空間座標を判定するために用いられ得る。
マイクロフォン218(1)〜(M)は支持構造体302に沿って分散される。マイクロフォン218の分散は対称的でも、または非対称的でもよい。マイクロフォン218の個数ならびに配置および支持構造体302の形状は変動し得ることが理解される。例えば、他の実装においては、支持構造体は三角形、円形、または他の幾何学的形状であり得る。いくつかの実装においては、非対称的な、支持構造体形状、マイクロフォンの分散、またはこれらの両方が用いられ得る。
支持構造体302は部屋の構造体の一部を含み得る。例えば、マイクロフォン218は、部屋内の壁部、天井、床部、その他に取り付けられ得る。いくつかの実装において、マイクロフォン218が据え付けられ、相互に対するマイクロフォン218の位置は他の検出手段により(例えば測距システム224、パターン投影走査、手動入力、その他を介して)判定され得る。例えば、1つの実装において、マイクロフォン218は部屋内の様々な場所に配置され、相互に対するそれぞれの正確な位置は、それぞれのマイクロフォン218上に配置された光学タグを検出するよう構成された光学的レンジファインダを用いて測距システム224により判定され得る。
図4は図3のマイクロフォンアレイの側面図400を示す。この図面に示すように、マイクロフォンアレイ104は3次元的に配列されたマイクロフォン218により構成され得る。この図面に示すように、支持構造体の1部分は支持構造体302の他の部材に対して垂直になるよう構成される。支持構造体302はARFN102から距離D3だけ延長する。マイクロフォン218を3次元構成で配列することにより、ビーム形成モジュール124は、マイクロフォンアレイ104に対して特定の方位角および仰角に方向付けられたビームパターンを生成するよう構成され得る。
1つの実装において、マイクロフォン218およびマイクロフォンアレイ104は、約100kg/mより低い密度を有する非水性媒体内およびガス状媒体内で動作するよう構成される。例えば、マイクロフォンアレイ104は標準大気において聴覚信号を取得するよう構成される。
図5は、ARFN102およびマイクロフォンアレイ104により提供される拡張現実環境内に複数のユーザを含む部屋500を例示する。図示のように、2人のユーザは部屋の対向するコーナーにいて、それぞれのユーザは図面において発語中である。加えて、部屋は他の音響源(例えば冷蔵庫、空調装置、その他)を有し得る。第1ユーザからの音声は信号源場所502(1)に示される。同様に、部屋を横切った場所にいる第2ユーザからの音声は信号源場所502(2)に示される。ビーム形成モジュール124は1対のビームパターン504(1)および504(2)を同時に生成する。ビームパターン504(1)は信号源場所502(1)上に集束される一方で、ビームパターン504(2)は信号源場所502(2)上に集束される。それぞれのビームパターンおよび結果的に生成されるゲインを個々のユーザ上に集束させることにより、処理済みデータにおいて取得される音声信号は増加された信号対雑音比を示す一方で、他ユーザの音声からの音響は減衰または排除される。それによりクリアな信号が生成され、下流側の処理(例えば処理済みデータの音声認識等)における結果が改善されることとなる。
信号源に対する方向は、方位角および仰角を用いて3次元空間内で指定され得る。方位角506は原点に対する角度変位を示す。仰角508は、局部的垂直線(local vertical)等の原点に対する角度変位を示す。
ビーム形成技術
図6は、マイクロフォンアレイ104から取得された信号データにビーム形成係数を適用することにより形成されるビームパターン504の概略図600を示す。上述のように、ビームパターンは1組のビーム形成器係数を信号データに適用することにより生成される。ビームパターンは効果的なゲインまたは減衰のボリュームを生成する。この図面において、破線はビーム形成係数により提供されるゲインの等値線を示す。例えば、この図面における破線におけるゲインは、等方性マイクロフォンに対して+12デシベル(dB)であり得る。
ビームパターン504は複数の突出部すなわちゲイン領域を示し得る。なお、ゲインはビームパターン方向602で示される特定方向に優勢となっている。主要突出部604は、この図面でビームパターン方向602に沿って延長することが示される。主要突出部ビーム幅606が示される。この主要突出部ビーム幅606は主要突出部604の最大幅を示すものである。複数の側方突出部608も示される。後方突出部610はビームパターン方向602に沿って主要突出部604の逆側にある。ヌル領域612がビームパターン504の周囲に配置される。これらのヌル領域は信号に対する減衰のエリアである。例えば、図示のように、第1話者の信号源場所502(1)は主要突出部604内にあり、ビームパターン504により提供されるゲインからの利益を受け、ビーム形成を用いることなく取得された信号と比較して信号対雑音比が改善される。それとは対比的に、第2話者の信号源場所502(2)は後方突出部610の後方のヌル領域612内にある。その結果として、信号源場所502(2)からの信号は第1信号源場所502(1)と比較して顕著に低下される。
この図面に示すようにビームパターンを用いることにより、ビーム形成を用いない場合と比較して、信号取得におけるゲインが提供される。ビーム形成を用いることにより空間的選択性も可能となり、システムが対象外の信号に対しては「耳を貸さない」ことも可能となる。さらに、複数のビームパターンがマイクロフォンアレイ104からの同じ1組の信号データに同時に適用され得るため、複数同時ビームパターンを有することが可能である。例えば、第2ビームパターン504(2)が同時に生成され、それにより、以下で図10に関連してさらに深く論じるように、信号源場所502(2)に対して特定的なゲインおよび信号拒否が可能になる。
図7は、アレイにおけるマイクロフォンのうちの少なくとも1部分のゲインが変化された場合のマイクロフォンアレイ104から取得された信号にビーム形成係数を適用することにより形成されるビームパターンの概略図700を示す。マイクロフォンアレイ104内のマイクロフォン218のそれぞれに対するゲインは、マイクロフォン218全部のそれぞれに対して全体的に、マイクロフォン218のうちの1群に対して、または個々のマイクロフォン218に対して、変化され得る。マイクロフォンゲインの変化は、マイクロフォンハードウェア218内で生成されてもよく、信号処理技術を用いて適用されてもよく、またはそれらの組み合わせであってもよい。さらに、ゲインの調節は動的であり得、したがって時間の経過とともに調節され得る。
ここで示すように、第1ユーザおよび第2ユーザからの2つの信号源場所502(1)および502(2)のそれぞれは単一の部屋内に存在する。この実施例において、第2ユーザの音声が大音量であり、信号源場所502(2)において高振幅の聴覚信号を生成するものと仮定されたい。第1ユーザに集束されたこの図面に示すビームパターン504の使用は、第1話者の信号源場所502(1)に対してゲインを提供する一方で、第2信号源場所502(2)における第2話者を減衰させる。しかしビームパターンから結果的に生成されるこの減衰を用いたとしても第2ユーザが大音声を発するため第2ユーザの音声は第1ユーザからの音声信号に干渉を与え続けると想定されたい。
この状況を緩和するために、または他の利益を提供するために、マイクロフォン218に対するゲインの適用は、マイクロフォンアレイ104内で異なり得る。この図面において、アレイ104における各マイクロフォン218に関連付けられたマイクロフォンゲイン702のグラフが示される。この図面で示すように、ゲインは第2信号源場所502(2)に最も近接するマイクロフォン218において低下される。これにより、第2ユーザからの信号入力が低下され、それにより、ビームパターンによりキャプチャされる音声の信号振幅は最小化されることとなる。同様に、第1話者の第1信号源場所502(1)に近接するマイクロフォン218のゲインは、より大きい信号振幅を提供するために、増加される。
他の実装においては、マイクロフォン応答、話者の位置、その他に応じて、個々のマイクロフォンのゲインは、対象となる信号源場所に集束されるビームパターンを生成するために、変化され得る。例えばいくつかの実装においては、信号対雑音比は、対象となる信号源場所に近接するマイクロフォンのゲインを低下させることにより、改善され得る。
図8はビーム形成を用いない場合と比較してビーム形成を用いる場合の信号復元における改善を示すグラフ例800を示す。振幅802は垂直軸に沿って示される一方で、信号の周波数804は水平軸に沿って示される。
ビーム形成が適用されない状態のマイクロフォンアレイ104からの信号806全体はこの図面において点線で示される。信号806全体においては、対象となる信号808は雑音信号に匹敵する振幅を示す。部屋内の他の場所で動作中の空調装置等の機械類からの雑音信号810がこの図面に示される。信号対雑音比が低い場合には、信号808の分析(例えば音声認識のための処理)を試みたとしても、おそらく結果は劣悪なものとなるであろう。
それとは対比的に、ビーム形成器を用いる信号812は対象となる信号808を雑音よりも明らかに上昇させる。さらに、ビーム形成器を用いる信号812の空間的選択性により、機械類雑音810は信号から効果的に除去されている。信号品質が改善されることの結果として、音声認識目的等の信号の追加的分析についても結果が改善される。
図9はビーム形成器係数データストア126の例示的な図900である。ビーム形成器係数データストア126は事前計算されたビーム形成器係数またはオンザフライのビーム形成器係数を格納するよう構成される。ビーム形成器係数は、マイクロフォンアレイ104内のマイクロフォン218のそれぞれからの信号に適用される重み付けの1つの形態であるとみなされ得る。上述のように、ビーム形成器係数の特定の1組を適用することにより特定のビームパターンが取得され得る。
ビーム形成器係数データストア126はビームパターン名902とビームパターン504の方向性とを格納するよう構成され得る。マイクロフォンアレイ104の物理的配列に対するこの方向性は、ビームパターン504の1つまたは複数の突出部に対して指定され得る。限定としてではなく例示のためにのみ、ビームパターンの方向性は、主要突出部604の方向であるビームパターン方向602である。
方向性はビームパターンの方位角方向904および仰角方向906、ならびに寸法および形状908を含み得る。例えば、ビームパターンAは、0度の方位角および30度の仰角に方向付けられ、6つの突出部を有する。他の実装においては、突出部のそれぞれの寸法および範囲も指定され得る。ビームパターンの他の特徴(例えばビームパターン方向、トポロジー、寸法、相対的ゲイン、周波数応答、その他等)も格納され得る。
各ビームパターンを生成するビーム形成器係数910はビーム形成器係数データストア126内に格納される。処理済みデータを生成するためにマイクロフォン218(M)からの信号を含む信号データに適用されると、これらの係数は、特定のビームパターンを形成するために、これらの信号に重みを付けるよう、または変更するよう、作用する。
ビーム形成器係数データストア126は1つまたは複数のビームパターンを格納し得る。例えば、異なる方向におけるゲインを有するビームパターンが格納され得る。係数を事前に算出、格納、取得することにより、計算要求は、処理中にビーム形成器係数計算を実行する場合に比較して低減される。上述のようにいくつかの実装においては、ビーム形成器係数データストア126の1部分はメモリ116内に格納される一方で他の部分はクラウドリソース内に格納され得る。
図10は、異なるビーム形成器係数から生成された複数の異なるビームパターン1000とそれらの同時使用とを示す。ビームパターンは特定の処理済みデータを生成するデータ構造であり、同じ1組の信号データから同時に複数の異なるビームパターンを生成することが可能である。
この図面で示すように、第1ビームパターン1002はビーム形成器係数910(1)を有するビームパターンA902を適用することにより生成される。異なる方向におけるゲインを有し且つビームパターンB902から生成される第2ビームパターン1004も示される。ビームパターンCの902のビーム形成器係数910(3)を適用することにより生成される第3ビームパターン1006は、第1ビームパターンおよび第2ビームパターンからは異なる方向に向けられる。
1008に示すように、3つ以上のビームパターンの全部が同時に作用し得る。したがってこの事例に示すように3つの別個の信号源が追跡され得る。なお各信号源は、関連するビーム形成器係数を有する異なるビームパターンを用いて追跡される。ビーム形成モジュール124がマイクロフォン104から入力される信号データを処理する計算能力にアクセスを有するかぎり、追加的なビームパターンが生成され得る。
図11はビーム形成モジュール124およびその相互作用を示す。マイクロフォンアレイ104は信号データ1102を生成する。この信号データ1102はアレイ104内のマイクロフォンのうちの少なくとも1部分からのデータを含む。例えば、いくつかの実装においては、マイクロフォン218の一部が無効化され、したがってデータを生成し得ない。信号データ1102はビーム形成モジュール124に提供される。
定位モジュール122は信号源方向データ1104をビーム形成モジュール124に提供し得る。例えば、定位モジュール122は、特定空間座標に存在するユーザの信号源場所502を判定するためにパターン投影を用い得る。信号源方向データ1104は、マイクロフォンアレイ104に対する空間座標、方位角、仰角、または方位角および仰角を含み得る。
ビーム形成モジュール124は、ビーム形成器係数データストア126から1組のビーム形成器係数910を生成または選択し得る。ビーム形成器係数910およびそれらの対応するビームパターン504の選択は、信号源に対する信号源方向データ1104に少なくとも部分的に基づいて判定され得る。この選択は所与の信号源にゲインまたは減衰を提供するためになされ得る。例えば、空間的に異なる雑音源には減衰をもたらす一方でユーザの音声にはゲインを提供するビームパターン504を生成するビーム形成器係数910が選択され得る。上述のように、ビーム形成器係数910は少なくとも部分的に事前計算され得る。
ビーム形成モジュール124は1つまたは複数の組のビーム形成器係数910を信号データ1102に適用し、それにより処理済みデータ1106を生成する。限定としてではなく例示として、ビーム形成モジュール124は4組のビーム形成器係数910(1)〜(4)を用いて4組の処理済みデータ1106(1)〜(4)を生成し得る。同一の信号データから生成されたものではあるが、これらの組の処理済みデータ1106のそれぞれは、それらの異なるビームパターン504のために、異なったものとなり得る。
処理済みデータは分析され得、またはさらに追加的なプロセッサにより操作され得る。ここで示すように、処理済みデータ1106(1)はフィルタモジュール1108(1)によりフィルタ処理が施され得る。次いで、フィルタ処理済みデータ1106(1)は音声認識モジュール1110に提供される。フィルタモジュール1108(1)は人の音声の周波数を選択的に通すよう構成されたバンドパスフィルタを備え得る。この図面のフィルタモジュールは、アナログ、デジタル、またはこれらの組み合わせであり得る。音声認識モジュール110は、処理済みデータ1106(フィルタモジュール1108(1)により処理済みの場合もあり未処理である場合もある)を分析し、人間音声を拡張現実環境への入力として認識するよう構成される。
第2組の処理済みデータ1106(2)は、第2フィルタモジュール1108(2)により処理された後にまたは処理されず、分析のために可聴ジェスチャ認識モジュール1112に提供され得る。可聴ジェスチャ認識モジュール1112は可聴ジェスチャ(例えば拍手音、指スナップ音、タップ音、その他)を拡張現実環境への入力として判定するよう構成され得る。
ビーム形成モジュール124がビーム形成係数910を信号データ1102に適用する計算能力にアクセスを有するかぎり、複数の同時ビームパターン(それぞれが処理済みデータ出力を有する)が生成され得る。第3組の処理済みデータ1106(3)(例えば第3の組のビーム形成器係数910により生成される処理済みデータ)はいくつかの他のモジュール1114に提供され得る。他のモジュール1114は、他の機能(例えば音声録音、生物測定監視、その他)を提供し得る。
いくつかの実装においては、信号源方向データ1104が利用不能である場合、信頼性が低い場合、または信号源方向データを独立的に確認することが望ましくない場合もあり得る。同時にビームパターンを選択的に生成する能力は音響源を定位するために用いられ得る。
信号源方向判定モジュール1116は、図示のように、複数の処理済みデータ入力1106(1)、……、1106(Q)を受け取るよう構成され得る。一連の異なるビームパターン504を用いて、システムは信号強度最大値を検索し得る。連続的に微細化される解像度のビームパターン504を用いることにより、信号源方向判定モジュール116は、マイクロフォンアレイ104に対する信号源への方向を分離するよう構成され得る。いくつかの実装において、信号源は空間内の特定領域に定位され得る。例えば、それぞれが異なる始点を有する1組のビームパターンは、以下で図13〜図14に関連してより詳細に論じられるように、信号源場所を三角測量するよう構成され得る。
ビーム形成モジュール124も信号源を追跡するよう構成され得る。この追跡は、事前計算された組のビーム形成器係数910を変更すること、または異なる組のビーム形成器係数910を連続的に選択することを含み得る。
ビーム形成モジュール124は、リアルタイムで、もしくはニアリアルタイムで動作してもよく、または以前に取得され格納された(例えば信号データストア128内に)データに適用されてもよい。例えば、拡張現実環境内で行われたプレゼンテーションを考慮されたい。プレゼンテーションからの信号データ1102は信号データストア128内に格納された。プレゼンターによるプレゼンテーション中、部屋の後部における2人の同僚が互いに会話し、プレゼンターにより提起されたポイントについて討論した。彼らの側部会話を録音するよう要求されると、ビーム形成モジュール124は、会話中に部屋内の彼らの位置からの信号に集束し彼らの会話の処理済みデータ1106を生成するために、1つまたは複数のビームパターンを用いる。それとは対比的に、プレゼンテーションの再生を要求する他のユーザは、プレゼンターに集束されたビームパターンから生成される音声を聞くことができる。
例示的処理
本開示で説明される処理は、本明細書で説明するアーキテクチャにより、または他のアーキテクチャにより、実装され得る。これらの処理は論理フローグラフにおけるブロックの集合として示される。いくつかのブロックは、ハードウェア、ソフトウェア、またはこれらの組合せで実装され得る操作を表す。ソフトウェアのコンテキストにおいては、これらのブロックは、1つまたは複数のプロセッサにより実行されたときに記載された動作を実行する1つまたは複数のコンピュータ可読記憶媒体上に格納されたコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令は、特定の機能を実行するかまたは特定の抽象データ型を実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、その他を含み得る。操作が説明される順序は限定として解釈されることを意図するものではなく、説明されるブロックのうちの任意の個数が、処理を実装するために、任意の順序で、または並列して、組み合わされ得る。以下の処理は他のアーキテクチャ上でも実装され得ることを理解すべきである。
図12は、信号源への方向が既知である場合にビーム形成器を用いて信号を取得する例示的処理1200である。1202において、信号データは信号源からマイクロフォンアレイ104において取得される。例えば、マイクロフォンアレイ104は拡張現実環境におけるユーザ音声の音響を検出し得る。
1204において、マイクロフォンアレイ104に対する信号源の場所が判定される。この事例を継続して、ARFN102は、ユーザが部屋における空間座標X、Y、Z(マイクロフォンアレイ104に対して300度の相対的方位角および45度の仰角にある)に位置することを示す信号源方向データ1104を判定するために、プロジェクタ206から発せられ且つカメラ210により受け取られるパターン投影を用い得る。
1206において、1組のビーム形成器係数910が信号データに適用され、それにより信号源の場所または方向に集束されたビームパターン504を有する処理済みデータ1106が生成される。いくつかの実装において、ビーム形成器係数910の少なくとも1部分は事前計算されてもよく、またはビーム形成器係数データストア126から取得されてもよい。1組のビーム形成器係数910の選択は少なくとも部分的に信号源方向データ1104の分析により判定され得る。例えば、信号源方向データが±1メートルの許容誤差を有する場合、確実に信号をキャプチャするために、より大きい主要突出部ビーム幅606を有するビームパターンが、より小さい主要突出部ビーム幅606を有するビームパターンよりも選択され得る。
1208において、処理済みデータ1106は分析され得る。例えば、処理済みデータは音声認識モジュール1110、可聴ジェスチャ認識モジュール1112、その他により分析され得る。この事例を継続して、音声認識モジュール1110はユーザの音声からテキストデータを生成し得る。同様に、可聴ジェスチャ認識モジュール1112は、発生された拍手音を判定し、これをユーザ入力として生成し得る。
いくつかの実装において、1組のビーム形成器係数910は、信号源の判定された場所または方向における変化に少なくとも部分的に応答して更新され得る。例えば、信号源が歩行中のユーザの発語である場合、信号データ1102に適用される1組のビーム形成器係数910は、ゲインが移動中のユーザ上に集束された状態である主要突出部が提供されるよう連続的に更新され得る。
単一の信号およびビームパターンがここでは説明されて来たが、複数の信号が取得され、複数の同時ビームパターンが存在し得ることを理解すべきである。
図13は、信号源への方向を判定するために、連続的に微細化される空間的特徴を有するビームパターンを生成するビーム形成器を使用する1300を示す。上述のように、いくつかの実装において、聴覚信号源に対する場所または方向を判定するために、マイクロフォンアレイ104からの信号データ1102を用いることが望まれる場合もある。
1組の4つの粗大ビームパターン1302が表示された部屋が示される。これらのビームパターン504は、部屋の4つの四半分をカバーするよう構成される。上述のように、これらのビームパターン504は同時に存在し得る。信号源場所502は部屋の上方右側四半分において「X」で示される。ビームパターン504のそれぞれからの処理済みデータ1106は、いずれのビームパターンにおいて信号最大値が存在するかを判定するために比較され得る。例えば、ビーム形成モジュール124は、いずれのビームパターンが最大音量の信号を有するかを判定し得る。
ここで示すように、上方右側の四半分への主要突出部およびビーム方向を有するビームパターン504は網掛けが施され、最大信号を含むビームパターンであることが示される。第1ビームパターン方向1304は第1角度1306で示される。粗大ビームパターン1302は比較的大きいため、このポイントにおいて、信号源場所502への方向は不正確である。
上方右側のビームパターンが信号最大値を含むという判定に基づいて、1組の中間ビームパターン1308が次に信号データ1102に適用される。この図面で示すように、この組の中間ビームパターンは対象となる上方右側四半分のボリューム内に主に含まれる。なお、それぞれのビームパターンは粗大ビームパターン1302よりも小さい主要突出部を有する。信号最大値は中間ビームパターン1308の中から、ここで示されるように第2角度1312の第2ビームパターン方向1310を有する網掛けが施された主要突出部により判定される。
異なるゲイン、方向性、その他を有する一連のビームパターンが、信号源場所502を精緻化するために、信号データ1102に適用され続け得る。この図面で示すように、1組の微細ビームパターン1314が第2ビームパターン方向1310の周りに集束される。再び、これらのビームパターンから信号最大値が検出される。例えば、この図面で示すように、微細ビームパターン1314のうちの1つの網掛けが施された突出部が信号最大値を含む。第3角度1318を有するこのビームパターンの第3ビームパターン方向1316が示される。したがって信号源場所502への方向は第3角度1318として判定され得る。
図14は、ビーム形成器を用いる信号の取得に少なくとも部分的に基づいて信号源への方向を判定する例示的処理1400を示す。1402において、信号データ1102は信号源からマイクロフォンアレイ104において取得される。例えば、マイクロフォンアレイ104は拡張現実環境においてユーザが拍手する音響を検出し得る。
1404において、第1ボリュームを含む第1組のビームパターン504を記述する第1組のビーム形成器係数910が信号データ1102に適用される。例えば、図13の粗大ビームパターン1302が信号データ1102に適用され得る。
1406において、第1組のビームパターンのうちのいずれのビームパターンが信号からの最大信号強度を含むかについての判定がなされる。図13からこの事例を継続して、第1ビームパターン方向1304を有するビームパターンの選択。
1408において、第1ボリューム内の第2組のビームパターンを記述する第2組のビーム形成器係数910が信号データ1102に適用される。例えば、上方右側四半分内の中間ビームパターン1308。いくつかの実装においては、第2組内のビームパターンは第1ボリュームの外部に延長し得る。しかし、第2組のビーム形成器係数910内のビームパターンは主に第1ボリューム内に配置されるよう構成され得る。
1410において、第2組のビームパターン内のいずれのビームパターンが信号からの最大信号強度を含むかについての判定がなされる。例えば、第2ビームパターン方向1310を有するビームパターン。
1412において、マイクロフォンアレイ104に対する信号源への方向は、信号強度最大値を含む第2組内のビームパターンの特徴に少なくとも部分的に基づいて判定される。ビームパターンの特徴は、ビームパターン方向602、主要突出部ビーム幅606、ゲインパターン、ビームパターン幾何学的形状、ヌル領域612の場所、その他を含み得る。
いくつかの実装において、連続的に微細化されるビームパターンの追加的な反復は、信号源への方向をさらに精緻化するために用いられ得る。さらに、いくつかの実装においては、ビームパターンは、異なる物理的場所に配置された始点を有するよう構成され得る。ビームパターンの始点は、突出部がその周囲から延長するとみなされる中心点である。
結論
発明主題は構造的特徴に対して特定の言語で説明されてきたが、添付の請求項に定義される発明主題は必ずしも説明された特定の特徴に限定されるとは限らないことを理解すべきである。むしろ、特定の特徴は請求項を実装する例示的な形態として開示されたものである。
付記項
付記項1
プロセッサと、
前記プロセッサに連結された複数のマイクロフォンを備え且つ聴覚信号源から信号データを生成するよう構成されたマイクロフォンアレイと、
前記プロセッサに連結され且つパターン投影を生成するよう構成されたプロジェクタと、
前記プロセッサに連結され且つ前記パターン投影を受け取るよう構成されたカメラと、
前記プロセッサに連結され且つ前記パターン投影を少なくとも部分的に用いて前記聴覚信号源の場所を判定するよう構成された定位モジュールと、
1つまたは複数の組のビーム形成器係数を格納するよう構成されたビーム形成器係数データストアであって、それぞれの組のビーム形成器係数はビームパターンに関連付けられた、ビーム形成器係数データストアと、
前記聴覚信号源の前記判定された場所に少なくとも部分的に基づいて、1つまたは複数の組の前記1つまたは複数のビームパターンを前記ビーム形成器係数データストアから選択するよう構成されたビーム形成モジュールと、
を備える拡張現実システム。
付記項2
前記1つまたは複数のビームパターンのそれぞれは主要突出部を備え、前記ビーム形成モジュールは、前記聴覚信号源の前記場所を前記選択されたビームパターンの主要突出部内に配置するよう構成されたビームパターンを判定することにより前記ビームパターンを選択するよう構成された、付記項1に記載のシステム。
付記項3
前記1つまたは複数のビームパターンのそれぞれはヌル領域を備え、前記ビーム形成モジュールは、前記聴覚信号源の前記場所を前記選択されたビームパターンのヌル領域内に配置するよう構成されたビームパターンを判定することにより前記ビームパターンを選択するよう構成された、付記項1に記載のシステム。
付記項4
前記ビーム形成モジュールは、前記聴覚信号源の前記場所の正確度に比例する主要突出部ビーム幅を有するビームパターンを判定することにより前記ビームパターンを選択するよう構成された、付記項1に記載のシステム。
付記項5
前記複数のマイクロフォンは作動時に平面状配列で配置されるよう構成された、付記項1に記載のシステム。
付記項6
前記複数のマイクロフォンは作動時に3次元配列で配置されるよう構成された、付記項1に記載のシステム。
付記項7
前記ビーム形成モジュールは、処理済みデータを生成するために、選択されたビームパターンに関連付けられた前記組のビーム形成器係数を前記信号データに適用するようさらに構成された、付記項1に記載のシステム。
付記項8
前記ビーム形成モジュールによる処理のために信号データを格納するよう構成された信号データストアをさらに備える、付記項1に記載のシステム。
付記項9
前記処理済みデータをフィルタ処理するよう構成されたフィルタモジュールをさらに備える、付記項5に記載のシステム。
付記項10
前記処理済みデータに少なくとも部分的に基づいて可聴ジェスチャを判定するよう構成された可聴ジェスチャ認識モジュールをさらに備える、付記項5に記載のシステム。
付記項11
コンピュータ実行可能命令を格納する1つまたは複数のコンピュータ可読媒体であって、前記コンピュータ実行可能命令は、実行されると、
信号源から信号データを、マイクロフォンアレイにおいて、取得することと、
前記マイクロフォンアレイに対する前記信号源への方向を判定することと、
前記信号源の前記方向に集束されたビームパターンを生成するよう構成された1組のビーム形成器係数を前記信号データに適用し、それにより処理済みデータを生成することと、
を含む動作を1つまたは複数のプロセッサに実行させる、コンピュータ可読媒体。
付記項12
前記ビーム形成器係数は前記信号データを前記取得することの前に計算される、付記項8に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項13
前記マイクロフォンアレイに対する前記信号源の前記方向を前記判定することは定位モジュールから場所情報または方向情報を受け取ることを含む、付記項8に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項14
前記動作は前記処理済みデータを分析することをさらに含む、付記項8に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項15
前記分析することは前記処理済みデータにおいて音声を認識することを含む、付記項10に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項16
前記分析することは前記処理済みデータにおいて可聴ジェスチャを認識することを含む、付記項10に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項17
前記動作は前記マイクロフォンアレイ内の1つまたは複数のマイクロフォンのゲインを選択的に調節することをさらに含む、付記項8に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項18
前記ゲインを選択的に調節することは前記マイクロフォンアレイ内の前記1つまたは複数のマイクロフォンのアナログゲインを変更することを含む、付記項11に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項19
コンピュータ実行可能命令を格納する1つまたは複数のコンピュータ可読媒体であって、コンピュータ実行可能命令は、実行されると、
マイクロフォンアレイから信号源の信号データを取得することと、
第1ボリュームを含む第1組のビームパターンを記述する第1組のビーム形成器係数を前記信号データに適用することと、
前記第1組のビームパターン内の前記ビームパターンのいずれが、前記第1組の前記ビームパターンの他のビームパターンと比較して、前記信号データからの最大信号強度を含むかを判定することと、
前記第1ボリューム内で優勢的に配置された第2ボリュームを有する第2組のビームパターンを記述する第2組のビーム形成器係数を前記信号データに適用することと、
前記第2組のビームパターン内の前記ビームパターンのいずれが、前記第2組の前記ビームパターンの他のビームパターンと比較して、前記信号データからの最大信号強度を含むかを判定することと、
前記マイクロフォンアレイに対する前記信号源への方向を、前記信号強度最大値を含む前記第2組内の前記ビームパターンの1つまたは複数の特徴に少なくとも部分的に基づいて判定することと、
を含む動作を1つまたは複数のプロセッサに実行させる、コンピュータ可読媒体。
付記項20
前記ビームパターンの前記特徴はビームパターン方向、トポロジー、寸法、相対的ゲイン、または周波数応答を含む、付記項12に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項21
前記組のビーム形成器係数は並列的に前記信号データに適用される、付記項12に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項22
前記第1組のビームパターンは同時に前記第1ボリュームを含む、付記項12に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項23
前記第2組のビームパターンは同時に前記第2ボリュームを含む、付記項12に記載の1つまたは複数のコンピュータ可読記憶媒体。
付記項24
前記動作は前記最大信号強度を含む前記ビームパターンから処理済み信号データを分析することをさらに含む、付記項12に記載の1つまたは複数のコンピュータ可読記憶媒体。

Claims (13)

  1. プロセッサと、
    前記プロセッサに連結された複数のマイクロフォンを備え且つ聴覚信号源から信号データを生成するよう構成されたマイクロフォンアレイと、
    前記プロセッサに連結されおよびパターン投影を生成するように構成されたプロジェクタと、
    前記プロセッサに連結されおよび前記パターン投影を受け取るように構成されたカメラと、
    前記プロセッサに連結されおよび前記パターン投影を少なくとも部分的に用いて前記聴覚信号源の場所を判定するように構成された定位モジュールと、
    1つまたは複数の組のビーム形成器係数を格納するように構成されたビーム形成器係数データストアであって、それぞれの組のビーム形成器係数は1つまたは複数のビームパターンに関連付けられた、ビーム形成器係数データストアと、
    前記聴覚信号源の前記場所に少なくとも部分的に基づいて、前記1つまたは複数のビームパターンのうちのビームパターンを前記ビーム形成器係数データストアから選択するように構成されたビーム形成モジュールであって、前記ビームパターンは前記聴覚信号源の前記場所に関連する方向に関連付けられた、該ビーム形成モジュールと、
    を備え、
    前記ビーム形成モジュールは、
    ビームパターンに関連付けられた前記組のビーム形成器係数を前記信号データに適用し、
    複数の個別の聴覚信号源を追跡するために、同じ1組の信号データから複数の異なるビームパターンを生成し、
    1つの又は複数の関連するビーム形成器係数を有する異なるビームパターンを用いて各聴覚信号源を追跡するために、追加的なビームパターンを生成する
    ように構成されたことを特徴とする拡張現実システム。
  2. 前記1つまたは複数のビームパターンのそれぞれは主要突出部を備え、前記ビーム形成モジュールは、前記聴覚信号源の前記場所を前記ビームパターンの主要突出部内に配置するように構成されたビームパターンを判定することにより前記ビームパターンを選択するように構成されたことを特徴とする請求項1に記載のシステム。
  3. 前記1つまたは複数のビームパターンのそれぞれはヌル領域を備え、前記ビーム形成モジュールは、前記聴覚信号源の前記場所を前記ビームパターンのヌル領域に配置するように構成されたビームパターンを判定することにより前記ビームパターンを選択するように構成されたことを特徴とする請求項1に記載のシステム。
  4. 前記ビーム形成モジュールは、前記聴覚信号源の前記場所の正確度に比例する主要突出部ビーム幅を有するビームパターンを判定することにより前記ビームパターンを選択するように構成されたことを特徴とする請求項1に記載のシステム。
  5. 前記ビーム形成モジュールは、処理済みデータを生成するために、前記組のビーム形成器係数を前記信号データに適用するように構成され、前記システムは、
    前記処理済みデータをフィルタ処理するように構成されたフィルタモジュールをさらに備えたことを特徴とする請求項1に記載のシステム。
  6. 前記ビーム形成モジュールは、処理済みデータを生成するために、前記組のビーム形成器係数を前記信号データに適用するように構成され、前記システムは、
    前記処理済みデータに少なくとも部分的に基づいて可聴ジェスチャを判定するように構成された可聴ジェスチャ認識モジュールをさらに備えたことを特徴とする請求項1に記載のシステム。
  7. コンピュータ実行可能命令を格納するコンピュータ可読記録媒体であって、前記コンピュータ実行可能命令は、実行されると、
    信号源から信号データを、マイクロフォンアレイにおいて、取得することと、
    前記マイクロフォンアレイに対する前記信号源への方向を判定することと、
    前記信号源への前記方向に対応するビームパターンを生成するように構成された1組のビーム形成器係数を前記信号データに適用し、それにより処理済みデータを生成することと、
    複数の個別の信号源を追跡するために、同じ1組の信号データから複数の異なるビームパターンを生成することと、
    1つ又は複数の関連するビーム形成器係数を有する異なるビームパターンを用いて各信号源を追跡するために、追加的なビームパターンを生成することと
    を含む動作を1つまたは複数のプロセッサに実行させることを特徴とするコンピュータ可読記録媒体。
  8. 前記マイクロフォンアレイに対する前記信号源への前記方向を前記判定することは、定位モジュールから場所情報または方向情報を受け取ることを含む、請求項7に記載のコンピュータ可読記録媒体。
  9. 前記動作は、
    前記処理済みデータにおいて音声を認識するために前記処理済みデータを分析すること、または、前記処理済みデータにおいて可聴ジェスチャを認識するために前記処理済みデータを分析すること、
    のうちの1つまたは複数をさらに含むことを特徴とする請求項7に記載のコンピュータ可読記録媒体。
  10. 前記動作は前記マイクロフォンアレイ内の1つまたは複数のマイクロフォンのゲインを選択的に調節することをさらに含むことを特徴とする請求項7に記載のコンピュータ可読記録媒体。
  11. コンピュータ実行可能命令を格納するコンピュータ可読記録媒体であって、前記コンピュータ実行可能命令は、実行されると、
    マイクロフォンアレイから信号源の信号データを取得することと、
    第1ボリュームを含む第1組のビームパターンを記述する第1組のビーム形成器係数を前記信号データに適用することと、
    前記第1組のビームパターン内の前記ビームパターンのいずれが、前記第1組の前記ビームパターンの他のビームパターンと比較して、前記信号データからの信号強度最大値を含むかを判定することと、
    前記第1ボリューム内で優勢的に配置された第2ボリュームを有する第2組のビームパターンを記述する第2組のビーム形成器係数を前記信号データに適用することと、
    前記第2組のビームパターン内の前記ビームパターンのいずれが、前記第2組の前記ビームパターンの他のビームパターンと比較して、前記信号データからの前記信号強度最大値を含むかを判定することと、
    前記マイクロフォンアレイに対する前記信号源への方向を、前記信号強度最大値を含む前記第2組内の前記ビームパターンの1つまたは複数の特徴に少なくとも部分的に基づいて判定することであって、前記ビームパターンは前記信号源への方向に対応する、該判定することと、
    前記第1組のビーム形成器係数および前記第2組のビーム形成器係数を並列的に前記信号データに適用することと、
    複数の個別の信号源を追跡するために、同じ1組の信号データから複数の異なるビームパターンを生成することと、
    1つ又は複数の関連するビーム形成器係数を有する異なるビームパターンを用いて各信号源を追跡するように、追加的なビームパターンを生成することと
    を含む動作を1つまたは複数のプロセッサに実行させることを特徴とするコンピュータ可読記録媒体。
  12. 前記ビームパターンの前記特徴はビームパターン方向、トポロジー、寸法、相対的ゲイン、または周波数応答を含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
  13. 前記動作は前記信号強度最大値を含む前記ビームパターンから処理された信号データを分析することをさらに含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
JP2014517130A 2011-06-21 2012-06-20 拡張現実環境における信号増強ビーム形成 Active JP6101989B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/165,620 2011-06-21
US13/165,620 US9973848B2 (en) 2011-06-21 2011-06-21 Signal-enhancing beamforming in an augmented reality environment
PCT/US2012/043402 WO2012177802A2 (en) 2011-06-21 2012-06-20 Signal-enhancing beamforming in an augmented reality environment

Publications (2)

Publication Number Publication Date
JP2014523679A JP2014523679A (ja) 2014-09-11
JP6101989B2 true JP6101989B2 (ja) 2017-03-29

Family

ID=47361425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014517130A Active JP6101989B2 (ja) 2011-06-21 2012-06-20 拡張現実環境における信号増強ビーム形成

Country Status (5)

Country Link
US (1) US9973848B2 (ja)
EP (1) EP2724338A4 (ja)
JP (1) JP6101989B2 (ja)
CN (1) CN104106267B (ja)
WO (1) WO2012177802A2 (ja)

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
WO2009111047A2 (en) 2008-03-05 2009-09-11 Ebay Inc. Method and apparatus for image recognition services
US9164577B2 (en) 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US8861756B2 (en) 2010-09-24 2014-10-14 LI Creative Technologies, Inc. Microphone array system
CN103688245A (zh) 2010-12-30 2014-03-26 安比恩特兹公司 利用一群数据获取装置进行信息处理
US8676728B1 (en) * 2011-03-30 2014-03-18 Rawles Llc Sound localization with artificial neural network
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
WO2013093187A2 (en) * 2011-12-21 2013-06-27 Nokia Corporation An audio lens
US9240059B2 (en) 2011-12-29 2016-01-19 Ebay Inc. Personal augmented reality
US9563265B2 (en) * 2012-01-12 2017-02-07 Qualcomm Incorporated Augmented reality with sound and geometric analysis
US20130201215A1 (en) * 2012-02-03 2013-08-08 John A. MARTELLARO Accessing applications in a mobile augmented reality environment
US9584909B2 (en) * 2012-05-10 2017-02-28 Google Inc. Distributed beamforming based on message passing
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
CN104412619B (zh) * 2012-07-13 2017-03-01 索尼公司 信息处理系统
US8965033B2 (en) 2012-08-31 2015-02-24 Sonos, Inc. Acoustic optimization
US9078057B2 (en) * 2012-11-01 2015-07-07 Csr Technology Inc. Adaptive microphone beamforming
JP2014143678A (ja) * 2012-12-27 2014-08-07 Panasonic Corp 音声処理システム及び音声処理方法
US9294839B2 (en) 2013-03-01 2016-03-22 Clearone, Inc. Augmentation of a beamforming microphone array with non-beamforming microphones
US10750132B2 (en) * 2013-03-14 2020-08-18 Pelco, Inc. System and method for audio source localization using multiple audio sensors
US9747899B2 (en) * 2013-06-27 2017-08-29 Amazon Technologies, Inc. Detecting self-generated wake expressions
WO2015026933A2 (en) 2013-08-21 2015-02-26 Honeywell International Inc. Devices and methods for interacting with an hvac controller
KR20150068112A (ko) * 2013-12-11 2015-06-19 삼성전자주식회사 오디오를 추적하기 위한 방법 및 전자 장치
CN103928025B (zh) * 2014-04-08 2017-06-27 华为技术有限公司 一种语音识别的方法及移动终端
US20150379990A1 (en) * 2014-06-30 2015-12-31 Rajeev Conrad Nongpiur Detection and enhancement of multiple speech sources
JP6525010B2 (ja) * 2014-08-05 2019-06-05 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
EP3189521B1 (en) * 2014-09-05 2022-11-30 InterDigital Madison Patent Holdings, SAS Method and apparatus for enhancing sound sources
GB2531161A (en) * 2014-10-06 2016-04-13 Reece Innovation Centre Ltd An acoustic detection system
US10255927B2 (en) 2015-03-19 2019-04-09 Microsoft Technology Licensing, Llc Use case dependent audio processing
US9554207B2 (en) 2015-04-30 2017-01-24 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US9565493B2 (en) 2015-04-30 2017-02-07 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
US9996316B2 (en) * 2015-09-28 2018-06-12 Amazon Technologies, Inc. Mediation of wakeword response for multiple devices
CN105246004A (zh) * 2015-10-27 2016-01-13 中国科学院声学研究所 一种传声器阵列系统
US9894434B2 (en) 2015-12-04 2018-02-13 Sennheiser Electronic Gmbh & Co. Kg Conference system with a microphone array system and a method of speech acquisition in a conference system
US11064291B2 (en) 2015-12-04 2021-07-13 Sennheiser Electronic Gmbh & Co. Kg Microphone array system
US10492000B2 (en) * 2016-04-08 2019-11-26 Google Llc Cylindrical microphone array for efficient recording of 3D sound fields
KR102650850B1 (ko) * 2016-05-30 2024-03-26 소니그룹주식회사 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
CN106452541B (zh) * 2016-07-19 2020-01-07 北京邮电大学 一种光和无线信号相互辅助的波束赋形方法和装置
DE102016225205A1 (de) * 2016-12-15 2018-06-21 Sivantos Pte. Ltd. Verfahren zum Bestimmen einer Richtung einer Nutzsignalquelle
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
WO2018140618A1 (en) 2017-01-27 2018-08-02 Shure Acquisiton Holdings, Inc. Array microphone module and system
US10229667B2 (en) 2017-02-08 2019-03-12 Logitech Europe S.A. Multi-directional beamforming device for acquiring and processing audible input
US10366700B2 (en) 2017-02-08 2019-07-30 Logitech Europe, S.A. Device for acquiring and processing audible input
US10362393B2 (en) 2017-02-08 2019-07-23 Logitech Europe, S.A. Direction detection device for acquiring and processing audible input
US10366702B2 (en) 2017-02-08 2019-07-30 Logitech Europe, S.A. Direction detection device for acquiring and processing audible input
US10237647B1 (en) 2017-03-01 2019-03-19 Amazon Technologies, Inc. Adaptive step-size control for beamformer
US10251011B2 (en) 2017-04-24 2019-04-02 Intel Corporation Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method
US10187721B1 (en) 2017-06-22 2019-01-22 Amazon Technologies, Inc. Weighing fixed and adaptive beamformers
WO2019013811A1 (en) * 2017-07-14 2019-01-17 Hewlett-Packard Development Company, L.P. MICROWAVE IMAGE PROCESSING TO DIRECT THE BEAM DIRECTION OF A MICROPHONE NETWORK
US11140368B2 (en) * 2017-08-25 2021-10-05 Advanced Micro Devices, Inc. Custom beamforming during a vertical blanking interval
US10680927B2 (en) 2017-08-25 2020-06-09 Advanced Micro Devices, Inc. Adaptive beam assessment to predict available link bandwidth
US11539908B2 (en) 2017-09-29 2022-12-27 Advanced Micro Devices, Inc. Adjustable modulation coding scheme to increase video stream robustness
US10871559B2 (en) 2017-09-29 2020-12-22 Advanced Micro Devices, Inc. Dual purpose millimeter wave frequency band transmitter
US11398856B2 (en) 2017-12-05 2022-07-26 Advanced Micro Devices, Inc. Beamforming techniques to choose transceivers in a wireless mesh network
US10524046B2 (en) * 2017-12-06 2019-12-31 Ademco Inc. Systems and methods for automatic speech recognition
US10938503B2 (en) 2017-12-22 2021-03-02 Advanced Micro Devices, Inc. Video codec data recovery techniques for lossy wireless links
WO2019231632A1 (en) 2018-06-01 2019-12-05 Shure Acquisition Holdings, Inc. Pattern-forming microphone array
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
US10694285B2 (en) 2018-06-25 2020-06-23 Biamp Systems, LLC Microphone array with automated adaptive beam tracking
CN112385245B (zh) * 2018-07-16 2022-02-25 西北工业大学 灵活地理分布的差分麦克风阵列和相关波束形成器
CN114727193A (zh) * 2018-09-03 2022-07-08 斯纳普公司 声学变焦
GB201814988D0 (en) * 2018-09-14 2018-10-31 Squarehead Tech As Microphone Arrays
WO2020061353A1 (en) * 2018-09-20 2020-03-26 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
US11109133B2 (en) 2018-09-21 2021-08-31 Shure Acquisition Holdings, Inc. Array microphone module and system
US11218802B1 (en) * 2018-09-25 2022-01-04 Amazon Technologies, Inc. Beamformer rotation
CN111314821A (zh) * 2018-12-12 2020-06-19 深圳市冠旭电子股份有限公司 一种智能音箱播放方法、装置及智能音箱
US10959111B2 (en) 2019-02-28 2021-03-23 Advanced Micro Devices, Inc. Virtual reality beamforming
CN113841419A (zh) 2019-03-21 2021-12-24 舒尔获得控股公司 天花板阵列麦克风的外壳及相关联设计特征
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
WO2020191380A1 (en) * 2019-03-21 2020-09-24 Shure Acquisition Holdings,Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality
TW202101422A (zh) 2019-05-23 2021-01-01 美商舒爾獲得控股公司 可操縱揚聲器陣列、系統及其方法
EP3977449A1 (en) 2019-05-31 2022-04-06 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
US11425494B1 (en) * 2019-06-12 2022-08-23 Amazon Technologies, Inc. Autonomously motile device with adaptive beamforming
US11234073B1 (en) * 2019-07-05 2022-01-25 Facebook Technologies, Llc Selective active noise cancellation
CN114174860A (zh) * 2019-07-26 2022-03-11 惠普发展公司,有限责任合伙企业 基于雷达的噪声过滤
JP2022545113A (ja) 2019-08-23 2022-10-25 シュアー アクイジッション ホールディングス インコーポレイテッド 指向性が改善された一次元アレイマイクロホン
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
US11277689B2 (en) 2020-02-24 2022-03-15 Logitech Europe S.A. Apparatus and method for optimizing sound quality of a generated audible signal
CN111425430B (zh) * 2020-03-31 2022-03-25 佛山市云米电器科技有限公司 送风参数的配置方法、系统及计算机可读存储介质
USD944776S1 (en) 2020-05-05 2022-03-01 Shure Acquisition Holdings, Inc. Audio device
US11706562B2 (en) 2020-05-29 2023-07-18 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system
JP2022061673A (ja) * 2020-10-07 2022-04-19 ヤマハ株式会社 マイクアレイシステム
WO2022091370A1 (ja) * 2020-10-30 2022-05-05 Jfeアドバンテック株式会社 音源方位標定装置
CN112423191B (zh) * 2020-11-18 2022-12-27 青岛海信商用显示股份有限公司 一种视频通话设备和音频增益方法
US20220180888A1 (en) * 2020-12-08 2022-06-09 International Business Machines Corporation Directional voice command identification
US11699408B2 (en) 2020-12-22 2023-07-11 Ati Technologies Ulc Performing asynchronous memory clock changes on multi-display systems
CN116918351A (zh) 2021-01-28 2023-10-20 舒尔获得控股公司 混合音频波束成形系统

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS568994A (en) 1979-07-04 1981-01-29 Alps Electric Co Ltd Adjusting device for directivity of microphone
JPH0693798B2 (ja) 1984-07-28 1994-11-16 日本ビクター株式会社 可変指向性マイクロホン
JPH0435300A (ja) 1990-05-25 1992-02-06 Nippon Telegr & Teleph Corp <Ntt> 受音処理装置
JP3714706B2 (ja) 1995-02-17 2005-11-09 株式会社竹中工務店 音抽出装置
JP3285533B2 (ja) 1998-04-01 2002-05-27 三菱電機株式会社 可変指向性マイクロホンシステムを用いた音響装置
US20020131580A1 (en) * 2001-03-16 2002-09-19 Shure Incorporated Solid angle cross-talk cancellation for beamforming arrays
CA2354858A1 (en) * 2001-08-08 2003-02-08 Dspfactory Ltd. Subband directional audio signal processing using an oversampled filterbank
US20030161485A1 (en) * 2002-02-27 2003-08-28 Shure Incorporated Multiple beam automatic mixing microphone array processing via speech detection
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
EP1544635B1 (en) 2002-08-30 2012-01-18 Nittobo Acoustic Engineering Co.,Ltd. Sound source search system
US7720683B1 (en) 2003-06-13 2010-05-18 Sensory, Inc. Method and apparatus of specifying and performing speech recognition operations
US7418392B1 (en) 2003-09-25 2008-08-26 Sensory, Inc. System and method for controlling the operation of a device by voice commands
US20070123110A1 (en) * 2003-10-08 2007-05-31 Koninklijke Philips Electronics N.V. Ultrasonic volumetric imaging by coordination of acoustic sampling resolution, volumetric line density, and volume imaging rate
US7415117B2 (en) * 2004-03-02 2008-08-19 Microsoft Corporation System and method for beamforming using a microphone array
GB0405455D0 (en) * 2004-03-11 2004-04-21 Mitel Networks Corp High precision beamsteerer based on fixed beamforming approach beampatterns
JP2005303574A (ja) 2004-04-09 2005-10-27 Toshiba Corp 音声認識ヘッドセット
CN1947171B (zh) 2004-04-28 2011-05-04 皇家飞利浦电子股份有限公司 自适应波束形成器、旁瓣抑制器、自动语音通信设备
US8290181B2 (en) * 2005-03-19 2012-10-16 Microsoft Corporation Automatic audio gain control for concurrent capture applications
US7991167B2 (en) * 2005-04-29 2011-08-02 Lifesize Communications, Inc. Forming beams with nulls directed at noise sources
JP4675381B2 (ja) * 2005-07-26 2011-04-20 本田技研工業株式会社 音源特性推定装置
US20080247567A1 (en) 2005-09-30 2008-10-09 Squarehead Technology As Directional Audio Capturing
CN100370220C (zh) 2005-10-19 2008-02-20 浙江工业大学 结构光三维系统相对参数的单图像自定标方法
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP5380777B2 (ja) 2007-02-21 2014-01-08 ヤマハ株式会社 音声会議装置
US8229134B2 (en) * 2007-05-24 2012-07-24 University Of Maryland Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images
WO2009035705A1 (en) 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
JP4872871B2 (ja) * 2007-09-27 2012-02-08 ソニー株式会社 音源方向検出装置、音源方向検出方法及び音源方向検出カメラ
US8503653B2 (en) * 2008-03-03 2013-08-06 Alcatel Lucent Method and apparatus for active speaker selection using microphone arrays and speaker recognition
US9445193B2 (en) * 2008-07-31 2016-09-13 Nokia Technologies Oy Electronic device directional audio capture
CA2765116C (en) 2009-06-23 2020-06-16 Nokia Corporation Method and apparatus for processing audio signals
EP2457384B1 (en) 2009-07-24 2020-09-09 MediaTek Inc. Audio beamforming
US8644517B2 (en) 2009-08-17 2014-02-04 Broadcom Corporation System and method for automatic disabling and enabling of an acoustic beamformer
US8676581B2 (en) * 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8300845B2 (en) * 2010-06-23 2012-10-30 Motorola Mobility Llc Electronic apparatus having microphones with controllable front-side gain and rear-side gain
US10726861B2 (en) * 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US8558894B2 (en) * 2010-11-16 2013-10-15 Hewlett-Packard Development Company, L.P. Support for audience interaction in presentations
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
JP5543023B2 (ja) * 2011-05-24 2014-07-09 三菱電機株式会社 目的音強調装置およびカーナビゲーションシステム

Also Published As

Publication number Publication date
EP2724338A4 (en) 2015-11-11
WO2012177802A2 (en) 2012-12-27
JP2014523679A (ja) 2014-09-11
US20120327115A1 (en) 2012-12-27
WO2012177802A3 (en) 2014-05-08
CN104106267A (zh) 2014-10-15
EP2724338A2 (en) 2014-04-30
US9973848B2 (en) 2018-05-15
CN104106267B (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
JP6101989B2 (ja) 拡張現実環境における信号増強ビーム形成
US10966022B1 (en) Sound source localization using multiple microphone arrays
US20240098420A1 (en) Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field
US9900694B1 (en) Speaker array for sound imaging
US9401144B1 (en) Voice gestures
US9111326B1 (en) Designation of zones of interest within an augmented reality environment
US9640179B1 (en) Tailoring beamforming techniques to environments
TW201120469A (en) Method, computer readable storage medium and system for localizing acoustic source
KR20140144410A (ko) 음향신호를 위한 빔포밍 방법 및 장치
US20220408180A1 (en) Sound source localization with co-located sensor elements
CN103181190A (zh) 用于远场多源追踪和分离的系统、方法、设备和计算机可读媒体
WO2010020162A1 (zh) 控制声音聚焦的方法、通讯设备及通讯系统
US20160165338A1 (en) Directional audio recording system
EP3721187A1 (en) An apparatus and method for processing volumetric audio
WO2021249157A1 (zh) 发声装置、显示装置、发声控制方法及装置
JP5543106B2 (ja) 空間オーディオ信号再生装置及び空間オーディオ信号再生方法
Crocco et al. Audio tracking in noisy environments by acoustic map and spectral signature
WO2019069743A1 (ja) オーディオコントローラ、超音波スピーカ、及び、オーディオシステム
Iravantchi et al. Digital ventriloquism: giving voice to everyday objects
JP6329679B1 (ja) オーディオコントローラ、超音波スピーカ、オーディオシステム、及びプログラム
CN112672251A (zh) 一种扬声器的控制方法和系统、存储介质及扬声器
JP7095863B2 (ja) 音響システム、音響処理方法、及びプログラム
WO2023054047A1 (ja) 情報処理装置、情報処理方法、及びプログラム
RU2793625C1 (ru) Устройство, способ или компьютерная программа для обработки представления звукового поля в области пространственного преобразования
JP7095857B2 (ja) 音響システム、音響処理方法、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160525

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R150 Certificate of patent or registration of utility model

Ref document number: 6101989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250