JP2015507263A - 複数センサ入力のためのセンサフュージョンインタフェース - Google Patents

複数センサ入力のためのセンサフュージョンインタフェース Download PDF

Info

Publication number
JP2015507263A
JP2015507263A JP2014549156A JP2014549156A JP2015507263A JP 2015507263 A JP2015507263 A JP 2015507263A JP 2014549156 A JP2014549156 A JP 2014549156A JP 2014549156 A JP2014549156 A JP 2014549156A JP 2015507263 A JP2015507263 A JP 2015507263A
Authority
JP
Japan
Prior art keywords
entity
data
state data
computerized device
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014549156A
Other languages
English (en)
Other versions
JP2015507263A5 (ja
JP6164619B2 (ja
Inventor
サンカー,アディティア
ローレンス ポートノイ,ウィリアム
ローレンス ポートノイ,ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2015507263A publication Critical patent/JP2015507263A/ja
Publication of JP2015507263A5 publication Critical patent/JP2015507263A5/ja
Application granted granted Critical
Publication of JP6164619B2 publication Critical patent/JP6164619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/258Data format conversion from or to a database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/211Schema design and management
    • G06F16/213Schema design and management with details for schema evolution support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本対象開示は、物理的環境の1又は複数のエンティティとコンピュータ化された装置との間で対話を可能にするセンサフュージョンインタフェースに向けられる。複数のセンサモジュールが、環境内の1又は複数のエンティティに関連する複数センサ入力データを生成し、上記データを一定方式の共通のスキーマに従って共有ライブラリに記憶する。複数センサ入力データは、一定レベルの精度が達成されるまで精緻化される。センサフュージョンインタフェースを用いて、エンティティ状態データが共有ライブラリから抽出され、コンピュータ化された装置コンポーネントに公開される。

Description

センサを使用してデータを収集及び合成する種々の物理的環境及びインフラストラクチャに関する。
種々の物理的環境及びインフラストラクチャが、センサを使用してデータを収集及び合成する。例えば、家庭又は工場がビデオカメラシステムを使用して高価かつ重要な文書及び/又は機器を守ることができる。家庭用のサーモスタットがセンサネットワークを使用して平均気温を調節することができる。一般的なコンシューマ装置が、写真を撮るための携帯電話カメラなどの、データを収集するためのセンサを採用する。こうしたセンサのいくつかは、加速度計、ジャイロスコープ、微小電気機械システム(MEMS)及び/又は同様のものなどであるが、実世界に関する測定を行う。コンピュータシステム及びソフトウェアコンポーネントが、実世界に関する豊富な情報を提供するために、センサを毎日の生活に組み入れる。
非常に多くのコンピュータ化された装置コンポーネントについて、複数センサを活用して知覚の質を向上させることがしばしば望まれる。多くの状況において、センサ測定は有効かつ正確である必要がある。空間及び時間にわたって物理的環境の観察結果を処理することによって、センサ測定は、特定の特徴のより正確な推定へと調整されることができる。それに応じて、コンピュータシステム及びソフトウェアコンポーネントは、満足な信頼レベルが達成されるまで、種々のセンサ入力処理動作を実行する。このことは、拡張されたユーザエクスペリエンスとともに適切な動作を確かにする。
本要約は、以下で詳細な説明においてさらに説明される代表的な概念のうち選ばれたものを簡素化された形式で紹介するために提供される。本要約は、請求される対象事項の重要特性又は必須特性を特定することを目的とするものではなく、請求される対象事項の範囲を限定するであろういずれかの方法で使用されることを目的とするものでもない。
簡潔には、本明細書に説明される対象事項の種々の態様は、複数センサ入力のためのセンサフュージョンインタフェースに向けられる。1つの態様において、種々のセンサモジュールと(入力)装置とが、物理的環境に関連付けられた入力データを提供する。物理的環境についての監視コンポーネントが、入力データに合わせ、より有意な情報を解釈するために、完全に異なる情報源から入力データを集め、センサ横断の(cross-sensor)合成を実行する。1つの態様において、監視コンポーネントのための対話メカニズムが、コンピュータ化された装置コンポーネント(例えば、アプリケーション、オペレーティングシステムコンポーネント、ファームウェア及び/又は同様のものを含むプログラミングロジック装置、マイクロコード及び/又はプログラムなどの、ハードウェア及び/又はソフトウェアコンポーネント)に、上記情報へのアクセスを、センサフュージョンインタフェースを介して提供する。
1つの態様において、センサフュージョンインタフェースは、エンティティ(例えば、人間のユーザ)とコンピュータ化された装置コンポーネントとの間の対話を可能にする。センサフュージョンインタフェースは、複数のセンサモジュールに結合された共有ライブラリにアクセスし、エンティティに関連付けられた複数センサ入力データを記憶する。1つの態様において、共有ライブラリは、一般的なスキーマを使用して複数センサ入力データを体系化して、他のセンサモジュールがこうしたデータを精緻化し、精緻化されたデータを共有ライブラリに再公表することを可能にし、さらに別のセンサモジュールがまたさらに精緻化すること(の可能性)を支援する。ある時点で、複数センサ入力は、物理的環境に対してエンティティの状態に関する特定の信頼レベルと情報とを獲得する。コンピュータ化された装置コンポーネントに利するように、センサフュージョンインタフェースと対話メカニズムとは、共有ライブラリからエンティティ状態データを抽出し、コンピュータ化された装置コンポーネントにエンティティ状態データへのアクセスを提供する。
別の態様において、物理的環境には複数のエンティティを含み、上記複数のエンティティは互いに対話してよく、あるいは対話しなくてよい。物理的環境を監視しながら、対話メカニズムは、センサフュージョンインタフェースを介してエンティティ状態データについての要求を受信することができる。1つの態様において、こうした要求のいくつかには、センタ入力データを融合するときにどの入力モダリティを選択すべきかを示す設定データを含む。対話メカニズムは、複数のセンサモジュールを設定して、コンピュータ化された装置コンポーネントが所望する種類の複数センサ入力データを生成する。いったん複数センサ入力データが生成されると、対話メカニズムは、エンティティ状態データを抽出し、コンピュータ化された装置コンポーネントにインスタンス(instance)を伝達する。上記インスタンスは、(共有)記憶装置ユニット内のエンティティ状態データのコピー又は上記エンティティ状態データへの参照とすることができる。
他の利点が、下記の詳細な説明から、図面と関連して解されると、明らかになるであろう。
本発明は、例として図示されており、添付図面に限定されない。添付図面において、同様の参照番号が類似の要素を示す。
1つの実装例に従う、センサフュージョンインタフェースのための例示的なシステムを図示するブロック図である。 1つの実装例に従う、エンティティとコンピュータ化された装置コンポーネントとの間の対話を可能にするセンサフュージョンインタフェースのための例示的なアーキクテクチャを表す。 1つの実装例に従う、コンピュータ化された装置コンポーネントにセンサフュージョンインタフェースを公開する例示的なステップを図示するフロー図である。 1つの実装例に従う、複数センサ入力から、コンピュータ化された装置コンポーネント制御データを生成する例示的なステップを図示するフロー図である。 1つの実装例に従う、エンティティ対話を管理する例示的なステップを図示するフロー図である。 本明細書において説明される種々の実施形態を実装することができる、例示的な非限定的なネットワーク化された環境を表すブロック図である。 本明細書において説明される種々の実施形態のうち1又は複数の態様を実装することができる、例示的な非限定的なコンピューティングシステム又は動作環境を表すブロック図である。
本明細書において説明される技術の種々の態様は、概して、コンピュータ化された(ユーザ)装置コンポーネントとの対話を可能にするセンサフュージョンインタフェースに向けられている。1つの実装例において、物理的環境内の各エンティティ(例えば、人間)について、対話(interaction)メカニズムが、特定の時点における位置及び/又は向きを含むエンティティプロファイルを定義する。エンティティプロファイルはさらに、発話及び/又はジェスチャコマンドとエンティティがセンサ境界を出たときのインスタンスを示すイベントフックとを含むことができる。1つの実装例において、エンティティプロファイルは、コンピュータ化された計算装置に対して公開された(exposed)ときに1又は複数のコマンド/制御入力を示すことができる。1つの実装例において、対話メカニズムは、センサフュージョンインタフェースを介して、共通知識データコンポーネントに指示して、エンティティ活動に応答してエンティティプロファイルを更新することができる。1つの実施例において、共通知識データコンポーネントは、複数のセンサモジュールからの複数センサ入力を一定方式のスキーマに従って統合し、上記複数センサ入力に基づいてエンティティ活動を識別する。
本明細書における例示のいずれも非限定的であることを理解されたい。したがって、本発明は、本明細書に説明されるいかなる特定の実施形態、態様、概念、構造、機能性又は例示にも限定されない。むしろ、本明細書に説明される実施形態、態様、概念、構造、機能性又は例示のいずれもが非限定的であり、本発明は一般にコンピューティング及びデータ管理において利益及び利点を提供する種々の方法で使用されることができる。
図1は、1つの実装例に従う、センサフュージョンインタフェースのための例示的なシステムを図示するブロック図である。上記例示的なシステムのコンポーネントには、複数のコンピュータ化された装置1021〜N(装置102〜装置102として図示され、以降装置102と呼ぶ)と監視コンポーネント104とを含む。
装置102は、監視コンポーネント104にセンサ入力信号を提供することができ、今度は監視コンポーネント104が、さらなる処理のために適切な生データを記憶することができる。1つの実装例において、装置102は、電子デジタイザ、携帯電話、マイクロフォン、マルチメディアキャプチャ装置(例えば、カメラ)、イメージング装置、奥行きカメラ(depth camera)、一般にマウス、トラックボール又はタッチパッドと呼ばれるキーボード及びポインティング装置などの、エンティティ及び/又は物理的環境に関連付けられた入力データを提供する任意の感知装置を含むことができる。装置102の他の実施形態には、ジョイスティック、ゲームパッド、及び任意の他の無線又は有線のコントローラを含むことができる。装置102の各々は、監視コンポーネント104に物理的に取り付けられることができ、あるいは遠隔に設置されることができる。
装置102の例にはさらに、コンピュータビジョン装置、マイクロフォン、加速度計、ジャイロスコープ、磁力計、コンパス、速度計、全地球測位システム(GPS)装置、温度計、湿度センサ、光センサ、赤外線センサ、近くの装置若しくはアクセスポイント若しくは他の送信機の信号強度、深さセンサ、及び/又は同様のものを含むことができる。こうした例示の装置102は、現在の部屋及び/又は装置の温度、ユーザが動いているかどうか及びどんな速度で動いているのか、ユーザはひとりでいるのかあるいは他の誰かと一緒にいるのか、周辺光の量、コンピュータ関連の又は出力装置関連のデータ(例えば、装置バッテリ寿命、使用可能な電力、実行中のプログラム及びサービス)などの、環境の及び他のデータを感知することができる。
1つの実装例において、監視コンポーネント104は、装置102により生成される入力データのための統合ポイントを提供するように構成することができ、1又は複数のコンピュータ化された装置コンポーネントにセンサフュージョンインタフェース108を公開する対話メカニズム106を含むことができる。上記1又は複数のコンピュータ化された装置コンポーネントは、1又は複数のエンティティに関連付けられたマルチモーダル(センサ)入力データを処理する。監視コンポーネント104はさらに、共有ライブラリ110、エンティティ状態データ112、設定データ114、制御データ116及びセンサモジュール118を含むことができる。本明細書において説明されるとおり、共有ライブラリ110は、複数センサ入力データ(例えば、共通の形式又はタイプシステムにおけるオーディオデータ、ビデオデータ、画像データ及び/又は同様のもの)の体系化されたバージョンに対応することができる。エンティティ状態データ112は、(例えば、デカルト座標を物理的環境に基づいた位置及び向きに関して基準座標として)各エンティティについての姿勢を示すことができる。設定データ114と制御データ116とは、各エンティティとコンピュータ化された装置コンポーネント120(例えば、ある種のハードウェア、又はプログラムなどのソフトウェアコンポーネント)との間の対話を表すことができる。
共有ライブラリ110は、本明細書において説明されるとおり、装置102及び/又はセンサモジュール118からの、測定値などの入力データを含む。こうした測定値は、横断合成(cross-synthesis)を受け、それにより、装置102及び/又はセンサモジュール116のうち種々のものが、入力データにアクセスし、発話/顔/ジェスチャ認識などのさらなる処理を実行する。上記さらなる処理は、共有ライブラリ110内で公表されて、別の装置及び/又はセンサモジュールが有意で有用な情報を追加することを支援する。一定期間後、監視メカニズム104は、種々の入力データを相互に関連付け、複数センサ入力からエンティティ状態を決定する。上記エンティティ状態は、姿勢、話された言葉、ジェスチャ及び/又は同様のもののうち任意の組み合わせとして定義され、エンティティ状態データ112に記憶されることができる。対話メカニズム106は、エンティティ状態データ110を抽出し、コンピュータ化された装置コンポーネント120にコピーを提供する。
1つの実装例において、1又は複数のエンティティには、ゲーム/シミュレータのプログラムにおける1又は複数のプレーヤ、拡張現実コンテンツ及び/又はサービスを所望する携帯電話ユーザ、ミュージックプレイリストシステムユーザ(群)などを含むことができる。コンピュータ化された装置コンポーネント性能及びユーザ/プレーヤエクスペリエンスは、複数センサ入力データを処理し、エンティティの動き(例えば、ジェスチャコマンドなどの記号的(symbolic)活動)、複数のエンティティ間の対話、及び/又は同様のものなどの、意味/意図を決定するこうしたコンピュータ化された装置コンポーネントの能力に比例的に関連し得る。
1つの実装例において、設定データ114は、コンピュータ化された装置コンポーネント120に関する制御入力/コマンドに翻訳される種々の形式のエンティティ活動を定義することができる。上記制御入力/コマンドは、制御データ114に記憶され、コンピュータ化された計算装置120に伝達されることができる。一定期間にわたって、対話メカニズム106は、エンティティ状態についての変化を追跡することによって、こうしたエンティティ活動のうち1つを識別する。発話/ジェスチャベースの制御に対する追加又は組み合わせにおいて、エンティティ姿勢における変化が、コンピュータ化された装置コンポーネント120の動作の意図された変化を明示的又は暗黙的に示すことができる。例えば、携帯電話ユーザは、装置カメラを空に向かって上に向け、携帯電話コンポーネントに「私の現在の夜空の画面ビューを星座名とともに拡大する」ように明確に指示することができる。上記のことは、監視コンポーネント104に、発話認識結果を備えるオーディオデータと画像データとを融合させる。同様にして、エンティティに操作されている装置の位置又は向きにおける変化がさらに、装置コンポーネント動作における所望の変化を示すことができる。
別の例として、対話メカニズム106は、特定のエンティティの動き(例えば、数歩歩いている、空中でジャンプしている、及び/又は同様のもの)と向き(例えば、眼差し、又は向いている/身体の方向)とを、意味ある(semantic)制御入力として解釈して、仮想のキャラクタ(例えば、エンティティのアバター)を動かし、その向きを変えることができる。ポインティング装置における奥行きカメラとジャイロスコープとは、エンティティの動きと身体の向きとに関する測定値を提供することができる。さらに、ヘルメット装置上の別のジャイロスコープが、顔の方向に関する測定値を提供することができる。エンティティがジャンプし、かがみ、又はその他の方法で上下に動いた場合、動作中の加速度計(例えば、微小機械加速度計又は重力計)が、重力(すなわち、重力加速度)、方向、変位及び/又は継続期間に関してエンティティの加速を測定することができる。こうした測定値は、複数センサ入力データへと組み合わせられ、種々の時点についてのエンティティ状態データ112を生成するように相互に関連付けられることができる。
装置102とセンサモジュール118との組み合わせが、複数モダリティから監視コンポーネント104へのセンサ入力(データ)のセットを提供することができる。装置102はさらに、環境のデータ及び/又は他の感知されたデータを監視コンポーネント104に提供することができる。より具体的には、まとめると、装置102は、物理的環境と監視コンポーネント104により追跡及び/又は解析されている1又は複数のエンティティとに関する詳細な情報を集める能力を有する。設定データ114は、複数センサ入力データを生成するために使用する装置102及び/又はセンサモジュール118のうち特定のものを示すことができる。デフォルト設定で、対話メカニズム106は、装置102及び/又はセンサモジュール118のすべてからセンサ入力を集める。設定データ114は、装置102及び/又はセンサモジュール118のうちいずれかが利用可能でない場合にエラーが返されるべきであることを、示すことができる。
1つの実装例において、センサモジュール118は、装置102のうち1又は複数のためのソフトウェアコンポーネント又はエージェントを含むことができる。例えば、加速度計を含む携帯電話は、監視コンポーネント104上のエージェントを使用してモーションデータを伝達することができる。別の例として、カメラがソフトウェアモジュールを使用して、生の画像データを形式合わせされたバージョンに変換し、及び/又は画像データから特性データを抽出することができる。別法として、カメラは、監視コンポーネント104上に生データを記憶することができる。
別の実装例において、センサモジュール118のいくつかは、物理的環境及び/又はエンティティに関連付けれたハイレベルの又はきめ細かい情報を提供するソフトウェアベースのセンサを含む。生のセンサ入力に加えて、こうしたセンサモジュール118は、適切な入力データを処理して有意な情報を提供する。例えば、センサモジュール118には、装置102により提供されたセンサ入力を処理し、特定のエンティティの顔の特性、話された言葉、及び/又は身体の姿勢/動きをそれぞれ識別する顔認識モジュール、発話認識モジュール、ジェスチャ認識モジュール、及び/又は同様のものを含むことができる。
図2は、1つの実装例に従う、エンティティとコンピュータ化された装置コンポーネントとの間の対話を可能にするセンサフュージョンインタフェースのための例示的なアーキクテクチャを表す。本明細書において説明され、図1に示されるとおり、装置102とセンサモジュール118との組み合わせは、1又は複数のゲームコンソールカメラ(例えば、奥行き感知カメラ)、ウェブカメラ、マイクロフォン、デジタイザ、ペン/ポインティング装置、加速度計、及び「他の」装置のセットを含むことができ、有り得る入力モダリティに対応するデータ(例えば、知識データ)の情報源202〜202を表すことができる。
情報源202〜202は、種々の装置及び/又はセンサモジュールの特定の例を示すことができる。こうした例は、装置及び/又はセンサモジュールの潜在的な構成を網羅するものではなく、他の情報源(群)202には、磁力計、赤外線の構造化された光、及び/又は同様のものなどの、モーションコントローラコンポーネントを含む任意の数の装置及び/又はセンサモジュールを含むことができる。活用されることができる他の入力データには、ペン装置からの電子インク、注視(方向、経過時間)、近接の感知、発話、エアジェスチャ、身体位置/ボディランゲージ、顔の表情、強化(reinforcement)として忠実に写し出すこと(例えば、指している方向を見ること、まねること)、タッチ、マルチタッチマウス、脳波コンピュータ入力、キーボード、空中のマウス(in-air mouse)(例えば、soap)、楽器(例えば、MIDI)、物理的インタフェース(例えば、グローブ、又は触覚のインタフェース)を操作することなどを含む。顔の表情と顔色変化、温度、握りの圧力、及び/又は他の有り得るムードの指標とを組み合わせるなどの、ムード感知が、さらに実現可能な入力モダリティである。
1つの実装例において、モーション感知入力装置202は、1又は複数のエンティティ(例えば、ゲーム用コンソールと対話している1又は複数のプレーヤ)がジェスチャ、身体の動き、及び/又は音声コマンドを用いてインタフェース(例えば、ゲーム用コンソールインタフェース)と自然に対話する(interact)ことを可能にすることができる。モーション感知入力装置202には、ビジュアルデータを捕捉するカラーカメラ(例えば、赤、緑、青(RGB)のカメラ)、エンティティの存在と装置の前からの距離とを検出する奥行きカメラ、物理的環境内のオーディオデータを捕捉するマイクロフォンアレイ、及び/又は同様のものなどの、種々のメディア又はマルチメディアのキャプチャメカニズムを含むことができる。
1つの実装例において、モーション感知入力装置202は、1又は複数のエンティティ(例えば、人々、動物、ロボット及び/又は類似のもの)を表す画像データに対応する骨格追跡情報などの、種々の環境及び/又はエンティティデータを提供する。骨格追跡情報は、視野の範囲内でエンティティの動きを説明することができる。視野の一部分が、モーション感知入力装置202がエンティティの動きを捕捉及び/又は解析することができないところとなる可能性がある(例えば、デッドゾーン、又はニュートラルゾーン)。1つの実装例において、この一部分の範囲内のエンティティの動き又はジェスチャが、モーション感知入力装置202により採用されるキャプチャメカニズムを較正することができる。
1つの実装例において、モーション感知入力装置202はさらに、XYZ奥行きカメラにより生成された環境及び/又はエンティティデータを提供することができる。上記XYZ奥行きカメラは、カラーカメラストリームデータと奥行きデータとを分析して、オブジェクト又はエンティティとカメラとの間の距離を計算する。別の実装例において、モーション感知入力装置202は、4つの素子のマイクロフォンアレイにより提供されるオーディオデータを処理することができる。例えば、モーション感知入力装置202は、音響のノイズ及びエコーのキャンセル手法及び/又はビーム形成を適用して現在の音源を識別することができる。
1つの実装例において、発話認識モジュール202は、話された言語文法に従い、オーディオデータを単語/文に解釈することができる。発話認識モジュール202は、モーション感知入力装置202のマイクロフォンアレイ、又は、コンピュータマイクロフォン、携帯電話音声レコーダ、及び/若しくは同様のものなどの1若しくは複数の「他の」情報源(群)202などの、任意の情報源からのオーディオデータを処理することができる。発話認識モジュール202は、話された言語文法において使用される単語を含む辞書を用いて開始されることができる。発話認識モジュール202は、発話を単語に識別/分類するために、オーディオに任意の手法を適用することができる。
1つの実装例において、コンシューマ装置202には、任意のコンピューティング装置(例えば、ラップトップ、デスクトップ、タブレット型、及び/又は同様のもの)、モバイル装置(例えば、携帯電話、スマートフォン、及び/又は同様のものなどの任意のハンドセット装置)、ゲーム用コンソールコントローラ、モーションポインタリモートコントローラ、及び/又は同様のものを含むことができる。コンシューマ装置202には、1若しくは複数のセンサモジュール及び/又は1若しくは複数の(入力)装置を含むことができる。例えば、コンシューマ装置202には、内蔵のジャイロスコープを、加速度計と、磁力計(コンパス)との通信のためのインタフェース(例えば、外部のバス及びポート)とともに、含むことができる。コンシューマ装置202はさらに、1又は複数のエンティティに関連付けられた画像データを提供するカメラを(マイクロフォンの有無にかかわらず)含むことができる。こうした低電力で高精度のMEMS装置は、エンティティ姿勢及び/又は装置姿勢(例えば、エンティティ又は装置の位置及び/又は向き)に関するかなりきめ細かい情報を提供する。
1つの実装例において、顔認識モジュール202は、画像データ(例えば、1つの画像又は一式の画像)及び/又はビデオデータ(例えば、ビデオフレーム)の中の(人間の)顔を検出及び識別することができる。顔認識モジュール202の実施形態には、ハードウェアコンポーネント及び/又はソフトウェアコンポーネントを含むことができる。顔認識モジュール202は、展開(deployment)に先行して、事前に検証されたエンティティの顔について、正しくラベル付けされた特性を有する画像セットを用いて訓練されることができる。訓練された後、顔認識モジュール202は、モーション感知入力装置202、コンシューマ装置202、及び/又は他の情報源(群)202(例えば、ウェブカメラ、携帯電話カメラ、別のエンティティに属する3次元若しくは2次元のデジタルカメラ、及び/又は同様のもの)のうちの1つにより捕捉された画像を処理し、画像セットからのどのエンティティが環境内に存在する可能性があるのかを決定することができる。訓練セットの大きさは、環境の種類に依存し得る。例えば、比較的に小さい画像セットが家族又は小さいオフィスに対して十分となり得、一方、より大きな画像セットが世界的な組織に対して使用され得る。環境内でエンティティのアイデンティティを検証する代替的なメカニズムとして、エンティティに取り付けられた個人の無線ID((Radio Frequency(RF)Identification)タグが、場所データを周期的に送信することができる。
1つの実装例において、ジェスチャ認識モジュール202は、任意の身体のモーション及び/又は状態に由来するエンティティ(例えば、人間)のジェスチャを、種々の手法(例えば、コンピュータビジョン及び画像処理手法)を用いて解釈することができる。ジェスチャ認識ライブラリを使用して、顔及び手のジェスチャから、感情、体位/姿勢、歩き方、及び/又は近位(proxemics)などの、ジェスチャと人間のボディランゲージとを識別することができる。ジェスチャ認識モジュール202は、モーション感知入力装置202、コンシューマ装置202、ジャイロスコープ、モーション処理ユニット202、及び/又は同様のものなどの適切な装置からの、記録され、事前に検証されたジェスチャを用いて訓練されることができる。ジェスチャ認識モジュール202は、同一のジェスチャについての将来の呼び出しを認識するために、ジェスチャをモデル化することができる。
1つの実装例において、モーション処理ユニット202は、別の装置又は構造内に組み込まれた集積回路(例えば、チップ)を含むことができる。例えば、モーション処理ユニット202の実施形態には、タブレット型コンピュータ、携帯電話、(遠隔の)モーションコントローラ、モーションポインタリモート制御、及び/又は同様のものを含むことができる。1つの実装例において、モーション処理ユニット202は、組み込み型の3軸のジャイロスコープと、3軸の加速度計と、磁力計などのサードパーティのデジタルセンサとインタフェースをとる補助ポートを有するハードウェアアクセラレータエンジンとを含むことができる。したがって、モーション処理ユニットは、統合された9軸のセンサフュージョンと正確な6つの自由度のモーションキャプチャとを容易にすることができる。例示的なモーション処理ユニットは、INVENSESNE(登録商標)MPU−60X0 Motion Processing Unitとすることができる。
モーション処理ユニット202は、加速度と回転運動とに向きの(heading)情報を加えて組み合わせて、共通知識データコンポーネント204に対して単一のデータストリームにすることができる。上記データストリームは、ジャイロスコープ、加速度計及び/又は磁力計からの、エンティティ/装置の向き及び/又は姿勢における変化を示すことができる。上記データストリームは、加速度計データとジャイロスコープデータとを融合することによって部分的に補正されることができる、一定期間にわたるドリフトなどの、データストリーム内の不要な摂動を提示し、データストリームにカルマンフィルタを適用し、かつ/あるいは磁気コンパスを用いてジャイロスコープを周期的に較正することができる。
共通知識データコンポーネント204(例えば、当分野において周知のソフトウェア設計パターンを一般に参照する、ブラックボード)は、知識の情報源202〜202のすべての上に構成される大域的なデータ構造、スキーマ、又はタイプシステムを定義することができる。大域的なデータ構造、スキーマ、又はタイプシステムを用いて、共通知識データコンポーネント204は、生の入力データ、問題点、部分的な解決策、代替手段、示唆、貢献された情報、最終的な解決策、制御情報、及び通信媒体/バッファの、共有ライブラリを維持する。共通知識データコンポーネント204は、すべての装置についての共通のプロパティ(例えば、メソッド、属性、データメンバ、及び/又は同様のもの)を定義するセンサインタフェースと、複数センサ入力データ206を提供するセンサモジュール(以降、集合的にセンサと呼ぶ)とを実施する。例えば、センサインタフェースは、センサ名、初期化/非初期化メソッド、較正メソッド及び状態フラグを有するオブジェクトインスタンスを作成して、センサがエンティティを追跡しているかどうかを表すことができる。センサインタフェースは、任意のセンサと通信するように拡張することができる。
1つの実装例において、共通知識データコンポーネント204はさらに、情報源202〜202が共通知識データコンポーネント204上の変化に機を見て(opportunistically)応答することを許可する明示的な制御メカニズムを実施することができる。共通知識データコンポーネント204により解決される問題点の1つの種類が、特異性とともに、エンティティ活動の背後の意味及び意図を定義し、上記意味及び意図をコンピュータ化された装置コンポーネント(例えば、アプリケーション)の動作へと翻訳することである。
1つの実装例において、共通知識データコンポーネント204には、装置102及び/又はセンサモジュール118が書き込み/読み出しすることができ、センサフュージョンインタフェース208がコンピュータ化された装置コンポーネント210にアクセスを提供することができる集中的にアクセス可能なデータストアを含む。センサフュージョンインタフェース204はさらに、データストアのコンテンツを受信者に伝達することができる。共通知識データコンポーネント204は、カメラ画像、音声/ジェスチャコマンド、カメラ画像内のエンティティのアイデンティティ、エンティティ(例えば、プレーヤ)のリスト、及び/又は同様のものなどの、現在の及び/又は履歴のデータを記憶する。共通知識データコンポーネント204は、特定のシナリオにおいて初期化される任意のセンサからの入力データを収容するように動的に変更されることができる。
共通知識データコンポーネント204のコンテンツが変化する(例えば、新しいカメラ画像フレームが到着する)場合、共通知識データコンポーネント204は、イベントを生成し、上記イベントをコンピュータ化された装置コンポーネント210に公開する。上記コンテンツを使いたい他のモジュールが、このイベントに対して予約し(subscribe)、共通知識データコンポーネント204のインスタンスから新しいデータを読み出すことができる。この方式のセンサは、各々の他の存在についてのいかなる詳細な知識をも有することなく、明確かつ十分な方式で横断通信する(cross-communicate)ことができる。
共通知識データコンポーネント204はさらに、エンティティ状態を追跡し、監視し、及び/又は解析することができる。例として、センサ又は一式のセンサが、エンティティ/プレーヤが存在していることを検出した(例えば、モーション感知入力装置202が骨格を認識し、かつ/あるいは顔認識モジュールが顔を検出した)とき、上記センサ又は一式のセンサは、共通知識データコンポーネント204のAddPlayer()メソッドを呼び出す。上記メソッドは、エンティティを新しいプレーヤとして、現在追跡されているエンティティのリストに追加し、追加されたエンティティに関連付けられた入力データを集め、かつ融合するように共通知識データコンポーネント204を較正し、他のセンサが予約し得る大域的なイベントを、コンピュータ化された装置コンポーネント210に放つ(fires)。
1つの実装例において、アイデンティティ214、位置216、向き218、発話/ジェスチャ、及び/又は同様のものなどの、追加されたエンティティに関連付けられた任意のデータは、一式のプロファイル212の対応するものに追加されることができる。位置216は、3次元空間における全身の位置及び/又は身体部分の位置(例えば、手の位置)を参照することができる。同様にして、向き218は、身体の向き、及び/又は顔の向きなどの特定の身体部位の向きを参照することができる。さらに、位置216と向き218とは、携帯電話又はポインティング装置などの、エンティティにより操作されている装置を参照することができる。1つの実装例において、プロファイル212の例の1つは、任意の特定のエンティティについての複数センサ入力データを捕捉する下記のデータ、すなわち、骨格の位置、手の位置、現在の発話コマンド、頭の位置、及びアイデンティティをカプセル化する。いったんこうした領域が実質的に完成されると、センサフュージョンインタフェース208は、コンピュータ化された装置コンポーネント210にプロファイルを伝達することができる。
センサフュージョンインタフェース208は、コンピュータ化された装置コンポーネント210及び/又はプログラム開発者にエンティティ関連の情報を提供することによって、マルチセンサ及び複数人のプログラム開発を容易にする。1つの実装例において、センサフュージョンインタフェース208は、例えばエンティティがセンサに関連付けられた検出境界又は範囲を出た場合に、現在のエンティティ状態と1又は複数のイベント(フック)220とを公開する。センサフュージョンインタフェース208はさらに、コンピュータ化された装置コンポーネント210に対してエンティティにより発行された現在のコマンド/制御入力を公開する。別の実装例において、センサフュージョンインタフェース208はさらに、コンピュータ化された装置コンポーネント210に、選択されたセンサについてのデフォルトオプション及び/又はカスタムオプションを用いて、センサ初期化を提供する。
さらに別の実装例において、センサフュージョンインタフェース208はさらに、エンティティと対話するための1又は複数のサポートツール222を提供する。1つの例示的なサポートツール222にはソフトウェアコードを含み、上記ソフトウェアコードは、実行されると、モーション感知入力装置202又はコンシューマ装置202などのセンサからの生の方向入力データ又は他のモーションデータを、意味ある制御入力に変換する。上記のことは、本明細書において概して説明されたとおり、較正とデッドゾーン割り当てとを通じて達成されることができる。
別の例示的なサポートツール222には、実行されると、開発者が抽象的な環境モデル(例えば、家の中の部屋と部屋間のつながりとを示すモデル)を作成することが可能となるソフトウェアコードを含む。特定のセンサが、上記環境モデルの特定の領域(例えば、部屋)に追加されることができる。例えば、3部屋の家の中の各部屋がモーション感知入力装置202を取り付けられることができ、モーション感知入力装置202は環境についてエンティティ追跡を可能にする。エンティティが別の領域に移動するにつれて、コンピュータ化された装置コンポーネント210は、エンティティのより近くに存在し得る1つのセンサから別のセンサへとエンティティ追跡義務を移すことができる。
一例として、コンピュータ化された装置コンポーネント210は、入力データの情報源としてモーション感知入力装置202とコンシューマ装置202(例えば、ポインティング装置に埋め込まれたジャイロスコープ)とを採用する没入型の一人称シューティングゲーム体験とすることができる。モーション感知入力装置202は、身体関節の動きとプレーヤ位置とに関連付けられた粗い/低分解能の/ハイレベルの情報を提供する。加えて、コンシューマ装置202は、装置の向きに関連付けられたきめ細かい、高分解能の情報を提供する。コンシューマ装置202が手持ちされる場合、コンシューマ装置202は、エンティティがどこを「見ている」かあるいは狙っているかを決定することができる。
上記の例を継続すると、センサフュージョンインタフェース208は、モーション感知入力装置202とサポートツール222のうち適切な1つとからの位置データを使用して、仮想のキャラクタがどのように動くかを決定する。中心となるデッドゾーンから、前に一歩移動することが、仮想のキャラクタを前に移動させ、ニュートラルの、デッドゾーンに戻ることが、仮想のキャラクタを停止させる。コンシューマ装置202からのデータは、エンティティの「眼差し」、又は仮想のキャラクタが向いている方向を制御することができる。コンシューマ装置202を、ポインタ又はワンドにおけるように、エンティティ自身の手の中に保持することによって、エンティティは、仮想のキャラクタの見る及び歩く方向を指示することができる。上記2つの入力モードを組み合わせることによって、エンティティは、1)前後左右に移動すること、及びコンシューマ装置202を特定の方向に向けることによって、仮想のキャラクタを制御することが可能となる。
別の例として、コンピュータ化された装置コンポーネント210は、家、オフィス又は他の室内環境の方々でエンティティの動きを追跡する、複数の部屋の、マルチセンサのミュージックプレイリストシステム(例えば、ハードウェア、又はアプリケーション若しくはオペレーティングシステムコンポーネントなどのソフトウェアコンポーネント)とすることができる。センサフュージョンインタフェースは、追跡されたエンティティの動きデータをミュージックプレイリストシステムに、エンティティ状態データ又はプロファイル212を介して提供し、プレイリストに関連付けられたデジタルミュージック(サウンド)が別の部屋へ行くエンティティを追いかけることを可能にする。モーション感知入力装置202のためのカメラが、あらゆる関与している部屋に取り付けられ、エンティティが室内を歩くにつれてエンティティの顔を捕捉することができる。上記カメラは、ミュージックプレイリストを実行し、スピーカシステムを通じて音楽を再生している、中心となるパーソナルコンピュータに接続されることができる。エンティティは、1つの実装例に従い、家族のメンバによって作成されたプレイリストをミュージックプレイリストシステムに提供することができる。各メンバの10〜15個の画像において顔認識モジュール202を訓練した後、ミュージックプレイリストシステムは、種々のメンバを区別し、適切なプレイリストを再生することができる。
エンティティがカメラの前を歩く場合、センサフュージョンインタフェース208は、誰かが部屋に入ったというイベントを起こす。このイベントを受信すると、顔認識モジュール202は、カメラから画像を捕捉し、画像を処理して顔を認識する。画像内の顔がプレーヤのうちの1人に一致すると、プレーヤに関連付けられたプレイリストが検索され、再生される。カメラが室内のエンティティの位置を追跡するとき、ミュージックプレイリストシステムは、エンティティのビジュアルディスプレイからの距離に基づいて、ビジュアルディスプレイの詳細のレベルを調整することができる。必要ではないが、プレーヤがディスプレイに近い場合、ミュージックプレイリストシステムは、プレイリスト内の歌曲のうち1又は複数についてのアルバムアートワークの表現を提示する。プレーヤが遠くに立っているとき、ミュージックプレイリストシステムは、現在再生中の歌曲のみについて、ズームされたバージョンのアートワークを示す。他の対話モードが、音声である。「フュージョン」というキーワードを前に付けられたコマンドを用いて、エンティティは、歌曲を「一時停止し」、「再開し」、「最初から再生し」、あるいは「スキップする」ことができる。発話認識モジュール202は、周辺のノイズ、室内で互いに話している人々、又は再生されている歌曲の実際の歌詞を解析するときにあいまいさに直面する可能性があり、前に付けられるキーワードは、発話認識モジュール202がいかなるあいまいさをも除外することを可能にする。
エンティティが部屋を出るとき、ミュージックプレイリストシステムは、プレイリストの状態(例えば、現在の歌曲、歌曲内での位置、及び/又は同様のもの)を保存する。同一のエンティティが別の部屋に入り、あるいは同一の部屋に再び入り、明確に識別された場合、ミュージックプレイリストシステムは、最後の位置から音楽の再生を再開する。エンティティが寝室で歌曲を聴いているシナリオを考える。エンティティが寝室を出てキッチンに入るとき、上記歌曲は寝室において徐々に消え、キッチンにおいて再生が始まり、途切れの無いリスニング体験が提供される。複数のエンティティが同じ部屋にいる場合、コンピュータ化された装置コンポーネント210は、双方のプレーヤのプレイリスト内の歌曲を識別し、交互に再生し、あるいはその他の方法で上記歌曲を切り替える。代替手段として、コンピュータ化された装置コンポーネントは、「協同的に作成された」プレイリストを再生し、あるいは個人の関心に基づいたミュージック推奨サービスを使用することができる。
図3は、1つの実装例に従う、コンピュータ化された装置コンポーネントにセンサフュージョンインタフェースを公開する例示的なステップを示すフロー図である。上記例示的なステップはステップ302において始まり、ステップ304に進むことができる。ステップ304において、センサフュージョンインタフェース208は、コンピュータ化された装置コンポーネントからの要求を処理する。1つの実装例において、センサフュージョンインタフェース208は、監視メカニズム104により追跡及び統合される複数センサ入力データへのアクセスを、コンピュータ化された装置コンポーネントに提供する。監視メカニズム104は、例えばゲーム用コンソールとモーション感知入力装置(例えば、マイクロソフト(登録商標)Kinect(商標)とXbox(商標))の組み合わせのための監視メカニズムなどである。
ステップ306は、センサモジュール及び装置からの複数センサ入力を含む共有ライブラリにアクセスすることに向けられる。1つの実装例において、共有ライブラリは、ブラックボード設計パターンとして知られるソフトウェア設計パターンを実施するシステムによって作成されることができる。随意のステップ308は、入力データからノイズを除去するために、複数センサ入力の中の不要な摂動を取り除くことに向けられる。ステップ310は、1又は複数のエンティティについてのエンティティ状態データを抽出することに向けられる。ステップ312は、コンピュータ化された装置コンポーネントに、エンティティ状態データへのアクセスを提供することに言及する。1つの実装例において、エンティティ状態データは、エンティティ姿勢とコンピュータ化された装置コンポーネントについての現在のコマンド/制御入力と1又は複数のイベント(例えば、エンティティが感知範囲の外側に行ったことを示すイベント)とを含むマルチモーダル入力データの一部とすることができる。ステップ314は、図3に表される例示的なステップを終了する。
図4は、1つの実装例に従う、複数センサ入力から制御データを生成する例示的なステップを示すフロー図である。上記例示的なステップは、ステップ402において始まり、ステップ404に進むことができる。ステップ404において、対話メカニズムは、プログラム又は他のソフトウェアコンポーネント(例えば、ゲーム用アプリケーション)などのコンピュータ化された装置コンポーネントのための制御入力に翻訳されるエンティティ活動を定義する設定データを処理する。対話メカニズムは、センサフュージョンインタフェースを介して設定データを受信する。エンティティ活動には、特定のコマンドを表す、組み合わせられた発話/ジェスチャデータなどの(マルチモーダルの)記号的活動を含むことができる。エンティティ活動にはさらに、ディスプレイに投影され、仮想のキャラクタ(例えば、エンティティを表すアバター)により実行されることになる実際の動きを含むことができる。
ステップ406は、エンティティ姿勢及び/又は装置姿勢の決定に言及する。装置は、エンティティにより操られ、又は操作される手持ち式の装置とすることができる。ステップ408は、エンティティ姿勢及び/又は装置姿勢が前の時点から変化したかどうかに関しての決定を表す。エンティティ姿勢及び/又は装置姿勢が変化した場合、ステップ408はステップ410に進む。エンティティ姿勢及び/又は装置姿勢が、前の時点におけるエンティティ姿勢及び/又は装置姿勢と同じままである場合、ステップ408はステップ406に戻り、姿勢の計算を繰り返す。ステップ410は、エンティティ状態データ、及び/又は環境モデルの現在の表現を更新することに向けられる。
ステップ412は、エンティティ姿勢変化及び/又は装置姿勢変化を、物理的環境又は仮想の環境のいずれかについてのコマンド/制御入力として解釈することに向けられる。上記姿勢変化及び/又は装置姿勢変化が、物理的環境内のコンピュータ化された装置についてのコマンド/制御入力を表す場合、ステップ412はステップ414に進む。ステップ414において、エンティティは、プログラムを使用してコンピュータ化された装置を操作する。上記姿勢変化及び/又は装置姿勢変化が、仮想の環境(すなわち、ディスプレイ上)におけるアバター又は別のオブジェクトについてのコマンド/制御入力を表す場合、ステップ412は、ステップ416に進む。ステップ416において、エンティティは、プログラムを使用して仮想の環境内のアバター及び/又はオブジェクトを制御する。ステップ418は、融合すべきさらなるセンサ入力が存在するかどうかに関しての決定を表す。融合すべきさらなるセンサ入力が存在する場合、ステップ418はステップ406に戻る。融合すべきさらなるセンサ入力が存在しない場合、ステップ418はステップ420に進む。ステップ420は上記例示的なステップを終了する。
図5は、1つの実装例に従う、エンティティ対話を管理する例示的なステップを示すフロー図である。上記例示的なステップは、ステップ502において始まり、ステップ504に進むことができる。ステップ504において、対話メカニズム106は、センサモジュールを設定し、コンピュータ化された装置からの設定データに基づいて1又は複数の入力モードを選択する。デフォルト設定で、対話メカニズムはすべての起こり得る入力モードを採用することができる。1つの実装例において、設定データは、選択された入力モードのうち1つが利用可能でない場合にエラーが返されるべきであることを示すことができる。ステップ506は、物理的環境内にいる複数のエンティティについてのプロファイルを公開することを表す。ステップ508は、エンティティ対話を分析することに向けられる。例えば、コンピュータ化された装置コンポーネントが1人称シューティングゲームである場合、対話メカニズム106は、仮想の環境内でどのエンティティが撃たれた/殺されたかを示す種々のエンティティに関連する測定値を分析する。
ステップ510は、衝突を識別することに言及する。コンピュータ化された装置コンポーネントが「家の方々で音楽を再生する」コンピュータ化された装置コンポーネントである場合、プレイリストを有する2つのエンティティが家の中の同じ部屋を使用しているときに衝突が生じる可能性がある。ステップ512は、衝突関連のイベントを伝達してコンピュータ化された装置コンポーネントに衝突を解決することを促すことに言及する。ステップ514は図5に表されるステップを終了する。
例示的なネットワーク化された分散型の環境
本明細書において説明される種々の実施形態及び方法は任意のコンピュータ又は他のクライアント若しくはサーバ装置と関連して実施されることができ、上記任意のコンピュータ又は他のクライアント若しくはサーバ装置はネットワークコンピュータの一部として又は分散型コンピューティング環境において展開されることができ、任意の種類の1又は複数のデータストアに接続されることができることを、当業者は十分理解するであろう。これに関して、本明細書において説明される種々の実施形態は、任意の数のメモリ又は記憶装置ユニットを有する任意のコンピュータシステム又は環境において、任意の数の記憶装置ユニットにわたって生じる任意の数のアプリケーション及びプロセスにおいて実施されることができる。上記には、これらに限定されないが、リモート又はローカルの記憶装置を有する、ネットワーク環境又は分散型コンピューティング環境に展開されたサーバコンピュータ及びクライアントコンピュータを有する環境を含む。
分散型コンピューティングは、コンピューティング装置及びシステムの間の通信の交換によって、コンピュータのリソース及びサービスの共有を提供する。上記リソース及びサービスには、ファイルなどのオブジェクトのための情報の交換、キャッシュ記憶装置、及びディスク記憶装置を含む。上記リソース及びサービスにはさらに、負荷分散、リソースの拡大、処理の特化、及び同様のもののため、複数処理ユニットにわたって処理能力を共有することを含む。分散型コンピューティングは、ネットワーク接続性を生かし、クライアントがクライアント自体の集合体の能力を活用してエンタープライズ全体の利益を得ることを可能にする。これに関して、様々な装置が、対象の開示の種々の実施形態について説明されたとおりのリソース管理メカニズムに関与し得るアプリケーション、オブジェクト又はリソースを有することができる。
図6は、例示的なネットワーク化された又は分散型のコンピューティング環境の概略図を与える。分散型コンピューティング環境には、コンピューティングオブジェクト610、612等と、コンピューティングオブジェクト又は装置620、622、624、626、628等とを含み、上記コンピューティングオブジェクトとコンピューティングオブジェクト又は装置とは、例示的なアプリケーション630、632、634、636、638により表されるとおり、プログラム、メソッド、データストア、プログラマブルロジックなどを含むことができる。コンピューティングオブジェクト610、612等とコンピューティングオブジェクト又は装置620、622、624、626、628等とには、パーソナルデジタルアシスタント(PDA)、オーディオ/ビデオ装置、携帯電話、MP3プレーヤ、パーソナルコンピュータ、ラップトップなどの、種々の装置を含むことができることを、十分理解されたい。
各々のコンピューティングオブジェクト610、612等とコンピューティングオブジェクト又は装置620、622、624、626、628等とは、通信ネットワーク640によって、直接的又は間接的のいずれかで、1又は複数の他のコンピューティングオブジェクト610、612等及びコンピューティングオブジェクト又は装置620、622、624、626、628等と通信することができる。図6において単一の要素として示されているが、通信ネットワーク640は、図6のシステムにサービスを提供する他のコンピューティングオブジェクト及びコンピューティング装置を含むことができ、かつ/あるいは図示されていない複数の相互接続されたネットワークを表すことができる。各々のコンピューティングオブジェクト610、612等とコンピューティングオブジェクト又は装置620、622、624、626、628等とはさらに、アプリケーション630、632、634、636、638などのアプリケーションを含むことができ、上記アプリケーションは、対象の開示の種々の実施形態に従い提供されるアプリケーションに対して通信又は実装に適したAPI、又は他のオブジェクト、ソフトウェア、ファームウェア及び/若しくはハードウェアを使用することができる。
分散型コンピューティング環境をサポートする様々なシステム、コンポーネント及びネットワーク設定が存在する。例えば、コンピューティングシステムは、有線又は無線のシステムによって、ローカルネットワーク又は広い分散型のネットワークによって、ともに接続されることができる。現在、多くのネットワークがインターネットに結合され、上記インターネットは、広い分散型コンピューティングのためのインフラストラクチャを提供し、多くの種々のネットワークを包含する。しかしながら、任意のネットワークインフラストラクチャが、種々の実施形態において説明されるとおりシステムに対して起こりやすい例示的な通信に対して使用されることができる。
したがって、クライアント/サーバ、ピアツーピア又はハイブリッドのアーキテクチャなどの、ネットワークトポロジ及びネットワークインフラストラクチャのホストが、活用されることができる。「クライアント」は、あるクラス又はグループのメンバであり、上記メンバは、上記メンバが関連していない別のクラス又はグループのサービスを使用する。クライアントは、プロセス、例えば大まかには命令又はタスクのセットとすることができ、上記プロセスは、別のプログラム又はプロセスにより提供されるサービスを要求する。クライアントプロセスは、他のプログラム又はサービス自体に関するいかなる動作の詳細をも「知る」必要なく、要求されたサービスを活用する。
クライアント/サーバアーキテクチャ、具体的にはネットワーク化されたシステムにおいて、クライアントは、大抵、別のコンピュータ、例えばサーバにより提供される共有ネットワークリソースにアクセスするコンピュータである。図6の図示において、非限定的な例として、コンピューティングオブジェクト又は装置620、622、624、626、628等は、クライアントと解されることができ、コンピューティングオブジェクト610、612等はサーバと解されることができる。上記において、サーバとして動作するコンピューティングオブジェクト610、612等は、クライアントコンピューティングオブジェクト又は装置620、622、624、626、628等からデータを受信すること、データを記憶すること、データを処理すること、クライアントコンピューティングオブジェクト又は装置620、622、624、626、628等にデータを送信することなどの、データサービスを提供する。しかしながら、いかなるコンピュータも、環境に依存して、クライアント、サーバ、又は双方と見なすことができる。
サーバは典型的には、インターネット又は無線ネットワークインフラストラクチャなどのリモート又はローカルのネットワークを通じてアクセス可能なリモートのコンピュータシステムである。クライアントプロセスは、第1のコンピュータシステムにおいてアクティブとなることができ、サーバプロセスは、第2のコンピュータシステムにおいてアクティブとなり、通信媒体を通じて互いに通信することができ、したがって、分散型の機能性を提供し、複数クライアントがサーバの情報収集能力を活用することを可能にする。
通信ネットワーク640又はバスがインターネットであるネットワーク環境において、例えば、コンピューティングオブジェクト610、612等はウェブサーバとすることができ、上記ウェブサーバと他のコンピューティングオブジェクト又は装置620、622、624、626、628等とがハイパーテキスト転送プロトコル(HTTP)などの複数の既知のプロトコルのいずれかを介して通信する。サーバとして動作するコンピューティングオブジェクト610、612等はさらに、分散型コンピューティング環境の特徴であり得るとおり、クライアント、例えばコンピューティングオブジェクト又は装置620、622、624、626、628等として動作することができる。
例示的なコンピューティング装置
言及されたとおり、有利なことに、本明細書において説明される手法は、いかなる装置にも適用されることができる。ゆえに、すべての種類の手持ち式の、ポータブルの、及び他のコンピューティング装置及びコンピューティングオブジェクトが、種々の実施形態に関連しての使用に考えられることを、理解されたい。したがって、図7において以下に説明される下記の汎用目的リモートコンピュータは、コンピューティング装置の一例に過ぎない。
実施形態は部分的に、装置又はオブジェクトについてのサービスの開発者による使用のため、オペレーティングシステムを介して実装されることができ、かつ/あるいは、本明細書において説明される種々の実施形態の1又は複数の機能の態様を実行するように動作するアプリケーションソフトウェア内に含まれることができる。ソフトウェアは、プログラムモジュールなどのコンピュータ実行可能命令の一般的な文脈において説明されることができ、クライアントワークステーション、サーバ又は他の装置などの1又は複数のコンピュータにより実行されることができる。コンピュータシステムが、データを通信するために使用することができる様々な設定及びプロトコルを有し、したがって特定の設定又はプロトコルは限定と見なされないことを、当業者は理解するであろう。
図7はしたがって、本明細書に説明される実施形態の1又は複数の態様を実施することができる適切なコンピューティングシステム環境の例を示す。しかしながら、上記で明らかにされているとおり、コンピューティングシステム環境700は、適切なコンピューティング環境の単に一例であり、使用又は機能性の範囲に関して何らかの限定を示唆することを目的としない。加えて、コンピューティングシステム環境700は、例示的なコンピューティングシステム環境700に示されるコンポーネントの任意の1又は複数の組み合わせに関して、何らかの依存性を有するものと解釈されることを目的としない。
図7を参照すると、1又は複数の実施形態を実装する例示的なリモート装置が、コンピュータ710の形で汎用目的コンピューティング装置を含む。コンピュータ710のコンポーネントは、これらに限定はされないが、処理ユニット720と、システムメモリ730と、システムメモリを含む種々のシステムコンポーネントを処理ユニット720に結合するシステムバス722とを含むことができる。
コンピュータ710は典型的には、様々なコンピュータ読取可能媒体を含み、コンピュータ710によりアクセスされることができる任意の利用可能な媒体とすることができる。システムメモリ730は、読取専用メモリ(ROM)及び/又はランダムアクセスメモリ(RAM)などの揮発性及び/又は不揮発性のメモリの形式のコンピュータ記憶媒体を含むことができる。限定ではなく例として、システムメモリ730はさらに、オペレーティングシステム、アプリケーションプログラム、他のプログラムモジュール、及びプログラムデータを含むことができる。
ユーザは、入力装置740を通じてコンピュータ710にコマンド及び情報を入力することができる。モニタ、又は他の種類のディスプレイ装置が、出力インタフェース750などのインタフェースを介してシステムバス722にさらに接続される。モニタに加えて、コンピュータはさらに、スピーカ又はポインタなどの他の周辺出力装置を含むことができ、上記他の周辺出力装置は、出力インタフェース750を通じて接続されることができる。
コンピュータ710は、ネットワーク化された又は分散型の環境において、リモートコンピュータ770などの1又は複数の他のリモートコンピュータへの論理的接続を用いて動作することができる。リモートコンピュータ770は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピア装置若しくは他の共通ネットワークノード、又は任意の他のリモート媒体消費若しくは送信装置とすることができ、コンピュータ710に関連して上記で説明された要素のいくつか又はすべてを含むことができる。図7に表される論理的接続には、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)などのネットワーク722を含み、しかしさらに、他のネットワーク/バスを含むことができる。こうしたネットワーキング環境は、家庭、オフィス、企業規模のコンピュータネットワーク、イントラネット、及びインターネットにおいて一般的である。
上記で言及されたとおり、例示的な実施形態が種々のコンピューティング装置及びネットワークアーキテクチャに関連して説明されてきたが、基本的な概念は、リソース使用法の効率を向上したい任意のネットワークシステムと任意のコンピューティング装置又はシステムとに適用されることができる。
さらに、アプリケーション及びサービスが本明細書において提供される手法を活用することを可能にする同一の又は類似の機能性を実施する複数の方法が存在する。上記機能性は、例えば、適切なAPI、ツールキット、ドライバコード、オペレーティングシステム、コントロール、スタンドアロン又はダウンロード可能ソフトウェアオブジェクトなどである。したがって、本明細書における実施形態は、本明細書に説明されるとおりの1又は複数の実施形態を実施するソフトウェア又はハードウェアオブジェクトからだけでなく、API(又は他のソフトウェアオブジェクト)の観点からも考えられる。したがって、本明細書に説明される種々の実施形態は、全体的にハードウェア内にある態様、部分的にハードウェア内にあり部分的にソフトウェア内にある態様、及びソフトウェア内にある態様を有することができる。
「模範的」という単語は、本明細書において、例、実例又は例解としての役割を果たすことを意味するように使用される。誤解を避けるため、本明細書に開示される対象事項は、上記の例によって限定されない。加えて、「模範的」は、必ずしも他の態様又は設計を上回って好適又は有利であると見なされるものではなく、当業者に知られる均等の例示的な構造及び手法を除外することを意味するものでもない。さらに、「含む」「有する」「包含する」という用語及び他の類似の単語が使用される限りにおいて、誤解を避けるため、上記用語は、請求項において用いられたときにいかなる追加の又は他の要素をも除外することなく、開放的な移行語として、「備える」という用語と類似する方式で包括的であることが意図される。
言及されたとおり、本明細書に説明される種々の手法が、ハードウェア又はソフトウェアを用いて、あるいは適切な場合は双方の組み合わせを用いて、関連して実施されることができる。本明細書において、「コンポーネント」、「モジュール」、「システム」及び同様のものの用語は、コンピュータ関連のエンティティ、いずれかのハードウェア、ハードウェア及びソフトウェアの組み合わせ、ソフトウェア、又は実行中のソフトウェアに言及することが同様に意図される。例えば、コンポーネントは、これらに限定されないが、プロセッサ上で実行中のプロセス、プロセッサ、オブジェクト、実行ファイル、実行のスレッド、プログラム、及び/又はコンピュータとすることができる。例示として、コンピュータ上で実行中のアプリケーションとコンピュータとの双方が、コンポーネントであってよい。1又は複数のコンポーネントが、プロセス、及び/又は実行のスレッドの中に存在することができ、コンポーネントは、1つのコンピュータ上でローカライズされ、かつ/あるいは複数のコンピュータ間で分散されることができる。
前述のシステムは、複数のコンポーネント間の対話に関して説明されてきた。こうしたシステム及びコンポーネントは、前述についての種々の順列及び組み合わせに従い、上記コンポーネント若しくは特定のサブコンポーネント、特定のコンポーネント若しくはサブコンポーネントのいくつか、及び/又はさらなるコンポーネントを含むことができることを、十分理解されたい。サブコンポーネントはさらに、親コンポーネント(階層的な)内に含まれること以外に、他のコンポーネントに通信可能に結合されるコンポーネントとして実施されることができる。さらに、1又は複数のコンポーネントが、複合の機能性を提供する単一のコンポーネントに組み合わせられ、あるいはいくつかの別個のサブコンポーネントに分割されることができることと、管理レイヤなどの任意の1又は複数のミドルレイヤが、統合された機能性を提供するために上記サブコンポーネントに通信可能に結合するように提供されることができることとに、留意されたい。本明細書に説明されるいかなるコンポーネントも、本明細書に具体的に説明されていないが当業者に一般的に知られる1又は複数の他のコンポーネントと対話することができる。
本明細書に説明される例示的なシステムの観点で、説明される対象事項に関連して実施されることができる方法論もまた、種々の図面のフローチャートを参照して十分理解されることができる。説明の簡素化の目的で、上記方法論は一連のブロックとして図示及び説明されているが、種々の実施形態は上記ブロックの順序によって限定されるものではなく、いくつかのブロックが、本明細書に表現及び説明されているものとは異なる順序で、かつ/あるいは他のブロックと同時に生じる場合があることを、十分理解されたい。非順序的な、又は分岐されたフローがフローチャートにより示されている場合、同一の又は類似の結果を達成する種々の他の分岐、フロー経路、及びブロックの順序を実装することができることを、十分理解されたい。その上、いくつかの図示されているブロックは、その後に説明される方法論を実施することにおいて随意的である。
結び
本発明は、種々の変更と代替的な構成とを受け入れる余地があるが、特定の図示されている本発明の実施形態が、図面において示され、上記で詳細に説明されてきた。しかしながら、開示された特定の形式に本発明を限定する意図はまったくなく、しかし対照的に、本発明は、本発明の主旨及び範囲に入るすべての変更、代替的な構成、及び均等物を含むものであることを、理解されたい。
本明細書に説明される種々の実施形態に加えて、他の類似の実施形態を使用することができ、あるいは、説明された実施形態(群)に対して、対応する実施形態(群)の同一の又は均等の機能を実行するため、上記説明された実施形態(群)から逸脱することなく、変更及び追加をなすことができることを、理解されたい。またさらに、複数の処理チップ又は複数の装置が、本明細書に説明される1又は複数の機能の実行を共有することができ、同様にして、記憶装置が、複数の装置にわたってもたらされることができる。したがって、本発明は、いかなる単一の実施形態にも限定されるものではなく、むしろ、添付の特許請求の範囲に従った広がり、主旨及び範囲の中にあると見なされるものである。

Claims (20)

  1. コンピューティング環境において、少なくとも1つのプロセッサ上で少なくとも部分的に実行される方法であって、
    1又は複数のエンティティとコンピュータ化された装置コンポーネントとの間の対話を可能にするセンサフュージョンインタフェースを介して受信された要求を処理するステップであり、
    複数のセンサモジュールに結合された共有ライブラリにアクセスするステップであり、前記共有ライブラリは1又は複数のエンティティに関連付けられた複数センサ入力データを含む、ステップと、
    前記共有ライブラリからエンティティ状態データを抽出するステップと、
    前記コンピュータ化された装置コンポーネントに前記エンティティ状態データへのアクセスを提供するステップと、
    を含む、ステップ
    を含む方法。
  2. 前記コンピュータ化された装置コンポーネントに前記エンティティ状態データへのアクセスを提供するステップは、エンティティ姿勢における変化に対応するイベントを伝達するステップをさらに含む、請求項1に記載の方法。
  3. 前記コンピュータ化された装置コンポーネントに前記エンティティ状態データへのアクセスを提供するステップは、前記1又は複数のエンティティから前記コンピュータ化された装置コンポーネントのための1又は複数のコマンドを伝達するステップをさらに含む、請求項1に記載の方法。
  4. 前記コンピュータ化された装置コンポーネントに前記エンティティ状態データへのアクセスを提供するステップは、種々の時点に対応するエンティティ状態データに基づいて制御データを生成するステップをさらに含む、請求項1に記載の方法。
  5. 前記エンティティ状態データを抽出するステップは、前記1又は複数のエンティティにより操作されている装置の位置及び向きを決定するステップをさらに含む、請求項1に記載の方法。
  6. 前記エンティティ状態データを抽出するステップは、前記複数センサ入力データ内の不要な摂動を取り除くステップをさらに含む、請求項1に記載の方法。
  7. 前記共有ライブラリにアクセスするステップは、前記複数センサ入力データを精緻化するように前記複数のセンサモジュールを設定するステップをさらに含む、請求項1に記載の方法。
  8. 前記エンティティ状態データを抽出するステップは、前記コンピュータ化された装置コンポーネントのためのコマンドに変換される記号的活動を定義するステップをさらに含む、請求項1に記載の方法。
  9. エンティティの動きに応答して前記エンティティ状態データを更新するステップ、をさらに含む請求項1に記載の方法。
  10. 前記エンティティ状態データを抽出するステップは、前記1又は複数のエンティティに関連付けられた環境モデルを作成するステップをさらに含む、請求項1に記載の方法。
  11. 前記エンティティ状態データを抽出するステップは、第1のエンティティに関連付けられたエンティティ状態データの第1の部分と第2のエンティティに関連付けられたエンティティ状態データの第2の部分とを抽出するステップと、前記第1の部分を前記第2の部分と相互に関連付けてエンティティ対話を決定するステップとをさらに含む、請求項1に記載の方法。
  12. コンピューティング環境において、コンピュータ化された装置コンポーネントにセンサフュージョンインタフェースを提供するように構成された対話メカニズムを含み、環境内の各エンティティについて、前記センサフュージョンインタフェースは、エンティティ状態データを含むプロファイルを生成し、前記コンピュータ化された装置コンポーネントに前記プロファイルを公開し、エンティティ活動に応答して前記プロファイルを更新するように共通知識データコンポーネントに指示するように構成され、前記共通知識データコンポーネントは、スキーマに従って複数のセンサモジュールからの複数センサ入力データを統合し、前記複数センサ入力データに基づいて前記エンティティ活動を識別するように構成される、システム。
  13. 前記対話メカニズムは、前記エンティティ活動に基づいて物理的環境内のコンピュータ化された装置を操作するようにさらに構成される、請求項12に記載のシステム。
  14. 前記対話メカニズムは、前記コンピュータ化された装置コンポーネントにより生成された仮想の環境における仮想のキャラクタを制御するようにさらに構成される、請求項12に記載のシステム。
  15. 前記対話メカニズムは、前記コンピュータ化された装置コンポーネントに応答して前記複数のセンサモジュールを初期化するようにさらに構成される、請求項12に記載のシステム。
  16. 前記対話メカニズムは、複数のエンティティ間の衝突を識別するようにさらに構成される、請求項12に記載のシステム。
  17. 前記対話メカニズムは、エンティティの動きが装置の範囲から出たことを示すイベントを公開するようにさらに構成される、請求項12に記載のシステム。
  18. 前記複数のセンサモジュールは、カメラ、マイクロフォン、デジタイザ、モーションプロセッサ、ゲーム用コントローラ、発話認識モジュール、ジェスチャ認識モジュール、顔認識モジュール、携帯電話若しくはポインティング装置、又はカメラ、マイクロフォン、デジタイザ、モーションプロセッサ、ゲーム用コントローラ、発話認識モジュール、ジェスチャ認識モジュール、顔認識モジュール、携帯電話若しくはポインティング装置のうち任意の組み合わせを含む、請求項12に記載のシステム。
  19. コンピュータ実行可能命令を有する1又は複数のコンピュータ読取可能媒体であって、前記コンピュータ実行可能命令は、実行されると、
    エンティティを有する物理的環境を監視するステップと、
    前記エンティティに関連付けられたエンティティ状態データについての要求を処理するステップと、
    コンピュータ化された装置コンポーネントからの設定データに基づいて、前記エンティティ状態データを作成する複数の入力モードの中から少なくとも1つの入力モードを選択するステップと、
    前記コンピュータ化された装置コンポーネントに前記エンティティ状態データを伝達するステップと、
    を実行する、1又は複数のコンピュータ読取可能媒体。
  20. 複数のエンティティに関連付けられたエンティティ対話を分析するステップと、
    前記物理的環境内の前記エンティティ対話に対応する衝突を示すイベントを前記コンピュータ化された装置コンポーネントに伝達するステップと、
    を含むさらなるコンピュータ実行可能命令を有する、請求項19に記載の1又は複数のコンピュータ読取可能媒体。
JP2014549156A 2011-12-19 2012-12-15 複数センサ入力のためのセンサフュージョンインタフェース Active JP6164619B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/329,777 US9389681B2 (en) 2011-12-19 2011-12-19 Sensor fusion interface for multiple sensor input
US13/329,777 2011-12-19
PCT/US2012/069971 WO2013096138A1 (en) 2011-12-19 2012-12-15 Sensor fusion interface for multiple sensor input

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017115586A Division JP6553124B2 (ja) 2011-12-19 2017-06-13 複数センサ入力のためのセンサフュージョンインタフェース

Publications (3)

Publication Number Publication Date
JP2015507263A true JP2015507263A (ja) 2015-03-05
JP2015507263A5 JP2015507263A5 (ja) 2016-01-21
JP6164619B2 JP6164619B2 (ja) 2017-07-19

Family

ID=48611274

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014549156A Active JP6164619B2 (ja) 2011-12-19 2012-12-15 複数センサ入力のためのセンサフュージョンインタフェース
JP2017115586A Active JP6553124B2 (ja) 2011-12-19 2017-06-13 複数センサ入力のためのセンサフュージョンインタフェース

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017115586A Active JP6553124B2 (ja) 2011-12-19 2017-06-13 複数センサ入力のためのセンサフュージョンインタフェース

Country Status (6)

Country Link
US (2) US9389681B2 (ja)
EP (1) EP2795835B1 (ja)
JP (2) JP6164619B2 (ja)
KR (1) KR101933750B1 (ja)
CN (1) CN104012038A (ja)
WO (1) WO2013096138A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018520394A (ja) * 2015-04-30 2018-07-26 グーグル エルエルシー タイプに依存しないrf信号表現
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11117033B2 (en) 2010-04-26 2021-09-14 Wilbert Quinc Murdock Smart system for display of dynamic movement parameters in sports and training
EP2817785B1 (en) * 2012-02-23 2019-05-15 Charles D. Huston System and method for creating an environment and for sharing a location based experience in an environment
US9836590B2 (en) * 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US8924327B2 (en) * 2012-06-28 2014-12-30 Nokia Corporation Method and apparatus for providing rapport management
US9032510B2 (en) * 2012-09-11 2015-05-12 Sony Corporation Gesture- and expression-based authentication
US9495397B2 (en) * 2013-03-12 2016-11-15 Intel Corporation Sensor associated data of multiple devices based computing
WO2015058154A2 (en) * 2013-10-20 2015-04-23 Oahu Group, Llc Method and system for determining object motion
US20150118959A1 (en) * 2013-10-28 2015-04-30 Nicolas Jean Petit Platform framework for wireless media device simulation and design
US9971412B2 (en) * 2013-12-20 2018-05-15 Lenovo (Singapore) Pte. Ltd. Enabling device features according to gesture input
US20150281409A1 (en) * 2014-03-25 2015-10-01 Rupesh Tatiya Using usb over ip to share a non-usb sensor with another device
US20150317353A1 (en) * 2014-05-02 2015-11-05 At&T Intellectual Property I, L.P. Context and activity-driven playlist modification
US11145183B2 (en) 2014-06-10 2021-10-12 PB, Inc Tracking device programs, systems and methods
US10979862B2 (en) 2014-06-10 2021-04-13 Pb Inc. Tracking device system
US11792605B2 (en) 2014-06-10 2023-10-17 PB, Inc. Tracking device systems
US9892626B2 (en) 2014-06-10 2018-02-13 Pb Inc. Tracking device program
US10580281B2 (en) 2014-06-10 2020-03-03 PB, Inc. Tracking device system
US9564774B2 (en) 2014-06-10 2017-02-07 Pb Inc. Reduced thickness tracking device
US10937286B2 (en) 2014-06-10 2021-03-02 Pb Inc. Radiobeacon data sharing by forwarding low energy transmissions to a cloud host
WO2016014086A1 (en) * 2014-07-25 2016-01-28 Hewlett-Packard Development Company, L.P. Software-defined sensing
US10540348B2 (en) 2014-09-22 2020-01-21 At&T Intellectual Property I, L.P. Contextual inference of non-verbal expressions
CN104462784A (zh) * 2014-11-17 2015-03-25 电子科技大学 一种基于动态分辨熵的传感器优化管理方法
US9854227B2 (en) 2015-01-08 2017-12-26 David G Grossman Depth sensor
US10557881B2 (en) 2015-03-27 2020-02-11 Analog Devices Global Electrical overstress reporting
US9871373B2 (en) 2015-03-27 2018-01-16 Analog Devices Global Electrical overstress recording and/or harvesting
US10306193B2 (en) 2015-04-27 2019-05-28 Microsoft Technology Licensing, Llc Trigger zones for objects in projected surface model
MX2017014648A (es) * 2015-05-15 2018-04-11 Airfusion Inc Aparato portatil y metodo para apoyo de decision para fusion y analisis de datos de sensores multiples automatizados en tiempo real.
DE102015215044A1 (de) 2015-08-06 2017-02-09 Volkswagen Aktiengesellschaft Verfahren und System zur Verarbeitung multimodaler Eingabesignale
US9578493B1 (en) 2015-08-06 2017-02-21 Adtile Technologies Inc. Sensor control switch
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
US9825969B2 (en) 2015-09-14 2017-11-21 D&M Holdings, Inc. System and method for controlling a rendering device based upon detected user proximity
US10108462B2 (en) 2016-02-12 2018-10-23 Microsoft Technology Licensing, Llc Virtualizing sensors
US10216290B2 (en) * 2016-04-08 2019-02-26 Adtile Technologies Inc. Gyroscope apparatus
US10338132B2 (en) 2016-04-19 2019-07-02 Analog Devices Global Wear-out monitor device
US10365322B2 (en) 2016-04-19 2019-07-30 Analog Devices Global Wear-out monitor device
CN106154890A (zh) * 2016-09-21 2016-11-23 旗瀚科技有限公司 一种多台机器人同步行为方法
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10467510B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Intelligent assistant
JP6785686B2 (ja) 2017-03-02 2020-11-18 三菱製紙株式会社 金属調に加飾されたプラスチック成形品
TWI623865B (zh) * 2017-03-24 2018-05-11 一種軟體定義輸入操作感測系統
US11024525B2 (en) 2017-06-12 2021-06-01 Analog Devices International Unlimited Company Diffusion temperature shock monitor
CN110799930A (zh) * 2017-06-30 2020-02-14 M·康利 用于构建电子接口的模块化系统和方法
WO2019009890A1 (en) * 2017-07-05 2019-01-10 Bae Systems Information And Electronic Systems Integration Inc. OPEN ARCHITECTURE, CORRELATION OF MULTIPLE INPUT AND REAL-TIME THREATS
US10663577B1 (en) 2017-11-30 2020-05-26 Bae Systems Information And Electronic Systems Integration Inc. Electro optical and radio frequency fusion for threat detection
DE102017011592A1 (de) * 2017-12-14 2019-06-19 Diehl Defence Gmbh & Co. Kg Verfahren zum Steuern eines Drohnenabwehrsystems
US20190043239A1 (en) * 2018-01-07 2019-02-07 Intel Corporation Methods, systems, articles of manufacture and apparatus for generating a response for an avatar
TW202012097A (zh) * 2018-09-03 2020-04-01 義大利商Hsd股份公司 用於工具機的操作裝置
CN117971154A (zh) * 2018-09-04 2024-05-03 谷歌有限责任公司 多模态响应
US11164576B2 (en) * 2018-09-04 2021-11-02 Google Llc Multimodal responses
US11979511B2 (en) 2018-09-07 2024-05-07 Sony Group Corporation Terminal device, terminal device control method, and memory medium
US11678141B2 (en) 2018-09-18 2023-06-13 Pb Inc. Hybrid cellular Bluetooth tracking devices, methods and systems
US11184858B2 (en) 2018-09-18 2021-11-23 PB, Inc. Bluecell devices and methods
CN109710667A (zh) * 2018-11-27 2019-05-03 中科曙光国际信息产业有限公司 一种基于大数据平台的多源数据融合共享实现方法及系统
US11199912B2 (en) * 2018-11-30 2021-12-14 Magic Leap, Inc. Multi-modal hand location and orientation for avatar movement
CN111983929B (zh) * 2019-05-23 2024-03-12 美智纵横科技有限责任公司 家电设备及其控制方法和计算机可读存储介质
US11087103B2 (en) 2019-07-02 2021-08-10 Target Brands, Inc. Adaptive spatial granularity based on system performance
KR102145556B1 (ko) 2019-07-02 2020-08-18 부산대학교 산학협력단 다중 센서 데이터 수집을 위한 센서 인터페이스 설정 및 센싱 스케줄링 방법 및 그 장치
CN110442567A (zh) * 2019-07-30 2019-11-12 郑州航管科技有限公司 一种用于机场自动观测系统的数据融合方法
CN112689193B (zh) * 2019-10-18 2023-04-18 惠州迪芬尼声学科技股份有限公司 根据影像资讯判断是否播放音乐的方法及其系统
US11499851B2 (en) 2020-01-23 2022-11-15 Cisco Technology, Inc. Sensor fusion as a service
WO2021247541A1 (en) * 2020-06-01 2021-12-09 Chemimage Corporation A method for fusing sensor data for cardiac monitoring and devices thereof
US20220019742A1 (en) * 2020-07-20 2022-01-20 International Business Machines Corporation Situational awareness by fusing multi-modal data with semantic model
WO2022052003A1 (zh) * 2020-09-10 2022-03-17 深圳市大疆创新科技有限公司 传感器组件、成像设备、可移动平台及传感器的标定方法
EP4241472A1 (en) * 2020-11-05 2023-09-13 Qualcomm Incorporated Alternative coordinate system for sensor sharing
CN112712549A (zh) * 2020-12-31 2021-04-27 上海商汤临港智能科技有限公司 数据处理方法、装置、电子设备以及存储介质
US11106357B1 (en) * 2021-02-15 2021-08-31 University Of Central Florida Research Foundation, Inc. Low latency tactile telepresence
CN113916223B (zh) * 2021-09-29 2022-11-11 深圳市慧鲤科技有限公司 定位方法及装置、设备、存储介质
CN116929160A (zh) * 2023-07-31 2023-10-24 天津大学 一种双通道宽窄视场共像面导引头成像光学系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264892A (ja) * 2003-01-31 2004-09-24 Olympus Corp 運動検出装置及び通信装置
JP2006294032A (ja) * 2002-09-05 2006-10-26 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
WO2011027452A1 (ja) * 2009-09-03 2011-03-10 株式会社 東芝 存在人数推定装置
WO2011057287A1 (en) * 2009-11-09 2011-05-12 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5583506A (en) * 1988-07-22 1996-12-10 Northrop Grumman Corporation Signal processing system and method
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
US5626140A (en) * 1995-11-01 1997-05-06 Spacelabs Medical, Inc. System and method of multi-sensor fusion of physiological measurements
US6223214B1 (en) * 1996-09-06 2001-04-24 Sensiview Corporation Computer implemented virtual sensor object and tangible medium utilizing same
US6256679B1 (en) * 1997-12-23 2001-07-03 Simmonds Precision Products, Inc. Blackboard-centric layered software architecture for an embedded airborne fuel gauging subsystem
US6338011B1 (en) * 2000-01-11 2002-01-08 Solipsys Corporation Method and apparatus for sharing vehicle telemetry data among a plurality of users over a communications network
US7283904B2 (en) 2001-10-17 2007-10-16 Airbiquity, Inc. Multi-sensor fusion
US7436884B2 (en) 2002-03-26 2008-10-14 Lockheed Martin Corporation Method and system for wavelet packet transmission using a best base algorithm
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7188042B2 (en) * 2002-10-04 2007-03-06 Havens Steven W Method and apparatus for acquiring and processing transducer data
US7133982B2 (en) * 2003-06-18 2006-11-07 International Business Machines Corporation Method, system, and article of manufacture for consistent copying of storage volumes
US20050222810A1 (en) * 2004-04-03 2005-10-06 Altusys Corp Method and Apparatus for Coordination of a Situation Manager and Event Correlation in Situation-Based Management
US7454442B2 (en) * 2005-04-25 2008-11-18 The Boeing Company Data fusion for advanced ground transportation system
US20070008408A1 (en) * 2005-06-22 2007-01-11 Ron Zehavi Wide area security system and method
US8031891B2 (en) 2005-06-30 2011-10-04 Microsoft Corporation Dynamic media rendering
US8665213B2 (en) * 2006-02-08 2014-03-04 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9052970B2 (en) * 2008-04-24 2015-06-09 Oblong Industries, Inc. Multi-process interactive systems and methods
US8890813B2 (en) * 2009-04-02 2014-11-18 Oblong Industries, Inc. Cross-user hand tracking and shape recognition user interface
US8681098B2 (en) * 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9063801B2 (en) * 2008-04-24 2015-06-23 Oblong Industries, Inc. Multi-process interactive systems and methods
US7646336B2 (en) * 2006-03-24 2010-01-12 Containertrac, Inc. Automated asset positioning for location and inventory tracking using multiple positioning techniques
EP2523112B1 (en) 2006-04-07 2017-10-18 Qualcomm Incorporated Sensor interface, and methods and apparatus pertaining to same
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US7974814B2 (en) * 2007-06-15 2011-07-05 Raytheon Company Multiple sensor fusion engine
US8009200B2 (en) 2007-06-15 2011-08-30 Microsoft Corporation Multiple sensor input data synthesis
CN101105690A (zh) 2007-07-26 2008-01-16 武汉理工大学 城市长隧道监控系统中的多传感器融合方法
FR2919442B1 (fr) * 2007-07-27 2011-01-07 Ge Energy Products France Snc Volant d'inertie a lancement progressif.
WO2009043020A2 (en) * 2007-09-28 2009-04-02 The Trustees Of Dartmouth College System and method for injecting sensed presence into social networking applications
US8941590B2 (en) * 2008-04-24 2015-01-27 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
CN102301312A (zh) 2008-12-01 2011-12-28 新加坡国立大学 用于娱乐、教育或通信的便携式引擎
US9662569B2 (en) 2008-12-31 2017-05-30 Intel Corporation Sensor fusion to combine sensor input data from multiple devices into one input stream
CN102317977A (zh) 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8175617B2 (en) * 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US9197736B2 (en) * 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US8838684B2 (en) 2010-01-14 2014-09-16 Fuji Xerox Co., Ltd. System and method for determining a presence state of a person
US8760392B2 (en) 2010-04-20 2014-06-24 Invensense, Inc. Wireless motion processing sensor systems suitable for mobile and battery operation
US9084002B2 (en) 2010-05-03 2015-07-14 Microsoft Technology Licensing, Llc Heterogeneous image sensor synchronization
US9274594B2 (en) 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
US8374018B2 (en) * 2010-07-09 2013-02-12 Crossbar, Inc. Resistive memory using SiGe material
US20120023201A1 (en) * 2010-07-26 2012-01-26 Atlas Advisory Partners, Llc Unified Content Delivery Platform
US20120083668A1 (en) * 2010-09-30 2012-04-05 Anantha Pradeep Systems and methods to modify a characteristic of a user device based on a neurological and/or physiological measurement
US20120117020A1 (en) * 2010-11-09 2012-05-10 International Business Machines Corporation Method and apparatus for smart individual health monitoring
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US20120316455A1 (en) * 2011-06-10 2012-12-13 Aliphcom Wearable device and platform for sensory input

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006294032A (ja) * 2002-09-05 2006-10-26 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2004264892A (ja) * 2003-01-31 2004-09-24 Olympus Corp 運動検出装置及び通信装置
WO2011027452A1 (ja) * 2009-09-03 2011-03-10 株式会社 東芝 存在人数推定装置
WO2011057287A1 (en) * 2009-11-09 2011-05-12 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
JP2013510381A (ja) * 2009-11-09 2013-03-21 インベンセンス インコーポレイテッド 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10948996B2 (en) 2014-06-03 2021-03-16 Google Llc Radar-based gesture-recognition at a surface of an object
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
US10310620B2 (en) 2015-04-30 2019-06-04 Google Llc Type-agnostic RF signal representations
JP2019148595A (ja) * 2015-04-30 2019-09-05 グーグル エルエルシー タイプに依存しないrf信号表現
US10496182B2 (en) 2015-04-30 2019-12-03 Google Llc Type-agnostic RF signal representations
US10817070B2 (en) 2015-04-30 2020-10-27 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
JP2018520394A (ja) * 2015-04-30 2018-07-26 グーグル エルエルシー タイプに依存しないrf信号表現
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10908696B2 (en) 2015-10-06 2021-02-02 Google Llc Advanced gaming and virtual reality control using radar
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11132065B2 (en) 2015-10-06 2021-09-28 Google Llc Radar-enabled sensor fusion
US10768712B2 (en) 2015-10-06 2020-09-08 Google Llc Gesture component with gesture library
US11140787B2 (en) 2016-05-03 2021-10-05 Google Llc Connecting an electronic component to an interactive textile

Also Published As

Publication number Publication date
EP2795835B1 (en) 2019-09-04
US20160299959A1 (en) 2016-10-13
US20130159350A1 (en) 2013-06-20
WO2013096138A1 (en) 2013-06-27
EP2795835A1 (en) 2014-10-29
KR101933750B1 (ko) 2018-12-28
US9389681B2 (en) 2016-07-12
US10409836B2 (en) 2019-09-10
KR20140108531A (ko) 2014-09-11
JP6553124B2 (ja) 2019-07-31
JP2017215970A (ja) 2017-12-07
JP6164619B2 (ja) 2017-07-19
CN104012038A (zh) 2014-08-27
EP2795835A4 (en) 2015-05-06

Similar Documents

Publication Publication Date Title
JP6553124B2 (ja) 複数センサ入力のためのセンサフュージョンインタフェース
US10007349B2 (en) Multiple sensor gesture recognition
US11127210B2 (en) Touch and social cues as inputs into a computer
US9342160B2 (en) Ergonomic physical interaction zone cursor mapping
JP2021002399A (ja) ユーザー相互作用を共有するための装置
US8954330B2 (en) Context-aware interaction system using a semantic model
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
CN105378801A (zh) 全息图快照网格
US11082249B2 (en) Location determination for device control and configuration
Khan et al. Recent advances in vision-based indoor navigation: A systematic literature review
US10701661B1 (en) Location determination for device control and configuration
KR20240028481A (ko) 실내 공간의 3차원 지도를 생성하기 위한 시스템 및 방법
JP6627775B2 (ja) 情報処理装置、情報処理方法およびプログラム
Corradini et al. A map-based system using speech and 3D gestures for pervasive computing
JP2013008360A (ja) 制御機器として用いられる運動制御子
Pérez et al. Mobile proxemic application development for smart environments
US20230305630A1 (en) Universal hand controller
Chu et al. A study of motion recognition system using a smart phone
Farella Ambient Intelligence, Smart Objects and Sensor Networks: Practical Experiences
Rosca et al. Mobile interaction with remote worlds: The acoustic periscope
Benatan et al. Mobile Motion: multimodal device augmentation for musical applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170517

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

R150 Certificate of patent or registration of utility model

Ref document number: 6164619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250