JP5746423B2 - オブジェクトを遠隔制御するためのアドホック近接センサーメッシュを介したジェスチャー認識 - Google Patents

オブジェクトを遠隔制御するためのアドホック近接センサーメッシュを介したジェスチャー認識 Download PDF

Info

Publication number
JP5746423B2
JP5746423B2 JP2014509290A JP2014509290A JP5746423B2 JP 5746423 B2 JP5746423 B2 JP 5746423B2 JP 2014509290 A JP2014509290 A JP 2014509290A JP 2014509290 A JP2014509290 A JP 2014509290A JP 5746423 B2 JP5746423 B2 JP 5746423B2
Authority
JP
Japan
Prior art keywords
ranging information
movements
sensors
control signals
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014509290A
Other languages
English (en)
Other versions
JP2014517384A (ja
JP2014517384A5 (ja
Inventor
アンソニー・ジー・パーソード
マーク・アール・シュトルヒ
エイドリアン・ジェー・プレンティス
ジョージ・ジョセフ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2014517384A publication Critical patent/JP2014517384A/ja
Publication of JP2014517384A5 publication Critical patent/JP2014517384A5/ja
Application granted granted Critical
Publication of JP5746423B2 publication Critical patent/JP5746423B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/40Applications of devices for transmitting control pulses; Applications of remote control devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Cardiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • User Interface Of Digital Computer (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Description

優先権主張
本出願は、2011年5月4日に出願された「GESTURE RECOGNITION VIA AN AD-HOC PROXIMITY SENSOR MESH FOR REMOTELY CONTROLLING OBJECTS」という名称の米国仮特許出願第61/482,241号の利益を主張する。上述した出願の全体が、参照によって本明細書に組み込まれている。
本明細書に記載する本開示のいくつかの態様は、一般に、モーションキャプチャに関し、より詳細には、車両を遠隔制御するためのアドホック近接センサーメッシュを介したジェスチャー認識に関する。
ボディ追跡システムは、2つの異なる面で進歩してきた。第1に、たとえば、映画およびゲームスタジオによる使用のために、高忠実度で、俳優、運動選手、プレーヤなどの動きを捕捉することができる、プロ級の「モーションキャプチャ」システムが使用可能である。これらのシステムは、一般的にはコストが高く、したがって、消費者級のアプリケーションには適していない。第2に、消費者級のゲームコントローラは、最近、ボタンまたは機械的スイッチに基づくことからプレーヤ運動検出に基づくことへと進んでいる。これらは消費者製品であるので、技術ははるかに低コストであり、一般に、性能の品質もはるかに低い。たとえば、Nintendo Wii(登録商標)システムでは、低コストな慣性センサーは、ゲームプレイを制御するために使用される手の動きを検出することができる。このタイプのゲーム制御の精度に関する問題は、カメラベースのモーションキャプチャの使用の増加を後押ししている。たとえば、Sony PlayStation(登録商標)Moveシステムは、カメラを使用して、ハンドヘルドのゲームコントローラ上の球状の特徴を追跡することができ、この入力が慣性センサーデータと結合されて、動きを検出することができる。さらに、Microsoft Kinect(登録商標)システムは、完全にコントローラを取り除くことができ、従来のカメラと深さ検出カメラとの組合せを使用して、カメラのみを利用してボディの動きを検出することができる。
現在のモーションキャプチャシステムに対するいくつかの領域の懸念がある。第1に、これらのシステムには、検出可能な動きのタイプを制限し、また可能性のあるゲームおよびユーザ対話のタイプを制限する、性能の問題がある。たとえば、カメラシステムは、カメラの視野内にあり、物体または人によってブロックされないものに対してしか働かない。第2に、カメラオーグメンテーションシステムは、静止カメラを搭載し、取り付けることができる環境、最も一般にはリビングルームまたは書斎における動作に制限される。さらに、人体のモーションキャプチャに使用される現在のカメラシステムは、スケーラブルでもなく、また、限定はしないが、遮断、周波数干渉、および天気/採光条件を含むいくつかの制限要因のために、屋外環境で有効に使用することもできない。さらに、3次元(3D)のオブジェクトを操作し、または車両を制御するための大きい2次元(2D)のタッチディスプレイの使用は、ヒューマンジェスチャー認識を使用しなければ、それほど効果的でもなく直観的でもない。
したがって、ボディ追跡性能の向上を可能にし、これらのシステムが、商用アプリケーションで使用されるか、家庭用アプリケーションで使用されるかにかかわらず、ユーザが行きたいところならどこにでも行くことができるようにするための技術の進歩が望まれる。例示的な商用アプリケーションは、様々な環境におけるジェスチャー認識のための正確なモーションキャプチャを含む。例示的な家庭用アプリケーションは、1人または複数人のプレーヤ間のモバイルゲーミング、および屋外であれジムであれ、スポーツパフォーマンスの追跡および訓練を含む。さらに、そのような追跡技術が妥当な価格および充分な性能レベルで使用可能である場合、浮上し得る移動体追跡(mobile body tracking)のための潜在的な用途がはるかにたくさん存在する。
本開示の一態様では、第2のオブジェクトによる第1のオブジェクトの遠隔操作のための装置は、第2のオブジェクトに配置され、レンジング情報を取得するように構成される1つまたは複数のセンサーと、処理システムとを含む。処理システムは、レンジング情報から第2のオブジェクトの1つまたは複数の運動を決定し、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するように構成される。
本開示の別の態様では、第2のオブジェクトによる第1のオブジェクトの遠隔操作のための装置は、第2のオブジェクトに配置され、レンジング情報を取得するように構成される1つまたは複数の感知するための手段と、レンジング情報から第2のオブジェクトの1つまたは複数の運動を決定するための手段と、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するための手段とを含む。
本開示のさらに別の態様では、第2のオブジェクトによる第1のオブジェクトの遠隔操作のための方法は、第2のオブジェクトに配置されるように構成される1つまたは複数のセンサーを介してレンジング情報を取得するステップと、レンジング情報から第2のオブジェクトの1つまたは複数の運動を決定するステップと、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するステップとを含む。
本開示のさらに別の態様では、第2のオブジェクトによる第1のオブジェクトの遠隔操作のためのコンピュータプログラム製品が開示され、コンピュータプログラム製品は、第2のオブジェクトに配置されるように構成される1つまたは複数のセンサーを介してレンジング情報を取得するステップと、レンジング情報から第2のオブジェクトの1つまたは複数の運動を決定するステップと、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するステップとを行うために実行可能な命令を有する機械可読媒体を含む。
本開示のさらに別の態様では、第2のオブジェクトによる第1のオブジェクトの遠隔操作のための遠隔制御システムは、第2のオブジェクトに配置され、レンジング情報を取得するように構成される1つまたは複数のセンサーと、少なくとも1つのアンテナと、処理システムとを含む。処理システムは、レンジング情報から第2のオブジェクトの1つまたは複数の運動を決定し、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成し、少なくとも1つのアンテナを介して、1つまたは複数の制御信号を第1のオブジェクトに送信するように構成される。
本明細書に記載する本開示の上述の特徴を詳細に理解することができるように、添付の図面にその一部を示す態様を参照することによって、上記で簡単に要約したより具体的な説明が得られ得る。ただし、その説明は他の等しく有効な態様に通じ得るので、添付の図面は、本開示のいくつかの典型的な態様のみを示し、したがって、その範囲を限定するものと見なすべきではないことに留意されたい。
本明細書に記載する本開示のいくつかの態様による、近接センサーを利用してヒューマンジェスチャー認識を可能にするアドホック近接センサーメッシュの一例を示す図である。 図1のアドホック近接センサーメッシュを使用したヒューマンジェスチャー認識を介したオブジェクトの遠隔管理のためのシステムの一例を示す図である。 本明細書に記載する本開示のいくつかの態様による、クレーンの制御のために、図2のオブジェクトの遠隔制御のためのシステムを使用することを示すブロック図である。 本明細書に記載する本開示のいくつかの態様による、遠隔オブジェクト管理操作を示すフロー図である。 本明細書に記載する本開示のいくつかの態様による、BANのワイヤレスデバイスにおいて利用され得る様々な構成要素を示すブロック図である。 図4に示す操作を実行することが可能な例示的な手段を示す図である。 オブジェクトを遠隔制御するためのアドホック近接センサーメッシュを介してジェスチャー認識を実施するために使用され得る処理システムを使用する装置のためのハードウェア実装形態の一例を示す図である。
添付の図面を参照しながら本開示の様々な態様について以下でより十分に説明する。ただし、本開示は、多くの異なる形態で具体化され得るものであり、本開示全体にわたって提示される任意の特定の構造または機能に限定されるものと解釈すべきではない。むしろ、これらの態様は、本開示が徹底的で完全になり、本開示の範囲を当業者に十分に伝えるように与えられるものである。本明細書の教示に基づいて、本開示の範囲は、本開示の任意の他の態様とは無関係に実施されるにせよ、本開示の任意の他の態様と組み合わせて実施されるにせよ、本明細書で開示される本開示の任意の態様を包含するものであることを、当業者には諒解されたい。たとえば、本明細書に記載の態様をいくつ使用しても、装置を実装することができ、または方法を実施することができる。さらに、本開示の範囲は、本明細書に記載の本開示の様々な態様に加えてまたはそれらの態様以外に、他の構造、機能、または構造および機能を使用して実施されるそのような装置またはそのような方法を包含するものとする。本明細書で開示される本開示のいずれの態様も請求項の1つまたは複数の要素によって具体化され得ることを理解されたい。
「例示的な」という言葉は、「例、実例、または例示として機能すること」を意味するために本明細書で使用される。「例示的な」ものとして本明細書で説明する何らかの態様は、必ずしも他の態様よりも好ましい、または有利であると解釈されるわけではない。さらに、本明細書では別の特定の態様について説明するが、これらの態様の多くの変形体および置換は本開示の範囲内に入る。好ましい態様のいくつかの利益および利点について説明するが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、様々なワイヤレス技術、システム構成、ネットワーク、および送信プロトコルに広く適用可能であるものとし、そのうちのいくつかを例として図および好ましい態様についての以下の説明で示す。発明を実施するための形態および図面は、限定的なものではなく本開示を説明するものにすぎず、本開示の範囲は添付の特許請求の範囲およびその均等物によって規定される。
一態様では、近接センサーを利用するアドホックメッシュ面を利用して、3Dヒューマンジェスチャー認識を介した車両およびデバイスの遠隔管理を可能にする方法について、本明細書に記載する。この方法は、水平面に複数の近接センサーを配置することによって可搬型の近接センサー面を作成するステップを含む。ユーザは、地上センサーがある時間期間にわたって追跡する特定の四肢に別々のセンサーを装着している。ユーザがそれらの手、足、および体によって異なるジェスチャーを実行すると、地上センサーは、異なるジェスチャーをコマンドと認識し、対応するメインコントローラに送る。メインコントローラは、これらのジェスチャーおよびコマンドを遠隔車両(たとえば、図の建設用クレーン)にワイヤレス中継し、これによって、ユーザは、その車両のアクションを調整することができる(クレーンを下げる/上げる、物を持ち上げるなど)。
本明細書で説明する近接センサーは、Wi-Fiまたはセルフォンによって使用されない高周波数帯域を使用するため、開示される手法は、モーションキャプチャカメラの使用を必要とせず、外部干渉による影響を受けない。さらに、本明細書で説明する近接センサーは、極めて低い電力を利用し、これによって、バッテリシステムでのより長い外部使用が可能になる。1.1Mbpsの5本のチャネルの使用は、ほとんどのデータ集約型の近接データのための十分な転送レートを提供する。近接センサーのメッシュの使用により、ジェスチャーとして捕捉されコマンドとして理解され得る無制限の数の動きをユーザが実行することができる仮想の直方体エリアが作成される。
本明細書で説明する技法は、直交多重化方式およびシングルキャリア伝送に基づく通信システムを含む様々なブロードバンドワイヤレス通信システムに使用され得る。そのような通信システムの例には、直交周波数分割多元接続(OFDMA)システム、シングルキャリア周波数分割多元接続(SC-FDMA)システム、符号分割多元接続(CDMA)などがある。OFDMAシステムは、全システム帯域幅を複数の直交サブキャリアに分割する変調技法である、直交周波数分割多重(OFDM)を利用する。これらのサブキャリアは、トーン、ビンなどと呼ぶこともできる。OFDMでは、各サブキャリアはデータによって独立して変調され得る。SC-FDMAシステムは、システム帯域幅にわたって分散されたサブキャリア上で送信するためのインターリーブされたFDMA(IFDMA)、隣接するサブキャリアのブロック上で送信するための局所FDMA(LFDMA)、または隣接するサブキャリアの複数のブロック上で送信するための拡張FDMA(EFDMA)を利用することができる。一般に、変調シンボルは、OFDMでは周波数領域で、SC-FDMAでは時間領域で送られる。CDMAシステムは、複数のユーザを同じ物理チャネルを介して多重化できるようにするために、送信機(すなわち、ユーザ)にコードが割り当てられる、スペクトラム拡散技術およびコーディング方式を利用することができる。
本明細書の教示は、様々な有線装置もしくはワイヤレス装置、またはノードに組み込まれ、その装置内に実装され、またはその装置によって実行され得る。いくつかの態様では、本明細書の教示に従って実装されるワイヤレスノードは、ボディ搭載ノード、静止推定器ノード、アクセスポイント、アクセス端末などを備えることができる。本明細書に記載する本開示のいくつかの態様は、ボディエリアネットワーク(BAN)において実施される方法をサポートすることができる。BANは、モーションキャプチャのための常時ボディ監視、医学における診断目的などの概念を表す。
図1は、オブジェクトを遠隔制御するために使用され得るアドホック近接メッシュシステムの一例を示す。ワイヤレスシステムは、ワイヤレス受信機101を使用してワイヤレスで提供される近接データを受信する受信機コンソール100を含む。ワイヤレス送信機102によってワイヤレス受信機101に送信される近接データは、ワイヤレスプロトコル103にカプセル化され、マット150によって提供される。
マット150は、特定の実装の要件に応じて任意の数の近接センサーとすることができる複数の近接センサー105〜108を含む。ノードとも呼ばれるこれらの近接センサーの各々は、別のノードと並び得る。マット150は、複数の近接センサー105〜108と、ワイヤレス送信機102に提供される近接データとの間の通信を調整するための中央ノードコーディネータとして働く近接センサー104も含む。本明細書に記載する本開示の別の態様では、複数の近接センサー105〜108の任意の1つが、中央ノードコーディネータとして使用され得る。さらに、ワイヤレス送信機102およびワイヤレス受信機101によって提供される機能は、近接センサーによって提供され得る。
マット150の一態様において、複数の近接センサー105〜108ならびに近接センサー104およびワイヤレス送信機102は、たとえばプラスチックまたは発泡体などの材料から作られた基板に搭載される。別の態様では、マット150は、複数のセンサーが互いに機械的に結合されておらず、しかし、地上または任意の他の面へのそれらの配置によって「マット」または「メッシュ」を形成するという点で、仮想マットとすることができる。したがって、たとえば、複数の近接センサー105〜108および近接センサー104は、単にユーザによって地上に配置され得る。次いで、それらの各々は、レンジングを使用して互いにそれらの位置を決定する。
受信機コンソール100は、ワイヤレス送信機102からデータを受信し、レンジング情報を処理する。ワイヤレス送信機102から受信されるデータは、たとえば、本明細書で説明するように、ボディの運動から検出されるジェスチャーまたは運動情報など、処理された情報を含み得る。さらにまた、ワイヤレス送信機102は、本明細書で説明するように、ジェスチャーおよび運動情報に基づいて、制御およびコマンド情報信号を生成および送信することができる。
図2は、この例では、マット250のワイヤレス送信機202によってワイヤレスに送信される近接およびジェスチャーデータを受信するためのワイヤレス受信機201を含む遠隔車両200である、オブジェクトを制御するために使用されるマット250として示されるマット150におけるアドホック近接センサーメッシュの使用をしている。開示された方法の態様では、ユーザ202は、複数の近接センサー203を装着する。本明細書に記載する本開示の一態様では、ボディに装着されている複数の近接センサー203は、BANの一部として、相互に通信することができる。BANは、ユーザの運動の正確なモーションキャプチャおよびジェスチャー検出を提供するために、マット250上の近接センサー204〜208と通信する。BANおよびマット250は、様々なワイヤレスノードが直交多重化方式またはシングルキャリア伝送のいずれかを使用して通信するワイヤレス通信システムとして見なされ得る。各ボディおよびマット搭載のノードは、ユーザのボディの運動に関連付けられた1つまたは複数の信号を感知(取得)し、遠隔車両200に信号を通信するワイヤレスセンサーを備えることができる。ユーザ202によって装着される近接センサーごと、およびマット250上の近接センサーごとに、線形距離計算が実行される。また、計算は、時間とともに実行される。一態様では、本明細書で説明するワイヤレスノードは、圧縮感知(CS)に従って動作することができ、取得レートは、取得される信号のナイキストレートよりも小さくてもよい。
図3は、ユーザ202が、複数の近接センサー203を着用して、ワイヤレスに遠隔車両213に送られるジェスチャーを行う図2のシステムの使用の具体例を示す。提供される例では、遠隔車両213は、建設用クレーンである。ユーザ202は、様々な身体部分の運動を使用して、遠隔手段213の操作を制御することができる。遠隔制御の一態様では、遠隔車両213を制御するジェスチャーは、1つまたは複数の異なるボディの動きから構成され得る。
図4は、第1のオブジェクトが第2のオブジェクトによって制御される遠隔オブジェクト管理プロセス400を示す。402で、第1のオブジェクトの制御の際に使用するために、第2のオブジェクトに位置する1つまたは複数のセンサーを介して、レンジング情報が取得される。404で、レンジング情報から第2のオブジェクトの1つまたは複数の運動が決定される。406で、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号が生成される。
図5は、図1のシステム内で使用できるワイヤレスデバイス(ワイヤレスノード)500において利用できる様々な構成要素を示す。ワイヤレスデバイス500は、本明細書で説明する様々な方法を実装するように構成され得るデバイスの一例である。ワイヤレスデバイス500は、マット150における近接センサー104および複数の近接センサー105〜108またはユーザ202によって装着される複数の近接センサー203のうちの任意の1つを実装するために使用され得る。
ワイヤレスデバイス500は、ワイヤレスデバイス500の動作を制御するプロセッサ504を含み得る。プロセッサ504は中央処理ユニット(CPU)と呼ばれることもある。読取り専用メモリ(ROM)とランダムアクセスメモリ(RAM)の両方を含み得るメモリ506は、命令とデータとをプロセッサ504に与える。メモリ506の一部分は不揮発性ランダムアクセスメモリ(NVRAM)をも含み得る。プロセッサ504は、一般に、メモリ506内に記憶されたプログラム命令に基づいて論理および算術演算を実行する。メモリ506中の命令は、本明細書で説明する方法を実装するように実行可能であり得る。
ワイヤレスデバイス500は、ワイヤレスデバイス500と遠隔地との間のデータの送信および受信を可能にするために送信機510と受信機512とを含み得るハウジング508をも含み得る。送信機510と受信機512とを組み合わせてトランシーバ514を形成し得る。アンテナ516は、ハウジング508に取り付けられ、トランシーバ514に電気的に結合され得る。ワイヤレスデバイス500は、(図示しない)複数の送信機、複数の受信機、複数のトランシーバ、および/または複数のアンテナを含むこともできる。
ワイヤレスデバイス500は、トランシーバ514によって受信された信号のレベルを検出および定量化するために使用され得る信号検出器518をも含み得る。信号検出器518は、総エネルギー、シンボルごとのサブキャリア当たりのエネルギー、電力スペクトル密度および他の信号などの信号を検出し得る。ワイヤレスデバイス500は、信号を処理する際に使用するためのデジタル信号プロセッサ(DSP)520をも含み得る。
ワイヤレスデバイス500の様々な構成要素は、データバスに加えて、電力バスと、制御信号バスと、ステータス信号バスとを含み得るバスシステム522によって互いに結合され得る。
多くの現在のシステムでは、移動体追跡は、BANに関連付けられたボディに搭載される慣性センサーを使用することができる。ダイナミックレンジの制限、および慣性センサーと共通の推定量のドリフトを被るという点で、これらのシステムは制限され得る。また、ボディの各関節でつながった部分は、全配向推定を必要とし得るので、許容可能なボディ動き推定は、多数のセンサーノード(たとえば、最低15)を必要とし得る。さらに、既存のシステムは、工業グレードの慣性センサーの性能、コストの増大などを必要とし得る。多くの用途では、使いやすさおよびコストは、一般的には、最も重要なものである。したがって、必要な精度を維持しながら、移動体追跡のために必要なノードの数を低減するための新しい方法を開発することが望ましい。
本明細書に記載した本開示の様々な態様では、レンジングは、様々な実装形態で言及される。本明細書で使用するレンジングは、たとえば2つの近接センサーなど、2つのレンジング検出を装備したノード間の距離を決定する感知機構である。レンジは、エラーを補正し、慣性センサーにおけるドリフト成分を推定する能力を提供するために、慣性センサーなど他のセンサーからの測定値と結合され得る。いくつかの態様によれば、1組のボディ搭載ノードは、1つまたは複数の静止地上基準ノード(stationary ground reference node)で検出することができる送信を発することができる。基準ノードは、既知の位置を有し得、ナノ秒の何分の1以内に時刻同期され得る。しかしながら、静止地上基準ノードを利用するソリューションに依存しなければならないことは、その複雑なセットアップ要件のために、多くの用途で実用的ではない可能性がある。したがって、さらなる革新が望まれ得る。
本明細書に記載する本開示のいくつかの態様は、システムが以前の手法の制限を克服することができる様々な機構をサポートし、様々な用途に必要とされる特性を有する製品を可能にする。
「ボディ」という用語が本明細書で使用されているが、記述は、ロボットなどマシンの姿勢を捕捉することにも適用できることに留意されたい。また、提示された技法は、たとえば剣/シールド、スケートボード、ラケット/クラブ/バットなど、アクティビティの小道具の姿勢を捕捉することにも適用できる。
本明細書で説明するように、本明細書で説明する慣性センサーは、加速度計、ジャイロ、または慣性測定ユニット(IMU)などのセンサーを含む。IMUは、加速度計とジャイロの両方の組合せである。これらのセンサーの操作および機能は、当業者であればよく知っている。
レンジングは、2つの装備されたノード間の距離を決定する感知機構である。レンジは、エラーを補正し、慣性センサーにおけるドリフト成分を推定する能力を提供するために、ボディ動き推定器内で慣性センサー測定値と結合され得る。いくつかの態様によれば、1組のボディ搭載ノードは、1つまたは複数の静止地上基準ノードで検出することができる送信を発することができる。基準ノードは、既知の位置を有し得、ナノ秒の何分の1以内に時刻同期され得る。しかしながら、前述のように、このシステムは、その複雑なセットアップ要件のために、消費者級の製品には実用的ではない可能性がある。したがって、さらなる革新が望まれ得る。
開示したシステムの一態様では、ボディ搭載ノードに関連付けられたレンジ情報は、到着時間よりもむしろ信号往復時間に基づいて生成され得る。これは、レンジ推定から2つのノード間の任意のクロック不確定性を除去することができ、したがって、ノードを同期させるための要件を取り除くことができ、このことは、セットアップを劇的に単純化することができる。さらに、「同期のノード」対「非同期のノード」の概念がないので、提案された手法は、すべてのノードを基本的に同じにする。
提案された方法は、異なるボディ装着ノード間を含めて、任意の2つのノード間のレンジを利用することができる。これらのレンジは、ボディの姿勢および動きを推定するために、慣性センサーデータ、およびキネマティックボディモデルによって提供される制約と結合され得る。以前のシステムはボディノードから固定ノードまでのレンジングのみを実行したが、時刻同期要件を取り除くことは、任意の2つのノード間のレンジングの実行を可能にし得る。これらの追加のレンジは、追加のレンジデータが利用可能であるために、また、ボディ相対位置を直接感知するために、動き追跡推定器において非常に貴重であり得る。異なるボディ上のノード間のレンジは、ボディ間の相対位置および姿勢を決定することにも有用であり得る。
高精度の往復時間レンジ、およびボディ上とボディ外の両方のノード間のレンジを使用すると、慣性センサーの数および品質は低減し得る。ノードの数を低減することによって、使用をかなり単純にすることができ、慣性センサーの必要な精度を低減することによって、コストが低減し得る。これらの改善の両方は、消費者製品に適したシステムを生成する際に重要であり得る。
上記で説明した方法の様々な動作は、対応する機能を実行することが可能な任意の適切な手段によって実行され得る。手段は、限定はしないが、回路、特定用途向け集積回路(ASIC)、またはプロセッサを含む、様々なハードウェアおよび/またはソフトウェア構成要素および/またはモジュールを含むことができる。一般に、図に示される動作がある場合、それらの動作は、同様の番号を有する対応する動作のミーンズプラスファンクション構成要素を有し得る。たとえば、図6は、第2のオブジェクトによる第1のオブジェクトの遠隔操作のための装置600の一例を示す。装置600は、第2のオブジェクトに配置され、レンジング情報を取得するように構成される1つまたは複数の感知するための手段602と、レンジング情報から第2のオブジェクトの1つまたは複数の運動を決定するための手段604と、第1のオブジェクトを操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するための手段606とを含む。
さらに、一般に、感知するための手段は、1つまたは複数の近接センサー、たとえば近接センサー105、慣性センサー、またはそれらの任意の組合せを含み得る。送信するための手段は、図5に示した送信機(たとえば、送信機ユニット510)および/またはアンテナ516を備え得る。受信するための手段は、図5に示した受信機(たとえば、受信機ユニット512)および/またはアンテナ516を備え得る。処理のための手段、決定するための手段、または使用するための手段は、図5に示されるプロセッサ504など、1つまたは複数のプロセッサを含み得る処理システムを備え得る。
図7は、処理システム714を使用するコンソール100のハードウェア実装形態100'の一例を示す図である。装置100'は、トランシーバ710に結合される処理システム714を含む。トランシーバ710は、1つまたは複数のアンテナ720に結合される。トランシーバ710は、送信媒体上の様々な他の装置と通信するための手段を提供する。たとえば、トランシーバ710は、ユーザによって装着されるものなど、複数の近接センサー708a〜708nと通信することができる。処理システム714は、コンピュータ可読媒体706に結合されたプロセッサ704を含む。プロセッサ704は、コンピュータ可読媒体706上に記憶されたソフトウェアの実行を含む全般的な処理を受け持つ。ソフトウェアは、プロセッサ704によって実行されると、任意の特定の装置の上記で説明した様々な機能を処理システム714に実行させる。コンピュータ可読媒体706は、ソフトウェアを実行するときにプロセッサ704によって操作されるデータを記憶するために使用されてもよい。
処理システム714は、複数の近接センサー708a〜708bからレンジング情報を取得するためのモジュール732を含む。レンジング情報は、たとえば遠隔車両200などのオブジェクトを制御するために使用される。処理システム714は、レンジング情報からユーザの運動を決定するためのモジュール734、および被制御オブジェクト752を操作するための1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するためのモジュール736をさらに含む。一態様では、コンソール100は、被制御オブジェクト752として図7に示される遠隔車両200の一部として統合することができる。モジュールは、コンピュータ可読媒体706に常駐する/記憶される、プロセッサ704で動作しているソフトウェアモジュール、プロセッサ704に結合された1つもしくは複数のハードウェアモジュール、またはそれらのいくつかの組合せとすることができる。
本明細書で使用する際、「決定すること」という用語は、様々なアクションを含む。たとえば、「決定すること」は、算出すること、計算すること、処理すること、導出すること、調査すること、検索すること(たとえば、テーブル、データベース、または別のデータ構造を検索すること)、確認することなどを含み得る。また、「決定すること」は、受信すること(たとえば、情報を受信すること)、アクセスすること(たとえば、メモリ内のデータにアクセスすること)などを含む場合がある。また、「決定すること」は、解決すること、選択すること、選出すること、確立することなどを含むことができる。
本明細書に記載した本開示に関して説明した様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス(PLD)、個別ゲートまたはトランジスタ論理、個別ハードウェア構成要素、あるいは本明細書で説明する機能を実行するように設計されたそれらの任意の組合せで実装または実行することができる。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の市販のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成として実装され得る。
本明細書で開示された方法は、記載の方法を達成するための1つまたは複数のステップまたはアクションを含む。方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなく、互いに交換され得る。言い換えれば、ステップまたはアクションの特定の順序が指定されていない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲から逸脱することなく修正することができる。本明細書に記載した本開示に関して説明する方法またはアルゴリズムのステップは、直接ハードウェアで実施されるか、プロセッサによって実行されるソフトウェアモジュールで実施されるか、またはその2つの組合せで実施され得る。ソフトウェアモジュールは、当技術分野で知られている任意の形式の記憶媒体内に常駐することができる。使用され得る記憶媒体のいくつかの例には、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、取外し可能ディスク、CD-ROMなどがある。ソフトウェアモジュールは、単一の命令、または多数の命令を備えることができ、いくつかの異なるコードセグメント上で、異なるプログラム間で、および複数の記憶媒体にわたって分散され得る。記憶媒体は、プロセッサがその記憶媒体から情報を読み取ることができ、その記憶媒体に情報を書き込むことができるように、プロセッサに結合され得る。代替として、記憶媒体はプロセッサに一体化され得る。
説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ハードウェアで実装される場合、例示的なハードウェア構成は、ワイヤレスノード内の処理システムを備え得る。処理システムは、バスアーキテクチャを用いて実装され得る。バスは、処理システムの特定の適用例および全体的な設計制約に応じて、任意の数の相互接続バスおよびブリッジを含み得る。バスは、プロセッサと、機械可読媒体と、バスインターフェースとを含む様々な回路を互いにリンクし得る。バスインターフェースは、とりわけ、ネットワークアダプタを、バスを介して処理システムに接続するために使用され得る。ネットワークアダプタは、PHY層の信号処理機能を実施するために使用され得る。ユーザ端末の場合、ユーザインターフェース(たとえば、キーパッド、ディスプレイ、マウス、ジョイスティックなど)をバスに接続することもできる。バスは、タイミングソース、周辺機器、電圧調整器、電力管理回路など様々な他の回路をリンクさせることも可能であり、これは当技術分野ではよく知られているので、これ以上説明しない。
プロセッサは、機械可読媒体に記憶されたソフトウェアの実行を含む、バスおよび一般的な処理を管理する役割を担うことができる。プロセッサは、1つまたは複数の汎用および/または専用プロセッサを用いて実装され得る。例としては、マイクロプロセッサ、マイクロコントローラ、DSPプロセッサ、およびソフトウェアを実行することができる他の回路がある。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはその他の名称で呼ばれるかどうかにかかわらず、命令、データ、またはそれらの任意の組合せを意味するように広く解釈されるものである。機械可読媒体は、例として、RAM(ランダムアクセスメモリ)、フラッシュメモリ、ROM(読取り専用メモリ)、PROM(プログラマブル読取り専用メモリ)、EPROM(消去可能プログラマブル読取り専用メモリ)、EEPROM(電気的消去可能プログラマブル読取り専用メモリ)、レジスタ、磁気ディスク、光ディスク、ハードドライブ、もしくは任意の他の適切な記憶媒体、またはそれらの任意の組合せを含むことができる。機械可読媒体はコンピュータプログラム製品で具体化され得る。コンピュータプログラム製品は、パッケージング材料を備え得る。
ハードウェア実装形態では、機械可読媒体は、プロセッサとは別個の処理システムの一部であり得る。しかし、当業者なら容易に理解するように、機械可読媒体またはその任意の部分は処理システムの外部に存在することができる。例として、機械可読媒体は、すべてバスインターフェースを介してプロセッサがアクセスし得る、送信線路、データによって変調された搬送波、および/またはワイヤレスノードとは別個のコンピュータ製品を含み得る。代替的または追加的に、機械可読媒体またはその任意の部分は、キャッシュおよび/または汎用レジスタファイルがそうであるようにプロセッサに統合することができる。
処理システムは、すべて外部バスアーキテクチャを介して他のサポート回路と互いにリンクされる、プロセッサ機能を与える1つまたは複数のマイクロプロセッサと、機械可読媒体の少なくとも一部分を与える外部メモリとを有する汎用処理システムとして構成され得る。代替的に、処理システムは、プロセッサを有するASIC(特定用途向け集積回路)と、バスインターフェースと、アクセス端末の場合はユーザインターフェースと、サポート回路と、単一のチップに統合された機械可読媒体の少なくとも一部分とを用いて、あるいは1つまたは複数のFPGA(フィールドプログラマブルゲートアレイ)、PLD(プログラマブル論理デバイス)、コントローラ、状態機械、ゲート論理、個別ハードウェア構成要素、もしくは任意の他の適切な回路、または本開示全体にわたって説明した様々な機能を実行することができる回路の任意の組合せを用いて、実装され得る。当業者なら、特定の適用例および全体的なシステムに課される全体的な設計制約に応じて、どのようにしたら処理システムについて説明した機能を最も良く実装できるかを理解されよう。
機械可読媒体は、いくつかのソフトウェアモジュールを備え得る。ソフトウェアモジュールは、プロセッサによって実行されたときに、処理システムに様々な機能を実行させる命令を含む。ソフトウェアモジュールは、送信モジュールと受信モジュールとを含み得る。各ソフトウェアモジュールは、単一の記憶デバイス内に常駐することができ、または複数の記憶デバイスに分散することができる。例として、トリガイベントが発生したときに、ソフトウェアモジュールをハードドライブからRAMにロードすることができる。ソフトウェアモジュールの実行中、プロセッサは、アクセス速度を高めるために、命令のいくつかをキャッシュにロードすることができる。次いで、1つまたは複数のキャッシュラインを、プロセッサによる実行のために汎用レジスタファイルにロードすることができる。以下でソフトウェアモジュールの機能に言及する場合、そのような機能は、そのソフトウェアモジュールからの命令を実行したときにプロセッサによって実装されることが理解されよう。
ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され得る。コンピュータ可読媒体は、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む、コンピュータ記憶媒体とコンピュータ通信媒体の両方を含む。記憶媒体は、コンピュータによってアクセスすることができる任意の利用可能な媒体であり得る。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気記憶デバイス、あるいは命令またはデータ構造の形態の所望のプログラムコードを搬送または記憶するために使用することができ、コンピュータによってアクセスすることができる任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線(IR)、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。本明細書で使用する場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザディスク、光ディスク、デジタル多用途ディスク(DVD)、フレキシブルディスク、およびブルーレイ(登録商標)ディスクを含み、ディスク(disk)は、通常、磁気的にデータを再生し、ディスク(disc)は、レーザで光学的にデータを再生する。したがって、いくつかの態様では、コンピュータ可読媒体は、非一時的なコンピュータ可読媒体(たとえば、有形媒体)を備え得る。さらに、他の態様では、コンピュータ可読媒体は、一時的なコンピュータ可読媒体(たとえば、信号)を備え得る。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
したがって、いくつかの態様は、本明細書で提示する動作を実行するためのコンピュータプログラム製品を含むことができる。たとえば、そのようなコンピュータプログラム製品は、本明細書で説明した動作を実行するために1つまたは複数のプロセッサによって実行可能である命令を記憶した(および/または符号化した)コンピュータ可読媒体を備え得る。いくつかの態様では、コンピュータプログラム製品はパッケージング材料を含み得る。
さらに、本明細書で説明する方法および技法を実行するためのモジュールおよび/または他の適切な手段は、適用可能な場合、ユーザ端末および/または基地局によってダウンロードされ得、および/またはその他の方法で得られ得ることを諒解されたい。たとえば、そのようなデバイスは、本明細書で説明する方法を実施するための手段の転送を容易にするために、サーバに結合することができる。代わりに、本明細書で説明した様々な方法は、ユーザ端末および/または基地局が、記憶手段をデバイスに結合したすぐ後、または提供したすぐ後に、様々な方法を得ることができるように、記憶手段(たとえば、RAM、ROM、コンパクトディスク(CD)またはフレキシブルディスクなどの物理的記憶媒体など)を介して提供することができる。さらに、本明細書で説明する方法および技法をデバイスに与えるための任意の他の適切な技法を利用することができる。
本明細書で説明したように、本明細書に記載した本開示のワイヤレスデバイスノードは、ワイヤレスデバイスによって送信されるか、またはワイヤレスデバイスで受信される信号に基づいて機能を実行する様々な構成要素を含んでもよい。ワイヤレスデバイスはまた、着用可能なワイヤレスデバイスを指し得る。いくつかの態様では、着用可能なワイヤレスデバイスは、ワイヤレスヘッドセットまたはワイヤレスウォッチを備え得る。たとえば、ワイヤレスヘッドセットは、受信機を介して受信されるデータに基づいて音声出力を提供するように適合された、トランスデューサを含んでもよい。ワイヤレスウォッチは、受信機を介して受信されるデータに基づいて表示を提供するように適合された、ユーザインターフェースを含んでもよい。ワイヤレス感知デバイスは、送信機を介して送信されるデータを提供するように適合されたセンサーを含んでもよい。
ワイヤレスデバイスは、任意の適切なワイヤレス通信技術に基づく、あるいは任意の適切なワイヤレス通信技術をサポートする、1つまたは複数のワイヤレス通信リンクを介して通信することができる。たとえば、いくつかの態様では、ワイヤレスデバイスはネットワークと関連していてもよい。いくつかの態様において、ネットワークは、超広帯域技術または何らかの他の適切な技術を使用して実施されるパーソナルエリアネットワーク(たとえば、30メートル程度のワイヤレスカバレージエリアをサポートする)、またはボディエリアネットワーク(たとえば、60メートル程度のワイヤレスカバレージエリアをサポートする)を備え得る。いくつかの態様では、ネットワークは、ローカルエリアネットワークまたはワイドエリアネットワークを備えてもよい。ワイヤレスデバイスは、たとえばCDMA、TDMA、OFDM、OFDMA、WiMAX、およびWi-Fiなど、様々なワイヤレス通信技術、プロトコル、または規格のうちの1つまたは複数をサポートし、あるいはその他の形で使用してもよい。同様に、ワイヤレスデバイスは、様々な対応する変調または多重化方式のうちの1つまたは複数をサポート、または場合によっては使用してもよい。したがって、ワイヤレスデバイスは、上記または他のワイヤレス通信技術を使用して1つまたは複数のワイヤレス通信リンクを確立し、それを介して通信するために適切な構成要素(たとえばエアインターフェース)を含んでもよい。たとえば、デバイスは、ワイヤレス媒体を介した通信を可能にする様々な構成要素(たとえば、信号生成器および信号プロセッサ)を含み得る、関連する送信機および受信機の構成要素(たとえば、送信機510および受信機512)を有するワイヤレス送受信機を備えてもよい。
本明細書の教示は、様々な装置(たとえばデバイス)に組み込まれ得る(たとえば、その装置内に実装され、またはその装置によって実行され得る)。たとえば、本明細書で教示する1つまたは複数の態様は、電話(たとえばセルラー電話)、携帯情報端末(「PDA」)またはいわゆるスマートフォン、エンターテインメントデバイス(たとえば音楽もしくはビデオデバイスを含むポータブルメディアデバイス)、ヘッドセット(たとえばヘッドフォン、イヤホンなど)、マイクロフォン、医療用感知デバイス(たとえば生体センサー、心拍数モニタ、歩数計、EKGデバイス、スマートバンデージなど)、ユーザI/Oデバイス(たとえば時計、遠隔制御装置、照明スイッチ、キーボード、マウスなど)、環境感知デバイス(タイヤ圧力モニタ)、医療用または環境感知デバイスからデータを受信することができる監視デバイス(デスクトップ、モバイルコンピュータなど)、POSデバイス、補聴器、セットトップボックス、または任意の他の適切なデバイスに組み込まれ得る。監視デバイスは、ネットワークとの接続を介して、異なる感知デバイスからデータへのアクセスを有することもできる。これらのデバイスは、様々な電力要件およびデータ要件を有し得る。いくつかの態様では、本明細書の教示は、(たとえばインパルスベースの信号方式および低デューティサイクルモードの使用によって)低電力アプリケーションでの使用に適合されてもよく、また(たとえば高帯域パルスの使用による)比較的高いデータレートを含む様々なデータレートをサポートしてもよい。
いくつかの態様では、ワイヤレスデバイスは、通信システムのためのアクセスデバイス(たとえばアクセスポイント)を備えてもよい。そのようなアクセスデバイスは、たとえば、有線またはワイヤレス通信リンクを介した別のネットワーク(たとえば、インターネットまたはセルラーネットワークなどのワイドエリアネットワーク)への接続性を提供してもよい。したがって、アクセスデバイスは、別のデバイス(たとえば無線局)が他のネットワークまたは何らかの他の機能にアクセスすることを可能にし得る。さらに、デバイスのうちの1つまたは両方は携帯型であってもよく、または場合によっては比較的非携帯型であってもよいことを諒解されたい。また、ワイヤレスデバイスは、適切な通信インターフェースを介して非ワイヤレスの方法(たとえば、有線の接続を介して)で情報を送信し、および/または受信することもでき得ることを諒解されたい。
上記の説明は、本明細書で説明される様々な態様を当業者が実施できるようにするために与えられる。これらの態様への様々な変更は当業者には容易に明らかであり、本明細書で定義した一般的原理は他の態様に適用され得る。したがって、請求項は本明細書で示す態様に限定されるよう意図されているわけではなく、請求項の文言と整合するすべての範囲を許容するように意図されており、単数の要素への言及は、そのように明記されていない限り、「唯一無二の」ではなく、「1つまたは複数の」を意味するよう意図されている。別段に明記されていない限り、「いくつかの」という用語は「1つまたは複数の」を意味する。項目の列挙「のうちの少なくとも1つ」という語句は、単一の要素を含め、それらの項目の任意の組合せを意味する。たとえば、「a、bまたはcのうちの少なくとも1つ」は、「a」、「b」、「c」、「aおよびb」、「aおよびc」、「bおよびc」、「a、bおよびc」を含むことが意図されている。当業者が知っているか、後に知ることになる、本開示全体にわたって説明された様々な態様の要素と構造的かつ機能的に同等のものはすべて、参照により本明細書に明確に組み込まれ、請求項によって包含されることが意図される。また、本明細書で開示する内容は、そのような開示が請求項で明記されているか否かに関わりなく、公に供することは意図されていない。請求項のいかなる要素も、「のための手段」という語句を使用して要素が明記されている場合、または方法クレームで「のためのステップ」という語句を使用して要素が記載されている場合を除き、米国特許法第112条第6項の規定に基づき解釈されることはない。
100 受信機コンソール
100' ハードウェア実装
101 ワイヤレス受信機
102 ワイヤレス送信機
103 ワイヤレスプロトコル
104 近接センサー
105 近接センサー
106 近接センサー
107 近接センサー
108 近接センサー
150 マット
200 遠隔車両
201 ワイヤレス受信機
202 ワイヤレス送信機
203 近接センサー
204 近接センサー
205 近接センサー
206 近接センサー
207 近接センサー
208 近接センサー
213 遠隔車両
250 マット
400 遠隔オブジェクト管理プロセス
500 ワイヤレスデバイス
504 プロセッサ
506 メモリ
510 送信機ユニット
512 受信機ユニット
516 アンテナ
518 信号検出器
520 デジタル信号プロセッサ(DSP)
522 バスシステム
600 装置
704 プロセッサ
706 コンピュータ可読媒体
708a 近接センサー
708n 近接センサー
710 トランシーバ
714 処理システム
720 アンテナ
732 モジュール
734 モジュール
736 モジュール
752 被制御オブジェクト

Claims (25)

  1. 第2のオブジェクトによる第1のオブジェクトの遠隔操作のための装置であって、
    第1のレンジング情報を取得するように構成される複数の第1のセンサーと、
    前記複数の第1のセンサーと通信を行う複数の第2のセンサーであって、前記第2のオブジェクトに配置され、第2のレンジング情報を取得するように構成される複数の第2のセンサーと、
    前記第2のレンジング情報から前記第2のオブジェクトの1つまたは複数の運動を決定し、
    前記第1のオブジェクトを操作するための前記1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するように構成される処理システムと
    を備える装置。
  2. 前記複数の第1のセンサーが平面に配置され、
    前記複数の第2のセンサーがボディエリアネットワークの一部を形成し、
    記処理システムが、前記第1のレンジング情報および前記第2のレンジング情報から前記1つまたは複数の運動を決定するようにさらに構成される、請求項1に記載の装置。
  3. 前記処理システムによって生成された前記1つまたは複数の制御信号が、前記第2のオブジェクトの前記1つまたは複数の運動を模倣する前記第1のオブジェクトの少なくとも1つの運動をもたらすように構成される、請求項1に記載の装置。
  4. 前記1つまたは複数の運動が1つまたは複数のジェスチャーを含む、請求項1に記載の装置。
  5. 前記1つまたは複数の制御信号を前記第1のオブジェクトに送信するように構成される送信機をさらに備える、請求項1に記載の装置。
  6. 前記第2のオブジェクトが人体の一部を含む、請求項1に記載の装置。
  7. 第2のオブジェクトによる第1のオブジェクトの遠隔操作のための装置であって、
    第1のレンジング情報を取得するように構成される複数の第1の感知するための手段と、
    前記複数の第1の感知するための手段と通信を行う複数の第2の感知するための手段であって、前記第2のオブジェクトに配置され、第2のレンジング情報を取得するように構成される複数の第2の感知するための手段と、
    前記第2のレンジング情報から前記第2のオブジェクトの1つまたは複数の運動を決定するための手段と、
    前記第1のオブジェクトを操作するための前記1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するための手段と
    を備える装置。
  8. 前記複数の第1の感知するための手段が平面に配置され、
    前記複数の第2の感知するための手段がボディエリアネットワークの一部を形成し、
    前記第2のレンジング情報から前記1つまたは複数の運動を決定するための手段が、前記第1のレンジング情報および前記第2のレンジング情報から前記1つまたは複数の運動を決定するようにさらに構成される、請求項7に記載の装置。
  9. 前記1つまたは複数の制御信号を生成するための前記手段が、前記第2のオブジェクトの前記1つまたは複数の運動を模倣する前記第1のオブジェクトの少なくとも1つの運動をもたらすように構成される、請求項7に記載の装置。
  10. 前記1つまたは複数の運動が1つまたは複数のジェスチャーを含む、請求項7に記載の装置。
  11. 前記1つまたは複数の制御信号を前記第1のオブジェクトに送信するように構成される送信機手段をさらに備える、請求項7に記載の装置。
  12. 前記第2のオブジェクトが人体の一部を含む、請求項7に記載の装置。
  13. 第2のオブジェクトによる第1のオブジェクトの遠隔操作のための方法であって、
    複数の第1のセンサーを介して第1のレンジング情報を取得するステップと、
    前記第2のオブジェクトに配置されるように構成される複数の第2のセンサーを介して第2のレンジング情報を取得するステップであって、前記複数の第2のセンサーが前記複数の第1のセンサーと通信を行うようにさらに構成される、ステップと、
    前記第2のレンジング情報から前記第2のオブジェクトの1つまたは複数の運動を決定するステップと、
    前記第1のオブジェクトを操作するための前記1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するステップと
    を備える方法。
  14. 前記複数の第1のセンサーが平面に配置され、
    前記複数の第2のセンサーがボディエリアネットワークの一部を形成し、
    第2のレンジング情報から前記第2のオブジェクトの前記1つまたは複数の運動を決定するステップが、前記第1のレンジング情報および前記第2のレンジング情報から前記1つまたは複数の運動を決定するステップを含む、請求項13に記載の方法。
  15. 処理システムによって生成される前記1つまたは複数の制御信号を介して、前記第2のオブジェクトの前記1つまたは複数の運動を模倣する前記第1のオブジェクトの少なくとも1つの運動をもたらすステップをさらに備える、請求項13に記載の方法。
  16. 前記1つまたは複数の運動が1つまたは複数のジェスチャーを含む、請求項13に記載の方法。
  17. 送信機を介して前記1つまたは複数の制御信号を前記第1のオブジェクトに送信するステップをさらに備える、請求項13に記載の方法。
  18. 前記第2のオブジェクトが人体の一部を含む、請求項13に記載の方法。
  19. 第2のオブジェクトによる第1のオブジェクトの遠隔操作のためのコンピュータプログラムであって、
    複数の第1のセンサーを介して第1のレンジング情報を取得するステップと、
    前記第2のオブジェクトに配置されるように構成される複数の第2のセンサーを介して第2のレンジング情報を取得するステップであって、前記複数の第2のセンサーが前記複数の第1のセンサーと通信を行うようにさらに構成される、ステップと、
    前記第2のレンジング情報から前記第2のオブジェクトの1つまたは複数の運動を決定するステップと、
    前記第1のオブジェクトを操作するための前記1つまたは複数の運動に関連する1つまたは複数の制御信号を生成するステップと
    を行うためにコンピュータにより実行可能な命令を備える、コンピュータプログラム。
  20. 前記複数の第1のセンサーが平面に配置され、
    前記複数の第2のセンサーがボディエリアネットワークの一部を形成し、
    第2のレンジング情報から前記第2のオブジェクトの前記1つまたは複数の運動を決定するステップが、前記第1のレンジング情報および前記第2のレンジング情報から前記1つまたは複数の運動を決定するステップを含む、請求項19に記載のコンピュータプログラム。
  21. 処理システムによって生成される前記1つまたは複数の制御信号を介して、前記第2のオブジェクトの前記1つまたは複数の運動を模倣する前記第1のオブジェクトの少なくとも1つの運動をもたらすステップを行うために実行可能な命令をさらに備える、請求項19に記載のコンピュータプログラム。
  22. 前記1つまたは複数の運動が1つまたは複数のジェスチャーを含む、請求項19に記載のコンピュータプログラム。
  23. 送信機を介して前記1つまたは複数の制御信号を前記第1のオブジェクトに送信するステップを行うために実行可能な命令をさらに備える、請求項19に記載のコンピュータプログラム。
  24. 前記第2のオブジェクトが人体の一部を含む、請求項19に記載のコンピュータプログラム。
  25. 第2のオブジェクトによる第1のオブジェクトの遠隔操作のための遠隔制御システムであって、
    第1のレンジング情報を取得するように構成される複数の第1のセンサーと、
    前記複数の第1のセンサーと通信を行う複数の第2のセンサーであって、前記第2のオブジェクトに配置され、第2のレンジング情報を取得するように構成される複数の第2のセンサーと、
    少なくとも1つのアンテナと、
    前記第2のレンジング情報から前記第2のオブジェクトの1つまたは複数の運動を決定
    前記第1のオブジェクトを操作するための前記1つまたは複数の運動に関連する1つまたは複数の制御信号を生成し、
    前記少なくとも1つのアンテナを介して、前記1つまたは複数の制御信号を前記第1のオブジェクトに送信するように構成される処理システムと
    を備える遠隔制御システム。
JP2014509290A 2011-05-04 2012-03-02 オブジェクトを遠隔制御するためのアドホック近接センサーメッシュを介したジェスチャー認識 Expired - Fee Related JP5746423B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161482241P 2011-05-04 2011-05-04
US61/482,241 2011-05-04
US13/274,526 US8831794B2 (en) 2011-05-04 2011-10-17 Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects
US13/274,526 2011-10-17
PCT/US2012/027585 WO2012150996A1 (en) 2011-05-04 2012-03-02 Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects

Publications (3)

Publication Number Publication Date
JP2014517384A JP2014517384A (ja) 2014-07-17
JP2014517384A5 JP2014517384A5 (ja) 2014-11-13
JP5746423B2 true JP5746423B2 (ja) 2015-07-08

Family

ID=47090794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014509290A Expired - Fee Related JP5746423B2 (ja) 2011-05-04 2012-03-02 オブジェクトを遠隔制御するためのアドホック近接センサーメッシュを介したジェスチャー認識

Country Status (6)

Country Link
US (1) US8831794B2 (ja)
EP (1) EP2704807A1 (ja)
JP (1) JP5746423B2 (ja)
KR (1) KR101528545B1 (ja)
CN (1) CN103501867B (ja)
WO (1) WO2012150996A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8443202B2 (en) 2009-08-05 2013-05-14 Daon Holdings Limited Methods and systems for authenticating users
US9094813B2 (en) * 2011-04-02 2015-07-28 Open Invention Network, Llc System and method for redirecting content based on gestures
US9285481B2 (en) * 2012-08-20 2016-03-15 Macdonald, Dettwiler And Associates Inc. Wearable object locator and imaging system
DE102012216193B4 (de) * 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
KR102330889B1 (ko) * 2013-02-22 2021-11-26 페이스북 테크놀로지스, 엘엘씨 제스처-기반 제어를 위해 근활성도 센서 신호와 관성 센서 신호를 결합하는 방법 및 기기
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
DE102013220305A1 (de) * 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Methode zur Erkennung von Anweisungen von autorisierten Personen im Straßenverkehr
EP3245856B1 (de) * 2014-06-18 2019-11-20 Deere & Company Anordnung zur kontrolle einer geräteschnittstelle eines landwirtschaftlichen arbeitsfahrzeugs
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
WO2016140913A1 (en) * 2015-03-02 2016-09-09 Hodgson Riaan Method and apparatus for enhancing a gaming experience
DE202016002296U1 (de) * 2016-04-08 2017-07-12 Liebherr-Components Biberach Gmbh Baumaschine
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
CN106966300B (zh) * 2017-05-24 2018-07-06 成都跟驰科技有限公司 用于塔吊的感应控制系统
GB2569774A (en) * 2017-10-20 2019-07-03 Kompetenzzentrum Das Virtuelle Fahrzeug Method for virtual testing of real environments with pedestrian interaction and drones
US10852411B2 (en) 2017-12-06 2020-12-01 Cognitive Systems Corp. Motion detection and localization based on bi-directional channel sounding
US10477355B1 (en) * 2017-12-13 2019-11-12 Amazon Technologies, Inc. System for locating users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11579703B2 (en) * 2018-06-18 2023-02-14 Cognitive Systems Corp. Recognizing gestures based on wireless signals
CN112567102B (zh) * 2018-08-10 2023-04-25 住友建机株式会社 挖土机
US10849006B1 (en) 2019-04-30 2020-11-24 Cognitive Systems Corp. Controlling measurement rates in wireless sensing systems
US10743143B1 (en) 2019-05-15 2020-08-11 Cognitive Systems Corp. Determining a motion zone for a location of motion detected by wireless signals
CA3147946A1 (en) 2019-08-06 2021-02-11 Boxine Gmbh Server for providing media files for download by a user, and system and method
US10924889B1 (en) 2019-09-30 2021-02-16 Cognitive Systems Corp. Detecting a location of motion using wireless signals and differences between topologies of wireless connectivity
CA3152900A1 (en) 2019-10-31 2021-05-06 Christopher Beg Eliciting mimo transmissions from wireless communication devices
US11012122B1 (en) 2019-10-31 2021-05-18 Cognitive Systems Corp. Using MIMO training fields for motion detection
US11570712B2 (en) 2019-10-31 2023-01-31 Cognitive Systems Corp. Varying a rate of eliciting MIMO transmissions from wireless communication devices
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US10928503B1 (en) 2020-03-03 2021-02-23 Cognitive Systems Corp. Using over-the-air signals for passive motion detection
CN111537988B (zh) * 2020-03-31 2023-04-18 北京小米移动软件有限公司 角色控制方法、角色控制装置及计算机可读存储介质
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
CN116058071A (zh) 2020-08-31 2023-05-02 认知系统公司 控制标准化无线通信网络中的运动拓扑结构
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11070399B1 (en) 2020-11-30 2021-07-20 Cognitive Systems Corp. Filtering channel responses for motion detection
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5341459A (en) * 1991-05-09 1994-08-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Generalized compliant motion primitive
JP3862348B2 (ja) * 1997-03-19 2006-12-27 東京電力株式会社 モーションキャプチャシステム
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US6413190B1 (en) 1999-07-27 2002-07-02 Enhanced Mobility Technologies Rehabilitation apparatus and method
US6888362B2 (en) 2000-11-09 2005-05-03 Formfactor, Inc. Test head assembly for electronic components with plurality of contoured microelectronic spring contacts
US6675130B2 (en) 2000-12-21 2004-01-06 Ibm Corporation System and method of using a plurality of sensors for determining an individual's level of productivity
JP2002361576A (ja) * 2001-06-05 2002-12-18 Toshiba Corp 3次元空間内サービス提供システム
JP3837479B2 (ja) * 2001-09-17 2006-10-25 独立行政法人産業技術総合研究所 動作体の動作信号生成方法、その装置及び動作信号生成プログラム
ATE328319T1 (de) * 2002-03-08 2006-06-15 Revelations In Design Lp Steuerkonsole für elektrische geräte
CN1784612A (zh) * 2003-03-11 2006-06-07 梅纳谢有限公司 射频运动跟踪系统和方法
US7009561B2 (en) 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US7445138B2 (en) * 2004-05-19 2008-11-04 Conrad Chu Passive exoskeleton
CA2578653A1 (en) 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US20060207409A1 (en) * 2005-03-17 2006-09-21 K Group Industries (Far East) Ltd. Control of functions and sounds using electronic hand glove
US20080191864A1 (en) 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
US20080214305A1 (en) 2005-05-13 2008-09-04 David Ralph Addington System and method for interfacing a simulation device with a gaming device
US20070109324A1 (en) * 2005-11-16 2007-05-17 Qian Lin Interactive viewing of video
US7602301B1 (en) 2006-01-09 2009-10-13 Applied Technology Holdings, Inc. Apparatus, systems, and methods for gathering and processing biometric and biomechanical data
US20070296571A1 (en) * 2006-06-13 2007-12-27 Kolen Paul T Motion sensing in a wireless rf network
US8849457B2 (en) * 2006-07-17 2014-09-30 Raytheon Company Contact displacement actuator system
US7706896B2 (en) * 2006-09-29 2010-04-27 Nellcor Puritan Bennett Llc User interface and identification in a medical device system and method
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US20080228045A1 (en) * 2007-02-23 2008-09-18 Tia Gao Multiprotocol Wireless Medical Monitors and Systems
KR20090002072A (ko) * 2007-06-04 2009-01-09 이민화 생리적 신호를 이용한 차량의 전자 디바이스들의 제어
US20090029754A1 (en) 2007-07-23 2009-01-29 Cybersports, Inc Tracking and Interactive Simulation of Real Sports Equipment
US20090098519A1 (en) * 2007-10-10 2009-04-16 Jennifer Byerly Device and method for employment of video games to provide physical and occupational therapy and measuring and monitoring motor movements and cognitive stimulation and rehabilitation
US8214098B2 (en) 2008-02-28 2012-07-03 The Boeing Company System and method for controlling swarm of remote unmanned vehicles through human gestures
US20090221338A1 (en) 2008-02-29 2009-09-03 Benjamin Stewart Physical exercise video game method and apparatus
US8427304B2 (en) * 2008-05-05 2013-04-23 Andy Wike Proximity system for portable electronic devices and associated methods for operating the same
US20090280901A1 (en) 2008-05-09 2009-11-12 Dell Products, Lp Game controller device and methods thereof
JP5163291B2 (ja) * 2008-06-02 2013-03-13 ソニー株式会社 入力装置、制御装置、制御システム及び制御方法
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
KR101483713B1 (ko) 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
US8187182B2 (en) * 2008-08-29 2012-05-29 Dp Technologies, Inc. Sensor fusion for activity identification
KR20100026334A (ko) 2008-08-29 2010-03-10 김진우 모델 주위를 비행하는 비행체의 비행 시스템과 비행 제어방법 및 그 비행시스템의 관제시스템
US8516561B2 (en) * 2008-09-29 2013-08-20 At&T Intellectual Property I, L.P. Methods and apparatus for determining user authorization from motion of a gesture-based control unit
WO2010049848A1 (en) * 2008-10-29 2010-05-06 Koninklijke Philips Electronics N.V. Control unit for a system and method for providing feedback to a user
US20100184564A1 (en) 2008-12-05 2010-07-22 Nike, Inc. Athletic Performance Monitoring Systems and Methods in a Team Sports Environment
KR101690317B1 (ko) * 2009-02-26 2016-12-27 코닌클리케 필립스 엔.브이. 운동 시스템 및 통신을 위한 방법
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US20100304931A1 (en) 2009-05-27 2010-12-02 Stumpf John F Motion capture system
US8803889B2 (en) * 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
WO2010143361A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 作業認識システム、作業認識装置および作業認識方法
US20110010024A1 (en) 2009-07-01 2011-01-13 Curt Salisbury System and method for accompanying a user with an automated vehicle
KR20110016521A (ko) * 2009-08-12 2011-02-18 삼성전자주식회사 인간형 로봇의 전신 동작 제어 장치 및 그 방법
US8482678B2 (en) * 2009-09-10 2013-07-09 AFA Micro Co. Remote control and gesture-based input device
US9575561B2 (en) * 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US20120226981A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
US20120229509A1 (en) * 2011-03-07 2012-09-13 Liu Guangsong System and method for user interaction
US20120280902A1 (en) 2011-05-05 2012-11-08 Qualcomm Incorporated Proximity sensor mesh for motion capture
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium

Also Published As

Publication number Publication date
US8831794B2 (en) 2014-09-09
KR101528545B1 (ko) 2015-06-12
JP2014517384A (ja) 2014-07-17
WO2012150996A1 (en) 2012-11-08
EP2704807A1 (en) 2014-03-12
KR20140014267A (ko) 2014-02-05
CN103501867A (zh) 2014-01-08
US20120283896A1 (en) 2012-11-08
CN103501867B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
JP5746423B2 (ja) オブジェクトを遠隔制御するためのアドホック近接センサーメッシュを介したジェスチャー認識
JP5865997B2 (ja) モーションキャプチャのための近接センサーメッシュ
US9436286B2 (en) Method and apparatus for tracking orientation of a user
US8678876B2 (en) Method and apparatus for remote controlled object gaming with proximity-based augmented reality enhancement
JP5845339B2 (ja) 近接センサを使用したマルチカメラモーションキャプチャ強化のための方法および装置
JP5981531B2 (ja) 屋外のゲームのための近接およびスタントレコーディングの方法および装置
US8792869B2 (en) Method and apparatus for using proximity sensing for augmented reality gaming
EP2681900A1 (en) Ranging with body motion capture
CN104166465B (zh) 鼠标戒指对
Joseph Persaud et al.(43) Pub. Date: Nov. 8, 2012

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140924

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20141007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150507

R150 Certificate of patent or registration of utility model

Ref document number: 5746423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees