JP7162898B2 - 着用可能な動作追跡システム - Google Patents

着用可能な動作追跡システム Download PDF

Info

Publication number
JP7162898B2
JP7162898B2 JP2019527792A JP2019527792A JP7162898B2 JP 7162898 B2 JP7162898 B2 JP 7162898B2 JP 2019527792 A JP2019527792 A JP 2019527792A JP 2019527792 A JP2019527792 A JP 2019527792A JP 7162898 B2 JP7162898 B2 JP 7162898B2
Authority
JP
Japan
Prior art keywords
measuring device
measurement
measurements
body part
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019527792A
Other languages
English (en)
Other versions
JP2020501245A (ja
Inventor
ラニエリ ニコラ
アデルスベルガー ロルフ
ヴェンナー ファビアン
ザイフェルト ハーゲン
Original Assignee
センサリクス アーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by センサリクス アーゲー filed Critical センサリクス アーゲー
Publication of JP2020501245A publication Critical patent/JP2020501245A/ja
Application granted granted Critical
Publication of JP7162898B2 publication Critical patent/JP7162898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、ユーザの第1の身体部位、好ましくは頭部又は胴部と、ユーザの第2の身体部位、好ましくは上肢、手首又は手との間の相対的な位置を捕捉するための着用可能な動作追跡システム(wearable motion tracking system:ウエアラブルモーショントラッキングシステム)に関する。さらに、本発明は、第1の身体部位に対して第2の身体部位の位置を追跡するために、第1の身体部位と第2の身体部位との間の相対的な位置を捕捉するための方法に関する。結果として得られたデータを、好ましくはリアルタイムで(短い待ち時間で)、仮想環境に実装することができる。本発明を、人間から仮想環境へのリンクを確立するために使用することができる。
人体の動作の追跡は、多種多様な用途において使用されている。撮影業界では、映画において仮想のキャラクタをレンダリングするために動きが捕捉される。スポーツでは、特定の動作を捕捉することによって、その特定の動作の正確さについてのフィードバックを提供することができる。健康管理では、動作データによって、患者の健康状態についての情報を提供することができる。また、動作データを、自然なやり方での仮想環境との対話のために使用することができる。
外部基準を使用して動作を捕捉することを目的としたシステムが幾つか存在する。特許文献1では、ユーザの四肢に取り付けられたリトロリフレクタの位置を捕捉する、ユーザの周囲環境に配置された一連のカメラが使用されている。このアプローチは、三角測量によって四肢の位置を計算するための正確かつ高速な方式を提供する。しかしながら、固定された変更の利かない配置構成では、空間及び遮蔽物のない視線が必要となり、したがってユーザの移動性が制限されるので、家庭用消費者製品ではそのようなシステムの魅力は低下する。さらに、要求される較正は、非専門的な用途に適していないことは明白である。
特許文献2、特許文献3、特許文献4及び特許文献5においても、同様のアプローチが使用されている。つまり、複数のセンサ(例えばイメージセンサ及び/又は超音波トランスデューサ)を整列させたものから成り、手持式コントローラに取り付けられたそれらのセンサの対応部品を追跡することができる、外部基準デバイスが配置される。上述の外部基準デバイスの制限に加えて、それらのアプローチは、さらにユーザに対して、デバイスを手に持つことを要求するので、仮想環境への没入感が弱まり、経験の質も低くなる。
着用可能なセンサシステム(wearable sensor system:ウエアラブルセンサシステム)を使用することによって、上述の制限を克服することを試みているシステムも幾つか存在する。特許文献6、特許文献7、特許文献8、特許文献9及び特許文献10では、人体の種々の四肢に慣性計測装置(IMU:inertial measurement unit)が配置されている。慣性データは、ワールド座標系におけるセンサの向きを計算するために使用することができる。したがって、大部分の四肢にIMUを装着することで、順運動学及び逆運動学を使用して、姿勢を計算することができる。しかしながら、ユーザが種々の身体部位に多数のセンサを配置しなければならないということは、多くの家庭用消費者製品には適していない。
それらのIMUの加速度データを二重積分することで、向きに加えて位置も計算することもでき、これによって、四肢の一部分のみの姿勢を捕捉することが可能になる。しかしながら、各座標系において、位置が先行の位置を基礎として計算されるので、誤差が累積され、その結果、IMUベースのそれらのアプローチに共通して、計算された位置には典型的なドリフトが生じる。このドリフトを補正するために、特許文献11では、人の骨格によって暗黙的に示される制約が使用されており、それに対し、特許文献12及び特許文献13では、音響トランスデューサを配置して、(特許文献14に記載されているように)四肢間の距離を測定し、それによって、ドリフトを補正するための付加的な制約を課している。しかしながら、未だなお、多数のそのような制約を満たすことが必要であり、着用するセンサの数は増大する。さらに、センサフュージョンは通常、ステートレスではなく、したがって誤差が累積されやすく、実践においては扱いにくく、また使用されるフィルタに応じて、待ち時間及び視覚的なアーチファクトをもたらすことがある。
特許文献15に記載及び詳述されているような種々のセンサから成るシステムは、GPS信号が利用できない場合に、可能な限り正確にユーザの周囲環境を評価するために使用される。そのシステムは、相互に相対的なユーザの四肢の3次元の位置及び/又は向きを決定又は計算することに適していないか又は指定されておらず、身体全体の位置を推定することしかできない。
ごく一部のシステムでは、入力デバイスとして使用するために、手の姿勢に焦点を当てている。特許文献16では、指及び手の向きが追跡され、仮想環境との対話のために使用されるジェスチャが認識されている。しかしながら、それらのシステムでは手の位置特定が行われておらず、したがって、手の位置が既知となる必要のない用途との対話は制限される。
別のデバイスが、特許文献17及び特許文献18によって展開されている。純粋な光学システム(例えば、特許文献19)に記載されているような光学的深さセンシング)が、通常は頭部に取り付けられる撮像デバイスの前方にある手の位置、向き及び姿勢を捕捉する。それらのデバイスは、外部基準を必要とせず、したがってシステムは着用可能であってよく、特に軽量である。この実現形態はステートレスで達成することができるので、各位置は、先行の計算に依存することなく各座標系において計算され、これによってアプローチはより安定する。しかしながら、純粋な光学システムは、位置及び姿勢を推定するために、パラメータ設定及び大きい計算量を必要とし、これは、待ち時間を増加させ、また仮想環境への没入感を低下させる。
仮想環境を扱う用途の数の増加に伴い、改善された自然な方式でユーザが仮想現実と対話することができる入力デバイスの需要が高まっている。最も自然な方式は、現実環境と対話する方式と同一の方式で、即ち手等の身体部位を使用することで対話を行うことである。対話に加えて、ユーザが自身の腕部及び手を仮想環境において見ることができるように上肢を視覚化することも重要である。これによって、自身の動作についての視覚的なフィードバックが提供され、また没入できる体験が向上する。
上述のアプローチのいずれも、ユーザによる多数のセンサの着用を必要とすることなく、僅かな待ち時間で四肢を追跡するための、着用可能、安定的かつ非侵入的な方式を提供するものではないか、又は前述のシステムは、周囲環境についての有意な知識を必要とし、かつ/又は、没入感/能力を制限する。
米国特許第7,633,521号明細書 米国特許出願公開第2016 0131761号明細書 米国特許出願公開第2008 0261693号明細書 米国特許出願公開第2009 0054147号明細書 米国特許出願公開第2009 0170601号明細書 米国特許出願公開第2008 0285805号明細書 国際公開第1999 053838号 米国特許出願公開第2002 0103610号明細書 欧州特許出願公開第3 067 783号明細書 米国特許第7,628,074号明細書 米国特許出願公開第2008 0285805号明細書 国際公開第1999 053838号 米国特許第7,628,074号明細書 米国特許第5,142,506号明細書 米国特許出願公開第2003 0182077号明細書 国際公開第2016 029183号 米国特許第8,638,989号明細書 米国特許出願公開第2016 0202770号明細書 米国特許出願公開第2016 0295198号明細書
したがって、本発明の目的は、ユーザの第1の身体部位とユーザの第2の身体部位との間の相対的な位置を捕捉するための改良した着用可能な動作追跡システムを規定することである。
この目的は、請求項1に記載の着用可能な動作追跡システムによって解決される。これによれば、ユーザの第1の身体部位と、前記ユーザの第2の身体部位との間の相対的な位置を捕捉するための着用可能な動作追跡システムが定められ、前記着用可能な動作追跡システムは、前記第1の身体部位に取り付け可能な少なくとも1つの第1の測定デバイスと、前記第2の身体部位に取り付け可能な少なくとも1つの第2の測定デバイスと、を備える。そのうえ、システムは、第1の測定デバイスと第2の測定デバイスとの間での測定の測定データ、即ち基準点として第1の測定デバイス及び第2の測定デバイスの一方を含む測定値に関する測定データを検索するために、第1の測定デバイス及び第2の測定デバイスの少なくとも一方と通信することができる計算装置を備える。
前記計算装置は、システムの別個のコンポーネントであってもよいし、前記第1の測定デバイス又は前記の第2の測定デバイスに統合されてもよいと解される。
前記課題は、前記少なくとも1つの第1の測定デバイス、前記少なくとも1つの第2の測定デバイス及び前記計算装置が、前記計算装置によって前記第1の測定デバイスと前記第2の測定デバイスとの間の複数の測定値が取得されるように構成され、前記第1の測定デバイスと前記第2の測定デバイスとの間の前記複数の測定値が、前記第1の測定デバイスと前記第2の測定デバイスとの間の少なくとも1つの距離測定値を含み、前記計算装置が、前記第1の身体部位に対して相対的な前記第2の身体部位の位置を追跡するために、前記複数の測定値を使用して、前記第1の測定デバイスに対して相対的な前記第2の測定デバイスの位置を3次元で計算するように構成されることによって解決される。
換言すれば、前記課題は、前記少なくとも1つの第1の測定デバイス、前記少なくとも1つの第2の測定デバイス及び前記計算装置が、
i)計算装置によって、前記第1の測定デバイスと前記第2の測定デバイスとの間の少なくとも1つの距離測定値を取得し、かつ
ii)計算装置によって、同一の前記第1の測定デバイスと同一の前記第2の測定デバイスとの間の少なくとも1つの別の測定値を取得するように、構成され、
前記計算装置が、前記距離測定値及び前記別の測定値を使用して、第1の測定デバイスに対して相対的な第2の測定デバイスの位置を3次元で計算するように構成されていることによって、即ち前記計算装置が距離ベクトルを3次元で計算することによって解決される。
本発明のコンテキストにおいて、用語「着用可能なシステム(wearable system:ウエアラブルシステム)」とは、例えば仮想環境において活動している間に、人間(又は他のユーザ、下記参照)が着用することができるシステムと解される。着用可能な動作追跡システム(wearable motion tracking system:ウエアラブルモーショントラッキングシステム)は、非侵入的であり、ユーザが気に留めることはほとんどない。着用が容易であり、動きやすいため、ユーザはその動作が制限されない。そのうえ、ユーザの仮想的な複製及び/又はユーザの動きの仮想的な表現が実際にユーザを示していることをユーザに納得させるには、応答時間及び待ち時間が最小限であるのがよいが、システムの更新速度が速ければ有利である。したがって、過度の計算努力は不利である。
本発明のコンテキストにおいて、用語「動作追跡システム(motion tracking system:モーショントラッキングシステム」とは、第1の測定デバイスと第2の測定デバイスとを結ぶ3次元距離ベクトルを追跡することを可能にするデバイス、つまりマルチコンポーネント装置と解され、前記距離ベクトルは、一部の例では、動作中に、第1の測定デバイス及び第2の測定デバイスそれぞれが取り付けられた第1の身体部位と第2の身体部位との間の相対的な位置の変化に関する尺度である。着用可能な動作追跡システムによって生成された追跡データを、例えば、仮想現実に組み込むことができる。
本発明のコンテキストにおいて、用語「第1の身体部位及び第2の身体部位」とは、互に相対的に動かすことができる身体、好ましくは人体の2つの部位と解される。第1の身体部位は、頭部又は胴部のような身体部位、若しくは四肢のような他の任意の身体部位であってよく、第2の身体部位は、四肢の一部、特に上肢又はその一部、例えば(親指を含む)指、手、手首、上腕又は下腕、若しくは肘であってよい。勿論、下肢又はその一部、例えばつま先、足、足首又は下腿又は上腿等が第2の身体部位であってもよい。しかしながら、第2の身体部位は、胴部又は頭部のような他の任意の身体部位であってもよいと解される。したがって、第1の身体部位及び第2の身体部位は、互に相対的に移動又は変化させることができる身体の任意の2つの部位である。好ましくは、着用可能な動作追跡システムを人間によって使用することができるが、しかしながらその一方で、自身の物理的な外見の姿勢を変化させる他の物体もユーザと解することができる。
本発明のコンテキストにおいて、用語「第1の測定デバイスと第2の測定デバイスとの間での測定」とは、第1の測定デバイスが基準であり、第2の測定デバイスの位置(また好ましくは向き)が、前記基準に対して相対的に測定される測定であると解される。
したがって、本発明は、好ましくは無線方式で、通信チャネルを介してリンクされており、また着用可能な動作追跡システムに統合されている少なくとも2つの測定デバイスが配置されることで、一方の測定デバイスが、前記通信リンクを介した他方のデバイスの位置決め及び位置特定を行うための基準座標系を提供する実現形態を基礎としており、例えば、相当な計算量で可視の環境を評価する純粋な光学システムに依存する公知の実現形態、又は固定の配置構成を要求する公知の実現形態、又は位置を収集しながら、その位置を後に更なる測定値を用いて補正するIMUに依存する公知のシステムに比べて、より効率的なシステムを実現することができる。
本発明によるトラッキングシステムは、ステートレスな実現形態を使用する。即ち、第1の測定デバイスに対して相対的な第2の測定デバイスの各位置がリアルタイムで、また一連のトラッキングにおける先行の計算に依存することなく計算される。
一部の実施形態においては、前記第1の測定デバイスと前記第2の測定デバイスとの間の前記複数の測定値は、前記第1の測定デバイスと前記第2の測定デバイスとの間の少なくとも1つの方向測定値を含む。それらの実施形態においては、方向測定値が、距離測定値と組み合わされて、第1の測定デバイスに関する第2の測定デバイスの3次元の位置を直接的にもたらす。つまり、本発明の教示は既に、2つのセンサ、及び第1の測定デバイスと第2の測定デバイスとの間の2つの測定値で機能する。このことは、公知のアプローチと比較して要求されるビーコン、ハードウェア及び計算が少なくて済むことから有利である。
さらに、本発明は、複数のセンサからの測定値及び異なるタイプのセンサからの測定値を結合させるために、拡張カルマン・フィルタ等の複雑なセンサフュージョンアルゴリズムを必要としない。本発明によるシステムによって取得される測定値(例えば1つの距離測定値、例えば音響受信器/送信器ペアによって取得される1つの距離測定値、及び例えば受光器/送光器ペアによって取得される1つの方向測定値)を使用して、全ての自由度を直接的に排除することができ、また他の任意の第3のセンサデバイス又は第4のセンサデバイスを必要とすることなく、第1の測定デバイスと第2の測定デバイスとの間の相対的な位置を直接的に計算する。これによって、計算は少なくなり、待ち時間は短くなり、かつ安定性が高くなる。一例を挙げると、公知のアプローチにより、頭部に対して相対的な手の位置を推定するには、頭部における1つのセンサ、手における1つのセンサ、及び頭部又は他の身体部位における更に2つのセンサ(着用しにくいセンサ)が必要とされるのに対し、本発明の実施形態によれば、頭部における1つの測定デバイス及び手における1つの測定デバイスしか必要とされない。
本発明によれば、2つのノード間で、即ち、独立して取り付け可能な2つの別個の測定デバイス間での複数の測定が使用される。慣性測定ユニット(IMU)による測定を使用する代わりに、ノード間での、即ち、測定デバイス間での少なくとも1つの付加的な測定が使用される。IMUによる測定は、位置特定のためには使用されず、向きの計算に使用される。
以下では、さらに、本発明によって解決される動作追跡(motion tracking:モーショントラッキング)の問題を要約して説明する。空間内のある点の向きが既知であるという前提のもとで、第1の点に対して相対的な第2の点の位置を発見する必要がある。一般性を失うことなく、第1の点はxyz座標系の原点に位置しており、前方において正のZ軸に向いていると仮定することができる。この座標系は、第1の点のいわゆる物体座標系である。既述のトラッキングの問題を解決するために、第1の点のこの物体座標系において表される第2の点のx座標、y座標及びz座標が必要となる。これらの座標を、このフォーマットにおいて表す必要はないが、他の値によって表現することができる。
別の表現では、2つの角度及び動径が、球面座標に関する2つの点の相対的な位置を表すことができる。
第2の点が常に第1の点の前に位置するケースでは、その相対的な位置を、さらに、2つの点間の距離と組み合わされた、(第2の点への方向を表す)一方のz値における仮想xy平面における2つの座標によって表すことができる。この表現は、平面が自然にカメラセンサの像平面を表し、また平面座標が画素座標に対応するので、コンピュータビジョンにおいて使用されることが多い。
さらに別の表現は、原点(z値=0)に位置するxy平面における3つの固定の点を選択することであり、これによって、3つの固定の点までの3つの距離によって第2の点の位置が表される。これは勿論、第1の点及び第2の点を表す3つの固定の点間で生じた3つの距離測定値を表す。
全ての表現を、一方から他方に変換することができる。
例を挙げると、3つの固定の点において行われた3つの距離測定を、三辺測量によってxyz座標を計算するために使用することができる。
したがって、点間の相対位置の表現は、本発明の範囲を限定するものではない。距離測定、方向測定又は他の測定の任意の組み合わせを、それらの表現に依存することなく、相対的な位置の自由度を排除するために使用することができる。例を挙げると、方向測定によって、球面座標表現の2つの角度をもたらすことができる。第3の自由度である動径を、距離測定によって排除することができる。
一部の実施形態においては、前記第1の測定デバイスが、第1の音響通信デバイスを含み、前記第2の測定デバイスが、第2の音響通信デバイスを含む。第1の通信デバイス及び第2の通信デバイスは、相互間に音響リンク、例えば超音波リンクを確立するように構成されている。このリンクは、第1の測定デバイスと第2の測定デバイスとの間での音響測定のオプションを提供する。第1の測定デバイス及び第2の測定デバイスの一方は、音響送信器を含むことができ、他方は、音響受信器を含むことができる。したがって、第1の測定デバイスに対して相対的な第2の測定デバイスの相対的な位置の計算の基礎となる前記複数の測定は、前記第1の音響通信デバイスと前記第2の音響通信デバイスとの間の少なくとも1つの音響測定を含む。音響リンクによって、安定して信頼性が高く、また低コストで高速な測定が可能になる。
一部の実施形態においては、前記音響リンクが、第1の測定デバイスと第2の測定デバイスとの間の距離を決定するために使用される。したがって、少なくとも1つの距離測定は、前記少なくとも1つの音響測定であるのがよい。
一部の実施形態においては、複数の音響受信器が、アレイとして又は他の公知の形態で第1のデバイスに配置され、これによって第2のデバイスにおける音響送信器と共に複数の音響測定が行われる。
第1のデバイスにおける音響受信器間での受信信号の相対的な遅延は、第1のデバイスに対して相対的な第2のデバイスの方向に直接的に関係する。
特に、音響信号は、単一の送信器によって出されるので、送信器に最も近い受信器が、信号を最初に受信する。
第2の受信器が信号を捕捉するまでの時間遅延は、送信器と第1の受信器とが成す角度及び第1の受信器と第2の受信器とが成す角度に比例する。複数の受信器によって精度が高まり、また2次元での角度の測定が可能になる。
したがって、第1のデバイスと第2のデバイスとの間での方向測定は、音響測定であってよい。
音響方向測定は、指向性マイクロフォン又はマイクロフォンアレイとしても公知である。
本発明は、音響受信器のアレイを使用することによって限定されるものではなく、本発明はどんな指向性マイクロフォンによっても実現できることは明らかである。
一部の実施形態においては、音響リンクに加えて、又は音響リンクの代わりに、光リンクを、前記第1の測定デバイスと前記第2の測定デバイスとの間に確立することができる。したがって、前記第1の測定デバイスは、第1の光通信デバイスを含み、前記第2の測定デバイスは、第2の光通信デバイスを含む。したがって、第1の通信デバイス及び第2の通信デバイスは、相互間に光リンクを確立するように構成されている。前記複数の測定は、前記第1の光通信デバイスと前記第2の光通信デバイスとの間での少なくとも1つの光測定を含む。
一部の実施形態においては、前記第1の光通信デバイス及び前記第2の光通信デバイスの一方が、第1の光通信デバイス又は第2の光通信デバイスとしてのイメージセンサを含み、それに対し、前記第1の光通信デバイス及び第2の光通信デバイスの他方が、第2の光通信デバイスとしての追跡可能な装置、好ましくは発光ダイオード(LED)のような放射源、例えば赤外線LEDを含んでおり、この場合、好ましくは、追跡可能な装置の大きさ及び/又は色及び/又は光度が、着用可能な動作追跡システムに既知であり、また極座標系に関して、第2の測定デバイスの角度座標の位置特定のために、着用可能な動作追跡システムによって使用される。上記において考察したように、方向の他の任意の表現も使用できることは明らかである。追跡可能な装置は、LEDのアレイ等のような、複数の機構を整列させたものであってもよく、これは、追跡可能な装置の大きさが、例えばイメージセンサと追跡可能な装置との間の相対的な距離の測定において評価される場合には特に有利である。
この場合、動径座標は、相応に特徴付けられた第1の測定デバイス及び第2の測定デバイスを用いて実施される音響測定、光測定又は超広帯域測定であってよい、少なくとも1つの距離測定から得ることができる。追跡可能な装置の相対的な大きさを分析することによって、距離情報を取得することができ、また光距離測定値として使用することができる。例えば、既知のカメラパラメータを使用することによって、投影された機構の大きさ(例えば、各隅にLEDが設けられている四角形の一辺の長さ)を使用して、距離を計算することができる。
一部の実施形態においては、前記光リンクを、第1の測定デバイスと第2の測定デバイスとの間の距離を決定するために使用することができる。したがって、少なくとも1つの距離測定は、前記少なくとも1つの光測定であってよい。
一部の実施形態においては、音響リンク及び/又は光リンクに加えて、若しくは音響リンク及び/又は光リンクの代わりに、超広帯域リンクを、前記第1の測定デバイスと前記第2の測定デバイスとの間に確立することができる。したがって、前記第1の測定デバイスは、第1の超広帯域通信デバイスを含み、前記第2の測定デバイスは、第2の超広帯域通信デバイスを含む。つまり、第1の通信デバイス及び第2の通信デバイスは、相互間に超広帯域リンクを確立するように構成されている。前記複数の測定は、前記第1の超広帯域通信デバイスと前記第2の超広帯域通信デバイスとの間での少なくとも1つの超広帯域測定を含む。
上記の方向音響測定と同様に、超広帯域距離測定のアレイも、方向測定を実現するために使用することができる。
受信器間の時間遅延を使用する代わりに、相対的な位相シフトを使用して、送信器と任意の2つの受信器とが成す角度を決定することができる。
音響リンクの代わりに、光リンク及び/又は超広帯域リンクを使用することもできる。
一部の実施形態においては、前記第1の身体部位が前記ユーザの胴部又は頭部である。したがって、着用可能な動作追跡システムは、頭部装着型及び/又は胴部装着型のシステムであってよい。
好ましくは、前記第2の身体部位が前記ユーザの上肢及び/又は手首及び/又は手である。
一部の実施形態においては、前記計算装置が、少なくとも部分的に、基準ユニットに統合されており、基準ユニットは、ユーザの第1の身体部位に取り付け可能であり、さらに少なくとも1つの第1の測定デバイスを含んでいる。
一部の実施形態においては、前記計算装置が、少なくとも部分的に、被追跡ユニットに統合されており、被追跡ユニットは、ユーザの第2の身体部位に取り付け可能であり、少なくとも1つの第2の測定デバイスを更に備える。
したがって、計算装置を、別個に統合することができるか、又は第1の測定デバイスと共に基準ユニットに統合することができるか、又は第2の測定デバイスと共に被追跡ユニットに統合することができるか、又は計算装置のコンポーネントを、第1の測定デバイス及び第2の測定デバイス両方と共に統合することができる。
一部の実施形態においては、一方の第1の測定デバイス又は一方の基準ユニットを頭部に、例えばヘッドマウントディスプレイデバイス内に取り付けることができ、他方の第1の測定デバイス又は他方の基準ユニットを胴部又は他の身体部位に取り付けることができ、それに対し、1つ以上の第2の測定デバイス又は追跡ユニットを、四肢に、好ましくは上肢及び/又は(一方又は両方の)手及び/又は(一方又は両方の)手首又は他の身体部位に取り付けることができる。
一部の好適な実施形態においては、前記複数の測定は、3つの距離測定又はそれより多い前記距離測定から成る。好ましくは、3つの音響距離測定を、3つの受信器及び少なくとも1つの、例えば3つの送信器を用いて、又は3つの送信器及び少なくとも1つの、例えば3つの受信器を用いて実施することができ、(1つ以上の)受信器は、第1の測定デバイス及び第2の測定デバイスの一方に統合されており、それに対し(1つ以上の)送信器は、第1の測定デバイス及び第2の測定デバイスの他方に統合されている。したがって、共通の送信器又は共通の受信器を配置して、協働する3つのセンサ部分と通信することができる。ここでは、同一のデバイスにおける送信器(又は受信器)の相対的な位置の知識のもとで、3つ又はそれ以上の距離測定値を使用して、3次元空間での第2の測定デバイスの位置を三角測量することができる。
一部の実施形態においては、前記第1の測定デバイス及び/又は前記第2の測定デバイスが、少なくとも部分的に、第1の測定デバイスに対して相対的な第2の測定デバイスの向き又は第2の測定デバイスの絶対的な向きを決定して追跡するための1つ以上の別の測定デバイスを含む。一部の好適な実施形態においては、前記1つ以上の別の測定デバイスがIMUである。
一部の実施形態においては、1つから3つの直交軸におけるそれ自体の向きを決定することができる、それらの付加的なセンサ(例えばIMU)を、例えば、手及び/又は指の各節に配置して、手及び/又は指の各節の姿勢及びジェスチャを、本発明によって計算された上肢又は手の位置を基礎として、順運動学を用いて計算することができる。したがって、センサを、手袋に統合することができる。同様に、同一のタイプのセンサを、例えば下腕及び/又は上腕に取り付けて、順運動学及び/又は逆運動学によって、上肢の姿勢を計算することができる。全く同一のやり方で、本発明の2つのデバイスの一方が胴部に取り付けられており、またそのような向きを決定できるデバイスが頭部に取り付けられている場合には、手又は他の四肢の姿勢及び向きを計算することができる。
例えば、上肢、手及び/又は手首の姿勢及びジェスチャを使用して、ユーザの仮想アバターをレンダリングすることができ、また例えば仮想現実メガネ、拡張現実メガネ又は他のヘッドマウントディスプレイ(head mount display:頭部装着型表示装置)によってユーザに晒される仮想環境と対話させることができる。
本発明の別の課題は、ユーザの第1の身体部位と前記ユーザの第2の身体部位との間の相対的な位置を追跡するための改善された方法を規定することである。
この別の課題は、請求項12に記載の方法によって解決される。これによれば、ユーザの第1の身体部位と前記ユーザの第2の身体部位との間の相対的な位置を追跡するための方法であって、前記方法は、
前記第1の身体部位に取り付け可能な少なくとも1つの第1の測定デバイス、前記第2の身体部位に取り付け可能な少なくとも1つの第2の測定デバイス及び計算装置を使用し、前記計算装置において、アプリケーションを実行し、
i)前記第1の測定デバイスと前記第2の測定デバイスとの間での複数の第1の測定を実施し、但し、前記第1の測定デバイスと前記第2の測定デバイスとの間での前記複数の第1の測定は、前記第1の測定デバイスと前記第2の測定デバイスとの間での少なくとも1つの距離測定を含み、
ii)前記複数の第1の測定を使用して、前記第1の測定デバイスに対して相対的な前記第2の測定デバイスの第1の位置を3次元で計算し、
iii)前記第1の測定デバイスと前記第2の測定デバイスとの間での1つ以上の後続の測定を実施し、但し、前記第1の測定デバイスと前記第2の測定デバイスとの間での前記複数の第1の測定は、前記第1の測定デバイスと前記第2の測定デバイスとの間での少なくとも1つの距離測定を含み、
iv)前記第1の身体部位に対して相対的な前記第2の身体部位の前記位置を追跡するために、1つ以上の別の測定を使用して、前記第1の測定デバイスに対して相対的な前記第2の測定デバイスの1つ以上の後続の位置を3次元で計算する、ことを含む。
この場合、位置及び後続の位置は軌跡を形成し、この軌跡を仮想環境に実装することができる。
本発明による方法の一部の実施形態においては、前記第1の身体部位が前記ユーザの胴部及び/又は頭部である。
本発明による方法の一部の実施形態においては、前記第2の身体部位が前記ユーザの上肢及び/又は手である。
本発明による方法の一部の実施形態においては、前記複数の第1の測定及び/又は前記1つ以上の後続の測定が、前記少なくとも1つの距離測定として、音響測定、光測定及び超広帯域測定から成るグループから選択された少なくとも1つの測定を含む。
本発明による方法の一部の実施形態においては、前記第1の身体部位に対して相対的な前記第2の身体部位の前記追跡した位置が仮想環境において使用される。
したがって本発明は、上肢、手首及び/又は手等の身体部位の、胴部及び/又は頭部等の別の身体部位に対して相対的な位置をリアルタイムで計算することができ、それと同時に、位置の決定が、少なくとも1つの距離測定を含む複数の測定に依存する、着用可能なセンサ又は動作追跡システム(a wearable sensor or motion tracking system:ウエアラブルセンサ又はモーショントラッキングシステム)を開示する。
1つの好適な実施形態においては、第1の測定デバイスが胴部又は頭部のいずれかに取り付けられている。1つの第2の測定デバイスが、追跡する必要がある四肢、手首又は手に取り付けられている。2つの測定デバイスがリンクを介して相互に通信し、また交換される情報が、好ましくは、一方の測定デバイスの3次元位置を、好ましくは他方の測定デバイスの物体座標系内の座標で表される3次元位置を計算するために使用される。
追跡した四肢の位置特定を、種々の方式で達成することができる。本発明は、少なくとも1つの距離測定デバイスを使用し、距離測定デバイスの送信器は一方の身体部位に取り付けられたデバイスの一部であり、それに対し受信器は他方の身体部位に取り付けられたデバイスの一部であるか、又はそれとは反対に、距離測定デバイスの受信器は一方の身体部位に取り付けられたデバイスの一部であり、それに対し送信器は他方の身体部位に取り付けられたデバイスの一部である。
本明細書において詳述したように、1つの好適なアプローチにおいては、本発明が、同一の測定デバイスに統合された少なくともあと2つの距離測定センサを使用する。それらの距離測定センサは、オプションとして、共通の送信器又は共通の受信器を共有することができる。同一のデバイスにおける送信器の相対的な位置が既知であれば、3つ以上の距離測定を使用して、被追跡デバイスの位置を3次元で三角測量することができる。
本明細書において詳述したように、別の好適なアプローチにおいては、イメージセンサが2つの測定デバイスのいずれか一方に取り付けられており、追跡可能な装置が他方のデバイスに取り付けられている。機構の追跡した像座標を使用して、イメージセンサと機構とが成す相対的な角度を計算し、また距離測定と組み合わせて、2つのデバイス間の相対的な位置を定義することができる。
上記において概要を述べた種々の実施形態の特徴を相互に自由に組み合わせることができると解される。
本発明の好適な実施形態を、下記において図面を参照しながら説明するが、各図は、本発明の提示した好適な実施形態を例示することを目的としており、本発明を限定することを目的としていない。
第1の測定デバイス及び第2の測定デバイスを用いる、本発明による着用可能な動作追跡システムの第1の実施形態を示す。 第1の測定デバイス及び第2の測定デバイスを用いる、本発明による着用可能な動作追跡システムの第1の実施形態を示す。 図1又は図2による、第1の測定デバイス及び第2の測定デバイスの第1の実施形態をより詳細に示す。 図1又は図2による、第1の測定デバイス及び第2の測定デバイスの第2の実施形態をより詳細に示す。 上肢及び手のあらゆる姿勢を追跡する別の実施形態を示す。 上肢及び手のあらゆる姿勢を追跡するさらに別の実施形態を示す。
以下の説明及び例は、本発明を更に例示するものであるが、本発明の範囲を限定するものとして解されるべきではない。図1~図6を参照して、好適な実施形態を説明する。図面は、好適な実施形態の概略図を示す。図面における同一の参照符号は、同一のコンポーネント又は同一の技術的効果を有するコンポーネントを表す。
図1は、本発明による着用可能な動作追跡システム12の第1の実施形態を示す。着用可能な動作追跡システム12は、ユーザ100の頭部101である、ユーザ100の第1の身体部位におけるヘッドマウントディスプレイ130に取り付けられた、例えば統合された、第1の測定デバイス120a(追跡デバイス)を備える。第1の実施形態において、ヘッドマウントディスプレイ130は、追跡が実施される基準座標系を設定する基準ユニットである。第2の測定デバイス121a(被追跡デバイス)は、ユーザ100の手首103である第2の身体部位に配置されたリストバンド111に取り付けられる。リストバンド111の代わりに、他の典型的なアタッチメント手段、例えばガントレットグローブ又はテープ又は衣類に統合されたものを使用することができる。第1の測定デバイス120a及び第2の測定デバイス121aは、情報を交換するための通信リンクを介して相互に結合されている。この場合、前記情報は、第1の測定デバイス120aに対して相対的な第2の測定デバイス121aの位置を3次元で計算するための基礎として使用され、これによって、頭部101に対して相対的な手首103の位置が決定される。交換される情報は、複数の測定値を含み、この複数の測定値は、第1の測定デバイス120aと第2の測定デバイス121aとの間の相対的な距離の少なくとも1つの測定値を含み、計算装置150に対する入力としての距離測定値を含む前記複数の測定値を使用することによって、距離ベクトルが、3次元で計算される。計算装置150は、好ましくは、システム12の頭部装着型のコンポーネントに統合され、前記入力を受信するように、また更なる使用のために、例えばヘッドマウントディスプレイ130に表示される仮想現実への実装のために計算結果を提供するように接続される。計算装置150を手に配置することもでき、それどころか分散させることもでき、その場合には、例えば、第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの一方の部分、及び第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの他方の部分において計算が実施される。例えば、計算装置の一方の部分は、イメージセンサ(例えば、カメラ)を備えた各測定デバイスに設置することができ、また極座標を決定する。計算装置の他方の部分は、他の身体部位における音響受信器に設置することができ、また動径座標を計算する。各計算装置は、自身のデータをホストに送信することができ、ホストにおいては、それらのデータが結合されて、例えば仮想現実に実装される。
一部の実施形態においては、計算装置150を、別個に統合することができる。つまり、一部の実施形態においては、計算装置150を、第1の測定デバイス120a、120bと共に基準ユニット140に統合することができるか、又は第2の測定デバイス121a、121bと共に、被追跡ユニット141に統合することができる。一部の実施形態においては、計算装置150のコンポーネントを、第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの両方と共に統合することができるか、又はオプションとして、システム12の別のコンポーネントに統合することもできる。図2は、本発明による着用可能な動作追跡システム12の第2の実施形態を示す。システム12は、ベルト112又は類似のアタッチメント手段を用いてユーザ100の胴部104に取り付けられた第1の測定デバイス120bを備える。第2の実施形態によれば、第1の身体部位は胴部104である。第2のデバイス121bは、手袋110又は類似のものを用いて手102に取り付けられている。第2の実施形態によれば、第2の身体部位は手102である。第1の測定デバイス120b及び第2の測定デバイス121bは、2つのデバイス120b、121b間で複数の測定を実施する際に用いる通信リンクを介して結合されている。ここでは、コンピューティングシステム12が、好ましくは、システム12の胴部装着型のコンポーネント又は頭部装着型のコンポーネントに統合され、また前記複数の測定に基づいて、胴部104に取り付けられた第1の測定デバイス120bに対して相対的な第2の測定デバイス121bの位置を3次元で計算するように構成される。したがって、第2の実施形態においては、第2の測定デバイス121bを追跡するための基準座標系が、胴部104の測定デバイスであり、また計算装置150を、第1の測定デバイス120b及び第2の測定デバイス121bから隔てて、ヘッドマウントディスプレイ130に設けることができる。
さらには、いずれの実施形態においても、第2の身体部位103及び102それぞれの位置、即ち第2の測定デバイス121a及び121bそれぞれの位置を、計算装置150によって、3次元空間で計算することができ、またヘッドマウントディスプレイ130に表示される仮想環境にレンダリングすることができるか、又は仮想環境との対話のために使用することができる。
一般的に、種々の第2の測定デバイスを、第1の測定デバイスの基準座標系において同時に追跡することができると解される。
図3は、図1における第1の測定デバイス120a及び第2の測定デバイス121aのペア、又は図2における第1の測定デバイス120b及び第2の測定デバイス121bのペアをどのように実現するかについての1つの実施形態を示す。
第1の音響通信デバイス200aには、音響送信器201a及び第1の即時通信デバイス202a、例えば無線周波数モジュールが配置されている。
第2の音響通信デバイス200bには、既知の相対的な位置を有する少なくとも3つの音響受信器201b及び第2の即時通信デバイス202bが配置されている。
音響送信器201aを備えた第1の音響通信デバイス200a及び音響受信器201bを備えた第2の音響通信デバイス200bは、相互間に音響リンクaL、より正確には、3つの音響リンクを確立することができる。
第1の即時通信デバイス202a及び第2の即時通信デバイス202bは、相互間に即時リンクiLを確立することができる。
動作時に、第1の即時通信デバイス202aは、音響送信器201aの音響パルスを報知し、音響パルスをトリガする。第2の即時通信デバイス202bは、報知を受信し、タイマを始動させ、また音響受信器201bにおける聴取を開始する。パルスが送信器201aによって送信された時間、及びパルスが各受信器201bにおいて検出された3つの別個の時間を、第1の測定デバイス120a、120bと第2の測定デバイス121a、121bとの間の相対的な位置を、3次元で三角測量するために使用することができる。
第1の音響通信デバイス200aを、第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの一方に統合することができ、第2の音響通信デバイス200bを、第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの他方に統合することができる。
図4は、図1における第1の測定デバイス120a及び第2の測定デバイス121aのペア、又は図2における第1の測定デバイス120b及び第2の測定デバイス121bのペアをどのように実現するかについての別の実施形態を示す。
第1の光音響通信デバイス200cには、音響受信器201c、第1の即時通信デバイス202a及び赤外線発光ダイオード203aが配置されている。
第2の光音響通信デバイス200dには、音響送信器201d、第2の即時通信デバイス202b及び赤外線撮像デバイス203bが配置されている。
第1の光通信デバイスとしての赤外線発光ダイオード203a及び第2の光通信デバイスとしての赤外線撮像デバイス203bは、相互間に光リンクoLを確立することができる。
動作時に、音響送信器201c及び受信器201dは、第1の即時通信デバイス202a及び第2の即時通信デバイス202bと共に使用されて、上記において説明したような音響信号の飛行時間(Time-of-Flight)測定によって、第1の測定デバイス120a、120bと第2の測定デバイス121a、121bとの間の距離を測定する。撮像デバイス203b及び赤外線LED203aは、第1の測定デバイス120a、120bと第2の測定デバイス121a、121bとの間の角度座標を計算するために使用される。角度座標及び距離は、第1の測定デバイス120a及び120bそれぞれに対して相対的な第2の測定デバイス121a及び121bそれぞれの位置を決定する。
第1の光音響通信デバイス200cを、第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの一方に統合することができ、第2の光音響通信デバイス200dを、第1の測定デバイス120a、120b及び第2の測定デバイス121a、121bの他方に統合することができる。
図5は、上肢107、108(図1を参照されたい)及び手102のあらゆる姿勢をどのように取得するかについての1つの実施形態を示す。図1に示したように、第2の測定デバイス121aは、リストバンド111又は類似のものを使用して、ユーザ100の手首103に取り付けられている。さらに、それ自体の向きを決定することができる別の測定デバイス304a(例えばIMU)も、リストバンド111に取り付けられている。第2の測定デバイス121aを用いて決定された位置及び304aを用いて決定された向きは、3次元空間において、第2の身体部位、ここでは下腕107(図1参照)を位置決めするために使用される。
逆運動学は、上腕108(図2参照)の位置及び向きを発見するために使用することができる。それ自体の向きを決定することができる別のデバイス304bが、手に取り付けられており、また類似の複数のデバイス305が、指106の各節に取り付けられている。121a及び304aから供給される位置及び向きを基礎として、順運動学は、デバイス304b及び305から供給された向きについて、手102及び指106の姿勢及びジェスチャを計算することができる。
図6は、上肢107、108(図1参照)及び手102のあらゆる姿勢をどのように取得するかについての別の実施形態を示す。図2に示したように、デバイス121bは、手袋110又は同様のものを使用して、ユーザの手102に取り付けられている。さらに、それ自体の向きを決定することができる別の測定デバイス304b(例えばIMU)も、110に取り付けられている。121aから供給される位置及び304aの向きは、空間における手102を位置決めするために使用される。それ自体の向きを決定することができる複数の別のデバイス305(例えばIMU)は、指106の各節に取り付けられている。順運動学は、デバイス305から供給された向きについて、手102の姿勢及びジェスチャを計算するために使用することができる。
この構成では、それ自体の向きを計算することができる、リストバンド111に取り付けられたオプションのデバイス304aを、逆運動学と組み合わせて使用して、下腕107及び上腕108の姿勢を計算することができる。
したがって、本発明では、物理的に分離されているが相互に通信することができる、少なくとも2つの測定デバイス120a、120b及び121a、121b、即ち別個のユニットが配置される。それら測定デバイスの一方である、第1の測定デバイス120a及び120bは、それぞれ、胴部104(例えば、図2に図示したように、ベルトを用いて臀部又は胸部)に、又は頭部101(例えば、図1に示したように、額、又はユーザが着用したヘッドマウントディスプレイ130)に取り付けられた基準デバイスとして機能する。しかしながら、他の身体部位を第1の身体部位として選択することもできる。少なくとも1つの別のデバイスである、第2の測定デバイス121a及び121bは、それぞれ、上肢に取り付けられており、より正確には、例えばリストバンド111によって、又は手袋110に含ませることで、(図1に図示したように)手首103又は(図2から見て取れるように)手102に取り付けられており、また、基準デバイス120a及び120bそれぞれの位置に対して相対的な自身の位置が追跡される。オプションとして、別の第2のデバイス121a、121b及び/又は別の測定デバイス304、304b(例えばIMU)を、同一の身体部位又は別の身体部位に取り付け、同一の四肢又は別の四肢、例えば他方の手又は他方の手首において追跡することができる。
用途に応じて、仮想環境は、ユーザ100の視点から見ているように、ユーザ100に晒される。このシナリオにおいて、頭部101の物体座標系は当然、ヘッドマウントディスプレイ130における仮想カメラに対応するので、基準デバイス(即ち第1の測定デバイス120a、120b)が、典型的にはユーザ100の頭部101に装着され、また仮想環境をレンダリングするために使用される。
仮想コンテンツが第三者視点で晒される用途においては、基準デバイス120bを、胴部104に着用することができる。しかしながら、基準デバイス120bが胴部104に取り付けられる場合には、それ自体の向きを決定することができるデバイス304(例えばIMU)を頭部101に取り付けることができ、また向きを使用して、追跡した位置を、胴部104の基準物体座標系から頭部101の物体座標系に変換することができる。ヘッドマウントディスプレイは、典型的には、そのような向きを決定するデバイス304を既に含んでおり、したがって、この特定のケースにおいては、付加的なセンサは必要とされない。
反対に、基準デバイス120aが頭部101に取り付けられる場合には、向きを決定することができるデバイスを胴部104に取り付け、類似の結果を達成することができる。
本発明の被追跡デバイス、即ち第2のデバイス121a、121bは、それぞれ、そのような向きを決定することができるデバイス304をさらに含むことができ、それによって、四肢の位置だけでなく向きも、1つ以上の軸において、好ましくは3つ全ての軸において既知となる。
さらに、そのような向きを決定することができるデバイスが、隣接する四肢に取り付けられる場合には、順運動学を使用して、それら隣接する四肢の位置及び向きを決定することができる。例えば、本発明の追跡可能なデバイスが手首に取り付けられ、また向きを決定することができるデバイス304、例えばIMUが、(図5に示したように)手首、手及び指の各節に取り付けられる場合には、順運動学を使用して、手首103の位置及び向きを基礎として、手102のあらゆる姿勢及びジェスチャを計算することができる。
さらに、逆運動学を使用して、上腕108の姿勢及び向きを計算することができ、したがって、腕107、108全体及び手102の姿勢が既知となる。
手首デバイス121a及び手102におけるセンサ304、304b、305をいずれも手袋110に統合することができるので、ユーザ100は最小限のアイテムのセットを着用すれば済み、それでもなお、上半身全体の動きを追跡することができる。
同様に、前記追跡可能なデバイス、即ち第2の測定デバイス121bを、図6に図示したように、手首103の代わりに手102に取り付けることができ、同一の結果を達成することができる。
図1及び図2において2つのケースしか図示していないにもかかわらず、胴部104及び/又は頭部101に取り付けられる基準デバイス120a、120bと、上肢107、108及び/又は手102に取り付けられる追跡可能なデバイス121a、121bとのあらゆる組み合わせも十分同様に機能することは明らかである。
四肢の位置特定を、種々の方式で達成することができる。本発明の1つの実施形態においては、1つ以上の音響送信器及び一方の即時通信デバイス(例えば無線周波数モジュール)が、第1の身体部位に取り付けられた第1の測定デバイスに配置されており、1つ以上の音響受信器及び他方の即時通信デバイスが、第2の身体部位に取り付けられた第2の測定デバイスに配置されている。一方が基準デバイスとして機能し、他方が被追跡デバイスとして機能するという役割を入れ替えられることは自明である。
システムにおける各送信器に関して、音響パルスは、同一のデバイスにおける通信デバイスによって報知され、またパルスはその直後にトリガされる。音響受信器を備えたデバイスにおける通信デバイスが報知を受信すると、タイマが始動され、音響受信器が到来するパルスを検出するまでの時間が測定される。飛行時間は、音響信号の既知の速度と共に、2つのデバイス間の距離を計算するために使用される。(例えば、超広帯域信号又は視覚信号を使用して)距離を計算することができる別のデバイスを、この実施形態において説明した音響デバイスに置換できることは自明である。
少なくとも3つの音響送信器が、少なくとも1つの音響受信器と組み合わされて相前後してパルスを送出するか、又は少なくとも1つの音響送信器及び3つの音響受信器が、3つの異なる距離測定値を提供する。一方のデバイスに固定的に取り付けられた少なくとも3つの送信器の相対的な位置が既知であることで、距離測定値と共に、三角測量を用いてデバイス間の相対的な位置を計算するための十分な情報が提供される。1つの送信器が3つの受信器によって共有されるケースが、図3に図示されている。送信器及び受信器の任意の組み合わせを、一方のデバイス又は他方のデバイスに配置できることは自明である。
別の実施形態においては、例えば球面座標で表される基準デバイスと被追跡デバイスとの間の相対的な方向を定義する角度を決定することができる別のユニットによって、距離測定ユニットが補完される。そのようなユニットの一例は、基準デバイス又は被追跡デバイスに取り付けられたイメージセンサ及び他方のデバイスに取り付けられた追跡可能な装置、例えばLEDである。イメージセンサは、イメージセンサの中心からLEDまでのベクトルとイメージセンサの法線との間の2つの角度を定義するLEDの投影像の像座標を追跡することができる。イメージセンサからLEDまでのそのようにして定義された方向は、距離測定ユニットによって提供された距離と共に、2つのデバイス間の相対的な位置を定義する。
本発明は、例えば可視スペクトルで動作する追跡可能な装置、例えばLED及びイメージセンサだけを保護するのではなく、他の任意の波長(例えば、赤外線)も同様に保護すると解される。さらに、単一のLEDを使用する代わりに、複数のLEDを整列させたもの又は他の任意の追跡可能な装置を使用して、アプローチの安定性をさらに高めることができる。
機構のパターンが既知である場合には、コンピュータビジョンのアプローチを使用して、例えばイメージ空間における機構の大きさを分析することによって、距離を計算することができる。これによって、機構の大きさが距離測定値として使用され、また機構の位置が別の測定値として使用され、デバイス間の相対的な位置を計算するための十分な情報が提供される、別のアプローチがもたらされる。
代替的に、光学的距離測定に付随して、別の距離測定を実施することもできる。
添付の特許請求の範囲の主たる対象は、上記において説明した特定の特徴に必ずしも限定されるものではない。上記の実施例及び実施形態は、特許請求の範囲に記載の事項の考えられる実現形態であり、他の特徴も特許請求の範囲に含まれることが意図されている。
100 ユーザ
101 第1の身体部位、100の頭部
102 第2の身体部位、100の手
103 第2の身体部位、100の手首
104 第1の身体部位、胴部
106 指(親指を含む)
107 下腕
108 上腕
110 手袋
111 リストバンド
12 着用可能な動作追跡システム
120a、120b 第1の測定デバイス
121a、121b 第2の測定デバイス
130 基準ユニット、ヘッドマウントディスプレイ
140 基準ユニット
141 被追跡ユニット
150 計算装置
200a 第1の音響通信デバイス
200b 第2の音響通信デバイス
200c 第1の光音響通信デバイス
200d 第2の光音響通信デバイス
201a、201d 音響送信器/送信器
201b、201c 音響受信器
202a 第1の即時通信デバイス
202b 第2の即時通信デバイス
203a 送信デバイス、赤外線LED
203b 光学撮像デバイス、赤外線撮像デバイス
304、304a、304b 向きを決定できる別の測定デバイス、例えばIMU
aL 音響リンク
iL 即時リンク
oL 光リンク

Claims (17)

  1. ユーザ(100)の第1の身体部位(101;104)と、前記ユーザ(100)の第2の身体部位(102、103、106~108)との間の相対的な位置を捕捉するための着用可能な動作追跡システム(12)であって、
    前記着用可能な動作追跡システム(12)は、
    前記第1の身体部位(101;104)に取り付け可能な少なくとも1つの第1の測定デバイス(120a;120b)と、
    前記第2の身体部位(102;103;106~108)に取り付け可能な少なくとも1つの第2の測定デバイス(121a;121b)と、
    計算装置(150)と、
    を備える、着用可能な動作追跡システム(12)において、
    前記少なくとも1つの第1の測定デバイス(120a;120b)及び前記少なくとも1つの第2の測定デバイス(121a;121b)が、前記第1の測定デバイスと前記第2の測定デバイスとの間での測定の測定データを取得するように、前記第1の測定デバイスと前記第2の測定デバイスとの間での複数の測定を行うように形成され、
    前記計算装置(150)は、前記計算装置(150)によって前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の前記複数の測定の複数の測定値が取得されるように構成され、
    前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の前記複数の測定値は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の少なくとも1つの距離測定値を含み、
    前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の前記複数の測定値は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の少なくとも1つの方向測定値を含み、
    前記計算装置(150)は、前記第1の身体部位(101;104)に対して相対的な前記第2の身体部位(102;103;106~108)の位置を追跡するために、前記複数の測定値を使用して、前記第1の測定デバイス(120a;120b)に対して相対的な前記第2の測定デバイス(121a;121b)の位置を3次元で計算するように構成され
    前記第1の測定デバイスは、基準座標系を設定する基準デバイスとして機能し、前記第2の測定デバイスの位置は、前記基準座標系に対して測定される
    ことを特徴とする、着用可能な動作追跡システム(12)。
  2. 前記第1の測定デバイス(120a;120b)は、第1の音響通信デバイス(200a)を構成し、前記第2の測定デバイス(121a;121b)は、第2の音響通信デバイス(200b)を構成し、
    前記第1の音響通信デバイス(200a)及び前記第2の音響通信デバイス(200b)は、相互間に音響リンク(aL)を確立するように形成成され、
    前記複数の測定値は、前記第1の音響通信デバイス(200a)と前記第2の音響通信デバイス(200b)との間の少なくとも1つの音響測定値を含む、請求項1記載の着用可能な動作追跡システム(12)。
  3. 前記少なくとも1つの距離測定値及び/又は前記少なくとも1つの方向測定値は、前記少なくとも1つの音響測定値であるか、又は前記少なくとも1つの音響測定値に含まれる、請求項記載の着用可能な動作追跡システム(12)。
  4. 前記第1の測定デバイス(120a;120b)は、第1の光通信デバイス(203a)を構成し、前記第2の測定デバイス(121a;121b)は、第2の光通信デバイス(203b)を構成し、
    前記第1の光通信デバイス(203a)及び前記第2の光通信デバイス(203b)は、相互間に光リンク(oL)を確立するように構成され、
    前記複数の測定値は、前記第1の光通信デバイス(203a)と前記第2の光通信デバイス(203b)との間の少なくとも1つの光測定値を含む、請求項1~のいずれか1項記載の着用可能な動作追跡システム(12)。
  5. 前記第1の光通信デバイス及び前記第2の光通信デバイスの一方の光通信デバイス(203b)は、イメージセンサを構成し、前記第1の光通信デバイス及び前記第2の光通信デバイスの他方の光通信デバイス(203a)は、追跡可能な装置、好ましくは放射源を含み、好ましくは、前記追跡可能な装置の大きさは、前記着用可能な動作追跡システム(12)に既知であり、かつ前記着用可能な動作追跡システム(12)によって使用される、請求項記載の着用可能な動作追跡システム(12)。
  6. 前記少なくとも1つの距離測定値及び/又は前記少なくとも1つの方向測定値は、前記少なくとも1つの光測定値であるか、又は前記少なくとも1つの光測定値に含まれ、好ましくは、前記距離測定値は音響測定値であり、前記少なくとも1つの方向測定値は光測定値である、請求項又は記載の着用可能な動作追跡システム(12)。
  7. 前記第1の測定デバイス(120a;120b)は、第1の超広帯域通信デバイスを構成し、前記第2の測定デバイスは、第2の超広帯域通信デバイスを構成し、
    前記第1の超広帯域通信デバイス及び前記第2の超広帯域通信デバイスは、相互間に超広帯域リンクを確立するように構成されており、
    前記複数の測定値は、前記第1の超広帯域通信デバイスと前記第2の超広帯域通信デバイスとの間の少なくとも1つの超広帯域測定値を含む、請求項1~のいずれか1項記載の着用可能な動作追跡システム(12)。
  8. 前記第1の身体部位(101;104)は、前記ユーザ(100)の胴部(104)及び/又は頭部(101)であり、及び/又は、前記第2の身体部位(102;103;107;108)は、前記ユーザ(100)の上肢(107、108)及び/又は手(102)である、請求項1~のいずれか1項記載の着用可能な動作追跡システム(12)。
  9. 前記計算装置(150)は、少なくとも部分的に、基準ユニット(140)に統合され、前記基準ユニット(140)は、前記ユーザ(100)の前記第1の身体部位(101;104)に取り付け可能であり、前記少なくとも1つの第1の測定デバイス(120a;120b)を更に備え、
    及び/又は、
    前記計算装置(150)は、少なくとも部分的に、被追跡ユニット(141)に統合され、前記被追跡ユニット(141)は、前記ユーザ(100)の前記第2の身体部位(102;103;107;108)に取り付け可能であり、前記少なくとも1つの第2の測定デバイス(121a;121b)を更に備える、請求項1~のいずれか1項記載の着用可能な動作追跡システム(12)。
  10. 前記複数の測定値は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の1つの距離測定値及び1つの方向測定値から成るか、又は前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間の1つの距離測定値及び1つの方向測定値を含むか、又は3つ以上の前記距離測定値から成るか、又は3つ若しくはそれ以上の前記距離測定値を含む、請求項1~のいずれか1項記載の着用可能な動作追跡システム(12)。
  11. 前記第1の測定デバイス(120a;120b)及び/又は前記第2の測定デバイス(121a;121b)は、少なくとも部分的に、前記第1の測定デバイス(120a;120b)に対して相対的な第2の測定デバイス(121a;121b)の向き又は前記第2の測定デバイス(121a;121b)の絶対的な向きを決定して追跡するための1つ以上の別の測定デバイス(304;304a;304b)を備え、
    好ましくは、前記1つ以上の別の測定デバイス(304;304a;304b)は、慣性計測装置である、請求項1~10のいずれか1項記載の着用可能な動作追跡システム(12)。
  12. ユーザ(100)の第1の身体部位(101;104)と、前記ユーザ(100)の第2の身体部位(102;103;106~108)との間の相対的な位置を追跡するための方法において、
    前記方法は、
    前記第1の身体部位(101;104)に取り付け可能な少なくとも1つの第1の測定デバイス(120a;120b)、前記第2の身体部位(102;103;106~108)に取り付け可能な少なくとも1つの第2の測定デバイス(121a;121b)、及び計算装置(150)を使用し、前記計算装置(150)において、アプリケーションを実行し、
    i)前記第1の測定デバイスと前記第2の測定デバイスとの間での測定の測定データを取得するように、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での複数の第1の測定を行い、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での前記複数の第1の測定は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での少なくとも1つの距離測定を含み、
    ii)前記複数の第1の測定を使用して、前記第1の測定デバイス(120a;120b)に対する前記第2の測定デバイス(121a;121b)の第1の位置を3次元で計算し、
    iii)前記第1の測定デバイスと前記第2の測定デバイスとの間での測定の測定データを取得するように、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での1つ以上の後続の測定を実施し、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での前記複数の第1の測定は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での少なくとも1つの距離測定を含み、
    iv)前記第1の身体部位(101;104)に対する前記第2の身体部位(102;103;106~108)の前記位置を追跡するために、前記1つ以上の後続の測定を使用して、前記第1の測定デバイス(120a;120b)に対する前記第2の測定デバイス(121a;121b)の1つ以上の後続の位置を3次元で計算する
    ことを有し、
    前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での前記複数の第1の測定及び/又は前記1つ以上の後続の測定は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での少なくとも1つの方向測定を含み、
    前記第1の測定デバイスは、基準座標系を設定する基準デバイスとして機能し、前記第2の測定デバイスの位置は、前記基準座標系に対して測定される 、方法。
  13. 前記複数の第1の測定及び/又は前記1つ以上の後続の測定は、前記少なくとも1つの方向測定として、音響測定、光測定及び超広帯域測定から成るグループから選択された少なくとも1つの測定を含む、請求項12記載の方法。
  14. 前記複数の第1の測定及び/又は前記1つ以上の後続の測定は、前記少なくとも1つの距離測定として、音響測定、光測定及び超広帯域測定から成るグループから選択された少なくとも1つの測定を含む、請求項1213のいずれか1項記載の方法。
  15. 前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での前記複数の第1の測定及び/又は前記1つ以上の後続の測定は、前記第1の測定デバイス(120a;120b)と前記第2の測定デバイス(121a;121b)との間での1つ距離測定及び1つの方向測定から成る、請求項1214のいずれか1項記載の方法。
  16. 前記第1の身体部位(101;104)は、前記ユーザ(100)の胴部(104)又は頭部(101)であり、及び/又は、
    前記第2の身体部位(102;103;106~108)は、前記ユーザ(10)の上肢(107、108)又は手首(103)又は手(102)である、請求項1215のいずれか1項記載の方法。
  17. 前記第1の身体部位(101;104)に対する前記第2の身体部位(102;103;106~108)の前記追跡した位置を仮想環境において使用する、請求項1216のいずれか1項記載の方法。
JP2019527792A 2016-11-25 2017-11-16 着用可能な動作追跡システム Active JP7162898B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16200754 2016-11-25
EP16200754.6 2016-11-25
PCT/EP2017/079462 WO2018095804A1 (en) 2016-11-25 2017-11-16 Wearable motion tracking system

Publications (2)

Publication Number Publication Date
JP2020501245A JP2020501245A (ja) 2020-01-16
JP7162898B2 true JP7162898B2 (ja) 2022-10-31

Family

ID=57406130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019527792A Active JP7162898B2 (ja) 2016-11-25 2017-11-16 着用可能な動作追跡システム

Country Status (11)

Country Link
US (1) US10768691B2 (ja)
EP (1) EP3545385B1 (ja)
JP (1) JP7162898B2 (ja)
KR (1) KR102497449B1 (ja)
CN (1) CN110023884B (ja)
AU (1) AU2017365223B2 (ja)
CA (1) CA3041958A1 (ja)
DK (1) DK3545385T3 (ja)
ES (1) ES2886908T3 (ja)
RU (1) RU2746686C2 (ja)
WO (1) WO2018095804A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2018244316B2 (en) * 2017-03-28 2022-09-29 Magic Leap, Inc. Augmented reality system with spatialized audio tied to user manipulated virtual object
CA3139648A1 (en) 2018-03-07 2019-09-12 Magic Leap, Inc. Visual tracking of peripheral devices
EP3598270A1 (en) * 2018-07-17 2020-01-22 Technische Universität München Method and control unit for controlling a virtual reality display, virtual reality display and virtual reality system
US11175734B1 (en) * 2019-09-26 2021-11-16 Apple Inc Wrist tracking devices
KR102097033B1 (ko) 2019-10-16 2020-04-03 주식회사 코탁스 보디 포인트 인터액션 센싱을 통한 모션 추정 시스템
CN113029190A (zh) * 2019-12-09 2021-06-25 未来市股份有限公司 运动跟踪系统和方法
WO2021138577A1 (en) * 2019-12-31 2021-07-08 Human Mode, LLC Proxy controller suit with optional dual range kinematics
US11003247B1 (en) * 2020-03-20 2021-05-11 Microsoft Technology Licensing, Llc Deployable controller
CN114543844B (zh) * 2021-04-09 2024-05-03 恒玄科技(上海)股份有限公司 无线音频设备的音频播放处理方法、装置及无线音频设备
US20230003863A1 (en) * 2021-07-01 2023-01-05 SWORD Health S.A. Assessment of position of motion trackers on a subject based on wireless communications
WO2023097577A1 (zh) * 2021-12-01 2023-06-08 浙江大学湖州研究院 一种可拓展的基于uwb和摄像头的相对定位的设备和方法
WO2024085266A1 (ko) * 2022-10-17 2024-04-25 삼성전자 주식회사 초광대역 통신 신호를 이용하여 제스처를 검출하기 위한 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002523830A (ja) 1998-08-18 2002-07-30 デジタル インク インコーポレーテッド 絶対的および相対的な位置決めのための検出センサを有する手書き用デバイス
US20120172126A1 (en) 2011-01-05 2012-07-05 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
JP2012154643A (ja) 2011-01-21 2012-08-16 Fujitsu Ltd 位置算出装置、位置算出方法および位置算出プログラム
JP2014517255A (ja) 2011-02-28 2014-07-17 クゥアルコム・インコーポレイテッド ボディモーションキャプチャを用いたレンジング
WO2016021252A1 (ja) 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2017205213A (ja) 2016-05-17 2017-11-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142506A (en) 1990-10-22 1992-08-25 Logitech, Inc. Ultrasonic position locating method and apparatus therefor
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
WO2002037827A2 (en) 2000-10-30 2002-05-10 Naval Postgraduate School Method and apparatus for motion tracking of an articulated rigid body
US6784826B2 (en) * 2001-01-26 2004-08-31 Tera Research Incorporated Body motion tracking system
US6876945B2 (en) 2002-03-25 2005-04-05 Nicholas Jon Emord Seamless sensory system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
RU2257846C1 (ru) * 2004-04-28 2005-08-10 Общество с ограниченной ответственностью "ЛАУРУС" Способ регистрации движений человека и устройство для его осуществления
US7633521B2 (en) 2005-02-25 2009-12-15 Onlive, Inc. Apparatus and method improving marker identification within a motion capture system
MD14Z (ro) * 2006-12-21 2009-11-30 Еуджен МОРАРУ Procedeu şi dispozitiv de înregistrare a traiectoriei mişcării corpului uman şi a unor părţi separate ale lui
EP1970005B1 (en) * 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
US7628074B2 (en) 2007-03-15 2009-12-08 Mitsubishi Electric Research Laboratories, Inc. System and method for motion capture in natural environments
US20090054147A1 (en) 2007-08-21 2009-02-26 Cheng Uei Precision Industry Co., Ltd. Interactive game system
US20090170601A1 (en) 2007-12-28 2009-07-02 Cheng Uei Precision Industry Co., Ltd. Method for recognizing the position of a gaming device
GB0901020D0 (en) 2009-01-21 2009-03-04 Birmingham City University A motion capture apparatus
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
WO2014114967A1 (en) * 2013-01-25 2014-07-31 WENNER, Fabian Self-calibrating motion capture system
US8986125B2 (en) 2013-03-14 2015-03-24 Valve Corporation Wearable input device
WO2015060894A1 (en) * 2013-10-21 2015-04-30 Bodhi Technology Ventures Llc Sensors and applications
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
WO2015139005A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments
JP3194297U (ja) * 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
US10055018B2 (en) 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
JP6778205B2 (ja) 2014-11-10 2020-10-28 バルブ コーポレーション 位置追跡システム及び方法
KR20170081272A (ko) 2014-12-18 2017-07-11 페이스북, 인크. 가상 현실 환경에서의 내비게이션을 위한 방법, 시스템 및 장치
US9854227B2 (en) 2015-01-08 2017-12-26 David G Grossman Depth sensor
US20160232713A1 (en) * 2015-02-10 2016-08-11 Fangwei Lee Virtual reality and augmented reality control with mobile devices
NZ735465A (en) 2015-03-05 2021-07-30 Magic Leap Inc Systems and methods for augmented reality
EP3067783A1 (en) 2015-03-11 2016-09-14 ETH Zurich Method and system to track human locomotion by relative positional tracking of body parts of the human
US9939910B2 (en) * 2015-12-22 2018-04-10 Intel Corporation Dynamic effects processing and communications for wearable devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002523830A (ja) 1998-08-18 2002-07-30 デジタル インク インコーポレーテッド 絶対的および相対的な位置決めのための検出センサを有する手書き用デバイス
US20120172126A1 (en) 2011-01-05 2012-07-05 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
JP2014501992A (ja) 2011-01-05 2014-01-23 クゥアルコム・インコーポレイテッド ユーザの向きを追跡するための方法および装置
JP2012154643A (ja) 2011-01-21 2012-08-16 Fujitsu Ltd 位置算出装置、位置算出方法および位置算出プログラム
JP2014517255A (ja) 2011-02-28 2014-07-17 クゥアルコム・インコーポレイテッド ボディモーションキャプチャを用いたレンジング
WO2016021252A1 (ja) 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2017205213A (ja) 2016-05-17 2017-11-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
RU2019118220A3 (ja) 2021-02-24
KR20190087473A (ko) 2019-07-24
AU2017365223B2 (en) 2022-07-07
CA3041958A1 (en) 2018-05-31
ES2886908T3 (es) 2021-12-21
JP2020501245A (ja) 2020-01-16
US10768691B2 (en) 2020-09-08
CN110023884B (zh) 2022-10-25
EP3545385B1 (en) 2021-07-14
WO2018095804A1 (en) 2018-05-31
CN110023884A (zh) 2019-07-16
AU2017365223A1 (en) 2019-05-23
RU2019118220A (ru) 2020-12-25
US20180150131A1 (en) 2018-05-31
KR102497449B1 (ko) 2023-02-07
DK3545385T3 (da) 2021-10-04
EP3545385A1 (en) 2019-10-02
RU2746686C2 (ru) 2021-04-19

Similar Documents

Publication Publication Date Title
JP7162898B2 (ja) 着用可能な動作追跡システム
US10309764B2 (en) Ultra-portable coordinate measurement machine
US11534246B2 (en) User input device for use in robotic surgery
US20070008339A1 (en) Image processing system, image processing apparatus, and display apparatus
CN106415200B (zh) 包括可追踪设备和构造成安装在人体上的挽具的超便携式坐标测量机器
JP6852673B2 (ja) センサ装置、センサシステム及び情報処理装置
JP2014004656A (ja) マニピュレーションシステム
WO2019014238A1 (en) SYSTEMS AND METHODS FOR MONITORING BODY MOVEMENT
US20110043446A1 (en) Computer input device
JP2023507241A (ja) 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ
WO2023059458A1 (en) Apparatus, system, and method for detecting user input via hand gestures and arm movements
Li et al. Visual–inertial fusion-based human pose estimation: A review
TW201933052A (zh) 用於虛擬實境環境的動作捕捉系統
US11747462B1 (en) Devices, systems, and methods for radar-based artificial reality tracking
KR101907989B1 (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 3차원 영상 처리 시스템
US11662815B2 (en) Apparatus, system, and method for detecting user input via hand gestures and arm movements
KR101876985B1 (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 기구
Gulhane et al. Feasibility of a Wearable Based Motion Tracking System
KR20180010772A (ko) 근거리 위치 추적 및 증강 현실을 이용한 의료용 3차원 영상 처리 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7162898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150