JPWO2019129355A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2019129355A5
JPWO2019129355A5 JP2020536517A JP2020536517A JPWO2019129355A5 JP WO2019129355 A5 JPWO2019129355 A5 JP WO2019129355A5 JP 2020536517 A JP2020536517 A JP 2020536517A JP 2020536517 A JP2020536517 A JP 2020536517A JP WO2019129355 A5 JPWO2019129355 A5 JP WO2019129355A5
Authority
JP
Japan
Prior art keywords
user
virtual reality
prediction method
reality view
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020536517A
Other languages
English (en)
Other versions
JP7162063B2 (ja
JP2021508886A (ja
Publication date
Application filed filed Critical
Priority claimed from PCT/EP2017/084794 external-priority patent/WO2019129355A1/en
Publication of JP2021508886A publication Critical patent/JP2021508886A/ja
Publication of JPWO2019129355A5 publication Critical patent/JPWO2019129355A5/ja
Application granted granted Critical
Publication of JP7162063B2 publication Critical patent/JP7162063B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

方法100は、さらに、オブジェクトの位置及びオブジェクトの向きを用いた運動モデルに基づいてオブジェクトの運動軌跡を外挿すること106を含む。運動モデルは、オブジェクトの位置に対して第1の重み係数を使用し、オブジェクトの向きに対して第2の重み係数を使用する。運動モデルは、運動軌跡によってオブジェクトの動きを記述するモデルであり、空間を通るオブジェクトの動きを時間の関数として記述する。運動モデルは、オブジェクトの特別な運動特性を考慮してもよい。例えば、オブジェクトが人間である場合、運動モデルは、人間が視線の方向に歩く傾向があり、視覚に沿って運動を適合させることを考慮してもよい。
慣性センサ、例えば、加速度計又はジャイロスコープは、短期的には、更新周波数が高く(例えば、200Hzの更新周波数)、高精度である。しかし、加速度計又はジャイロスコープは、センサのドリフトにより、長期的な安定性に欠ける。位置センサ、例えば、無線周波数信号を利用した位置センサは、更新周波数が低い(例えば、5Hzの更新周波数)が、短期的及び長期的に安定しているだけでなく、高精度である。位置センサ及び慣性センサの寄与を重み付けして運動軌跡を外挿することができる運動モデルを使用すると、一方のセンサの欠点を他の(複数の)センサで補うことができる。これにより、全体的な性能、すなわち、運動推定の精度及び安定性(長期及び短期)を改善することができる。
したがって、オブジェクトの運動軌跡を外挿することは、重み付けされたオブジェクトの位置と、重み付けされたオブジェクトの向きとに基づいて多項式を接線方向に外挿することを含んでもよい。運動軌跡を接線方向に外挿する方法により、運動軌跡の方向への伸長によって、人間の視線の方向と運動の方向を得ることが可能になる。例えば、位置に対する第1の重み係数は25%であり、向きに対する第2の重み係数は75%であってもよい。これにより、接線が多項式に接する角度を調整することができる。
また、オブジェクトの運動状態を用いて運動モデルを調整してもよい。運動状態は、オブジェクトによる特定の種類の運動を表す。例えば、運動状態は、静止(立っている)、運動、歩行、ランニング、静止からランニング/歩行への変化、ランニング/歩行から静止への変化、回転中に静止等である。したがって、方法100は、さらに、第1の時系列データ及び/又は第2の時系列データに基づいてオブジェクトの運動状態を判断することを含んでもよい。例えば、加速度計及びジャイロスコープを慣性センサとして使用する場合、加速度計及びジャイロスコープのいずれもオブジェクトの(線形)加速度を示さなければ、オブジェクトが静止している(すなわち、位置変化なし)と判断することができる。例えば、運動状態は、グラウンドトゥルースのモーメントであってもよい。また、加速度の活性化閾値を使用して、ジッタを含んだ位置データを最適化してもよい。1つ以上の閾値を使用することにより、無線周波数を利用したオブジェクトの位置信号がオン/オフしてしまうのを平滑化し、防止することができる。すなわち、加速度センサと無線周波数を利用した位置信号を使用することにより、動きの大きさに基づいてジッタを除去することができる。したがって、方法100は、運動状態に基づいて第1の重み係数及び第2の重み係数を調整することを含んでもよい。例えば、運動状態が物体の静止を表している場合は、位置変化が起こる可能性が低いので、第1の重み係数を小さくしてもよい。したがって、例えば、第1の時系列データ(すなわち、位置データ)がノイズを含んでいても、運動軌跡を高精度に外挿することができる。
運動接線を適切に外挿するために、方法100は、現在の、胴体対頭部の姿勢(人間の向き及び位置によって記述される)に基づく接線関数の重み付けを用いる。通常の動きの状態においては、視線の方向(すなわち、向き)によって、現在の接線関数に最も高い重みが与えられてもよい。胴体対頭部の姿勢は、例えば、検出されたグラウンドトゥルースのモーメントから導出される。
すなわち、方法100は、位置を予測するとともに、現在の向きを推定する。例えば、TCBスプラインにおける現在の外挿接線関数に対して、現在の向きを最も強く重み付けしてもよい。上記のように、(例えば、経時的なセンサドリフト、磁気干渉等により)現在の向き推定に確信がない/信用できない場合、外挿方法において、位置の重み付けを強くしてもよい。したがって、運動モデルは外挿によって構成される。
高度にパラメータ化可能なTCBスプラインにより、人間のゆっくりとした、速い、静的な、又は動的な動きを正確に表現することができる。したがって、このタスクのパラメータの数をできる限り低く保ちながら、運動モデルをできる限りパラメータ化することができる。VRアプリケーションにおいては、方法100により、さらに、人間に失敗を気づかせることなく、将来のモーメントを外挿、すなわち、予測することができる。

Claims (14)

  1. オブジェクトの動きを予測する方法であって、
    前記オブジェクトに取り付けられた位置センサの第1の時系列データに基づいて前記オブジェクトの位置を判断することと、
    前記オブジェクトに取り付けられた少なくとも1つの慣性センサの第2の時系列データに基づいて前記オブジェクトの向きを判断することと、
    前記オブジェクトの前記位置と前記オブジェクトの前記向きとを用いた運動モデルであって、時間の関数として空間を通過する前記オブジェクトの運動を記述する運動軌跡によって前記オブジェクトの運動を記述し、前記オブジェクトの前記位置に対して第1の重み係数を使用し、前記オブジェクトの前記向きに対して第2の重み係数を使用する運動モデルに基づいて前記オブジェクトの運動軌跡を外挿して前記オブジェクトの将来の位置を予測することと
    を含む
    予測方法。
  2. 請求項1に記載の予測方法であって、さらに、
    前記オブジェクトの前記位置の第1の信頼レベルを判断することと、
    前記オブジェクトの前記向きの第2の信頼レベルを判断することと、
    前記第1の信頼レベルに基づいて前記第1の重み係数を調整することと、
    前記第2の信頼レベルに基づいて前記第2の重み係数を調整することと
    を含む
    予測方法。
  3. 請求項2に記載の予測方法であって、さらに、
    前記オブジェクトの前記動きに関連するコンテキスト情報に基づいて前記第1の重み係数の値の範囲及び/又は前記第2の重み係数の値の範囲を調整することを含む
    予測方法。
  4. 請求項1乃至3のいずれか1つに記載の予測方法であって、
    前記運動モデルは、少なくとも3次の多項式に基づいている
    予測方法。
  5. 請求項4に記載の予測方法であって、
    前記多項式は、コチャネク-バーテルズ(Kochanek-Bartels)スプライン又はキュービックエルミートスプラインである
    予測方法。
  6. 請求項4又は5に記載の予測方法であって、
    前記オブジェクトの前記運動軌跡を外挿することは、前記オブジェクトの前記重み付けされた位置及び前記オブジェクトの前記重み付けされた向きに基づいて前記多項式を接線方向に外挿することを含む
    予測方法。
  7. 請求項1乃至6のいずれか1つに記載の予測方法であって、さらに、
    前記第1の時系列データ及び/又は前記第2の時系列データに基づいて前記オブジェクトの運動状態を判断することと、
    前記運動状態に基づいて前記第1の重み係数及び前記第2の重み係数を調整することと
    を含む
    予測方法。
  8. 請求項1乃至7のいずれか1つに記載の予測方法であって、
    前記第2の時系列データは、3次元加速度データ、3次元回転速度データ、3次元磁場強度データ、及び/又は気圧データのうち少なくとも1つを含む
    予測方法。
  9. 請求項1乃至8のいずれか1つに記載の予測方法であって、
    前記第1の時系列データは、3次元位置データを含む
    予測方法。
  10. ユーザ用の仮想現実ビューを生成する方法であって、
    請求項1乃至9のいずれか1つに記載の予測方法に従って前記ユーザの動きを判断することと、
    前記ユーザの前記動きに基づいて前記仮想現実ビューを生成することと、
    前記仮想現実ビューを前記ユーザに表示することと
    を含む
    生成方法。
  11. 請求項10に記載の生成方法であって、さらに、
    前記ユーザの所定の動きに対する前記位置センサの予想される第1の時系列データを計算することと、
    前記ユーザに前記所定の動きを実行するよう促すために、前記ユーザに対して、前記仮想現実ビューを変化させ、音声を出力し、かつ/あるいは、匂いを発することと、
    前記予想される第1の時系列データに対する前記ユーザの前記所定の動きの前記位置センサの実際の第1の時系列データの誤差を判断することと
    を含む
    生成方法。
  12. 請求項11に記載の生成方法であって、さらに、
    前記誤差に基づいて前記運動モデルを調整すること、及び/又は、
    前記誤差に基づいて前記仮想現実ビューを連続的に変化させること
    を含み、
    前記誤差による前記仮想現実ビューの連続フレーム間の変化は、前記ユーザの知覚閾値未満である
    生成方法。
  13. 請求項10に記載の生成方法であって、さらに、
    前記仮想現実ビューにおける向きの誤差及び/又は位置の誤差を判断することと、
    前記ユーザに所定の動きを実行するよう促すために、前記ユーザに対して、前記仮想現実ビューを変化させ、音声を出力し、かつ/あるいは、匂いを発することと、
    前記ユーザが前記所定の動きを実行している間、前記向きの誤差及び/又は前記位置の誤差に基づいて前記仮想現実ビューを連続的に変化させることと
    を含み、
    前記向きの誤差及び/又は前記位置の誤差による前記仮想現実ビューの連続フレーム間の変化は、前記ユーザの知覚閾値未満である
    生成方法。
  14. 請求項11又は13に記載の生成方法であって、
    前記仮想現実ビューを変化させることは、前記仮想現実ビューにおける視線の方向を変化させること又は前記仮想現実ビューの中にある少なくとも1つのオブジェクトの形状を変化させることを含み、
    前記仮想現実ビューの連続フレーム間の前記視線の方向の変化又は前記少なくとも1つのオブジェクトの前記形状の変化は、前記ユーザの知覚閾値未満である
    生成方法。
JP2020536517A 2017-12-29 2017-12-29 オブジェクトの動きを予測する方法、運動モデルを調整する方法、所定量を導出する方法、及び仮想現実ビューを生成する方法 Active JP7162063B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2017/084794 WO2019129355A1 (en) 2017-12-29 2017-12-29 Method for predicting a motion of an object, method for calibrating a motion model, method for deriving a predefined quantity and method for generating a virtual reality view

Publications (3)

Publication Number Publication Date
JP2021508886A JP2021508886A (ja) 2021-03-11
JPWO2019129355A5 true JPWO2019129355A5 (ja) 2022-09-07
JP7162063B2 JP7162063B2 (ja) 2022-10-27

Family

ID=60923503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536517A Active JP7162063B2 (ja) 2017-12-29 2017-12-29 オブジェクトの動きを予測する方法、運動モデルを調整する方法、所定量を導出する方法、及び仮想現実ビューを生成する方法

Country Status (8)

Country Link
US (1) US20200334837A1 (ja)
EP (1) EP3732549B1 (ja)
JP (1) JP7162063B2 (ja)
KR (1) KR102509678B1 (ja)
CN (1) CN111527465A (ja)
CA (1) CA3086559C (ja)
ES (1) ES2923289T3 (ja)
WO (1) WO2019129355A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019164737A1 (en) * 2018-02-20 2019-08-29 International Flavors & Fragrances Inc. Device and method for integrating scent into virtual reality environment
DE102020109121A1 (de) * 2019-04-02 2020-10-08 Ascension Technology Corporation Korrektur von Verzerrungen
US11409360B1 (en) * 2020-01-28 2022-08-09 Meta Platforms Technologies, Llc Biologically-constrained drift correction of an inertial measurement unit
US11900651B2 (en) * 2020-03-24 2024-02-13 Olympus Corporation Imaging device and tracking method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639592B1 (en) * 1996-08-02 2003-10-28 Silicon Graphics, Inc. Curve network modeling
US7238079B2 (en) * 2003-01-14 2007-07-03 Disney Enterprise, Inc. Animatronic supported walking system
EP1970005B1 (en) * 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스
JP6015664B2 (ja) * 2010-12-01 2016-10-26 コミサリアト ア レネルジー アトミクー エ オ エネルジーズ アルタナティヴズ 移動するユーザ、移動端末、または交通手段の軌跡推定方法、コンピュータプログラム、および軌跡推定装置
KR101851836B1 (ko) * 2012-12-03 2018-04-24 나비센스, 인크. 물체의 움직임을 추정하기 위한 시스템 및 방법
US10415975B2 (en) * 2014-01-09 2019-09-17 Xsens Holding B.V. Motion tracking with reduced on-body sensors set
WO2015141328A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2016082462A (ja) * 2014-10-20 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
CN107111866B (zh) * 2014-12-22 2021-01-05 交互数字Ce专利控股公司 用于基于对象检测生成外推图像的方法和装置
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking

Similar Documents

Publication Publication Date Title
KR101008360B1 (ko) 이동 로봇에서의 자이로 센서 오차를 교정하는 장치 및방법
US10415975B2 (en) Motion tracking with reduced on-body sensors set
US9316513B2 (en) System and method for calibrating sensors for different operating environments
US7860651B2 (en) Enhanced inertial system performance
JP2007086076A (ja) ジャイロセンサの補正方法及び補正装置
JP7162063B2 (ja) オブジェクトの動きを予測する方法、運動モデルを調整する方法、所定量を導出する方法、及び仮想現実ビューを生成する方法
CN104756039A (zh) 在世界坐标系中使用移动装置中的加速度计估计重力向量
JP2018524553A (ja) 歩行者推測航法用の技術
KR20090028274A (ko) 로봇의 위치를 계산하기 위한 장치 및 방법
WO2021167773A1 (en) Systems and methods for deep learning-based pedestrian dead reckoning for exteroceptive sensor-enabled devices
Zhao et al. Pseudo-zero velocity re-detection double threshold zero-velocity update (ZUPT) for inertial sensor-based pedestrian navigation
Chai et al. An adaptive estimator for registration in augmented reality
CN105547291B (zh) 室内人员自主定位系统的自适应静止检测方法
CN108592907A (zh) 一种基于双向滤波平滑技术的准实时步进式行人导航方法
CN110455284A (zh) 一种基于mems-imu的行人运动模式识别方法及装置
JPWO2019129355A5 (ja)
TWI680382B (zh) 電子裝置及其姿態校正方法
KR101231209B1 (ko) 자이로 센서의 보정 방법 및 장치
US10001505B2 (en) Method and electronic device for improving accuracy of measurement of motion sensor
KR102280780B1 (ko) 모션 센서의 측정 정확도를 향상시키기 위한 전자 장치 및 그 방법
CN111078489B (zh) 电子装置及其姿态校正方法
JP2008246181A (ja) 活動量計
Wann et al. Orientation estimation for sensor motion tracking using interacting multiple model filter
Keir et al. Accelerometer-based orientation sensing for head tracking in AR & robotics
CN110579212A (zh) 室内定位方法及装置