JP6968906B2 - 装着機器の方位推定方法 - Google Patents

装着機器の方位推定方法 Download PDF

Info

Publication number
JP6968906B2
JP6968906B2 JP2019563604A JP2019563604A JP6968906B2 JP 6968906 B2 JP6968906 B2 JP 6968906B2 JP 2019563604 A JP2019563604 A JP 2019563604A JP 2019563604 A JP2019563604 A JP 2019563604A JP 6968906 B2 JP6968906 B2 JP 6968906B2
Authority
JP
Japan
Prior art keywords
sensor
phase
estimation
accelerometer
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019563604A
Other languages
English (en)
Other versions
JP2020521228A (ja
Inventor
グート,ユルゲン
ディールマン,マルクス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2020521228A publication Critical patent/JP2020521228A/ja
Application granted granted Critical
Publication of JP6968906B2 publication Critical patent/JP6968906B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Studio Devices (AREA)

Description

本発明は、方位情報を検出するための少なくとも第1のセンサと加速度センサとを備える装着機器の空間的な方位に依存して視覚情報を表示するための方法、及びこのような方法を実施するための装着機器に関する。
特に仮想現実又は拡張現実を表示する場合には、視覚情報を表示するための装着機器は、頭部に固定された撮像機器を介して仮想表現の画像をユーザに示すか、又は、例えば観察する物体に情報を加えることによって現実の画像撮影を補足する。ユーザの頭部動作時には、頭部動作に応じて画像が装着用機器内で移動される。正しい適合のためには頭部の方位を常に特定する必要がある。これは、通常、回転速度センサ及び3軸加速度センサを介して行われる。しかしながら、回転速度センサの測定値は誤っていることも多く、実際の向きと計算された向きとが異なっている場合もある。加速度センサのデータを参照して補正値を計算することができる。しかしながら、通常、加速度センサは、重力加速度と、装着機器が動いた場合に生じる加速度とを区別することができない。さらにそれぞれのセンサは、測定値をさらに歪ませる恒常的な背景雑音にさらされる。これらのセンサ測定データを補正するためには、データの複雑なフィルタ処理、並びにさらなる複雑な計算が必要であり、補正されたセンサ測定データを表示にフィードバックする必要がある。表示の頻繁な補正は、高いエネルギー消費をもたらすこともある。特にユーザが固定位置に留まっている場合には、連続的な補正はユーザにとって煩わしいと感じられることがある。
本発明の基礎をなす課題は、センサによって空間内の機器の方位の推定値を効率的に、エネルギー節約及びデータ節約して補正することを可能にする方法及び装着機器を提供することである。
この課題は、独立請求項のそれぞれの対象によって解決される。本発明の有利な構成がそれぞれの従属請求項の対象である。
本発明の一態様によれば、装着機器の空間的な方位に依存して視覚情報を表示する方法が提供される。装着機器は、少なくとも、方位情報を検出するための第1のセンサと加速度センサとを備える。装着機器では、検出された方位情報に基づいて装着機器の空間的な方位が推定され、この方位推定は、加速度センサによって検出されたセンサ計測データによって補正される。
本発明によれば、検出されたセンサ測定データに基づいて、装着機器が停止フェーズにあるのか、又は動作フェーズにあるのかが決定され、停止フェーズで決定された方位推定と、この停止フェーズで検出された加速度センサの測定データとに基づいて方位推定におけるエラーが決定される。停止フェーズでは、それぞれ現在の方位推定が、変更されずに視覚情報の表示の基礎をなし、本発明による方法では、停止フェーズで決定された方位推定時のエラーが後続の動作フェーズで考慮され、連続的に補正され、動作フェーズでは、それぞれ現在の補正された方位推定が視覚情報の表示の基礎をなす。
停止フェーズでは、ユーザの頭部、したがってユーザの頭部に配置された装着機器は安定して1つの位置に留まる。停止フェーズでは、方位推定の補正、したがって視覚情報の表示は行われない。特に頭部が1つの位置に固定されている場合又はゆっくりと動いた場合には、方位推定及び方位推定に基づいた視覚情報の表示の補正は、動作が素早く行われた場合よりもユーザによってより明確に知覚される場合がある。停止フェーズでは、加速度センサのセンサ測定データが測定され、重力加速度の測定されたベクトルが決定される。続いて、加速度センサにより測定された重力加速度のベクトル又は測定されたセンサ測定データを用いて、方位推定のエラーを決定することができる。エラーの計算は、方位推定によって得られる重力加速度のベクトルと測定された重力加速度のベクトルとのずれに基づいて行われる。
これに対して、動作フェーズではユーザは頭部を動かし、ひいては装着機器も動かす。例えば、装着機器は、上方又は下方へ、又は一方側へ回転されることもある。この場合、動作に起因する加速度が重力加速度の測定に重ねられる。動作フェーズでは加速度センサを停止するか、加速度センサの測定の周期を遅くすることができる。その代わりに、決定され、記憶されている補正値だけ、方位推定値と、方位測定値に基づいた視覚情報、例えば画像などの表示とを動作フェーズで補正することができる。方位推定値の補正は、できるだけゆっくりと行うことができる。「ゆっくり」とは、方位推定に基づいた視覚情報の適合が、ユーザが動作時に補正を知覚することができないように、表示を急激に変更せずに徐々に行われることと理解されたい。
この方法では、それぞれのフェーズの利点を利用している。停止フェーズでは、ユーザの頭部動作に起因する装着機器の線形加速度に妨害されることなしに重力加速度を正確に測定することができ、したがって重力加速度のベクトルの測定精度を高めることができる。これにより補正値の精度を高めることもできる。ユーザの頭部が1つの位置に留まっている場合には同様に画像を移動させてはならない。なぜなら、人間の眼は頭部を停止させた位置で画像の軽微な回転又は揺れを十分に確認することができるからである。
動作フェーズでは、ユーザが表示の適合もしくは移動を知覚することは難しい。それにもかかわらず、方位の適合を素早く行うことができ、表示の長期の遅延又は画像の「残像」を防止することができる。表示の遅延は、ユーザのめまいの感覚を誘発することもある。既知の方法とは対照的に、加速度センサのセンサ測定データを連続的に決定する必要はなく、停止フェーズにおいてのみ測定し、評価すればよい。方位推定の補正を停止フェーズと動作フェーズとに分割することによって、装着機器は方法に基づいて特に計算効率良く、エネルギーを節約して動作することができる。
この方法の例示的な実施形態によれば、カメラ、回転速度センサ、マイクロフォン、及び/又は磁気センサを使用して方位情報を検出する。したがって、多数の可能なセンサによって方位情報を決定することができる。特に、例えばカメラなどの光学センサはセンサ測定データを検出することもでき、例えば、複数の画像を分析することによって、装着機器の動き及び空間内の装着機器の向きについての情報を提供することができる。
方法の別の例示的な実施形態によれば、停止フェーズ及び動作フェーズの決定は、方位情報を検出するための少なくとも1つの第1のセンサ及び/又は少なくとも1つの加速度センサのセンサ測定データに基づいて行われる。例えば、回転速度センサの規格化された信号を使用して、停止フェーズと動作フェーズとの間で切換を行うことができる。例えば、センサ測定値が所定の閾値よりも高い場合には、装着機器が動いていると仮定することができ、そうでない場合には停止フェーズであると仮定することができる。代替的又は付加的に、加速度センサの信号を検出のために使用することができる。例えば、現在の加速度値と、例えば、最後の100ミリ秒の平均加速度値との差が、定義された閾値よりも大きい場合には、装着機器が動いていると仮定することができ、そうでない場合には装着機器の停止フェーズを仮定することができる。上述の2つの条件及びセンサの組み合わせを使用することもできる。しかしながら、代替的に又は付加的に、カメラシステムを用いて方位を決定することもできる。
方法の別の例示的な実施形態によれば、停止フェーズで決定されたエラーに基づいて、後続の動作フェーズでこのエラーを連続的に補正するための少なくとも1つの補正値が決定される。動作フェーズ又は頭部の動作時に、補正値の形式で方位推定の補正を連続的に行うことができる。補正値は、それぞれの段階において方位推定に影響を及ぼすことができる。例えば、補正値を回転角度として定義することもでき、推定された方位をこの回転角度だけ補正のために回転する必要がある。補正値を選択する目的は、ユーザが補正を知覚できることを回避するために、方位推定の推定エラーが生じた場合に穏やかな補正を行うことである。補正値は、例えば、実際の推定エラーの一部又は係数であってもよい。方位推定値の補正、したがって表示の補正は、実際の推定エラーが完全に補正されるまで、表示のいくつかの段階又は更新ステップにわたって補正値を用いて行うことができる。動作フェーズで推定エラーが完全に補正された場合には、補正値はゼロに等しく設定され、次の停止フェーズまでさらなる補正は行われない。
この方法の別の実施形態によれば、現在の補正値はそれぞれ装着機器の動きに適合される。ユーザが方位推定値の補正にできるだけ気付かないように、補正値によって動作に応じて補正を行うことができる。装着機器もしくはユーザの頭部の動作に必要な補正もしくは補正値を重ねことができる。このために、エラー補正は、装着機器が動いた場合に直ちに完全に行うのではなく、機器の動きの強さに応じて選択し、いくつかの段階にわけて行う。例えば、加速度センサのセンサ測定データから重力加速度を差し引いた値に比例した補正値を定義することができる。
この方法の別の実施形態によれば、補正値を適合する場合には装着機器の回転速度が考慮される。したがって補正値は、回転速度センサのセンサ測定データに線形に、又は2乗で比例し、ユーザの頭部の回転動作に基づいて、連続的に補正された方位推定は視覚情報の表示の基礎をなすことができる。
この方法の別の実施形態によれば、加速度センサは、動作フェーズでは停止フェーズよりも低いサンプリングレートで作動される。この場合、加速度センサを補助的に接続することができる。特に、この措置により、加速度センサはセンサ測定データを連続的に決定せず、したがって電気エネルギーを連続的に供給する必要がないので、装着機器のエネルギー消費を低減することができる。
この方法の別の実施形態によれば、加速度センサは、動作フェーズで停止される。加速度センサのセンサ測定データの読み出し、及び推定される方位のエラーの計算は、装着機器が停止フェーズにある場合にのみ行えばよい。したがって、この方法によって、エネルギー効率よく方位推定の補正を行うことができる。加速度センサは、好ましくは、移動フェーズでは完全にスイッチオフすることができる。これにより、加速度センサは停止フェーズにおいてのみ高精度でデータを取得することができる。したがって、停止フェーズで収集されたこれらのデータは、線形加速度によって歪んでいる恐れのある、動作フェーズにおいて収集された可能性のあるデータによって影響されることはない。さらに、動作フェーズにおいて加速度センサをスイッチオフにすることによって、データ量を大幅に低減することができる。
本発明の別の態様によれば、本発明の前述の態様にしたがった方法により空間的な方位に依存して視覚情報を表示するための装着機器が提供される。装着機器は、方位情報を検出するための少なくとも1つの第1のセンサと加速度センサとを含む。
装着機器は、好ましくは、ユーザの頭部に配置又は固定することができる。頭部の動きに応じて、装着機器の停止フェーズ又は動作フェーズを決定することができる。例えば、ユーザの頭部がほとんど動かないか、又は動かない場合には、少なくとも1つのセンサ及び/又は加速度センサのセンサ測定データに基づいて、停止フェーズであると決定することができる。
停止フェーズでは、加速度センサのセンサ測定データに基づいて、実際の重力加速度との比較により加速度センサのエラーが決定される。このエラーは、停止フェーズにメモリに記憶することができる。例えば、装着機器の動作フェーズが検出された場合には、記憶されたエラーに基づいて、補正された方位推定値を計算することができ、この方位推定値は、視覚情報の補正された表示のための基礎として使用することができる。例えば、加速度センサは、移動フェーズに停止してもよいし、又はより少ないセンサ測定データを検出してもよい。これにより、エネルギーをさらに節約して装着機器を構成することができる。さらに、評価する必要のあるセンサ測定データが少なくなり、これにより、装着機器の計算能力を低減することができる。
次に、著しく簡略化された概略図に基づいて本発明の好ましい例示的な実施形態を詳細に説明する。
第1の実施形態による方法の概略図である。 第2の実施形態による方法の概略的なフロー図である。 第1の実施形態による方法を実施するための装着機器の概略図である。
図1は、第1の実施形態による方法1の概略図もしくはブロック図を示す。この場合、ユーザの頭部動作に画像を適合させるために方位推定2を行う。異なる動作センサデータを使用してユーザの頭部動作を計算する。この実施形態によれば、3軸式の回転速度センサ6が方位推定2のためのセンサ測定データ8を作成するために使用される。回転速度センサ6は、方法1を実施するための装着機器G(図3に示す)の方位推定2のための主要情報源として利用される。装着機器Gの初期位置が既知である場合には、センサ測定データ8の構成要素である回転速度10を測定し、数値的に積分することによって装着機器Gの方位2を計算することができる。この計算は、推定された方位2のレイテンシをできるだけ短くするために短い時間間隔をおいて行われる。回転速度センサ6のセンサ測定データ10は、ずれもしくはオフセットによってエラーが伴っており、したがって装着機器Gを長期に使用した場合には、装着機器Gの実際の方位と計算した方位2とが異なることがある。このずれもしくはオフセットはエラー値12の原因となる場合がある。3軸加速度センサ4のセンサ測定データ14がエラー値12を計算するために使用され、これによりエラー値12を計算することができる。したがって、エラー値12は、測定された重力加速度16と、計算した方位2から取り出し、推定した重力加速度gのベクトルとの差から得られる。しかしながら、加速度センサ4のセンサ測定データ14は、ユーザの頭部動作の線形加速度によって歪む。さらに、装着機器Gの画像表示の補正が停止フェーズ20にユーザによって登録され、とりわけ、ユーザのめまいを誘発する場合がある。したがって、加速度センサ4による重力加速度の測定16の前にまず動作検出18が行われる。動作検出18は、回転速度センサ6又は他のセンサによって代替的又は補助的に行うこともできる。動作検出18により、ユーザの頭部動作の停止フェーズ20と動作フェーズ22とを区別することができる。動作検出部18、回転速度センサ6の測定データ10と加速度センサ4の測定データ14とに基づいて、装着機器Gが停止フェーズ20にあるか動作フェーズ22にあるかを判定する。
動作検出18によって停止フェーズ20が検出された場合には、加速度センサ4によって重力加速度16の測定が開始され、推定された重力加速度gのエラー値12が決定される。引き続いて、このエラー値12から、装着機器Gによって伝送された画像を適合するための補正値24がエラーメモリ26に記憶される。
動作検出部18によって動作フェーズ22が検出された場合には、エラーメモリ26からの補正値24に基づいて補正係数28が決定される。この実施形態では、補正係数28は装着機器Gの動きの強さに応じて設定される。引き続いて補正係数28に補正値24を乗算し、その解30を装着機器Gの方位推定2に適用して、補正された方位推定値32を計算し、これにより、画像の補正された向きとして、ユーザの動作に対して画像もしくは視覚的な情報33の表示の適合34を行うことができる。補正30の後、エラーメモリ26に記憶されたエラー値24は、補正30に適用された補正係数28だけ低減される。エラーメモリ26内の補正値24がゼロに等しくなるまで、補正係数28だけ補正30を繰り返すことができる。方位推定値2のゆっくりとした補正30と、装着機器Gの画像の連続的な適合34とによって、動作フェーズ22ではユーザによって登録されない穏やかな補正を実現することができる。
重力加速度gの方向に直交するユーザの頭部の動作、いわゆる「ヘディング」Hの方位推定のエラーもしくはずれは、加速度センサ4によって補正することができない。この補正のために、方法1では3軸磁気センサ36を使用する。この磁気センサ36は、地球の磁気的なN極N(図3に示す)を検出し、「ヘディング」Hについて機器Gの回転差38もしくはエラー38を決定することができる。決定されたこのエラー38を用いて、「ヘディング」Hのための補正係数40を計算することができる。補正係数40は、方位推定2の補正30のために付加的に使用することができる。磁気センサ36の測定は装着機器Gの動き及び加速度によって極わずかにしか影響されないので、重力加速度gの方向に直交する装着機器Gの動きに対して磁気センサ36を使用する場合には、停止フェーズ20と動作フェーズ22とへの分割、及びエラーメモリ26の使用は随意である。しかしながら、ユーザが補正を知覚することを防止するために、補正は動作フェーズにおいてのみ行うことが望ましい。
図2は、概略的なフロー図を用いて第2の例示的な実施形態による方法1を示す。方法1は反復的に実行することができる。第1のステップでは、センサ測定データ8,10,14に基づいて、装着機器Gを停止フェーズ20又は動作フェーズ22に割り当てることができるかどうかが決定される。センサ測定データ8,10,14に基づいて停止フェーズ20であると決定することができる場合には、方位推定値2と、この停止フェーズ20において検出されたセンサ測定データ8,10,14とに基づいて方位推定値2のエラー12が決定される。引き続き、エラー値12は、次の動作フェーズ22で使用するためにエラーメモリ26に記憶される。原則として、停止フェーズ20の後に動作フェーズ22を続けることができる。停止フェーズ20では方位推定値2は変更も補正もされない。むしろ、変更されていない方位推定値2に基づいて視覚情報33の表示が出力される。これに対して、動作フェーズ22が確認された場合には、停止フェーズ20で決定されたエラー値12に基づいて方位推定値2の補正30が行われる。この場合、補正30は連続的に行われ、方位推定2は、ユーザにできるだけ気づかれないように行ことができる。これに対応して、エラーメモリ26に記憶された補正値24は、既に行われた方向推定値2の補正30にしたがって適合される(27)。エラーメモリ26に記憶された補正値24は、例えば、所定の係数又は値だけ減少させることができる。行われた方位推定値2の補正30に基づいて、補正された方位推定値32が決定される。動作フェーズ22では、補正された方位推定値32は視覚情報33の表示の基礎をなす。
補正された方位推定は、さらなる段階において代替的又は付加的に、第1のセンサ6もしくはこの実施形態によれば回転速度センサ6を用いて方位推定2を決定するための基礎として使用することができる。補正された方位推定値32は、例えば、ヨーレートセンサ6の回転速度との時間積分のための出力値として使用することができる。
図3は、第1の例示的な実施形態による方法1を実施するための装着機器Gの概略図を示す。この実施形態によれば、装着機器Gはユーザの頭部で固定可能なホルダ42を有する。ホルダ42は、弾性的なベルト44を介してユーザの頭部に適合し、固定してもよい。ホルダ42は撮像機器48を有する。ホルダ42は光学系(図示しない)を有し、電子機器及びセンサを備えている。ホルダ42は、加速度センサ4と、回転軸センサ6と、磁気センサ36とを有している。重力加速度gの方向に直交する、もしくは装着機器Gの回転軸線Rを中心としたユーザの頭部の動作は「ヘディング」Hである。磁気センサ36は磁石のN極Nを登録し、磁石のN極Nからの装着機器Gの回転のずれを検出することができる。

Claims (8)

  1. 装着機器(G)の空間的な方位に依存して視覚情報(33)を表示する方法(1)であって、装着機器(G)が、少なくとも、方位情報を検出するための第1のセンサ(6)と、加速度センサ(4)とを備え、
    検出された方位情報(2)に基づいて装着機器(G)の空間的な方位が推定され、
    この方位推定(2)が、加速度センサ(4)によって検出されたセンサ測定データ(8,14,16)によって補正される方法において、
    検出されたセンサ測定データ(8)に基づいて、装着機器(G)が停止フェーズ(20)にあるのか、又は動作フェーズ(22)にあるのかを決定し、
    停止フェーズ(20)で決定された方位推定と、この停止フェーズ(20)で検出された加速度センサ(4)のセンサ測定データ(8,14,16)とに基づいて方位推定におけるエラー(12)を決定し、
    停止フェーズ(20)では、それぞれ現在の方位推定が、変更されずに視覚情報の表示(33)の基礎をなし、
    停止フェーズ(20)で決定した前記エラー(12)に基づいて、後続の動作フェーズ(22)で該エラー(12)を連続的に補正するための少なくとも1つの補正値(24)を決定し、
    動作フェーズ(22)では、前記少なくとも1つの補正値(24)に基づいて補正された前記エラー(12)に基づいて該動作フェーズ(22)における方位推定の結果を補正し、補正された方位推定の結果に基づいて視覚情報(33)を表示することを特徴とする方法。
  2. 請求項1に記載の方法において、
    カメラ、回転速度センサ(6)、マイクロフォン、及び/又は磁気センサを使用して方位情報を検出する方法。
  3. 請求項1又は2に記載の方法において、
    方位情報を検出するための少なくとも1つの第1のセンサ(6)及び/又は少なくとも1つの加速度センサ(4)のセンサ測定データ(8,10)に基づいて、前記停止フェーズ(20)及び前記動作フェーズ(22)の決定を行う方法。
  4. 請求項に記載の方法において、
    現在の前記補正値(24)をそれぞれ前記装着機器(G)の動きに適合させる方法。
  5. 請求項に記載の方法において、
    前記補正値(24)を適合する場合に前記装着機器(G)の回転速度を考慮する方法。
  6. 請求項1からまでのいずれか1項に記載の方法において、
    前記動作フェーズ(22)で、前記停止フェーズ(20)よりも低いサンプリングレートで前記加速度センサ(4)を作動する方法。
  7. 請求項1からのいずれか1項に記載の方法において、
    前記動作フェーズ(22)で前記加速度センサ(4)を停止する方法。
  8. 請求項1からまでのいずれか一項に記載の方法(1)により空間的な方位(2)に依存して視覚情報を表示するための装着機器(G)において、
    方位情報を検出するための少なくとも1つの第1のセンサ(6)と、
    加速度センサ(4)と
    を含む装着機器(G)。
JP2019563604A 2017-05-18 2018-03-15 装着機器の方位推定方法 Active JP6968906B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017208365.4A DE102017208365A1 (de) 2017-05-18 2017-05-18 Verfahren zur Orientierungsschätzung eines tragbaren Gerätes
DE102017208365.4 2017-05-18
PCT/EP2018/056499 WO2018210466A1 (de) 2017-05-18 2018-03-15 Verfahren zur orientierungsschätzung eines tragbaren gerätes

Publications (2)

Publication Number Publication Date
JP2020521228A JP2020521228A (ja) 2020-07-16
JP6968906B2 true JP6968906B2 (ja) 2021-11-17

Family

ID=61691487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019563604A Active JP6968906B2 (ja) 2017-05-18 2018-03-15 装着機器の方位推定方法

Country Status (7)

Country Link
US (1) US10955939B2 (ja)
JP (1) JP6968906B2 (ja)
KR (1) KR102393016B1 (ja)
CN (1) CN110637276B (ja)
DE (1) DE102017208365A1 (ja)
TW (1) TWI766020B (ja)
WO (1) WO2018210466A1 (ja)

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2845958B2 (ja) * 1989-07-18 1999-01-13 日本放送協会 画像表示装置
JP3314324B2 (ja) * 1995-04-18 2002-08-12 ミノルタ株式会社 映像表示装置
JP2000029617A (ja) * 1998-07-08 2000-01-28 Olympus Optical Co Ltd 映像表示装置
JP2000065576A (ja) * 1998-08-21 2000-03-03 Olympus Optical Co Ltd 映像表示装置
AU777641B2 (en) * 1998-12-17 2004-10-28 Nec Tokin Corporation Orientation angle detector
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
DE102004057959B4 (de) * 2004-12-01 2010-03-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Vermittlung von Informationen an einen Benutzer
KR101566356B1 (ko) * 2008-05-15 2015-11-05 엘지전자 주식회사 3d 가속도 센서를 구비한 3d 포인팅 디바이스 및 이를이용한 포인터 제어 정보의 생성 방법과, 전자 기기 및전자 기기의 포인터 제어 방법과 전자 기기의 기능 실행방법
JP2010117260A (ja) * 2008-11-13 2010-05-27 Epson Toyocom Corp 姿勢検出装置の補正パラメーター作成方法、姿勢検出装置の補正パラメーター作成用装置及び姿勢検出装置
US8718963B2 (en) * 2010-04-27 2014-05-06 Memsic, Inc. System and method for calibrating a three-axis accelerometer
JP2012141930A (ja) * 2011-01-06 2012-07-26 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
TWM465187U (zh) * 2013-07-08 2013-11-11 Univ Southern Taiwan Sci & Tec 具地理資訊實境模擬功能之頭戴式電子裝置
KR101558388B1 (ko) * 2014-04-14 2015-10-07 현대자동차 주식회사 G센서를 이용한 도로 구배 연산 장치 및 방법
WO2015162946A1 (ja) * 2014-04-22 2015-10-29 ソニー株式会社 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
WO2016033717A1 (zh) * 2014-09-01 2016-03-10 北京诺亦腾科技有限公司 一种组合式运动捕捉系统
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
CN104897158B (zh) * 2015-06-26 2017-07-14 中国科学院上海高等研究院 一种步行者室内双层定位方法及系统
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
KR101754488B1 (ko) * 2015-10-28 2017-07-06 고려대학교 산학협력단 가속도정보와 회전정보를 이용한 구조물 변위이력 측정방법
JP6514089B2 (ja) * 2015-11-02 2019-05-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10705338B2 (en) * 2016-05-02 2020-07-07 Waves Audio Ltd. Head tracking with adaptive reference
DE102017100622A1 (de) * 2017-01-13 2018-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zum Korrigieren von Ausrichtungsinformationen von einem oder mehreren Trägheitssensoren

Also Published As

Publication number Publication date
CN110637276B (zh) 2024-04-30
WO2018210466A1 (de) 2018-11-22
KR20200009040A (ko) 2020-01-29
CN110637276A (zh) 2019-12-31
TWI766020B (zh) 2022-06-01
DE102017208365A1 (de) 2018-11-22
TW201901367A (zh) 2019-01-01
US10955939B2 (en) 2021-03-23
JP2020521228A (ja) 2020-07-16
US20200103985A1 (en) 2020-04-02
KR102393016B1 (ko) 2022-05-02

Similar Documents

Publication Publication Date Title
EP3407157B1 (en) Computing system implementing an algorithm for fusing data from inertial sensors, and method
US9116001B2 (en) Adaptive estimation of frame time stamp latency
KR20190098003A (ko) 장치의 자세 추정 방법 및 그 장치
WO2015114468A2 (en) Motion tracking with reduced on-body sensors set
JP2014168171A5 (ja)
JP2007148702A (ja) 歩数計
KR20150140734A (ko) 멀티-카메라 장치를 사용하는 거리 추정
JP6237418B2 (ja) 映像表示装置、映像表示方法、および、映像表示プログラム
JP2017219635A5 (ja)
CN115342806A (zh) 头戴显示设备的定位方法、装置、头戴显示设备及介质
JP7255642B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6968906B2 (ja) 装着機器の方位推定方法
JP2019029968A5 (ja)
WO2017046911A1 (ja) カプセル内視鏡システム
JP5168629B2 (ja) 方位角計測装置及び方位角計測方法
JP7038798B2 (ja) 位置推定装置、位置推定方法及びプログラム
KR20130022248A (ko) 자세 안정화 장치를 포함한 모바일 매핑 시스템 및 이의 제어 방법
CN110121023B (zh) 影像处理方法、电子装置及非暂态电脑可读取存储媒体
KR101910515B1 (ko) 수중 운동체 항법 제어 장치 및 방법
JP7346342B2 (ja) 計測装置、計測方法およびプログラム
JP5056436B2 (ja) 三次元地図生成装置、及びプログラム
JP2023167448A (ja) 動作計測装置および動作計測方法
US20210174527A1 (en) Signal processing apparatus, signal processing method, and imaging apparatus
US20200276490A1 (en) Walking support system, walking support method, and program
JP2012114678A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211027

R150 Certificate of patent or registration of utility model

Ref document number: 6968906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150