JP2019515379A - レンダリングデバイスのポーズを推定する方法及び装置 - Google Patents

レンダリングデバイスのポーズを推定する方法及び装置 Download PDF

Info

Publication number
JP2019515379A
JP2019515379A JP2018555260A JP2018555260A JP2019515379A JP 2019515379 A JP2019515379 A JP 2019515379A JP 2018555260 A JP2018555260 A JP 2018555260A JP 2018555260 A JP2018555260 A JP 2018555260A JP 2019515379 A JP2019515379 A JP 2019515379A
Authority
JP
Japan
Prior art keywords
pose
pose information
coefficient
rendering device
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018555260A
Other languages
English (en)
Other versions
JP2019515379A5 (ja
Inventor
フルーロー,ジュリアン
ガルパン,フランク
ブルゴス,グザヴィエ
Original Assignee
インターデジタル シーイー パテント ホールディングス
インターデジタル シーイー パテント ホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル シーイー パテント ホールディングス, インターデジタル シーイー パテント ホールディングス filed Critical インターデジタル シーイー パテント ホールディングス
Publication of JP2019515379A publication Critical patent/JP2019515379A/ja
Publication of JP2019515379A5 publication Critical patent/JP2019515379A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

本開示は、レンダリングデバイスの最終ポーズ(21)を決定する方法、装置又はシステムに関係がある。初期ポーズは、レンダリング装置に関連する。モジュール(25)は、絶対ポーズセンサ(23)及び差分ポーズセンサ(22)からのデータに従って中間ポーズ(26)を決定する。モジュール(27)は、最初に、中間ポーズ(26)と初期ポーズ情報との間の差に、第2に、差分ポーズセンサ(22)からのデータに、第3に、レンダリングデバイスに表示されている現在画像(24)についての動きの視覚認知の評価に従って、最終ポーズ(21)を決定する。

Description

本開示は、絶対ポーズセンサ及び差分ポーズセンサからのデータ並びにレンダリングデバイスに表示されている現在画像の視覚認知を相関させることによってレンダリングデバイスのポーズを決定する分野に関連がある。レンダリングデバイスは、例えば、スマートフォン、タブレット又はヘッドマウント型ディスプレイ(HMD)である。
オブジェクトのポーズを推定する方法は、多種多様である。斯様な方法は、可能な限り正確に基準フレーム内のオブジェクトの位置及び向きを決定することを目標とする。語“ポーズ”は、3次元空間(3自由度)における位置及びオブジェクトの向き(3自由度)の指標を収集する。故に、ポーズは6次元の尺度である。2種類のセンサが、オブジェクトのポーズを推定するために使用されてよい。すなわち、絶対ポーズセンサ及び差分ポーズセンサである。センサは、ポーズの6次元のうちの少なくとも1つを決定することに寄与する。
絶対ポーズセンサは、ポーズが推定される必要がある基準フレームに直接結び付けられるセンサである。例えば、磁気計がオブジェクトに関連付けられてよい。北は、基準フレームに結び付けられる。オブジェクトが回転されているときに、磁気計はアジマス(ただ1つの次元)を測定する。カメラのシステムは、オブジェクトの画像を捕捉するためにオブジェクトの前又は周りに設置されてよい。基準フレーム内のカメラのポーズは正確に知られる。捕捉された画像の処理は、基準フレーム内のオブジェクトのポーズの推定を可能にする(システム及び画像処理の複雑性に応じて2乃至6つの次元から。)。絶対ポーズセンサの測定誤差は一定であるが、比較的に不正確である。
差分ポーズセンサは、オブジェクト自体に関連し、その動きを検出するセンサである。ジャイロスコープ及び加速度計が、通常は、慣性計測装置(IMU)において使用される。それらのセンサは、オブジェクトのポーズを直接には測定しない。差分ポーズセンサは、ポーズの変化を測定し、新しいポーズは、検出された変化を既知のポーズに付加することによって決定される。このようなセンサは、高周波数で動作し、非常に正確である。しかし、それらの測定誤差は、時間にわたって累積し、補正されない場合にはしばらく後に深刻になっている。
ポーズ推定を最適化するよう、且つ、差分ポーズセンサの累積的な測定誤差を補正するよう、両タイプのセンサが組み合わされる。ポーズは、あらゆるセンサからのあらゆる測定にフィルタをかけることによって推定される。いくつかの技術が可能である。例えば、ポーズは、測定からの情報の平均であってよい。各タイプのセンサから発せられる情報は矛盾することがある。絶対ポーズセンサによって推定されるポーズは変化し得るが、一方で、差分ポーズセンサにより推定されるポーズは静止している。運動モデルに基づくフィルタは、減衰現象を導入し得る。すなわち、推定されたポーズは進み続け、一方で、センサ、特に差分ポーズセンサは動きを感知しない。一部のポーズセンサは信号を失うか、又は低周波捕捉を有し得る。これは、ポーズ推定において突然のジャンプをもたらすか、又は減衰現象を生じさせ得る。
イマーシブコンテンツレンダリングデバイスは、画像の一部分のみを表示して、ユーザが、“周囲を見回し”、自身の周りの画像を発見するよう、ディスプレイ自体を動かすことで画像をブラウズすることを可能にするレンダリングデバイスである。スマートフォン、タブレット又はHMDは、例えば、イマーシブビデオ又は仮想現実シーン(例えば、ゲームにおける。)のようなイマーシブコンテンツをレンダリングするために使用される。斯様なレンダリングデバイスのポーズ推定は、ユーザの実際の動きに一致する必要がある。これは、特に、HDMに当てはまる。実際に、ブラウジングは、ポーズ推定、故に、表示される画像によって、制御される。ポーズ推定がユーザの動きと正確に対応しない場合には、ユーザが見ているものは、吐き気を催させる危険を冒して(シミュレータ酔い)、彼の前庭器官が彼の脳に示しているものに対応しない。斯様なレンダリングデバイスについては、ポーズセンサ(絶対及び差分)の組からのデータ及びレンダリングデバイスで表示されている現在画像の視覚認知を相関させることによってポーズを決定することが重要である。
本開示の目的は、レンダリングデバイスの決定されたポーズと現在画像の視覚認知との間の不一致を解消することである。本開示は、レンダリングデバイスの最終ポーズ情報を決定する方法であって、初期ポーズ情報がレンダリングデバイスに関連する、前記方法において、
レンダリングデバイスの絶対ポーズ情報及び/又はレンダリングデバイスの差分ポーズ情報を表すデータに従って中間ポーズ情報を決定することと、
中間ポーズ情報と初期ポーズ情報との間の差、差分ポーズ情報を表すデータ、及びレンダリングデバイスで表示されている現在画像の視覚認知を表す情報に従って最終ポーズ情報を決定することと
を有する前記方法に関係がある。
特定の実施形態に従って、最終ポーズ情報の決定は、
中間ポーズ情報と最終ポーズ情報との間の差、及び差分ポーズ情報を表すデータに従って、動きの認知を表す第1係数を決定することと、
レンダリングデバイスで表示されている現在画像の視覚認知を表す第2係数を決定することと、
第1係数及び第2係数の組み合わせに従って、初期ポーズと中間ポーズ情報との間で最終ポーズ情報を決定することと
を有する。
特定の特徴に従って、第1係数は、中間ポーズ情報と初期ポーズ情報との間の差を、差分ポーズ情報に中心があり且つ差分ポーズ情報に比例した標準偏差を有している関数に適用することによって、決定される。
具体的な特徴に従って、第2係数は、現在表示されている画像の特徴に従って決定され、該特徴は、光度(luminosity)、ぼやけ(blurriness)、彩度(saturation)、色調(hue)、又はサリエンシー(saliency)の大きさを含む特徴の組に属する。
特定の実施形態において、第2係数は、現在表示されている画像を含む少なくとも2つの画像のシーケンスの特徴に従って決定され、該特徴は、エネルギ、エントロピ又は光学フローの大きさを含む特徴の組に属する。
具体的な特徴に従って、第2係数は、現在表示されている画像の特徴と、現在表示されている画像を含む少なくとも2つの画像のシーケンスの特徴との組み合わせに従って、決定される。
特定の実施形態に従って、中間ポーズ情報は、フィルタリング方法によって決定され、該フィルタリング方法は、カルマンフィルタ又は粒子フィルタを含む組に属する。
本開示はまた、レンダリングデバイスの最終ポーズ情報を決定するよう構成されたデバイスであって、初期ポーズ情報がレンダリングデバイスに関連する、前記デバイスにおいて、
レンダリングデバイスの絶対ポーズ情報及び/又はレンダリングデバイスの差分ポーズ情報を表すデータに従って中間ポーズ情報を決定する手段と、
中間ポーズ情報と初期ポーズ情報との間の差、差分ポーズ情報を表すデータ、及びレンダリングデバイスで表示されている現在画像の視覚認知を表す情報に従って最終ポーズ情報を決定する手段と
を有する前記デバイスに関係がある。
本開示はまた、レンダリングデバイスの最終ポーズ情報を決定するよう構成されたデバイスであって、初期ポーズ情報がレンダリングするデバイスに関連する、前記デバイスにおいて、
レンダリングデバイスの絶対ポーズ情報及び/又はレンダリングデバイスの差分ポーズ情報を表すデータに従って中間ポーズ情報を決定し、
中間ポーズ情報と初期ポーズ情報との間の差、差分ポーズ情報を表すデータ、及びレンダリングデバイスで表示されている現在画像の視覚認知を表す情報に従って最終ポーズ情報を決定する
よう構成される少なくとも1つのプロセッサを有する前記デバイスに関係がある。
添付の図面を参照して以下の記載を読むことで、本開示はより良く理解され、他の具体的な特徴及び利点は明らかになる。
本原理の具体的な実施形態に従って、一方で少なくとも1つの絶対ポーズセンサの組、及び他方で少なくとも1つの差分ポーズセンサの組からのデータにフィルタをかけることによって、中間ポーズを決定することの例を表す。 本原理の具体的な実施形態に従って、図1の中間ポーズ情報並びに図1の絶対ポーズセンサ及び差分ポーズセンサからのデータを使用することによって、且つ、レンダリングデバイスによって現在表示されている画像に従って最終ポーズを決定するよう構成されたシステムの構造を図式的に示す。 本原理の具体的な実施形態に従って、図2のシステムのハードウェア実施形態を図式的に示す。 非制限的な有利な実施形態に従って、図3の処理デバイスで実装される方法の実施形態を図式的に示す。
主題は、これより、図面を参照して記載される。図面において、同じ参照符号は、全体を通して同じ要素を参照するために使用される。以下の記載において、説明のために、多数の具体的な詳細が、主題の完全な理解を提供するために示される。主題の実施形態は、それらの具体的な詳細によらずとも実施可能であることが理解される。
本開示の非制限的な実施形態に従って、動きの認知及び視覚認知を相関させることによってイマーシブコンテンツレンダリングデバイスのポーズを決定する方法において、絶対ポーズセンサ及び差分ポーズセンサは、ポーズが推定される基準フレームと、及びデバイスと夫々関連付けられる。初期化フェーズにおいて、初期ポーズは絶対ポーズセンサに従って決定される。少なくとも1つの絶対ポーズセンサからのデータ、及び任意に差分ポーズセンサからのデータは、中間ポーズを決定するよう第1モジュールによってフィルタをかけられる。第2モジュールは、動きの認知のモデルに従う第1係数と、レンダリングデバイスで現在表示されている画像の視覚認知のモデルに従う第2係数とを計算する。それらの係数は、動き認知と視覚認知とが相関するように、初期ポーズから、中間ポーズの方向において最終ポーズを計算するために使用される。新しい推定へ進むよう、最終ポーズの値は初期ポーズに設定され、新しい中間ポーズが決定される。
初期ポーズは第1ポーズ情報であり、中間ポーズは第2ポーズ情報であり、最終ポーズは第3ポーズ情報である。
図1は、一方で少なくとも1つの絶対ポーズセンサの組、及び他方で少なくとも1つの差分ポーズセンサの組からのデータにフィルタをかけることによって、中間ポーズ10を決定することの例を表す。明りょうさのために、図1は、(ポーズの6つの次元のうちの)1つの次元、例えばアジマス、の例を表す。本原理は6次元情報に拡張可能であることが理解される。図1において、絶対ポーズセンサからのデータは、時間にわたって変化する第1ポーズ推定11を構成し、差分ポーズセンサからのデータは、第1ポーズ11から独立して時間にわたって変化する第2ポーズ推定12を構成するよう累積される。フィルタリングは、中間ポーズ10を決定するよう第1ポーズ及び第2ポーズを平均することにある。第1の期間13において、第1ポーズ及び第2ポーズは分岐する。しかし、いずれも同じ方向において進む。フィルタリングはこの分岐を補償し、中間ポーズ10は、第2ポーズ12に比べて同じ方向において進んでいる。この期間中に、HMDの例では、ユーザは、ある方向において自身の頭を回転させて、この動きを感知する。ポーズ推定によってもたらされる画像のブラウジングは、わずかにより緩やかに、同じ方向において回転する。13のような期間中に、視覚認知は動き認知と一致し、中間ポーズは最終ポーズとして直接使用されてよい。
期間14及び15の間、この一致は中断される。実際に、差分ポーズセンサからのデータの累積に従って構成される第2ポーズは、中間ポーズに比べてもはや同じ方向において進まない。期間14の間、差分ポーズセンサは、ユーザが動かないことを示す。しかし、絶対ポーズセンサは、ユーザが自身の頭を回転させることを示す。フィルタリングモジュールは両方の値を平均化し、ユーザが自身の頭を回転させると決定する。差分ポーズは絶対ポーズセンサよりも正確であるということで、それは、ユーザが動いていないが、ブラウジングが回転し続けていることを意味する。期間15の間、第1ポーズ及び第2ポーズは逆方向に進んでいる。フィルタリングモジュールは、デバイスは静止しており、一方で、ユーザは実際には自身の頭を回転させていると決定する。そのような状況は、それらが動き認知と視覚認知との間の不一致を導入することによって吐き気(一般的に、シミュレータ酔い、船酔い、宇宙酔い、乗り物酔い全般)の原因となるということで、回避されるべきである。
期間16の間、絶対ポーズセンサからの信号は失われる。これは、例えば、絶対ポーズセンサがHMDの前側を撮影するカメラである場合に、起こり得る。ユーザが4分の1回転よりも多く回転しているとき、又はユーザがカメラの視野から出ていくとき、信号は失われる。フィルタリングモジュールは、中間ポーズを決定するために差分ポーズセンサからのデータしか有さない。第1の変形例で、中間ポーズは、曲線10の区間10aによって表されるように、平均値から第2ポーズの値へジャンプする。第2の変形例で、フィルタリングモジュールは、曲線10の区間10bによって表されるように、第2ポーズを用いて中間ポーズを漸進的に補間して、値を第2ポーズの値まで鈍らせる。期間17の間、絶対ポーズセンサからの信号が回復され、ジャンピング又は減衰の同じ現象が現れる。
変形例において、より洗練されたフィルタリング方法、例えば、モデルに基づくフィルタリング、粒子フィルタリング又はカルマンフィルタリングが使用されてよい。不一致、減衰及び/又はジャンピング現象は、種々の条件の下で現れるが、斯様なフィルタリングモジュールを用いても存在する。
図2は、絶対ポーズセンサ及び差分ポーズセンサ(夫々22及び23)からのデータから、レンダリングデバイスによって現在表示されている画像24に従って最終ポーズ21を決定するよう構成された装置20の構造を図式的に示す。装置は、2つのモジュール25及び27から構成される。モジュールは機能ユニットであり、区別可能な物理ユニットに関連してもしなくてもよい。例えば、それらのモジュール又はそれらの一部は、ただ1つしかないコンポーネント又は回路においてまとめられるか、あるいは、ソフトウェアの機能に寄与してよい。反対に、一部のモジュールは、場合によっては、別個の物理エンティティから構成されてよい。本原理に対応する装置は、純粋なハードウェアを用いて、例えば、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)又はVLSI(Very Large Scale Integration)のような専用のハードウェアを用いて、あるいは、デバイスに組み込まれた幾つかの集積電子部品から、又はハードウェア及びソフトウェアコンポーネントの混合から実装される。モジュールは、特定の論理機能を実装するための1つ以上の実行可能な命令を有する。また、留意されるべきは、他の実施では、ブロックにおいて示される機能が、示されている順序から外れて起こってよい点である。例えば、連続して示されている2つのブロックは、実際には、略同時に実行されてよく、あるいは、ブロックは、関連する機能に応じて、時々逆順序で実行されてよい。
第1モジュール25は、両方のタイプのポーズセンサからのデータにフィルタをかけることによって中間ポーズ26を決定するものである。モジュール25は、例えば、カルマンフィルタのような、平均化フィルタリング又はモデルに基づくフィルタリングを実装してよい。変形例で、第1モジュール25は、中間ポーズ26を決定するために絶対ポーズセンサのデータしか考慮しない。モジュール27は、中間ポーズが差分ポーズセンサからのデータと一致するかどうかをテストする。値が一致する(すなわち、それらが同じ方向において進んでいる)場合には、中間ポーズが最終ポーズとして使用される。値が一致しない場合には、モジュール27は、視覚認知を乱すことなしに中間ポーズに到達可能であるかどうかを確認する。モジュール27は、スクリーンに現在表示されている画像の視覚認知を表す係数β(以下では第2係数とも呼ばれる。)を計算する。例えば、モジュール27は、現在画像の光度をテストしてよい。光度が閾値を下回る(すなわち、画像が全体的に暗い)場合には、最終ポーズは、1.0に近い係数βを有する式(1)に従って、中間ポーズに近い:

[式(1)] P=P+β(P−P
式(1)において、Pは最終ポーズであり、Pは初期ポーズであり、Pは中間ポーズである。光度が高い(すなわち、画像の詳細が明りょうに目に見える)場合には、モジュール27は、ロー値(すなわち、0.0に近い。)を係数βに帰する。モジュール27は、様々な実施形態において減退されてよい。例えば、最終ポーズは式(2)に従って決定されてよく、このとき、δは、差分ポーズセンサによって検出された動きである:

[式(2)] P=(P+δ)+β(P−(P+δ))
変形例で、係数βは、現在画像の特徴の測定に従って決定される。特徴は、例えば、画像特徴の次の組、すなわち、光度(luminosity)、ぼやけ(blurriness)、彩度(saturation)、色調(hue)、若しくはサリエンシー(saliency)に、又はそれらの特徴のうちの少なくとも2つの組み合わせに属する。変形例で、係数βは、画像のシーケンスの特徴の測定に従って決定される。シーケンスは現在画像を含み、特徴は、例えば、次のもの、すなわち、シーケンスのエネルギ、エントロピ、又は光学フローを含む特徴の組に属する。
変形例の組において、モジュール27は、差分ポーズセンサによって認知された動きδに従って中間ポーズの一致をテストしない。代わりに、モジュール27は、例えば、式(3)(すなわち、正規分布)又は式(4)(区分的分布)を用いて、差分ポーズセンサによって認知された動きδ、及び中間ポーズと初期ポーズとの間の差に従って、係数α(第1係数とも呼ばれる。)を計算する:

[式(3)] α=e((−P2+P1+δ)/2kδ)

[式(4)] |δ−(P−P)|>kの場合にα1、それ以外α=0
ここで、kは所与の標準偏差値である。係数αは、式(1)又は(2)における係数βを置換することによって単独で使用されてよい。他の実施形態では、係数α及びβは、例えば、それらを乗じること又はそれらを平均することによって、式(1)又は(2)の係数として使用されるよう組み合わされる。
式(3)及び(4)において、中間ポーズP(図1の曲線10)と差分ポーズセンサによって認知されるポーズ(図1の曲線12)との間の差が大きければ大きいほど、第1係数αはますます小さい。本明細書で記載される様々な実施形態に従って式(1)又は(2)で使用される場合に、第1係数αは、最終ポーズが、差分ポーズセンサによって認知されるポーズから遠く離れすぎることを防ぐ。差分ポーズセンサは非常に正確であるということで、最終ポーズ、故に表示画像は、ユーザの動きに対応する。しかし、差分ポーズセンサは累積的な測定誤差を有するということで、中間ポーズが到達されるべきポーズと見なされる。これは、中間ポーズが絶対ポーズセンサ及び差分ポーズセンサの両方ともに従って最適であると決定されるからである。本開示で決定される第2係数βの役割は、この補正の視覚認知が十分に弱い場合に、最終ポーズを中間ポーズにより近づけることにある。これは、ユーザに吐き気を催させることなしに最終ポーズを可能な限り最適に保つという利点を有する。
式(1)、(2)、(3)及び(4)におけるポーズP、P及びPは、最大6次元の変数である。最終ポーズPが決定されるとき、初期ポーズPの値は最終ポーズPの値に設定され、新しいポーズが決定される。
図3は、絶対ポーズセンサ及び差分ポーズセンサからのデータから、レンダリングデバイスによって現在表示されている画像に従って最終ポーズを決定するよう構成されたデバイス30のハードウェア実施形態を図式的に示す。この例において、デバイス30は、アドレス、及びクロック信号を更に転送するデータ、のバス31によって、お互いに接続されている次の要素を有する:
・ マイクロプロセッサ32(又はCPU);
・ 少なくとも1つのグラフィックプロセッサユニット(すなわち、GPU)330と、グラフィカルランダムアクセスメモリ(GRAM)331とを有するグラフィクスカード33;
・ ROM(Read Only Memory)タイプの不揮発性メモリ34;
・ ランダムアクセスメモリ、すなわちRAM35;
・ 少なくとも1つの差分ポーズセンサ360;
・ 例えば、触覚インターフェイス、マウス、ウェブカメラ、などのような、I/O(Input/Output)デバイス37;及び
・ 電源38。
有利なことには、デバイス30は、最終ポーズ333に従ってグラフィクスカードで計算された現在画像332を表示するよう、グラフィクスカード33に対して直接に表示スクリーンタイプの1つ以上の表示デバイス39へ接続されている。特定の実施形態に従って、表示デバイス39はデバイス30に組み込まれる(例えば、HDM、スマートフォン、又はタブレット)。
メモリ331、34及び35の記載において使用される語“レジスタ”は、述べられているメモリの夫々において、低容量(数バイナリデータ)のゾーン及び大容量(プログラム全体が記憶されることを可能にする容量、又は計算された若しくは表示されるべきデータを表すデータの全部若しくは部分)のメモリゾーンを指定することが知られる。
オンされるときに、マイクロプロセッサ32は、RAM34のレジスタ340に含まれているプログラムの命令をロードし実行する。
ランダムアクセスメモリ35は、特に:
・ レジスタ350において、デバイス30をオンすることに関与するマイクロプロセッサ32のオペレーティングプログラム;
・ レンダリングデバイスの初期ポーズを表すデータ351;
・ 中間ポーズを表すデータ352
を有する。
1つの特定の実施形態に従って、本開示に特有であって、以降で記載される方法のステップを実装するアルゴリズムは、有利なことに、それらのステップを実装するデバイス30に関連するグラフィクスカード33のメモリGRAM331に記憶されている。オンされるときに、グラフィクスカード33のグラフィックプロセッサ330は、プログラムをGRAM331にロードし、それらのアルゴリズムの命令を、例えば、HLSI(High Level Shader Language)言語又はGLSL(OpenGL Shading Language)を使用する“シェーダー”タイプのマイクロプログラムの形で、実行する。グラフィクスカード33は、GRAM331のレジスタ333に記憶されている決定された最終ポーズに従ってビデオコンテンツをレンダリングする。ランダムアクセスメモリGRAM331は、特に、レジスタ332においてビデオコンテンツの現在画像を表すデータを有する。
他の変形例に従って、RAM35の一部分は、CPU32によって、ビデオコンテンツのレンダリングの記憶のために割り当てられる。なお、この変形例は、画像の合成において、より大きいレイテンシー時間を引き起こす。これは、データがバス31を通ってランダムアクセスメモリ35からグラフィクスカード33へ送られるべきであるからである。そのための伝送容量は、GPUからGRAMへの及びその逆のデータの伝送のためにグラフィクスカードで利用可能な容量よりも一般的に劣っている。
他の変形例に従って、電源38はデバイス30の外部にある。1つの特定の実施形態において、1つ又はいくつかの差分ポーズセンサ360はデバイス30の外部にある。他の変形例では、1つ又はいくつかの絶対ポーズセンサはデバイス30に組み込まれる(例えば、磁気計)。
図4は、非制限的な有利な実施形態に従って、デバイス30のような処理デバイスにおいて実装される方法40の実施形態を図式的に示す。
初期化ステップ41で、初期ポーズは、絶対ポーズセンサからのデータにのみ従って、レンダリングデバイスに対して決定される。実際に、このステップで、差分ポーズセンサは未だ如何なるデータも送らない。この最初の初期ポーズは、デバイス30のRAM35のレジスタ351に記憶される。変形例で、Pとも呼ばれる初期ポーズは、GRAM331のレジスタに記憶される。
ステップ42は、絶対及び/又は差分ポーズセンサからの新しいデータが取得される場合に実行される。ステップ42は、図2のモジュール25によって実行される。このステップで、Pとも呼ばれる初期ポーズ26は、両方のタイプのポーズセンサからのデータにフィルタをかけることによって決定される。モジュール25は、例えば、カルマンフィルタのような、平均化フィルタリング又はモデルに基づくフィルタリングを実装してよい。変形例で、中間ポーズは、絶対ポーズセンサのデータだけで決定されるポーズである。中間ポーズは最適なポーズ推定と見なされる。
ステップ43で、Pとも呼ばれる最終ポーズは、初期ポーズP、中間ポーズP、差分ポーズセンサからのデータ、及びレンダリングデバイス30によって表示されている現在画像に従って、決定される。ステップ43は、様々な実施形態に従って実装され得る3つのサブステップから成る。
ステップ431で、差分ポーズセンサによって供給されたデータに関する中間ポーズPの一致の評価が行われる。中間ポーズが、差分ポーズセンサによって認知された動きと比べて同じ方向において(初期ポーズPに関して)進んでいる場合には(すなわち、中間ポーズがこの時点でのユーザの動きと一致する場合には)、中間ポーズは最終ポーズとして使用される。この場合に、ステップ44は直接に実行される。そうでない場合には、デフォルト値(例えば、0.0又は0.1)が第1係数αに帰され、ステップ432が実行される。ステップ431の変形例で、第1係数とも呼ばれる係数αは、初期及び中間ポーズ値並びに差分ポーズセンサからのデータに従って計算される。式(3)又は(4)は、例えば、第1係数αを計算するために使用されてよい。この係数αは、最終ポーズを認知される動きに一致させ続ける力を表す。この実施形態において、ステップ432が実行される。
ステップ432は、動きの視覚認知のレベルを表す第2係数βを計算することにある。例えば、画像の現在表示されているシーケンスが暗いか又はぼやけている場合に、動きの視覚認知は、例えば、低い(low)と見なされる。同様に、画像の現在表示されているシーケンスが急速なドリーイン(若しくはアウト)、移動又はパン又はチルト又はズーム(イン若しくはアウト)に対応する場合には、ユーザが画像の詳細を正確に見ることができないということで、動きの視覚認知はやはり低いと見なされる。動きの視覚認知のレベルが低い場合に、第2係数βは高い(例えば、1.0に近く、例えば、0.95である。)。
ステップ433は、最終ポーズを決定するために、前のステップで計算された情報を使用する。中間ポーズが最適と見なされるということで、中間ポーズが差分ポーズセンサによって認知された動きδに一致する限り、最終ポーズは、中間ポーズに可能な限り近くなければならない。様々な実施形態は、例えば、式(5)として、この原理に従ってよい。

[式(5)] P=P+((α+β)/2)・(P−P
最終ポーズが決定されると、Pの値は、次の現在の画像をレンダリングするためにグラフィクスボード33によって使用される。ステップ44は、Pの値をPに帰することにある。ステップ42は、新しいデータが絶対及び/又は差分ポーズセンサから受け取られる場合に再度実行される。
当然、本開示は、前に記載された実施形態に制限されない。
特に、本開示は、レンダリングデバイスの最終ポーズ情報を決定する方法に制限されず、この最終ポーズ情報をレンダリングデバイスへ送る如何なる方法にも、及び/又は最終ポーズ情報に従って画像をレンダリングする如何なる方法にも及ぶ。初期、中間及び最終ポーズ情報並びに第1及び第2係数を生成するために必要な計算の実装は、シェーダータイプのマイクロプログラムにおける実装に制限されず、あらゆるプログラムタイプ、例えば、CPUタイプのマイクロプロセッサによって実行可能であるプログラムにおける実装にも及ぶ。本開示の方法の使用は、目下の利用に制限されず、あらゆる他の利用、例えば、レコーディングスタジオでのポストプロダクション処理として知られる処理のための利用に及ぶ。
本明細書で記載される実施は、例えば、方法若しくはプロセス、装置、ソフトウェアプログラム、データストリーム、又は信号において実装されてよい。たとえ1つの形態の実施に関してしか説明されていない(例えば、方法又はデバイスとしてしか説明されていない)としても、説明されている特徴の実施は、他の形態(例えば、プログラム)においても実装されてよい。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアにおいて実装されてよい。方法は、例えば、プロセッサのような装置において実装されてよい。プロセッサは、例えば、コンピュータ、マイクロプロセッサ、集積回路、又はプログラム可能ロジックデバイスを含む処理デバイス全般を指す。プロセッサは、例えば、スマートフォン、タブレット、コンピュータ、携帯電話機、ポータブル/パーソナルデジタルアシスタント(“PDA”)、及びエンドユーザ間の情報のやり取りを助ける他のデバイスのような通信デバイスも含む。
本明細書で記載される様々なプロセス及び特徴の実施は、多種多様な機器又はアプリケーション、特に、例えば、データ符号化、データ復号化、ビュー生成、テクスチャ処理、並びに画像及び関連するテクスチャ情報及び/又はデプス情報の他の処理に関連した機器又はアプリケーションにおいて具現化されてよい。斯様な機器の例には、エンコーダ、デコーダ、データからの出力を処理するポストプロセッサ、入力をエンコーダへ供給するプリプロセッサ、ビデオコーダー、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話機、PDA、及び他の通信デバイスが含まれる。当然ながら、機器はモバイルであって、移動車両において設置されてさえよい。
その上、方法は、プロセッサによって実行される命令によって実装されてよく、斯様な命令(及び/又は実施によって生成されたデータ値)は、例えば、集積回路、ソフトウェア担体又は他の記憶装置、例えば、ハードディスク、コンパクトディスケット(“CD”)、光ディスク(例えば、デジタルバーサタイルディスク若しくはデジタルビデオディスクとしばしば呼ばれるDVD)、ランダムアクセスメモリ(“RAM”)、又はリードオンリーメモリ(“ROM”)のようなプロセッサ読出可能な媒体に記憶されてよい。命令は、プロセッサ読出可能な媒体において有形に具現化されたアプリケーションプログラムを形成してよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、又は組み合わせであってよい。命令は、例えば、オペレーティングシステム、別個のアプリケーション、又はそれら2つの組み合わせにおいて見受けられ得る。プロセッサは、従って、プロセスを実行するよう構成されたデバイス、及びプロセスを実行するための命令を有しているプロセッサ読出可能な媒体(例えば、記憶デバイス)を含むデバイスの両方として見なされてよい。更に、プロセッサ読出可能な媒体は、命令に加えて、又はそれに代えて、実施によって生成されたデータ値を記憶してよい。
当業者に明らかなように、実施は、例えば、記憶又は送信され得る情報を運ぶようフォーマットされた様々な信号を生成してよい。情報は、例えば、方法を実行するための命令、又は記載されている実施のうちの1つによって生成されたデータを含んでよい。例えば、信号は、記載されている実施形態のシンタックスを書き込む若しくは読み出すための規則をデータとして運ぶよう、又は記載されている実施形態によって書き込まれた実際のシンタックス値をデータとして運ぶようフォーマットされてよい。斯様な信号は、例えば、電磁波(例えば、スペクトルの無線周波数部分を使用する。)として、又はベースバンド信号としてフォーマットされてよい。フォーマッティングは、例えば、データストリームを符号化し、符号化されたデータストリームによりキャリアを変調することを含んでよい。信号が運ぶ情報は、例えば、アナログ又はデジタル情報であってよい。信号は、知られている多種多様な有線又は無線リンクにわたって送信されてよい。信号は、プロセッサ読出可能な媒体において記憶されてよい。
多数の実施が記載されてきた。それでもなお、様々な変更が行われ得ることが理解されるだろう。例えば、異なる実施の要素は、他の実施を生じさせるよう結合、置換、変更、又は削除されてよい。その上、当業者は、他の構造及びプロセスが、開示されているものに代用されてよく、結果として現れる実施が、開示されている実施と少なくとも実質的に同じ結果を達成するよう少なくとも実質的に同じ方法で少なくとも実質的に同じ機能を果たすと理解するだろう。然るに、それら及び他の実施は、本願によって考えられている。

Claims (15)

  1. レンダリングデバイスの第3ポーズ情報(21,333)を決定する方法(40)であって、第1ポーズ情報が前記レンダリングデバイスに関連する、前記方法において、
    前記レンダリングデバイスの絶対ポーズ情報(11,23)を表すデータと、前記レンダリングデバイスの差分ポーズ情報(12,22)を表すデータとに従って、第2ポーズ情報(10,26,352)を決定すること(42)と、
    前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の差と、前記差分ポーズ情報(12,22)を表すデータと、前記レンダリングデバイスに表示されている現在画像(24,332)の視覚認知を表す情報とに従って、前記第3ポーズ情報(21,333)を決定すること(43)と
    を有し、
    前記第3ポーズは、前記現在画像の前記視覚認知が前記差に従う動きの認知と一致することを確かにする、
    ことを特徴とする方法。
  2. 前記第3ポーズ情報(21,333)を決定することは、
    前記差分ポーズ情報(12,22)を表すデータと、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の前記差とに従って、動きの認知を表す第1係数を決定すること(431)と、
    前記レンダリングデバイスに表示されている前記現在画像(24,332)の前記視覚認知を表す第2係数を決定すること(432)と、
    前記第1係数及び前記第2係数の組み合わせに従って、前記第1ポーズと前記第2ポーズ情報(10,26,352)との間で前記第3ポーズ情報(21,333)を決定することと
    を有する、
    請求項1に記載の方法。
  3. 前記第1係数は、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の前記差を、前記差分ポーズ情報(12,22)に中心を置く関数に適用することによって、決定される、
    請求項2に記載の方法。
  4. 前記第2係数は、前記現在表示されている画像(24,332)の特徴に従って決定され、該特徴は、光度、ぼやけ、彩度、色調、及びサリエンシーの大きさを含む特徴の組に属する、
    請求項2又は3に記載の方法。
  5. 前記第2係数は、前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴に従って決定され、該特徴は、エネルギ、エントロピ、及びオプティカルフローの大きさを含む特徴の組に属する、
    請求項2又は3に記載の方法。
  6. 前記第2係数は、前記現在表示されている画像(24,332)の特徴と前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴との組み合わせに従って決定される、
    請求項2又は3に記載の方法。
  7. 前記第2ポーズ情報(10,26,352)は、フィルタリング方法によって決定され、該フィルタリング方法は、カルマンフィルタ及び粒子フィルタを含む組に属する、
    請求項1乃至6のうちいずれか一項に記載の方法。
  8. レンダリングデバイスの第3ポーズ情報(21,333)を決定するよう構成されるデバイスであって、当少なくとも1つのプロセッサに関連したメモリを有し、第1ポーズ情報が前記レンダリングデバイスに関連する、前記デバイスにおいて、
    前記少なくとも1つのプロセッサは、
    前記レンダリングデバイスの絶対ポーズ情報(11,23)を表すデータと、前記レンダリングデバイスの差分ポーズ情報(12,22)を表すデータとに従って、第2ポーズ情報(10,26,352)を決定し(25)、
    前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の差と、前記差分ポーズ情報(12,22)を表すデータと、前記レンダリングデバイスに表示されている現在画像(24,332)の視覚認知を表す情報とに従って、前記第3ポーズ情報(21,333)を決定する(27)
    よう構成され、
    前記第3ポーズは、前記現在画像の前記視覚認知が前記差に従う動きの認知と一致することを確かにする、
    デバイス。
  9. 前記第3ポーズ情報(21,333)の決定は、
    前記差分ポーズ情報(12,22)を表すデータと、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の前記差とに従って、動きの認知を表す第1係数を決定することと、
    前記レンダリングデバイスに表示されている前記現在画像(24,332)の前記視覚認知を表す第2係数を決定することと、
    前記第1係数及び前記第2係数の組み合わせに従って、前記第1ポーズと前記第2ポーズ情報(10,26,352)との間で前記第3ポーズ情報(21,333)を決定することと
    を有する、
    請求項8に記載のデバイス。
  10. 前記第1係数は、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の差の結果を、前記差分ポーズ情報(12,22)に中心を置く関数に適用することによって、決定される、
    請求項9に記載のデバイス。
  11. 前記第2係数は、前記現在表示されている画像(24,332)の特徴に従って決定され、該特徴は、光度、ぼやけ、彩度、色調、及びサリエンシーの大きさを含む特徴の組に属する、
    請求項9又は10に記載のデバイス。
  12. 前記第2係数は、前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴に従って決定され、該特徴は、エネルギ、エントロピ、及びオプティカルフローの大きさを含む特徴の組に属する、
    請求項9又は10に記載のデバイス。
  13. 前記第2係数は、前記現在表示されている画像(24,332)の特徴と前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴との組み合わせに従って決定される、
    請求項9又は10に記載のデバイス。
  14. 前記第2ポーズ情報(10,26,352)は、フィルタリング方法によって決定され、該フィルタリング方法は、カルマンフィルタ及び粒子フィルタを含む組に属する、
    請求項8乃至13のうちいずれか一項に記載のデバイス。
  15. 前記第3ポーズ情報(21,333)を前記レンダリングデバイスへ送信する手段を更に有する
    請求項9乃至14のうちいずれか一項に記載のデバイス。
JP2018555260A 2016-04-21 2017-04-06 レンダリングデバイスのポーズを推定する方法及び装置 Pending JP2019515379A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16305461.2A EP3236211A1 (en) 2016-04-21 2016-04-21 Method and apparatus for estimating a pose of a rendering device
EP16305461.2 2016-04-21
PCT/EP2017/058223 WO2017182284A1 (en) 2016-04-21 2017-04-06 Method and apparatus for estimating a pose of a rendering device

Publications (2)

Publication Number Publication Date
JP2019515379A true JP2019515379A (ja) 2019-06-06
JP2019515379A5 JP2019515379A5 (ja) 2020-05-07

Family

ID=55854745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018555260A Pending JP2019515379A (ja) 2016-04-21 2017-04-06 レンダリングデバイスのポーズを推定する方法及び装置

Country Status (6)

Country Link
US (1) US10885658B2 (ja)
EP (2) EP3236211A1 (ja)
JP (1) JP2019515379A (ja)
KR (1) KR20190006480A (ja)
CN (1) CN109196306A (ja)
WO (1) WO2017182284A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
WO2019113570A1 (en) 2017-12-10 2019-06-13 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
EP3729172A4 (en) 2017-12-20 2021-02-24 Magic Leap, Inc. INSERT FOR AUGMENTED REALITY VIEWING DEVICE
WO2019178567A1 (en) 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11204491B2 (en) 2018-05-30 2021-12-21 Magic Leap, Inc. Compact variable focus configurations
EP3803450A4 (en) 2018-05-31 2021-08-18 Magic Leap, Inc. POSITIONING A RADAR HEAD
CN112400157A (zh) 2018-06-05 2021-02-23 奇跃公司 观看系统的基于单应性变换矩阵的温度校准
US11092812B2 (en) 2018-06-08 2021-08-17 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
WO2020028834A1 (en) 2018-08-02 2020-02-06 Magic Leap, Inc. A viewing system with interpupillary distance compensation based on head motion
EP3830631A4 (en) 2018-08-03 2021-10-27 Magic Leap, Inc. NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM
CN117111304A (zh) 2018-11-16 2023-11-24 奇跃公司 用于保持图像清晰度的图像尺寸触发的澄清
JP2022519292A (ja) 2019-02-06 2022-03-22 マジック リープ, インコーポレイテッド 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
CN114174895A (zh) 2019-07-26 2022-03-11 奇跃公司 用于增强现实的系统和方法
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
WO2021206251A1 (en) * 2020-04-07 2021-10-14 Samsung Electronics Co., Ltd. System and method for reduced communication load through lossless data reduction
US20210311307A1 (en) * 2020-04-07 2021-10-07 Samsung Electronics Co., Ltd. System and method for reduced communication load through lossless data reduction
CN113393745B (zh) * 2021-06-09 2022-11-04 首都医科大学宣武医院 一种糖尿病并发症体验系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163670A (ja) * 2000-11-24 2002-06-07 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及びその制御方法
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
JP2007213407A (ja) * 2006-02-10 2007-08-23 Gifu Univ 仮想現実画像表示装置
KR20100047563A (ko) * 2008-10-29 2010-05-10 에이알비전 (주) 모의 훈련을 위한 증강 현실 장치 및 가상 이미지 합성 방법
US20130218461A1 (en) * 2012-02-22 2013-08-22 Leonid Naimark Reduced Drift Dead Reckoning System
US20160055671A1 (en) * 2014-08-22 2016-02-25 Applied Research Associates, Inc. Techniques for Enhanced Accurate Pose Estimation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206016B2 (en) 2000-05-01 2007-04-17 Polycom, Inc. Filtering artifacts from multi-threaded video
US7944449B2 (en) * 2003-05-14 2011-05-17 Pixar Methods and apparatus for export of animation data to non-native articulation schemes
KR100561860B1 (ko) * 2004-02-04 2006-03-16 삼성전자주식회사 콤파스를 이용한 지자기 판단 방법 및 장치와 이를 이용한이동물체의 방위각 생성 방법 및 장치
US20050253849A1 (en) * 2004-05-13 2005-11-17 Pixar Custom spline interpolation
US8930023B2 (en) * 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
WO2010027391A2 (en) * 2008-08-27 2010-03-11 California Institute Of Technology Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing
US9009053B2 (en) * 2008-11-10 2015-04-14 Google Inc. Multisensory speech detection
US9013617B2 (en) * 2012-10-12 2015-04-21 Qualcomm Incorporated Gyroscope conditioning and gyro-camera alignment
US9159133B2 (en) * 2012-11-05 2015-10-13 Qualcomm Incorporated Adaptive scale and/or gravity estimation
KR20140121581A (ko) * 2013-04-08 2014-10-16 삼성전자주식회사 수술 로봇 시스템
US10326972B2 (en) * 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
US20170273665A1 (en) * 2016-03-28 2017-09-28 Siemens Medical Solutions Usa, Inc. Pose Recovery of an Ultrasound Transducer

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163670A (ja) * 2000-11-24 2002-06-07 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及びその制御方法
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
JP2007213407A (ja) * 2006-02-10 2007-08-23 Gifu Univ 仮想現実画像表示装置
KR20100047563A (ko) * 2008-10-29 2010-05-10 에이알비전 (주) 모의 훈련을 위한 증강 현실 장치 및 가상 이미지 합성 방법
US20130218461A1 (en) * 2012-02-22 2013-08-22 Leonid Naimark Reduced Drift Dead Reckoning System
US20160055671A1 (en) * 2014-08-22 2016-02-25 Applied Research Associates, Inc. Techniques for Enhanced Accurate Pose Estimation

Also Published As

Publication number Publication date
EP3236211A1 (en) 2017-10-25
EP3446069A1 (en) 2019-02-27
CN109196306A (zh) 2019-01-11
US10885658B2 (en) 2021-01-05
KR20190006480A (ko) 2019-01-18
WO2017182284A1 (en) 2017-10-26
US20190147612A1 (en) 2019-05-16

Similar Documents

Publication Publication Date Title
JP2019515379A (ja) レンダリングデバイスのポーズを推定する方法及び装置
CA2927445C (en) Applying video stabilization to a multimedia clip
JP6356784B2 (ja) 拡張現実用のラジアンス伝達サンプリングのための装置および方法
US10645298B2 (en) Methods, devices and systems for automatic zoom when playing an augmented scene
CN110322542B (zh) 重建真实世界3d场景的视图
US20180165830A1 (en) Method and device for determining points of interest in an immersive content
US9692972B2 (en) Stabilization of low-light video
US20180098082A1 (en) Motion estimation using hybrid video imaging system
US10235795B2 (en) Methods of compressing a texture image and image data processing system and methods of generating a 360 degree panoramic video thereof
US20170287196A1 (en) Generating photorealistic sky in computer generated animation
US8964040B2 (en) High dynamic range image registration using motion sensor data
US20170374256A1 (en) Method and apparatus for rolling shutter compensation
WO2014085090A1 (en) System and method for adjusting orientation of captured video
CN105635588A (zh) 一种稳像方法及装置
US11347306B2 (en) Method and apparatus for controlling a discrepant aiming direction of a camera
US20230109047A1 (en) Methods and apparatus for re-stabilizing video in post-processing
WO2020193703A1 (en) Techniques for detection of real-time occlusion
US11948257B2 (en) Systems and methods for augmented reality video generation
CN117058012A (zh) 图像处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211018