JP2019515379A - レンダリングデバイスのポーズを推定する方法及び装置 - Google Patents
レンダリングデバイスのポーズを推定する方法及び装置 Download PDFInfo
- Publication number
- JP2019515379A JP2019515379A JP2018555260A JP2018555260A JP2019515379A JP 2019515379 A JP2019515379 A JP 2019515379A JP 2018555260 A JP2018555260 A JP 2018555260A JP 2018555260 A JP2018555260 A JP 2018555260A JP 2019515379 A JP2019515379 A JP 2019515379A
- Authority
- JP
- Japan
- Prior art keywords
- pose
- pose information
- coefficient
- rendering device
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Abstract
Description
レンダリングデバイスの絶対ポーズ情報及び/又はレンダリングデバイスの差分ポーズ情報を表すデータに従って中間ポーズ情報を決定することと、
中間ポーズ情報と初期ポーズ情報との間の差、差分ポーズ情報を表すデータ、及びレンダリングデバイスで表示されている現在画像の視覚認知を表す情報に従って最終ポーズ情報を決定することと
を有する前記方法に関係がある。
中間ポーズ情報と最終ポーズ情報との間の差、及び差分ポーズ情報を表すデータに従って、動きの認知を表す第1係数を決定することと、
レンダリングデバイスで表示されている現在画像の視覚認知を表す第2係数を決定することと、
第1係数及び第2係数の組み合わせに従って、初期ポーズと中間ポーズ情報との間で最終ポーズ情報を決定することと
を有する。
レンダリングデバイスの絶対ポーズ情報及び/又はレンダリングデバイスの差分ポーズ情報を表すデータに従って中間ポーズ情報を決定する手段と、
中間ポーズ情報と初期ポーズ情報との間の差、差分ポーズ情報を表すデータ、及びレンダリングデバイスで表示されている現在画像の視覚認知を表す情報に従って最終ポーズ情報を決定する手段と
を有する前記デバイスに関係がある。
レンダリングデバイスの絶対ポーズ情報及び/又はレンダリングデバイスの差分ポーズ情報を表すデータに従って中間ポーズ情報を決定し、
中間ポーズ情報と初期ポーズ情報との間の差、差分ポーズ情報を表すデータ、及びレンダリングデバイスで表示されている現在画像の視覚認知を表す情報に従って最終ポーズ情報を決定する
よう構成される少なくとも1つのプロセッサを有する前記デバイスに関係がある。
[式(1)] P3=P1+β(P2−P1)
[式(2)] P3=(P1+δ)+β(P2−(P1+δ))
[式(3)] α=e((−P2+P1+δ)/2kδ)
[式(4)] |δ−(P2−P1)|>kの場合にα1、それ以外α=0
・ マイクロプロセッサ32(又はCPU);
・ 少なくとも1つのグラフィックプロセッサユニット(すなわち、GPU)330と、グラフィカルランダムアクセスメモリ(GRAM)331とを有するグラフィクスカード33;
・ ROM(Read Only Memory)タイプの不揮発性メモリ34;
・ ランダムアクセスメモリ、すなわちRAM35;
・ 少なくとも1つの差分ポーズセンサ360;
・ 例えば、触覚インターフェイス、マウス、ウェブカメラ、などのような、I/O(Input/Output)デバイス37;及び
・ 電源38。
・ レジスタ350において、デバイス30をオンすることに関与するマイクロプロセッサ32のオペレーティングプログラム;
・ レンダリングデバイスの初期ポーズを表すデータ351;
・ 中間ポーズを表すデータ352
を有する。
[式(5)] P3=P1+((α+β)/2)・(P2−P1)
Claims (15)
- レンダリングデバイスの第3ポーズ情報(21,333)を決定する方法(40)であって、第1ポーズ情報が前記レンダリングデバイスに関連する、前記方法において、
前記レンダリングデバイスの絶対ポーズ情報(11,23)を表すデータと、前記レンダリングデバイスの差分ポーズ情報(12,22)を表すデータとに従って、第2ポーズ情報(10,26,352)を決定すること(42)と、
前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の差と、前記差分ポーズ情報(12,22)を表すデータと、前記レンダリングデバイスに表示されている現在画像(24,332)の視覚認知を表す情報とに従って、前記第3ポーズ情報(21,333)を決定すること(43)と
を有し、
前記第3ポーズは、前記現在画像の前記視覚認知が前記差に従う動きの認知と一致することを確かにする、
ことを特徴とする方法。 - 前記第3ポーズ情報(21,333)を決定することは、
前記差分ポーズ情報(12,22)を表すデータと、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の前記差とに従って、動きの認知を表す第1係数を決定すること(431)と、
前記レンダリングデバイスに表示されている前記現在画像(24,332)の前記視覚認知を表す第2係数を決定すること(432)と、
前記第1係数及び前記第2係数の組み合わせに従って、前記第1ポーズと前記第2ポーズ情報(10,26,352)との間で前記第3ポーズ情報(21,333)を決定することと
を有する、
請求項1に記載の方法。 - 前記第1係数は、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の前記差を、前記差分ポーズ情報(12,22)に中心を置く関数に適用することによって、決定される、
請求項2に記載の方法。 - 前記第2係数は、前記現在表示されている画像(24,332)の特徴に従って決定され、該特徴は、光度、ぼやけ、彩度、色調、及びサリエンシーの大きさを含む特徴の組に属する、
請求項2又は3に記載の方法。 - 前記第2係数は、前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴に従って決定され、該特徴は、エネルギ、エントロピ、及びオプティカルフローの大きさを含む特徴の組に属する、
請求項2又は3に記載の方法。 - 前記第2係数は、前記現在表示されている画像(24,332)の特徴と前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴との組み合わせに従って決定される、
請求項2又は3に記載の方法。 - 前記第2ポーズ情報(10,26,352)は、フィルタリング方法によって決定され、該フィルタリング方法は、カルマンフィルタ及び粒子フィルタを含む組に属する、
請求項1乃至6のうちいずれか一項に記載の方法。 - レンダリングデバイスの第3ポーズ情報(21,333)を決定するよう構成されるデバイスであって、当少なくとも1つのプロセッサに関連したメモリを有し、第1ポーズ情報が前記レンダリングデバイスに関連する、前記デバイスにおいて、
前記少なくとも1つのプロセッサは、
前記レンダリングデバイスの絶対ポーズ情報(11,23)を表すデータと、前記レンダリングデバイスの差分ポーズ情報(12,22)を表すデータとに従って、第2ポーズ情報(10,26,352)を決定し(25)、
前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の差と、前記差分ポーズ情報(12,22)を表すデータと、前記レンダリングデバイスに表示されている現在画像(24,332)の視覚認知を表す情報とに従って、前記第3ポーズ情報(21,333)を決定する(27)
よう構成され、
前記第3ポーズは、前記現在画像の前記視覚認知が前記差に従う動きの認知と一致することを確かにする、
デバイス。 - 前記第3ポーズ情報(21,333)の決定は、
前記差分ポーズ情報(12,22)を表すデータと、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の前記差とに従って、動きの認知を表す第1係数を決定することと、
前記レンダリングデバイスに表示されている前記現在画像(24,332)の前記視覚認知を表す第2係数を決定することと、
前記第1係数及び前記第2係数の組み合わせに従って、前記第1ポーズと前記第2ポーズ情報(10,26,352)との間で前記第3ポーズ情報(21,333)を決定することと
を有する、
請求項8に記載のデバイス。 - 前記第1係数は、前記第2ポーズ情報(10,26,352)と前記第1ポーズ情報との間の差の結果を、前記差分ポーズ情報(12,22)に中心を置く関数に適用することによって、決定される、
請求項9に記載のデバイス。 - 前記第2係数は、前記現在表示されている画像(24,332)の特徴に従って決定され、該特徴は、光度、ぼやけ、彩度、色調、及びサリエンシーの大きさを含む特徴の組に属する、
請求項9又は10に記載のデバイス。 - 前記第2係数は、前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴に従って決定され、該特徴は、エネルギ、エントロピ、及びオプティカルフローの大きさを含む特徴の組に属する、
請求項9又は10に記載のデバイス。 - 前記第2係数は、前記現在表示されている画像(24,332)の特徴と前記現在表示されている画像(24,332)を含む少なくとも2つの画像のシーケンスの特徴との組み合わせに従って決定される、
請求項9又は10に記載のデバイス。 - 前記第2ポーズ情報(10,26,352)は、フィルタリング方法によって決定され、該フィルタリング方法は、カルマンフィルタ及び粒子フィルタを含む組に属する、
請求項8乃至13のうちいずれか一項に記載のデバイス。 - 前記第3ポーズ情報(21,333)を前記レンダリングデバイスへ送信する手段を更に有する
請求項9乃至14のうちいずれか一項に記載のデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305461.2A EP3236211A1 (en) | 2016-04-21 | 2016-04-21 | Method and apparatus for estimating a pose of a rendering device |
EP16305461.2 | 2016-04-21 | ||
PCT/EP2017/058223 WO2017182284A1 (en) | 2016-04-21 | 2017-04-06 | Method and apparatus for estimating a pose of a rendering device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019515379A true JP2019515379A (ja) | 2019-06-06 |
JP2019515379A5 JP2019515379A5 (ja) | 2020-05-07 |
Family
ID=55854745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018555260A Pending JP2019515379A (ja) | 2016-04-21 | 2017-04-06 | レンダリングデバイスのポーズを推定する方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10885658B2 (ja) |
EP (2) | EP3236211A1 (ja) |
JP (1) | JP2019515379A (ja) |
KR (1) | KR20190006480A (ja) |
CN (1) | CN109196306A (ja) |
WO (1) | WO2017182284A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP3343267B1 (en) | 2016-12-30 | 2024-01-24 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
WO2019113570A1 (en) | 2017-12-10 | 2019-06-13 | Magic Leap, Inc. | Anti-reflective coatings on optical waveguides |
EP3729172A4 (en) | 2017-12-20 | 2021-02-24 | Magic Leap, Inc. | INSERT FOR AUGMENTED REALITY VIEWING DEVICE |
WO2019178567A1 (en) | 2018-03-15 | 2019-09-19 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
US11204491B2 (en) | 2018-05-30 | 2021-12-21 | Magic Leap, Inc. | Compact variable focus configurations |
EP3803450A4 (en) | 2018-05-31 | 2021-08-18 | Magic Leap, Inc. | POSITIONING A RADAR HEAD |
CN112400157A (zh) | 2018-06-05 | 2021-02-23 | 奇跃公司 | 观看系统的基于单应性变换矩阵的温度校准 |
US11092812B2 (en) | 2018-06-08 | 2021-08-17 | Magic Leap, Inc. | Augmented reality viewer with automated surface selection placement and content orientation placement |
US11579441B2 (en) | 2018-07-02 | 2023-02-14 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
WO2020010226A1 (en) | 2018-07-03 | 2020-01-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4270016A3 (en) | 2018-07-24 | 2024-02-07 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
WO2020023543A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Viewing device with dust seal integration |
WO2020028834A1 (en) | 2018-08-02 | 2020-02-06 | Magic Leap, Inc. | A viewing system with interpupillary distance compensation based on head motion |
EP3830631A4 (en) | 2018-08-03 | 2021-10-27 | Magic Leap, Inc. | NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM |
CN117111304A (zh) | 2018-11-16 | 2023-11-24 | 奇跃公司 | 用于保持图像清晰度的图像尺寸触发的澄清 |
JP2022519292A (ja) | 2019-02-06 | 2022-03-22 | マジック リープ, インコーポレイテッド | 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節 |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY |
US11445232B2 (en) | 2019-05-01 | 2022-09-13 | Magic Leap, Inc. | Content provisioning system and method |
CN114174895A (zh) | 2019-07-26 | 2022-03-11 | 奇跃公司 | 用于增强现实的系统和方法 |
JP2023502927A (ja) | 2019-11-15 | 2023-01-26 | マジック リープ, インコーポレイテッド | 外科手術環境において使用するための視認システム |
WO2021206251A1 (en) * | 2020-04-07 | 2021-10-14 | Samsung Electronics Co., Ltd. | System and method for reduced communication load through lossless data reduction |
US20210311307A1 (en) * | 2020-04-07 | 2021-10-07 | Samsung Electronics Co., Ltd. | System and method for reduced communication load through lossless data reduction |
CN113393745B (zh) * | 2021-06-09 | 2022-11-04 | 首都医科大学宣武医院 | 一种糖尿病并发症体验系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002163670A (ja) * | 2000-11-24 | 2002-06-07 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及びその制御方法 |
JP2004109994A (ja) * | 2002-08-30 | 2004-04-08 | Olympus Corp | 頭部装着型画像表示システム装置及びその画像処理方法 |
JP2007213407A (ja) * | 2006-02-10 | 2007-08-23 | Gifu Univ | 仮想現実画像表示装置 |
KR20100047563A (ko) * | 2008-10-29 | 2010-05-10 | 에이알비전 (주) | 모의 훈련을 위한 증강 현실 장치 및 가상 이미지 합성 방법 |
US20130218461A1 (en) * | 2012-02-22 | 2013-08-22 | Leonid Naimark | Reduced Drift Dead Reckoning System |
US20160055671A1 (en) * | 2014-08-22 | 2016-02-25 | Applied Research Associates, Inc. | Techniques for Enhanced Accurate Pose Estimation |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7206016B2 (en) | 2000-05-01 | 2007-04-17 | Polycom, Inc. | Filtering artifacts from multi-threaded video |
US7944449B2 (en) * | 2003-05-14 | 2011-05-17 | Pixar | Methods and apparatus for export of animation data to non-native articulation schemes |
KR100561860B1 (ko) * | 2004-02-04 | 2006-03-16 | 삼성전자주식회사 | 콤파스를 이용한 지자기 판단 방법 및 장치와 이를 이용한이동물체의 방위각 생성 방법 및 장치 |
US20050253849A1 (en) * | 2004-05-13 | 2005-11-17 | Pixar | Custom spline interpolation |
US8930023B2 (en) * | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
WO2010027391A2 (en) * | 2008-08-27 | 2010-03-11 | California Institute Of Technology | Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing |
US9009053B2 (en) * | 2008-11-10 | 2015-04-14 | Google Inc. | Multisensory speech detection |
US9013617B2 (en) * | 2012-10-12 | 2015-04-21 | Qualcomm Incorporated | Gyroscope conditioning and gyro-camera alignment |
US9159133B2 (en) * | 2012-11-05 | 2015-10-13 | Qualcomm Incorporated | Adaptive scale and/or gravity estimation |
KR20140121581A (ko) * | 2013-04-08 | 2014-10-16 | 삼성전자주식회사 | 수술 로봇 시스템 |
US10326972B2 (en) * | 2014-12-31 | 2019-06-18 | Samsung Electronics Co., Ltd. | Three-dimensional image generation method and apparatus |
US20170273665A1 (en) * | 2016-03-28 | 2017-09-28 | Siemens Medical Solutions Usa, Inc. | Pose Recovery of an Ultrasound Transducer |
-
2016
- 2016-04-21 EP EP16305461.2A patent/EP3236211A1/en not_active Withdrawn
-
2017
- 2017-04-06 KR KR1020187030346A patent/KR20190006480A/ko not_active Application Discontinuation
- 2017-04-06 JP JP2018555260A patent/JP2019515379A/ja active Pending
- 2017-04-06 WO PCT/EP2017/058223 patent/WO2017182284A1/en active Application Filing
- 2017-04-06 US US16/094,863 patent/US10885658B2/en active Active
- 2017-04-06 EP EP17716833.3A patent/EP3446069A1/en not_active Withdrawn
- 2017-04-06 CN CN201780025042.2A patent/CN109196306A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002163670A (ja) * | 2000-11-24 | 2002-06-07 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及びその制御方法 |
JP2004109994A (ja) * | 2002-08-30 | 2004-04-08 | Olympus Corp | 頭部装着型画像表示システム装置及びその画像処理方法 |
JP2007213407A (ja) * | 2006-02-10 | 2007-08-23 | Gifu Univ | 仮想現実画像表示装置 |
KR20100047563A (ko) * | 2008-10-29 | 2010-05-10 | 에이알비전 (주) | 모의 훈련을 위한 증강 현실 장치 및 가상 이미지 합성 방법 |
US20130218461A1 (en) * | 2012-02-22 | 2013-08-22 | Leonid Naimark | Reduced Drift Dead Reckoning System |
US20160055671A1 (en) * | 2014-08-22 | 2016-02-25 | Applied Research Associates, Inc. | Techniques for Enhanced Accurate Pose Estimation |
Also Published As
Publication number | Publication date |
---|---|
EP3236211A1 (en) | 2017-10-25 |
EP3446069A1 (en) | 2019-02-27 |
CN109196306A (zh) | 2019-01-11 |
US10885658B2 (en) | 2021-01-05 |
KR20190006480A (ko) | 2019-01-18 |
WO2017182284A1 (en) | 2017-10-26 |
US20190147612A1 (en) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019515379A (ja) | レンダリングデバイスのポーズを推定する方法及び装置 | |
CA2927445C (en) | Applying video stabilization to a multimedia clip | |
JP6356784B2 (ja) | 拡張現実用のラジアンス伝達サンプリングのための装置および方法 | |
US10645298B2 (en) | Methods, devices and systems for automatic zoom when playing an augmented scene | |
CN110322542B (zh) | 重建真实世界3d场景的视图 | |
US20180165830A1 (en) | Method and device for determining points of interest in an immersive content | |
US9692972B2 (en) | Stabilization of low-light video | |
US20180098082A1 (en) | Motion estimation using hybrid video imaging system | |
US10235795B2 (en) | Methods of compressing a texture image and image data processing system and methods of generating a 360 degree panoramic video thereof | |
US20170287196A1 (en) | Generating photorealistic sky in computer generated animation | |
US8964040B2 (en) | High dynamic range image registration using motion sensor data | |
US20170374256A1 (en) | Method and apparatus for rolling shutter compensation | |
WO2014085090A1 (en) | System and method for adjusting orientation of captured video | |
CN105635588A (zh) | 一种稳像方法及装置 | |
US11347306B2 (en) | Method and apparatus for controlling a discrepant aiming direction of a camera | |
US20230109047A1 (en) | Methods and apparatus for re-stabilizing video in post-processing | |
WO2020193703A1 (en) | Techniques for detection of real-time occlusion | |
US11948257B2 (en) | Systems and methods for augmented reality video generation | |
CN117058012A (zh) | 图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181226 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211018 |