JP2020057358A - ポーズ情報を取得する方法及び装置 - Google Patents
ポーズ情報を取得する方法及び装置 Download PDFInfo
- Publication number
- JP2020057358A JP2020057358A JP2019114797A JP2019114797A JP2020057358A JP 2020057358 A JP2020057358 A JP 2020057358A JP 2019114797 A JP2019114797 A JP 2019114797A JP 2019114797 A JP2019114797 A JP 2019114797A JP 2020057358 A JP2020057358 A JP 2020057358A
- Authority
- JP
- Japan
- Prior art keywords
- information
- vertex
- rotation information
- frames
- rotation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 100
- 230000033001 locomotion Effects 0.000 claims abstract description 164
- 230000006870 function Effects 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 8
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 239000002245 particle Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 20
- 238000013519 translation Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000010187 selection method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0183—Adaptation to parameters characterising the motion of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
Abstract
Description
n−1状態をrn状態とtn状態に更新する。IMUセンサの動作が開始する初期視点(第0視点)に回転情報Rと移動情報Tは、初期化(例えば、0に設定)される。一実施形態では、各視点で推定された回転情報間の変化量及び移動情報間の変化量を用いるため、初期化値は以後の動作に影響を及ぼさない場合がある。
1010:センサ
1013:第1センサ
1016:第2センサ
1030:プロセッサ
1050:メモリ
1070:通信インターフェース
1090:ディスプレイ
Claims (24)
- 第1センサで撮影された複数のフレームから第1頂点を選択するステップと、
第2センサで検出された動き情報に基づいて、前記フレーム間の回転情報を推定するステップと、
前記第1頂点のうち、動的オブジェクトに該当する第2頂点を除いた残りの頂点である第3頂点に基づいて、前記推定された回転情報を補正するステップと、
前記第3頂点及び前記補正された回転情報に基づいて、前記フレーム間の移動情報を取得するステップと、
前記補正された回転情報及び前記移動情報を出力するステップと、
を含む、ポーズ情報を取得する方法。 - 前記回転情報を推定するステップは、
前記動き情報に基づいて、前記複数のフレームに対応する自体運動の状態を推定するステップと、
前記推定された状態に基づいて、前記フレーム間の回転情報を推定するステップと、
を含む、請求項1に記載のポーズ情報を取得する方法。 - 前記状態を推定するステップは、第1視点の状態と第2視点の動き情報に基づいて、第2視点の状態を推定するステップを含む、請求項2に記載のポーズ情報を取得する方法。
- 前記自体運動の状態は、前記回転情報を推定するための第1状態及び前記移動情報を推定するための第2状態を含む、請求項2に記載のポーズ情報を取得する方法。
- 前記フレーム間の回転情報を推定するステップは、カルマンフィルタ、拡張されたカルマンフィルタ、繰り返し拡張されたカルマンフィルタ、無香料カルマンフィルタ、及び粒子フィルタのいずれか1つを用いて前記フレーム間の回転情報を推定するステップを含む、請求項1ないし4のうちの何れか一項に記載のポーズ情報を取得する方法。
- 前記第2頂点は、前記回転情報に基づいて識別される、請求項1ないし5のうちの何れか一項に記載のポーズ情報を取得する方法。
- 前記推定された回転情報を補正するステップは、
前記推定された回転情報に基づいて、前記第1頂点のうち動的オブジェクトに該当する第2頂点を除去するステップと、
前記第3頂点に基づいて、前記フレーム間の回転情報を推定するステップと、
前記第3頂点に基づいて推定された回転情報を用いて、前記動き情報に基づいて推定された回転情報を補正するステップと、
を含む、請求項1ないし6のうちの何れか一項に記載のポーズ情報を取得する方法。 - 前記フレームは、第1視点で撮影された第1フレーム及び第2視点で撮影された第2フレームを含み、
前記第2頂点を除去するステップは、
前記第1視点で推定された第1回転情報と、前記第2視点で推定された第2回転情報間の回転変化量を算出するステップと、
前記回転変化量に基づいて前記第1頂点のうち動的オブジェクトに該当する第2頂点を除去するステップと、
を含む、請求項7に記載のポーズ情報を取得する方法。 - 前記第3頂点に基づいて前記回転情報を推定するステップは、前記第3頂点に対してPNP関数、ガウス・ニュートン最適化(Gauss Newton optimization)関数、及びレーベンバーグ・マーカート最適化(levenberg marquardt optimization)関数のいずれか1つを適用して前記回転情報を推定するステップを含む、請求項7に記載のポーズ情報を取得する方法。
- 前記推定された回転情報を補正するステップは、前記第3頂点に基づいて推定された回転情報と前記動き情報に基づいて推定された回転情報の間の差に基づいて、前記フレームのうち少なくとも1つに対応する自体運動の状態を更新するステップを含む、請求項7に記載のポーズ情報を取得する方法。
- 前記移動情報を出力するステップは、前記補正された回転情報に基づいて、前記第3頂点が属するフレーム間の強度差に関するエネルギー関数が決定された目標値よりも小さくなるように前記移動情報を決定するステップを含む、請求項1ないし10のうちの何れか一項に記載のポーズ情報を取得する方法。
- 電気エネルギー関数は、ガウス・ニュートン最適化関数、及びレーベンバーグ・マーカート最適化関数のいずれか1つを含む、請求項11に記載のポーズ情報を取得する方法。
- 前記第1頂点を選択するステップは、
前記複数のフレームを分割するブロックごとに前記第1頂点を選択するステップと、
前記複数のフレームに含まれたクラスごとに前記第1頂点を選択するステップと、
のうち少なくとも1つを含む、請求項1ないし12のうちの何れか一項に記載のポーズ情報を取得する方法。 - 前記ブロックごとに前記第1頂点を選択するステップは、
前記フレームそれぞれを一定の大きさのブロックに均等に分割するステップと、
前記均等に分割されたブロックそれぞれから前記第1頂点を選択するステップと、
を含む、請求項13に記載のポーズ情報を取得する方法。 - 前記クラスごとに前記第1頂点を選択するステップは、
前記フレームそれぞれに含まれたピクセルの強度傾斜度の大きさ、方向、及び前記ピクセルと周辺ピクセルとの強度関係のうち少なくとも1つに基づいて複数のクラスに対応する候補頂点を決定するステップと、
前記複数のクラスそれぞれに含まれた候補頂点から前記第1頂点を選択するステップと、
を含む、請求項13に記載のポーズ情報を取得する方法。 - 前記第1頂点を選択するステップは、
前記フレームそれぞれの中心にある頂点に第1加重値を与えるステップと、
前記フレームそれぞれの中心から外郭に行くほど次第に前記頂点に前記第1加重値に比べて少ない第2加重値を与えるステップと、
前記第1加重値及び前記第2加重値に基づいて、前記頂点のうち前記第1頂点を選択するステップと、
を含む、請求項1ないし12のうちの何れか一項に記載のポーズ情報を取得する方法。 - 請求項1ないし請求項16のいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。
- ポーズ情報を出力装置であって、
複数のフレームを撮影する第1センサと、
動き情報を検出する第2センサと、
少なくとも1つのプロセッサと、
を含み、前記プロセッサは、
前記複数のフレームから第1頂点を選択し、
前記動き情報に基づいて前記フレーム間の回転情報を推定し、
前記第1頂点のうち、動的オブジェクトに該当する第2頂点を除いた残りの頂点である第3頂点に基づいて前記推定された回転情報を補正し、
前記第3頂点及び前記補正された回転情報に基づいて前記フレーム間の移動情報を算出する、ポーズ情報を出力する装置。 - 前記プロセッサは、
前記動き情報に基づいて、前記複数のフレームに対応する自体運動の状態を推定し、
前記推定された状態に基づいて、前記フレーム間の回転情報を推定する、請求項18に記載のポーズ情報を出力する装置。 - 前記プロセッサは、
前記推定された回転情報に基づいて、前記第1頂点のうち動的オブジェクトに該当する第2頂点を除去し、
前記第1頂点のうち前記第2頂点を除いた第3頂点に基づいて、前記フレーム間の回転情報を推定し、
前記第3頂点に基づいて推定された回転情報を用いて、前記動き情報に基づいて推定された回転情報を補正する、請求項18に記載のポーズ情報を出力する装置。 - 前記プロセッサは、前記補正された回転情報に基づいて、前記第3頂点が属するフレーム間の強度差に関するエネルギー関数が決定された目標値よりも小さくなるように前記移動情報を決定する、請求項18に記載のポーズ情報を出力する装置。
- 前記フレームそれぞれは車両前方の走行映像を含む、請求項18に記載のポーズ情報を出力する装置。
- ポーズ検出装置であって、
映像フレームをキャプチャーする第1センサと、
動き情報を検出する第2センサと、
ヘッドアップディスプレイ(HUD)と、
プロセッサと、
を含み、前記プロセッサは、
前記映像フレームから第1頂点を選択し、前記動き情報に基づいて前記映像フレーム間の回転情報を推定し、
前記第1頂点のうち、動的オブジェクトに該当する第2頂点を除いた残りの頂点である第3頂点に基づいて前記推定された回転情報を補正し、
前記第3頂点と前記補正された回転情報に基づいて前記映像フレーム間の変換情報を取得し、
前記補正された回転情報及び前記変換情報に基づいて、前記ヘッドアップディスプレイ上に仮想オブジェクトをレンダリングする、ポーズ検出装置。 - 前記映像フレーム、前記動き情報、前記回転情報、前記補正された回転情報、前記変換情報、並びに実行されるとき前記回転情報及び前記変換情報のうち任意の1つ又は任意の組合せを決定するようにプロセッサを指図する命令語を保存するメモリをさらに含む、請求項23に記載のポーズ検出装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180116785A KR102559203B1 (ko) | 2018-10-01 | 2018-10-01 | 포즈 정보를 출력하는 방법 및 장치 |
KR10-2018-0116785 | 2018-10-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057358A true JP2020057358A (ja) | 2020-04-09 |
JP7365148B2 JP7365148B2 (ja) | 2023-10-19 |
Family
ID=66049108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019114797A Active JP7365148B2 (ja) | 2018-10-01 | 2019-06-20 | ポーズ情報を取得する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10866427B2 (ja) |
EP (1) | EP3633616A1 (ja) |
JP (1) | JP7365148B2 (ja) |
KR (1) | KR102559203B1 (ja) |
CN (1) | CN110992405A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210036574A (ko) * | 2019-09-26 | 2021-04-05 | 삼성전자주식회사 | 자세 추정 방법 및 장치 |
US11215817B1 (en) * | 2020-12-03 | 2022-01-04 | Facebook Technologies, Llc. | Systems and methods for generating spectator images of an artificial reality environment |
DE102021117453B3 (de) | 2021-07-06 | 2022-10-20 | Holoride Gmbh | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug während einer Fahrt, entsprechend betreibbare Datenbrille, Prozessorschaltung sowie Kraftfahrzeug |
EP4134625A1 (en) | 2021-08-11 | 2023-02-15 | Hitachi Astemo, Ltd. | Drive device, vehicle, and method for automated driving and/or assisted driving |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005010817A1 (ja) * | 2003-07-24 | 2005-02-03 | Olympus Corporation | 画像処理装置 |
WO2006035755A1 (ja) * | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
JP2011009893A (ja) * | 2009-06-24 | 2011-01-13 | Nec Corp | フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム |
WO2013111229A1 (ja) * | 2012-01-23 | 2013-08-01 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2014175996A (ja) * | 2013-03-12 | 2014-09-22 | Oki Electric Ind Co Ltd | パラメータ推定装置、パラメータ推定プログラム、機器決定システム及び機器決定プログラム |
WO2015029934A1 (ja) * | 2013-08-30 | 2015-03-05 | クラリオン株式会社 | カメラ校正装置、カメラ校正システム、及びカメラ校正方法 |
US20150235378A1 (en) * | 2014-02-17 | 2015-08-20 | Samsung Electronics Co., Ltd. | Apparatus and method for estimating camera pose |
JP2017060091A (ja) * | 2015-09-18 | 2017-03-23 | カシオ計算機株式会社 | 姿勢推定装置、姿勢推定方法及びプログラム |
JP2018004420A (ja) * | 2016-06-30 | 2018-01-11 | 株式会社リコー | 装置、移動体装置、位置ずれ検出方法及び測距方法 |
JP2018147095A (ja) * | 2017-03-02 | 2018-09-20 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6037988A (en) * | 1996-03-22 | 2000-03-14 | Microsoft Corp | Method for generating sprites for object-based coding sytems using masks and rounding average |
US6307959B1 (en) * | 1999-07-14 | 2001-10-23 | Sarnoff Corporation | Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation |
KR100798283B1 (ko) * | 1999-09-21 | 2008-01-28 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 글로벌 모션 추정 방법 및 장치 |
US7515173B2 (en) | 2002-05-23 | 2009-04-07 | Microsoft Corporation | Head pose tracking system |
US7306337B2 (en) | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
US7831094B2 (en) | 2004-04-27 | 2010-11-09 | Honda Motor Co., Ltd. | Simultaneous localization and mapping using multiple view feature descriptors |
EP2179398B1 (en) * | 2007-08-22 | 2011-03-02 | Honda Research Institute Europe GmbH | Estimating objects proper motion using optical flow, kinematics and depth information |
US20110012896A1 (en) | 2009-06-22 | 2011-01-20 | Ji Maengsob | Image display apparatus, 3d glasses, and method for operating the image display apparatus |
US8508605B2 (en) * | 2009-10-14 | 2013-08-13 | Csr Technology Inc. | Method and apparatus for image stabilization |
KR20120006819A (ko) | 2010-07-13 | 2012-01-19 | 한국기초과학지원연구원 | 시선 추적 방법 및 이를 적용하는 장치 |
KR101220527B1 (ko) | 2011-03-02 | 2013-01-21 | 한국과학기술원 | 센서 시스템, 이를 이용하는 환경 지도 작성 시스템 및 방법 |
US8594374B1 (en) | 2011-03-30 | 2013-11-26 | Amazon Technologies, Inc. | Secure device unlock with gaze calibration |
US8744169B2 (en) * | 2011-05-31 | 2014-06-03 | Toyota Motor Europe Nv/Sa | Voting strategy for visual ego-motion from stereo |
US9286678B2 (en) * | 2011-12-28 | 2016-03-15 | Pelco, Inc. | Camera calibration using feature identification |
JP6031819B2 (ja) * | 2012-05-17 | 2016-11-24 | 富士通株式会社 | 画像処理装置、画像処理方法 |
KR20140090552A (ko) | 2013-01-09 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법 |
US10311595B2 (en) * | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
JP6429466B2 (ja) * | 2013-11-19 | 2018-11-28 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
EP2933707B1 (en) * | 2014-04-14 | 2017-12-06 | iOnRoad Technologies Ltd. | Head mounted display presentation adjustment |
US10012504B2 (en) * | 2014-06-19 | 2018-07-03 | Regents Of The University Of Minnesota | Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps |
US9413951B2 (en) * | 2014-07-31 | 2016-08-09 | Apple Inc. | Dynamic motion estimation and compensation for temporal filtering |
US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
US10719727B2 (en) * | 2014-10-01 | 2020-07-21 | Apple Inc. | Method and system for determining at least one property related to at least part of a real environment |
WO2016073642A1 (en) * | 2014-11-04 | 2016-05-12 | The Regents Of The University Of California | Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction |
CN104501814B (zh) * | 2014-12-12 | 2017-05-10 | 浙江大学 | 一种基于视觉和惯性信息的姿态与位置估计方法 |
EP3057061B1 (en) * | 2015-02-16 | 2017-08-30 | Application Solutions (Electronics and Vision) Limited | Method and device for the estimation of car egomotion from surround view images |
US10115024B2 (en) * | 2015-02-26 | 2018-10-30 | Mobileye Vision Technologies Ltd. | Road vertical contour detection using a stabilized coordinate frame |
JP6642972B2 (ja) * | 2015-03-26 | 2020-02-12 | 修一 田山 | 車輌用画像表示システム及び方法 |
JP6464934B2 (ja) * | 2015-06-11 | 2019-02-06 | 富士通株式会社 | カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム |
US9558424B2 (en) * | 2015-06-30 | 2017-01-31 | Mitsubishi Electric Research Laboratories, Inc. | On-road stereo visual odometry without explicit pose determinations |
CN108139757A (zh) * | 2015-09-11 | 2018-06-08 | 深圳市大疆创新科技有限公司 | 用于检测和跟踪可移动物体的系统和方法 |
EP3193306B8 (en) * | 2016-01-15 | 2019-01-23 | Aptiv Technologies Limited | A method and a device for estimating an orientation of a camera relative to a road surface |
US9978180B2 (en) * | 2016-01-25 | 2018-05-22 | Microsoft Technology Licensing, Llc | Frame projection for augmented reality environments |
US9459692B1 (en) * | 2016-03-29 | 2016-10-04 | Ariadne's Thread (Usa), Inc. | Virtual reality headset with relative motion head tracker |
CN108605098B (zh) * | 2016-05-20 | 2020-12-11 | 深圳市大疆创新科技有限公司 | 用于卷帘快门校正的系统和方法 |
US10295365B2 (en) * | 2016-07-29 | 2019-05-21 | Carnegie Mellon University | State estimation for aerial vehicles using multi-sensor fusion |
KR102439771B1 (ko) * | 2016-08-22 | 2022-09-02 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
CN109923499B (zh) | 2016-09-27 | 2022-07-29 | 托比股份公司 | 便携式眼睛追踪装置 |
KR101851155B1 (ko) * | 2016-10-12 | 2018-06-04 | 현대자동차주식회사 | 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법 |
US10705598B2 (en) * | 2017-05-09 | 2020-07-07 | Microsoft Technology Licensing, Llc | Tracking wearable device and handheld object poses |
US10612929B2 (en) * | 2017-10-17 | 2020-04-07 | AI Incorporated | Discovering and plotting the boundary of an enclosure |
US10514456B2 (en) * | 2017-11-29 | 2019-12-24 | Qualcomm Incorporated | Radar aided visual inertial odometry outlier removal |
-
2018
- 2018-10-01 KR KR1020180116785A patent/KR102559203B1/ko active IP Right Grant
-
2019
- 2019-02-25 US US16/283,898 patent/US10866427B2/en active Active
- 2019-04-01 EP EP19166616.3A patent/EP3633616A1/en active Pending
- 2019-04-09 CN CN201910282882.8A patent/CN110992405A/zh active Pending
- 2019-06-20 JP JP2019114797A patent/JP7365148B2/ja active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005010817A1 (ja) * | 2003-07-24 | 2005-02-03 | Olympus Corporation | 画像処理装置 |
WO2006035755A1 (ja) * | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
JP2011009893A (ja) * | 2009-06-24 | 2011-01-13 | Nec Corp | フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム |
WO2013111229A1 (ja) * | 2012-01-23 | 2013-08-01 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム |
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2014175996A (ja) * | 2013-03-12 | 2014-09-22 | Oki Electric Ind Co Ltd | パラメータ推定装置、パラメータ推定プログラム、機器決定システム及び機器決定プログラム |
WO2015029934A1 (ja) * | 2013-08-30 | 2015-03-05 | クラリオン株式会社 | カメラ校正装置、カメラ校正システム、及びカメラ校正方法 |
US20150235378A1 (en) * | 2014-02-17 | 2015-08-20 | Samsung Electronics Co., Ltd. | Apparatus and method for estimating camera pose |
JP2017060091A (ja) * | 2015-09-18 | 2017-03-23 | カシオ計算機株式会社 | 姿勢推定装置、姿勢推定方法及びプログラム |
JP2018004420A (ja) * | 2016-06-30 | 2018-01-11 | 株式会社リコー | 装置、移動体装置、位置ずれ検出方法及び測距方法 |
JP2018147095A (ja) * | 2017-03-02 | 2018-09-20 | 富士通株式会社 | カメラ位置姿勢推定装置、方法およびプログラム |
Non-Patent Citations (3)
Title |
---|
FERNANDO HERRANZ ET AL.: "Camera pose estimation using particle filters", [ONLINE], JPN7023001575, 10 November 2011 (2011-11-10), ISSN: 0005044362 * |
J. S. GODDARD ET AL.: "Pose and motion estimation using dual quaternion-based extended Kalman filtering", [ONLINE], JPN7023001577, 6 March 1998 (1998-03-06), ISSN: 0005044361 * |
荒木望 ET AL.: "Unscented Kalman Filterによるステレオカメラのパラメータ推定", [ONLINE], JPN7023001576, 2007, ISSN: 0005044360 * |
Also Published As
Publication number | Publication date |
---|---|
JP7365148B2 (ja) | 2023-10-19 |
US10866427B2 (en) | 2020-12-15 |
US20200103664A1 (en) | 2020-04-02 |
KR20200037502A (ko) | 2020-04-09 |
EP3633616A1 (en) | 2020-04-08 |
CN110992405A (zh) | 2020-04-10 |
KR102559203B1 (ko) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11804047B2 (en) | Method and apparatus for recognizing object | |
JP7365148B2 (ja) | ポーズ情報を取得する方法及び装置 | |
US10732004B2 (en) | Method and apparatus for displaying virtual route | |
US11175149B2 (en) | Vehicle localization method and apparatus | |
US10921460B2 (en) | Position estimating apparatus and method | |
US20200202498A1 (en) | Computing system for rectifying ultra-wide fisheye lens images | |
JP6620153B2 (ja) | サラウンドビュー画像から自動車のエゴモーションを推定するための方法および装置 | |
CN107389088B (zh) | 车载惯性导航的误差修正方法、装置、介质及设备 | |
JP6107081B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10885787B2 (en) | Method and apparatus for recognizing object | |
WO2018159177A1 (en) | Vehicle automated parking system and method | |
EP3400556A1 (en) | Systems and methods for estimating future paths | |
EP2757527A1 (en) | System and method for distorted camera image correction | |
CN108136867A (zh) | 自动驾驶车辆的车辆位置点转发方法 | |
US10936851B2 (en) | Method and apparatus for recognizing object | |
KR102331000B1 (ko) | 자율주행차량의 관심 대상 신호등을 특정하기 위한 방법 및 이를 이용한 컴퓨팅 장치 | |
JP6826010B2 (ja) | カメラ運動推定装置、カメラ運動推定方法及びプログラム | |
JP7337617B2 (ja) | 推定装置、推定方法及びプログラム | |
JP2023506533A (ja) | モバイルデバイス用のカメラシステム、1つのカメラを位置決めするための方法、および、複数のカメラを位置決めするための方法 | |
JP2024074254A (ja) | カメラ姿勢を推定する装置及び方法 | |
CN109325962B (zh) | 信息处理方法、装置、设备以及计算机可读存储介质 | |
KR20220160850A (ko) | 소실점을 추정하는 방법 및 장치 | |
JP2016122381A (ja) | オプティカルフロー算出装置、オプティカルフロー算出方法、及びプログラム | |
CN118057451A (zh) | 电子装置和操作电子装置的方法 | |
CN117261764A (zh) | 用于车辆盲点可视化的装置和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7365148 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |