JP7096274B2 - 自己位置推定と環境マップ作成を同時に行う方法及び装置 - Google Patents
自己位置推定と環境マップ作成を同時に行う方法及び装置 Download PDFInfo
- Publication number
- JP7096274B2 JP7096274B2 JP2019572827A JP2019572827A JP7096274B2 JP 7096274 B2 JP7096274 B2 JP 7096274B2 JP 2019572827 A JP2019572827 A JP 2019572827A JP 2019572827 A JP2019572827 A JP 2019572827A JP 7096274 B2 JP7096274 B2 JP 7096274B2
- Authority
- JP
- Japan
- Prior art keywords
- wide
- map
- field
- camera
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 91
- 239000013598 vector Substances 0.000 claims description 85
- 238000012937 correction Methods 0.000 claims description 82
- 238000005457 optimization Methods 0.000 claims description 39
- 238000003384 imaging method Methods 0.000 claims description 31
- 238000013507 mapping Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 21
- 230000001186 cumulative effect Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 description 38
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 23
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000000670 limiting effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 241000274965 Cyrestis thyodamas Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 1
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Geometry (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
従来の広視野画像に基づくSLAMの技術案は主として2種類がある。
いくつかの実施形態では、前記少なくとも2つの異なる向きは、キューブの前向き、上向き、下向き、左向き又は右向きを。
図1は本発明のいくつかの実施例による自己位置推定と環境マップ作成を同時に行うシステムを示す。
210では、自己位置推定と環境マップ作成を同時に行う装置102は広視野カメラ101によって広視野画像を取得することができる。
図7は本発明のいくつかの実施例による原双眼魚眼画像及び従来の歪み補正後の双眼魚眼画像を示す。
ステップ230についての更なる説明は図8及びその関連説明を参照すればよい。
以下、サブ視野フレームF11及びF21を例にフレーム間マッチングを説明する。
図示するように、極線1001と極線1002は3線分折れ線であり、2本の傾斜した線分及び1本の水平線分を含む。
作成された初期マップは、上記2つのキー広視野フレーム及び上記初期マップ点、並びにそれらの関連付け関係の情報を含む。
追跡サブステップ1では、現在の広視野フレームの基準広視野フレームを決定する。
好ましくは、現在の広視野フレームの1つ前の広視野フレームを基準広視野フレームとして決定する。
それにより、現在の広視野フレームの参照性がより高い基準広視野フレームを取得でき、SLAM追跡がさらに正確になり、マップ作成も効率的になる。
追跡サブステップ3では、上記追跡サブステップ2で取得された現在の広視野フレームの位置姿勢を更新する。
従って、チェーンルールによってuからカメラ位置姿勢までのヤコビ行列を導出できる。式(9)に示される。
いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102は、3つのサブステップを実行してマップ作成ステップを行うことができる。
マップ作成サブステップ1では、現在の広視野フレームがキー広視野フレームであるか否かを決定する。
マップ作成サブステップ2では、現在の広視野フレームがキー広視野フレームである場合、現在の広視野フレームに基づいてマップ更新処理を行う。
当業者であれば、現在のマップは新たなマップ点及び新たなキー広視野フレームを絶えず挿入されることで徐々に拡張し完備になることを理解できる。
マップ作成サブステップ3では、現在の広視野フレームがキー広視野フレームではない場合、現在の広視野フレームにマップ点関連付け処理を行う。
単眼広視野カメラの場合、ローカルマップ中の各キー広視野フレームに対するバンドル最適化処理は以下の通りである。
双眼広視野カメラの場合、ローカルマップ中の各キー双眼画像フレームに対するバンドル最適化処理は以下の通りである。
前記第1累計再投影誤差及び前記第2累計再投影誤差に基づいて損失関数を決定する。損失を最小化することによって上記相似変換行列を最適化する。
Claims (20)
- 自己位置推定と環境マップ作成を同時に行う方法であって、
広視野カメラによって広視野画像を取得する広視野画像取得ステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得する補正画像取得ステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するマップ作成ステップと、を含み、
前記マルチ仮想ピンホールカメラモデルは、5つの異なる向きの仮想ピンホールカメラを含み、且つ前記5つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なり、
前記5つの仮想ピンホールカメラの向きは、前向き、上向き、下向き、左向き及び右向きであって、前記5つの仮想ピンホールカメラのイメージング平面であるサブ視野フレームは、キューブの5つの面の位置関係にあり、
前記広視野画像取得ステップは、第1時点に対応する現在の広視野フレームと、第2時点に対応する基準広視野フレームをそれぞれ取得し、
前記補正画像取得ステップは、前記基準広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、前記現在の広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、
前記マップ作成ステップは、前記仮想ピンホールカメラの向きが対応する前記基準広視野フレームの5つのサブ視野フレームと前記現在の広視野フレームの5つのサブ視野フレームをペアにして、フレーム間マッチングを行って特徴点を抽出し、マッチングする特徴点が最も多いサブ視野フレームペアを選択し、選択したサブ視野フレームペア間の相対位置姿勢を取得し、取得した相対位置姿勢を前記広視野カメラの位置姿勢とする
ことを特徴とする自己位置推定と環境マップ作成を同時に行う方法。 - 前記広視野カメラは単眼広視野カメラであり、前記マップ作成ステップは、
前記マッチングする特徴点に基づいて初期マップを作成する初期マップ作成ステップを含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記初期マップ作成ステップは、
前記第1時点に対応する歪み補正画像中の特徴点及び前記第1時点における前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記第2時点に対応する歪み補正画像中のマッチングする特徴点及び前記第2時点における前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項2に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記広視野カメラは単眼広視野カメラであり、前記マップ作成ステップは、グローバルバンドル最適化ステップを含み、前記グローバルバンドル最適化ステップは、
前記マップ中の各キー広視野フレームに対して、
前記キー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、
前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び前記キー広視野フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記広視野カメラは単眼広視野カメラであり、前記マップ作成ステップは、追跡ステップを含み、前記追跡ステップは、
前記現在の広視野フレームに関連付けられた各マップ点に対して、
前記マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、
前記再投影誤差に基づいて、前記現在の広視野フレームの位置姿勢を更新するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記広視野カメラは単眼広視野カメラであり、前記マップ作成ステップは、
前記現在の広視野フレーム及び前記基準広視野フレームの互いにマッチングする特徴点を決定するステップと、
前記現在の広視野フレームの特徴点及び現在の前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記基準広視野フレームのマッチングする特徴点及び前記基準広視野フレームに対応する前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいてマップを作成するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップはローカルバンドル最適化ステップをさらに含み、前記ローカルバンドル最適化ステップは、
ローカルマップ中の各キー広視野フレームに対して、
前記キー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、
前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び該キー広視野フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項6に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記広視野カメラは双眼広視野カメラであり、
前記広視野画像取得ステップは、前記双眼広視野カメラによって左視野画像及び右視野画像を取得し、
前記補正画像取得ステップは、第1マルチ仮想ピンホールカメラモデルに基づいて、前記左視野画像に対応する左歪み補正画像を取得するステップと、第2マルチ仮想ピンホールカメラモデルに基づいて、前記右視野画像に対応する右歪み補正画像を取得するステップとを含み、
前記マップ作成ステップは、前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成し、
前記第1マルチ仮想ピンホールカメラモデルは5つの異なる向きの仮想ピンホールカメラを含み、且つ前記5つの異なる向きの仮想ピンホールカメラのカメラ中心は前記双眼広視野カメラの左側カメラのカメラ中心と重なり、
前記第2マルチ仮想ピンホールカメラモデルは5つの異なる向きの仮想ピンホールカメラを含み、且つ前記5つの異なる向きの仮想ピンホールカメラのカメラ中心は前記双眼広視野カメラの右側カメラのカメラ中心と重なることを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップは、初期化ステップを含み、前記初期化ステップは、
前記左歪み補正画像と前記右歪み補正画像の互いにマッチングする特徴点を決定する特徴点決定ステップと、
前記互いにマッチングする特徴点に基づいて初期マップを作成する初期マップ作成ステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記特徴点決定ステップは、
前記右歪み補正画像における前記左歪み補正画像中の特徴点に対応する極線を決定するステップと、
前記極線上で前記左歪み補正画像中の特徴点にマッチングする特徴点を検索するステップと、を含み、
前記極線は多線分折れ線であることを特徴とする請求項9に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記初期マップ作成ステップは、
前記左歪み補正画像中の特徴点及び前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記右歪み補正画像中のマッチングする特徴点及び前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記双眼広視野カメラの基線に基づいて、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項9に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップは、グローバルバンドル最適化ステップを含み、前記グローバルバンドル最適化ステップは、
前記マップ中の各キー双眼画像フレームに対して、
前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は
前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、
前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップは、追跡ステップを含み、前記追跡ステップは、
現在の双眼画像フレームに関連付けられた各マップ点に対して、
前記マップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は
前記マップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、
前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記現在の双眼画像フレームの位置姿勢を更新するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップは、
現在の左歪み補正画像と現在の右歪み補正画像の互いにマッチングする特徴点を決定するステップと、
前記現在の左歪み補正画像の特徴点及び現在の前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記現在の右歪み補正画像の特徴点及び現在の前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいてマップを作成するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップはローカルバンドル最適化ステップをさらに含み、前記ローカルバンドル最適化ステップは、
ローカルマップ中の各キー双眼画像フレームに対して、
前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は
前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、
前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項14に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 前記マップ作成ステップは、閉ループ検出処理ステップを含み、前記閉ループ検出処理ステップは、
現在の広視野フレームがキー広視野フレームである場合、マップデータベース中の前記現在の広視野フレームと類似する閉ループ広視野フレームを決定するステップと、
前記現在の広視野フレームと前記閉ループ広視野フレームとの互いにマッチングする特徴点を決定するステップと、
前記現在の広視野フレーム中のマッチングする各特徴点に対し、該特徴点に関連付けられたマップ点を、前記閉ループ広視野フレームに対応するマルチ仮想ピンホールカメラモデルの座標系に変換し、さらに前記マルチ仮想ピンホールカメラモデルのイメージング平面に投影し、該マップ点の前記閉ループ広視野フレームにおける再投影点を取得し、該再投影点及び前記閉ループ広視野フレーム中のマッチングする特徴点に基づいて第1再投影誤差を決定するステップと、
前記現在の広視野フレーム中のすべてのマッチングする特徴点の第1再投影誤差に基づいて第1累計再投影誤差を決定するステップと、
前記閉ループ広視野フレーム中のマッチングする各特徴点に対して、該特徴点に関連付けられたマップ点を、前記現在の広視野フレームに対応するマルチ仮想ピンホールカメラモデルの座標系に変換し、さらに前記マルチ仮想ピンホールカメラモデルのイメージング平面に投影し、該マップ点の前記現在の広視野フレームにおける再投影点を取得し、該再投影点及び前記現在の広視野フレーム中のマッチングする特徴点に基づいて第2再投影誤差を決定するステップと、
前記閉ループ広視野フレーム中のすべてのマッチングする特徴点の第2再投影誤差に基づいて第2累計再投影誤差を決定するステップと、
前記第1累計再投影誤差及び前記第2累計再投影誤差を利用して、マップ中の前記現在の広視野フレームとは共通視野関係を有するキー広視野フレーム及びそれに関連付けられたマップ点を補正するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 - 自己位置推定と環境マップ作成を同時に行う装置であって、
一組命令を記憶する少なくとも1つの記憶デバイスと、
前記少なくとも1つの記憶デバイスと通信する少なくとも1つのプロセッサと、を備え、前記一組命令を実行する時、前記少なくとも1つのプロセッサは、前記自己位置推定と環境マップ作成を同時に行う装置に、
広視野カメラによって広視野画像を取得する広視野画像取得ステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得する補正画像取得ステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するマップ作成ステップと、を実行させ、
前記マルチ仮想ピンホールカメラモデルは、5つの異なる向きの仮想ピンホールカメラを含み、且つ前記5つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なり、
前記5つの仮想ピンホールカメラの向きは、前向き、上向き、下向き、左向き及び右向きであって、前記5つの仮想ピンホールカメラのイメージング平面であるサブ視野フレームは、キューブの5つの面の位置関係にあり、
前記広視野画像取得ステップは、第1時点に対応する現在の広視野フレームと、第2時点に対応する基準広視野フレームをそれぞれ取得し、
前記補正画像取得ステップは、前記基準広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪補正画像を取得し、前記現在の広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、
前記マップ作成ステップは、前記仮想ピンホールカメラの向きが対応する前記基準広視野フレームの5つのサブ視野フレームと前記現在の広視野フレームの5つのサブ視野フレームをペアにして、フレーム間マッチングを行って特徴点を抽出し、マッチングする特徴点が最も多いサブ視野フレームペアを選択し、選択したサブ視野フレームペア間の相対位置姿勢を取得し、取得した相対位置姿勢を前記広視野カメラの位置姿勢とする
ことを特徴とする自己位置推定と環境マップ作成を同時に行う装置。 - 前記広視野カメラは単眼広視野カメラであり、前記マップ作成ステップは、前記マッチングする特徴点に基づいて初期マップを作成する初期マップ作成ステップを含むことを特徴とする請求項17に記載の自己位置推定と環境マップ作成を同時に行う装置。
- コンピュータに、
広視野カメラによって広視野画像を取得する広視野画像取得ステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得する補正画像取得ステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するマップ作成ステップと、を実行させるプログラムであって、
前記マルチ仮想ピンホールカメラモデルは、5つの異なる向きの仮想ピンホールカメラを含み、且つ前記5つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なり、
前記5つの仮想ピンホールカメラの向きは、前向き、上向き、下向き、左向き及び右向きであって、前記5つの仮想ピンホールカメラのイメージング平面であるサブ視野フレームは、キューブの5つの面の位置関係にあり、
前記広視野画像取得ステップは、第1時点に対応する現在の広視野フレームと、第2時点に対応する基準広視野フレームをそれぞれ取得し、
前記補正画像取得ステップは、前記基準広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、前記現在の広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、
前記マップ作成ステップは、前記仮想ピンホールカメラの向きが対応する前記基準広視野フレームの5つのサブ視野フレームと前記現在の広視野フレームの5つのサブ視野フレームをペアにして、フレーム間マッチングを行って特徴点を抽出し、マッチングする特徴点が最も多いサブ視野フレームペアを選択し、選択したサブ視野フレームペア間の相対位置姿勢を取得し、取得した相対位置姿勢を前記広視野カメラの位置姿勢とする
ことを特徴とするプログラム。 - コンピュータに、
広視野カメラによって広視野画像を取得する広視野画像取得ステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得する補正画像取得ステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するマップ作成ステップと、を実行させるプログラムを記録したコンピュータ読み取り可能な記憶媒体であって、
前記マルチ仮想ピンホールカメラモデルは、5つの異なる向きの仮想ピンホールカメラを含み、且つ前記5つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なり、
前記5つの仮想ピンホールカメラの向きは、前向き、上向き、下向き、左向き及び右向きであって、前記5つの仮想ピンホールカメラのイメージング平面であるサブ視野フレームは、キューブの5つの面の位置関係にあり、
前記広視野画像取得ステップは、第1時点に対応する現在の広視野フレームと、第2時点に対応する基準広視野フレームをそれぞれ取得し、
前記補正画像取得ステップは、前記基準広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、前記現在の広視野フレームを前記5つのイメージング平面に投影して5つのサブ視野フレームに分解することにより歪み補正画像を取得し、
前記マップ作成ステップは、前記仮想ピンホールカメラの向きが対応する前記基準広視野フレームの5つのサブ視野フレームと前記現在の広視野フレームの5つのサブ視野フレームをペアにして、フレーム間マッチングを行って特徴点を抽出し、マッチングする特徴点が最も多いサブ視野フレームペアを選択し、選択したサブ視野フレームペア間の相対位置姿勢を取得し、取得した相対位置姿勢を前記広視野カメラの位置姿勢とする
ことを特徴とするプログラムを記録したコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810578095.3A CN108776976B (zh) | 2018-06-07 | 2018-06-07 | 一种同时定位与建图的方法、系统及存储介质 |
CN201810578095.3 | 2018-06-07 | ||
CN201811401646.5 | 2018-11-22 | ||
CN201811401646.5A CN111210476B (zh) | 2018-11-22 | 2018-11-22 | 一种同时定位与建图的方法及装置 |
PCT/CN2018/124786 WO2019233090A1 (zh) | 2018-06-07 | 2018-12-28 | 一种同时定位与建图的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021505979A JP2021505979A (ja) | 2021-02-18 |
JP7096274B2 true JP7096274B2 (ja) | 2022-07-05 |
Family
ID=68770787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019572827A Active JP7096274B2 (ja) | 2018-06-07 | 2018-12-28 | 自己位置推定と環境マップ作成を同時に行う方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11017545B2 (ja) |
EP (1) | EP3806036A4 (ja) |
JP (1) | JP7096274B2 (ja) |
KR (1) | KR102367361B1 (ja) |
WO (1) | WO2019233090A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020287875A1 (en) * | 2019-06-07 | 2021-12-23 | Pictometry International Corp. | Using spatial filter to reduce bundle adjustment block size |
US11595568B2 (en) | 2020-02-18 | 2023-02-28 | Occipital, Inc. | System for generating a three-dimensional scene of a physical environment |
CN111292420B (zh) | 2020-02-28 | 2023-04-28 | 北京百度网讯科技有限公司 | 用于构建地图的方法和装置 |
CN111461998A (zh) * | 2020-03-11 | 2020-07-28 | 中国科学院深圳先进技术研究院 | 一种环境重建方法及装置 |
US20230237784A1 (en) | 2020-06-25 | 2023-07-27 | Signify Holding B.V. | System and methods to optimize neural networks using sensor fusion |
CN112509047B (zh) * | 2020-12-10 | 2024-07-09 | 北京地平线信息技术有限公司 | 基于图像的位姿确定方法、装置、存储介质及电子设备 |
CN113345032B (zh) * | 2021-07-07 | 2023-09-15 | 北京易航远智科技有限公司 | 一种基于广角相机大畸变图的初始化建图方法及系统 |
CN113465617B (zh) * | 2021-07-08 | 2024-03-19 | 上海汽车集团股份有限公司 | 一种地图构建方法、装置及电子设备 |
CN113506369B (zh) * | 2021-07-13 | 2024-09-06 | 南京瓦尔基里网络科技有限公司 | 用于生成地图的方法、装置、电子设备和介质 |
CN113781573B (zh) * | 2021-07-19 | 2024-04-23 | 长春理工大学 | 一种基于双目折反射全景相机的视觉里程计方法 |
CN116468786B (zh) * | 2022-12-16 | 2023-12-26 | 中国海洋大学 | 一种面向动态环境的基于点线联合的语义slam方法 |
CN116009559B (zh) * | 2023-03-24 | 2023-06-13 | 齐鲁工业大学(山东省科学院) | 一种输水管道内壁巡检机器人及检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209770A (ja) | 2005-01-25 | 2006-08-10 | Samsung Electronics Co Ltd | 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体 |
JP2008102620A (ja) | 2006-10-17 | 2008-05-01 | Toyota Motor Corp | 画像処理装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101926563B1 (ko) | 2012-01-18 | 2018-12-07 | 삼성전자주식회사 | 카메라 추적을 위한 방법 및 장치 |
KR101423139B1 (ko) * | 2012-06-19 | 2014-07-28 | 한양대학교 산학협력단 | 3차원 직선을 이용하여 위치를 인식하고 지도를 생성하는 방법 및 그 방법에 따른 이동체 |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10852838B2 (en) * | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
KR101592740B1 (ko) * | 2014-07-24 | 2016-02-15 | 현대자동차주식회사 | 차량용 광각카메라의 영상 왜곡 보정 장치 및 방법 |
KR101666959B1 (ko) * | 2015-03-25 | 2016-10-18 | ㈜베이다스 | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 |
CN106846467B (zh) | 2017-01-23 | 2020-05-05 | 阿依瓦(北京)技术有限公司 | 基于每个相机位置优化的实体场景建模方法和系统 |
CN107862744B (zh) * | 2017-09-28 | 2021-05-18 | 深圳万图科技有限公司 | 航空影像三维建模方法及相关产品 |
CN108776976B (zh) | 2018-06-07 | 2020-11-20 | 驭势科技(北京)有限公司 | 一种同时定位与建图的方法、系统及存储介质 |
-
2018
- 2018-12-28 KR KR1020197039024A patent/KR102367361B1/ko active IP Right Grant
- 2018-12-28 EP EP18921621.1A patent/EP3806036A4/en active Pending
- 2018-12-28 US US16/627,768 patent/US11017545B2/en active Active
- 2018-12-28 WO PCT/CN2018/124786 patent/WO2019233090A1/zh unknown
- 2018-12-28 JP JP2019572827A patent/JP7096274B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209770A (ja) | 2005-01-25 | 2006-08-10 | Samsung Electronics Co Ltd | 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体 |
JP2008102620A (ja) | 2006-10-17 | 2008-05-01 | Toyota Motor Corp | 画像処理装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3806036A1 (en) | 2021-04-14 |
EP3806036A4 (en) | 2022-03-16 |
JP2021505979A (ja) | 2021-02-18 |
WO2019233090A1 (zh) | 2019-12-12 |
US20210082137A1 (en) | 2021-03-18 |
KR20200014858A (ko) | 2020-02-11 |
US11017545B2 (en) | 2021-05-25 |
KR102367361B1 (ko) | 2022-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096274B2 (ja) | 自己位置推定と環境マップ作成を同時に行う方法及び装置 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN109727288B (zh) | 用于单目同时定位与地图构建的系统和方法 | |
US10989540B2 (en) | Binocular vision localization method, device and system | |
KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
CN109242873B (zh) | 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法 | |
EP3182373B1 (en) | Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm | |
US10033985B2 (en) | Camera pose estimation apparatus and method for augmented reality imaging | |
Urban et al. | Multicol-slam-a modular real-time multi-camera slam system | |
CN108776976B (zh) | 一种同时定位与建图的方法、系统及存储介质 | |
US20190220991A1 (en) | Multi-directional structured image array capture on a 2d graph | |
CN108171791B (zh) | 基于多深度摄像机的动态场景实时三维重建方法及装置 | |
Lourakis et al. | Model-based pose estimation for rigid objects | |
CN111127524A (zh) | 一种轨迹跟踪与三维重建方法、系统及装置 | |
US20170019655A1 (en) | Three-dimensional dense structure from motion with stereo vision | |
CN107845134A (zh) | 一种基于彩色深度相机的单个物体的三维重建方法 | |
EP2751777A1 (en) | Method for estimating a camera motion and for determining a three-dimensional model of a real environment | |
CN109272577B (zh) | 一种基于Kinect的视觉SLAM方法 | |
CN113298934A (zh) | 一种基于双向匹配的单目视觉图像三维重建方法及系统 | |
CN111798373A (zh) | 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法 | |
WO2019213392A1 (en) | System and method for generating combined embedded multi-view interactive digital media representations | |
Koppel et al. | Image-based rendering and modeling in video-endoscopy | |
Zhao et al. | 3D object tracking via boundary constrained region-based model | |
CN110009683B (zh) | 基于MaskRCNN的实时平面上物体检测方法 | |
WO2023098737A1 (zh) | 三维重建方法、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7096274 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |