JP2021505979A - Method and device for simultaneous self-position estimation and environment map creation - Google Patents

Method and device for simultaneous self-position estimation and environment map creation Download PDF

Info

Publication number
JP2021505979A
JP2021505979A JP2019572827A JP2019572827A JP2021505979A JP 2021505979 A JP2021505979 A JP 2021505979A JP 2019572827 A JP2019572827 A JP 2019572827A JP 2019572827 A JP2019572827 A JP 2019572827A JP 2021505979 A JP2021505979 A JP 2021505979A
Authority
JP
Japan
Prior art keywords
map
wide
field
point
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019572827A
Other languages
Japanese (ja)
Other versions
JP7096274B2 (en
Inventor
亜慧 王
亜慧 王
少駿 蔡
少駿 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Uisee Technologies Beijing Ltd
Uisee Technologies Beijing Co Ltd
Original Assignee
Uisee Technologies Beijing Ltd
Uisee Technologies Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201810578095.3A external-priority patent/CN108776976B/en
Priority claimed from CN201811401646.5A external-priority patent/CN111210476B/en
Application filed by Uisee Technologies Beijing Ltd, Uisee Technologies Beijing Co Ltd filed Critical Uisee Technologies Beijing Ltd
Publication of JP2021505979A publication Critical patent/JP2021505979A/en
Application granted granted Critical
Publication of JP7096274B2 publication Critical patent/JP7096274B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • G06T3/047
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

本発明は、位置決めおよびマッピングを同時に行うための方法、デバイス、および非一時的なコンピュータ可読媒体に関する。広視野カメラによって広視野画像を取得するステップと、 マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得するステップと、 前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するステップと、を含み、前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なることを特徴とする自己位置推定と環境マップ作成を同時に行う方法。【選択図】図2The present invention relates to methods, devices, and non-transitory computer-readable media for simultaneous positioning and mapping. A step of acquiring a wide-field image by a wide-field camera, a step of acquiring a distortion-corrected image corresponding to the wide-field image based on a multi-virtual pinhole camera model, and the wide-field based on the distortion-corrected image. The multi-virtual pinhole camera model includes at least two virtual pinhole cameras in different orientations, including the steps of determining the position and orientation of the camera and creating a map, and said at least two different orientations of virtual pinholes. A method of simultaneously performing self-position estimation and environment map creation, characterized in that the camera center of the camera overlaps the camera center of the wide-field camera. [Selection diagram] Fig. 2

Description

本発明は自己位置推定と環境マップ作成を同時に行う分野に関し、特に広視野カメラに基づいて自己位置推定と環境マップ作成を同時に行う分野に関する。 The present invention relates to a field in which self-position estimation and environment map creation are performed at the same time, and particularly to a field in which self-position estimation and environment map creation are performed simultaneously based on a wide-field camera.

自己位置推定と環境マップ作成を同時に行うこと(Simultaneous Localization And Mapping、SLAMと略称する)はロボットの動きをリアルタイムに追跡しながら周囲環境マップを作成して位置推定やナビゲーション等の目標を実現する技術である。 Simultaneous self-position estimation and environment map creation (Simultaneous Localization And Mapping, abbreviated as SLAM) is a technology that creates a surrounding environment map while tracking the movement of a robot in real time and realizes goals such as position estimation and navigation. Is.

従来のSLAMに使用されているカメラは透視カメラ(perspective camera)であり、又はピンホールカメラ(pinhole camera)と呼ばれる。カメラの画角(Field−of−View)が限られるため、取得された画像に存在する共通特徴は不十分であり、SLAMアルゴリズムによる追跡が無効になる恐れがある。従来のSLAMに使用されているピンホールカメラに比べて、広視野カメラは画角がより大きいため、広く研究され、注目されている。
従来の広視野画像に基づくSLAMの技術案は主として2種類がある。
The camera used in conventional SLAM is a perspective camera, or is called a pinhole camera. Due to the limited angle of view (Field-of-View) of the camera, the common features present in the acquired image are inadequate and tracking by the SLAM algorithm may be invalid. Wide-field cameras have a larger angle of view than the pinhole cameras used in conventional SLAMs, and are therefore widely studied and attracted attention.
There are mainly two types of SLAM technical proposals based on conventional wide-field images.

一方は、まず、広視野カメラによって取得された広視野画像に対して従来の歪み補正方法を用いて歪み補正処理を行い、さらに歪み補正後の画像を普通画像として従来のSLAM技術を用いて自己位置推定と環境マップ作成を同時に行うことである。このような技術案は簡単であるが、従来の歪み補正方法は多くの画角の損失を招き、広視野カメラの広角を十分に活用できない。 On the other hand, first, the wide-field image acquired by the wide-field camera is subjected to distortion correction processing using a conventional distortion correction method, and then the image after distortion correction is used as a normal image and self-used using the conventional SLAM technology. Position estimation and environment map creation are performed at the same time. Although such a technical proposal is simple, the conventional distortion correction method causes a lot of loss of the angle of view, and the wide angle of the wide-field camera cannot be fully utilized.

他方は、広視野カメライメージングモデルに基づいて、歪み補正されていない広視野画像に直接SLAM処理を行うことである。すなわち、歪み補正されていない広視野画像から直接特徴を抽出して処理する。このような技術案は、抽出された特徴が画像歪みの影響を受けることが可能性があり、且つ複雑な広視野カメライメージングモデルによって最適化が非常に複雑になるため、システムの性能を損なってしまう。 The other is to perform SLAM processing directly on the undistorted wide-field image based on the wide-field camera imaging model. That is, features are directly extracted and processed from a wide-field image that has not been distortion-corrected. Such a proposal impairs system performance because the extracted features can be affected by image distortion and the optimization is very complicated due to the complex wide-field camera imaging model. It ends up.

従って、画像歪みの影響を回避しながら、広視野カメラのすべての視野を保持するとともに、被写界深度の検出、自己位置推定、環境マップ作成を同時に行うことができる新たなSLAM技術が望まれている。 Therefore, a new SLAM technology that can maintain the entire field of view of a wide-field camera while avoiding the effects of image distortion, and can simultaneously perform depth of field detection, self-position estimation, and environment map creation is desired. ing.

このアプリケーションの目的は、位置決めとマッピングを同時に行う方法を提供することです。この方法では、マルチバーチャルピンホールカメラモデルに基づいて、広視野カメラで取得した広視野画像を削除し、歪みのない画像に基づいて同時の位置決めとマッピングを実行できます。 The purpose of this application is to provide a way to perform positioning and mapping at the same time. This method allows you to remove widefield images captured by a widefield camera based on a multi-virtual pinhole camera model and perform simultaneous positioning and mapping based on a distortion-free image.

このアプリケーションは、一方で提供します 自己位置推定と環境マップ作成を同時に行う方法であって、 広視野カメラによって広視野画像を取得するステップと、 マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得するステップと、 前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するステップと、を含み、前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なることを特徴とする自己位置推定と環境マップ作成を同時に行う方法。 This application, on the other hand, provides a method of performing self-position estimation and environment mapping at the same time, based on the steps of acquiring a wide-field image with a wide-field camera and the multi-virtual pinhole camera model. The multi-virtual pinhole camera model includes a step of acquiring a distortion-corrected image corresponding to an image, a step of determining the position and orientation of the wide-field camera based on the distortion-corrected image, and a step of creating a map. Self-position estimation and environment mapping, characterized in that the camera centers of the virtual pinhole cameras of at least two different orientations include at least two different orientations and overlap the camera centers of the wide-field camera. How to do at the same time.

いくつかの実施形態では、前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、初期化ステップを含み、前記初期化ステップは、 第1時点に対応する歪み補正画像及び第2時点に対応する歪み補正画像を取得するステップと、 前記第1時点に対応する歪み補正画像と前記第2時点に対応する歪み補正画像の互いにマッチングする特徴点を決定するステップと、 前記互いにマッチングする特徴点に基づいて初期マップを作成するステップと。 In some embodiments, the wide-field camera is a monocular wide-field camera, which determines the position and orientation of the wide-field camera and creates a map based on the distortion-corrected image, which is an initialization step. Including, the initialization step corresponds to a step of acquiring a distortion correction image corresponding to the first time point and a distortion correction image corresponding to the second time point, a distortion correction image corresponding to the first time point, and the second time point. A step of determining feature points matching each other in the distortion-corrected image to be performed, and a step of creating an initial map based on the feature points matching each other.

いくつかの実施形態では、前記互いにマッチングする特徴点に基づいて初期マップを作成する前記ことは、 前記第1時点に対応する歪み補正画像中の特徴点及び前記第1時点における前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、 前記第2時点に対応する歪み補正画像中のマッチングする特徴点及び前記第2時点における前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、 前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、 前記マップ点に基づいて初期マップを作成するステップと。 In some embodiments, creating an initial map based on the matching feature points of the feature points in the distortion-corrected image corresponding to the first time point and the wide-field camera at the first time point. The step of determining the direction vector corresponding to the first feature point based on the camera center, the matching feature point in the distortion-corrected image corresponding to the second time point, and the camera center of the wide-field camera at the second time point. Based on the above, the step of determining the direction vector corresponding to the second feature point, the direction vector corresponding to the first feature point, and the direction vector corresponding to the second feature point are subjected to triangulation, and the feature point is determined. A step of determining the corresponding map point and a step of creating an initial map based on the map point.

いくつかの実施形態では、 前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、グローバルバンドル最適化ステップを含み、前記グローバルバンドル最適化ステップは、 前記マップ中の各キー広視野フレームに対して、 前記キー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び前記キー広視野フレームに関連付けられたすべてのマップ点の位置を更新するステップと。 In some embodiments, the wide-field camera is a monocular wide-field camera, which determines the position and orientation of the wide-field camera and creates a map based on the distortion-corrected image, which is a global bundle optimization. The global bundle optimization step comprises projecting each map point associated with the key wide field frame onto a multi-virtual pinhole camera model for each key wide field frame in the map and said map. The reprojection points of the points in the multi-virtual pinhole camera model are acquired, and the map points are re-projected based on the re-projection points of the map points in the multi-virtual pinhole camera model and the feature points corresponding to the map points. The step of determining the projection error and determining the reprojection error based on the reprojection error of the map points associated with all the key wide field frames and the position of the key wide field frame based on the reprojection error. With steps to update the orientation and the position of all map points associated with the key wide field frame.

いくつかの実施形態では、前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、追跡ステップを含み、前記追跡ステップは、 現在の広視野フレームに関連付けられた各マップ点に対して、 前記マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、 前記再投影誤差に基づいて、前記現在の広視野フレームの位置姿勢を更新するステップと。 In some embodiments, the wide-field camera is a monocular wide-field camera, which determines the position and orientation of the wide-field camera and creates a map based on the distortion-corrected image, which includes tracking steps. The tracking step projects the map points onto the multi-virtual pinhole camera model and reprojects the map points in the multi-virtual pinhole camera model for each map point associated with the current wide-field frame. The points are acquired, the reprojection error of the map points is determined based on the reprojection points of the map points in the multi-virtual pinhole camera model and the feature points corresponding to the map points, and all the current wides of the map points are determined. A step of determining the reprojection error based on the reprojection error of the map point associated with the field of view frame, and a step of updating the position and orientation of the current wide field of view frame based on the reprojection error.

いくつかの実施形態では、前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、マップ作成ステップを含み、前記マップ作成ステップは、 現在の広視野フレーム及びその基準フレームの互いにマッチングする特徴点を決定するステップと、前記現在の広視野フレームの特徴点及び現在の前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、前記基準フレームのマッチングする特徴点及び前記基準フレームに対応する前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、前記マップ点に基づいてマップを作成するステップと。 In some embodiments, the wide-field camera is a monocular wide-field camera, which determines the position and orientation of the wide-field camera and creates a map based on the distortion-corrected image. Including, the map creation step is based on the step of determining the feature points of the current wide-field frame and its reference frame that match each other, the feature points of the current wide-field frame, and the camera center of the current wide-field camera. The second feature point corresponds to the step of determining the direction vector corresponding to the first feature point, the matching feature point of the reference frame, and the camera center of the wide-field camera corresponding to the reference frame. A step of determining a direction vector, a step of performing triangulation on a direction vector corresponding to the first feature point and a direction vector corresponding to the second feature point, and a step of determining a map point corresponding to the feature point, and the above-mentioned With steps to create a map based on map points.

いくつかの実施形態では、前記マップ作成ステップはローカルバンドル最適化ステップをさらに含み、前記ローカルバンドル最適化ステップは、 ローカルマップ中の各キー広視野フレームに対して、前記キー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び該キー広視野フレームに関連付けられたすべてのマップ点の位置を更新するステップと。 In some embodiments, the mapping step further comprises a local bundle optimization step, which is associated with the key wide field frame for each key wide field frame in the local map. Each map point is projected onto the multi-virtual pinhole camera model, the re-projection point of the map point in the multi-virtual pinhole camera model is acquired, and the re-projection point of the map point in the multi-virtual pinhole camera model and The step of determining the reprojection error of the map point based on the feature points corresponding to the map point and determining the reprojection error based on the reprojection error of the map points associated with all the key wide field frames. And the step of updating the position and orientation of the key wide-field frame and the positions of all the map points associated with the key wide-field frame based on the reprojection error.

いくつかの実施形態では、前記広視野カメラは双眼広視野カメラであり、 前記双眼広視野カメラによって左視野画像及び右視野画像を取得するステップと、第1マルチ仮想ピンホールカメラモデルに基づいて、前記左視野画像に対応する左歪み補正画像を取得するステップと、第2マルチ仮想ピンホールカメラモデルに基づいて、前記右視野画像に対応する右歪み補正画像を取得するステップと、前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成するステップと、を含み、前記第1マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記双眼広視野カメラの左側カメラのカメラ中心と重なり、前記第2マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記双眼広視野カメラの右側カメラのカメラ中心。 In some embodiments, the wide-field camera is a binocular wide-field camera, which is based on the steps of acquiring left-field and right-field images by the binocular wide-field camera and a first multi-virtual pinhole camera model. A step of acquiring a left distortion correction image corresponding to the left field image, a step of acquiring a right distortion correction image corresponding to the right field image based on the second multi-virtual pinhole camera model, and the left distortion correction. The first multi-virtual pinhole camera model comprises at least two different orientations of virtual, including the step of determining the position and orientation of the binocular wide-field camera and creating a map based on the image and the right distortion corrected image. The camera center of the virtual pinhole camera including the pinhole camera and at least two different orientations overlaps the camera center of the left camera of the binocular wide-field camera, and the second multi-virtual pinhole camera model has at least two different. The camera center of the virtual pinhole camera including the orientation virtual pinhole camera and the at least two different orientations is the camera center of the right side camera of the binocular wide-field camera.

いくつかの実施形態では、前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、初期化ステップを含み、前記初期化ステップは、前記左歪み補正画像と前記右歪み補正画像の互いにマッチングする特徴点を決定するステップと、前記互いにマッチングする特徴点に基づいて初期マップを作成するステップと。 In some embodiments, the position and orientation of the binocular wide-field camera and creating a map based on the left distortion corrected image and the right distortion corrected image include an initialization step, said initial. The conversion step includes a step of determining feature points matching each other of the left distortion correction image and the right distortion correction image, and a step of creating an initial map based on the feature points matching each other.

いくつかの実施形態では、前記左歪み補正画像と前記右歪み補正画像の互いにマッチングする特徴点を決定する前記ことは、前記右歪み補正画像における前記左歪み補正画像中の特徴点に対応する極線を決定するステップと、前記極線上で前記左歪み補正画像中の特徴点にマッチングする特徴点を検索するステップと、を含み。 In some embodiments, determining feature points that match the left distortion corrected image and the right distortion corrected image with each other is a pole corresponding to the feature points in the left distortion corrected image in the right distortion corrected image. It includes a step of determining a line and a step of searching for a feature point that matches the feature point in the left distortion correction image on the polar line.

いくつかの実施形態では、前記互いにマッチングする特徴点に基づいて初期マップを作成する前記ことは、前記左歪み補正画像中の特徴点及び前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、前記右歪み補正画像中のマッチングする特徴点及び前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、 前記双眼広視野カメラの基線に基づいて、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、前記マップ点に基づいて初期マップを作成するステップと。 In some embodiments, creating an initial map based on said mutually matching feature points is based on the feature points in the left distortion corrected image and the camera center of the left camera of the binocular wide-field camera. The direction corresponding to the second feature point based on the step of determining the direction vector corresponding to the first feature point, the matching feature point in the right distortion corrected image, and the camera center of the right camera of the binocular wide-field camera. Based on the step of determining the vector and the baseline of the binocular wide-field camera, the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point are subjected to triangulation to correspond to the feature points. A step of determining a map point to be used and a step of creating an initial map based on the map point.

いくつかの実施形態では、前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、グローバルバンドル最適化ステップを含み、前記グローバルバンドル最適化ステップは、前記マップ中の各キー双眼画像フレームに対して、前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新するステップと。 In some embodiments, the position and orientation of the binocular wide-field camera and creating a map based on the left distortion corrected image and the right distortion corrected image include the global bundle optimization step. The global bundle optimization step projects the map points associated with the key binocular image frames onto the first multi-virtual pinhole camera model for each key binocular image frame in the map, and the map points are said to be said. The reprojection points in the first multi-virtual pinhole camera model are acquired, and the map points are based on the re-projection points in the first multi-virtual pinhole camera model and the feature points corresponding to the map points. The step of determining the reprojection error and determining the left reprojection error based on the reprojection error of the map points associated with all the key binocular image frames, or the map points associated with the key binocular image frame. 2 Projected onto the multi-virtual pinhole camera model, the re-projected points of the map points in the second multi-virtual pinhole camera model are acquired, and the re-projected points of the map points in the second multi-virtual pinhole camera model and The reprojection error of the map point is determined based on the feature points corresponding to the map point, and the right reprojection error is determined based on the reprojection error of the map points associated with all the key binocular image frames. Associated with the key binocular image frame position and orientation and the key binocular image frame based on the step and the sum of the left reprojection error, the right reprojection error or the left reprojection error and the right reprojection error. With steps to update the position of all map points.

いくつかの実施形態では、前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、追跡ステップを含み、前記追跡ステップは、現在の双眼画像フレームに関連付けられた各マップ点に対して、前記マップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は 前記マップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、 前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記現在の双眼画像フレームの位置姿勢を更新するステップと。 In some embodiments, the position and orientation of the binocular wide-field camera and creating a map based on the left distortion corrected image and the right distortion corrected image include a tracking step, the tracking step. Projects the map points onto the first multi-virtual pinhole camera model for each map point associated with the current binocular image frame, and reprojects the map points in the first multi-virtual pinhole camera model. The points are acquired and the reprojection error of the map points is determined based on the reprojection points of the map points in the first multi-virtual pinhole camera model and the feature points corresponding to the map points, and all the current current points are determined. The step of determining the left reprojection error based on the reprojection error of the map points associated with the binocular image frame, or the second multi of the map points by projecting the map points onto a second multi virtual pinhole camera model. The reprojection error of the map point is acquired based on the reprojection point of the virtual pinhole camera model and the reprojection point of the map point in the second multi-virtual pinhole camera model and the feature point corresponding to the map point. And the step of determining the right reprojection error based on the reprojection error of the map points associated with all the current binocular image frames, and the left reprojection error, the right reprojection error or the left reprojection. A step of updating the position and orientation of the current binocular image frame based on the sum of the projection error and the right reprojection error.

いくつかの実施形態では、前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、マップ作成ステップを含み、前記マップ作成ステップは、 現在の左歪み補正画像と現在の右歪み補正画像の互いにマッチングする特徴点を決定するステップと、 前記現在の左歪み補正画像の特徴点及び現在の前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、前記現在の右歪み補正画像の特徴点及び現在の前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、前記マップ点に基づいてマップを作成するステップと。 In some embodiments, the position and orientation of the binocular wide-field camera is determined and a map is created based on the left distortion corrected image and the right distortion corrected image. The creation steps include determining the feature points that match the current left distortion correction image and the current right distortion correction image with each other, the feature points of the current left distortion correction image, and the left camera of the current binocular wide-field camera. Based on the step of determining the direction vector corresponding to the first feature point based on the camera center of, and the feature point of the current right distortion corrected image and the camera center of the right camera of the current binocular wide-field camera. Triangular survey is performed on the step of determining the direction vector corresponding to the second feature point, the direction vector corresponding to the first feature point, and the direction vector corresponding to the second feature point, and the map point corresponding to the feature point. And a step to create a map based on the map points.

いくつかの実施形態では、 前記マップ作成ステップはローカルバンドル最適化ステップをさらに含み、前記ローカルバンドル最適化ステップは、 ローカルマップ中の各キー双眼画像フレームに対して、前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は 前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新するステップと。 In some embodiments, the mapping step further comprises a local bundle optimization step, which is associated with the key binocular image frame for each key binocular image frame in the local map. The map point is projected onto the first multi-virtual pinhole camera model, the re-projected point of the map point in the first multi-virtual pinhole camera model is acquired, and the first multi-virtual pinhole camera model of the map point is acquired. The reprojection error of the map point is determined based on the reprojection point in and the feature point corresponding to the map point, and left reprojection based on the reprojection error of the map point associated with all the key binocular image frames. The step of determining the projection error, or the map point associated with the key binocular image frame is projected onto the second multi-virtual pinhole camera model, and the re-projection point of the map point in the second multi-virtual pinhole camera model is Acquired, the reprojection error of the map point is determined based on the reprojection point of the map point in the second multi-virtual pinhole camera model and the feature point corresponding to the map point, and all the key binocular images. The step of determining the right reprojection error based on the reprojection error of the map points associated with the frame and the sum of the left reprojection error, the right reprojection error or the left reprojection error and the right reprojection error. With a step of updating the position orientation of the key binocular image frame and the positions of all map points associated with the key binocular image frame based on.

いくつかの実施形態では、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、閉ループ検出処理ステップを含み、前記閉ループ検出処理ステップは、現在の広視野フレームがキー広視野フレームである場合、マップデータベース中の前記現在の広視野フレームと類似する閉ループ広視野フレームを決定するステップと、前記現在の広視野フレームと前記閉ループ広視野フレームとの互いにマッチングする特徴点を決定するステップと、前記現在の広視野フレーム中のマッチングする各特徴点に対し、該特徴点に関連付けられたマップ点を、前記閉ループ広視野フレームに対応するマルチ仮想ピンホールカメラモデルの座標系に変換し、さらに前記マルチ仮想ピンホールカメラモデルのイメージング平面に投影し、該マップ点の前記閉ループ広視野フレームにおける再投影点を取得し、該再投影点及び前記閉ループ広視野フレーム中のマッチングする特徴点に基づいて第1再投影誤差を決定するステップと、前記現在の広視野フレーム中のすべてのマッチングする特徴点の第1再投影誤差に基づいて第1累計再投影誤差を決定するステップと、 前記閉ループ広視野フレーム中のマッチングする各特徴点に対して、該特徴点に関連付けられたマップ点を、前記現在の広視野フレームに対応するマルチ仮想ピンホールカメラモデルの座標系に変換し、さらに前記マルチ仮想ピンホールカメラモデルのイメージング平面に投影し、該マップ点の前記現在の広視野フレームにおける再投影点を取得し、該再投影点及び前記現在の広視野フレーム中のマッチングする特徴点に基づいて第2再投影誤差を決定するステップと、前記閉ループ広視野フレーム中のすべてのマッチングする特徴点の第2再投影誤差に基づいて第2累計再投影誤差を決定するステップと、前記第1累計再投影誤差及び前記第2累計再投影誤差を利用して、マップ中の前記現在の広視野フレームとは共通視野関係を有するキー広視野フレーム及びそれに関連付けられたマップ点を補正するステップと。
いくつかの実施形態では、前記少なくとも2つの異なる向きは、キューブの前向き、上向き、下向き、左向き又は右向きを。
In some embodiments, the position and orientation of the wide-field camera and creating a map based on the distortion-corrected image comprises a closed-loop detection processing step, wherein the closed-loop detection processing step is current. When the wide-field frame is a key wide-field frame, the step of determining a closed-loop wide-field frame similar to the current wide-field frame in the map database and the mutual of the current wide-field frame and the closed-loop wide-field frame The step of determining the feature points to be matched and the map points associated with the feature points for each matching feature point in the current wide-field frame are set to the multi-virtual pinhole camera corresponding to the closed-loop wide-field frame. Converted to the coordinate system of the model and then projected onto the imaging plane of the multi-virtual pinhole camera model to obtain the reprojected points of the map points in the closed-loop wide-field frame, the re-projected points and the closed-loop wide-field frame. The step of determining the first reprojection error based on the matching feature points in and the first cumulative reprojection error based on the first reprojection error of all matching feature points in the current wide-field frame. For the step to determine and each matching feature point in the closed-loop wide-field frame, the map points associated with the feature point are the coordinate system of the multi-virtual pinhole camera model corresponding to the current wide-field frame. And then projected onto the imaging plane of the multi-virtual pinhole camera model to obtain the reprojection points of the map points in the current wide-field frame, and in the re-projection points and the current wide-field frame. A step of determining the second reprojection error based on the matching feature points and a step of determining the second cumulative reprojection error based on the second reprojection error of all matching feature points in the closed-loop wide-field frame. And, using the first cumulative reprojection error and the second cumulative reprojection error, the key wide-field frame having a common field-of-view relationship with the current wide-field frame in the map and the map points associated with the key wide-field frame can be obtained. With steps to correct.
In some embodiments, the at least two different orientations are forward, upward, downward, left or right of the cube.

このアプリケーションは、一方で提供します 自己位置推定と環境マップ作成を同時に行う装置であって、一組命令を含む少なくとも1つの記憶デバイスと、前記少なくとも1つの記憶デバイスと通信する少なくとも1つのプロセッサと、を備え、前記一組命令を実行する時、前記少なくとも1つのプロセッサは、前記自己位置推定と環境マップ作成を同時に行う装置に、広視野カメラによって広視野画像を取得するステップと、マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得するステップと、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するステップと、を実行させ、 前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なる自己位置推定と環境マップ作成を同時に行う装置。 This application, on the other hand, provides a device that simultaneously performs self-position estimation and environment mapping, with at least one storage device containing a set of instructions and at least one processor communicating with the at least one storage device. When executing the set of instructions, the at least one processor has a step of acquiring a wide-field image by a wide-field camera and a multi-virtual pin in a device that simultaneously performs the self-position estimation and environment map creation. A step of acquiring a distortion-corrected image corresponding to the wide-field image based on the hall camera model, and a step of determining the position and orientation of the wide-field camera based on the distortion-corrected image and creating a map. To execute, the multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras overlaps the camera center of the wide-field camera. A device that estimates the position and creates an environment map at the same time.

本発明における追加の特徴は、以下の説明において部分的に説明されるであろう。この説明により、以下の図面および実施形態に記載された内容が当業者に明らかになるであろう。本発明における発明のポイントは、以下で議論される詳細な実施例に記載される方法、手段、およびそれらの組み合わせを実施または使用することにより完全に説明され得る。 Additional features in the present invention will be partially described in the following description. This description will reveal to those skilled in the art what is described in the drawings and embodiments below. The points of the invention in the present invention can be fully explained by implementing or using the methods, means, and combinations thereof described in the detailed examples discussed below.

以下の図面は、本発明において開示される例示的な実施形態を詳細に説明する。図面のいくつかの図において、同じ参照番号は同様の構造を示している。当業者は、これらの実施形態は非限定的な例示的実施形態であり、図面は例示および説明の目的のためだけであり、本開示の範囲を限定することを意図しないことを理解するであろう。本発明における本発明の意図も満たされる。図面は縮尺通りに描かれていないことを理解されたい。
は、本発明のいくつかの実施例による自己位置推定と環境マップ作成を同時に行うシステムを示す。 は、本発明のいくつかの実施例による自己位置推定と環境マップ作成を同時に行う方法のフローチャートを示す。 は、本発明のいくつかの実施例による2つの向きを含むマルチ仮想ピンホールカメラモデルを示す。 は、本発明のいくつかの実施例による5つの向きを含むマルチ仮想ピンホールカメラモデルを示す。 は、本発明のいくつかの実施例によるマルチ仮想ピンホールカメラモデルに基づいて歪み補正を行う模式図である。
The following drawings describe in detail exemplary embodiments disclosed in the present invention. In some of the drawings, the same reference numbers show a similar structure. Those skilled in the art will appreciate that these embodiments are non-limiting exemplary embodiments and that the drawings are for purposes of illustration and illustration only and are not intended to limit the scope of this disclosure. Let's do it. The intent of the present invention in the present invention is also satisfied. Please understand that the drawings are not drawn to scale.
Shows a system that simultaneously performs self-position estimation and environment map creation according to some examples of the present invention. Shows a flowchart of a method of simultaneously performing self-position estimation and environment map creation according to some embodiments of the present invention. Shows a multi-virtual pinhole camera model that includes two orientations according to some embodiments of the present invention. Shows a multi-virtual pinhole camera model that includes five orientations according to some embodiments of the present invention. Is a schematic diagram for performing distortion correction based on the multi-virtual pinhole camera model according to some examples of the present invention.

は、本発明のいくつかの実施例による原単眼魚眼画像、従来の歪み補正後の単眼魚眼画像及び本開示の方法による歪み補正後の単眼魚眼画像を示す。Shows the original monocular fisheye image according to some examples of the present invention, the conventional monocular fisheye image after distortion correction, and the monocular fisheye image after distortion correction by the method of the present disclosure. は、本発明のいくつかの実施例による原双眼魚眼画像及び従来の歪み補正後の双眼魚眼画像を示す。Shows the original binocular fisheye image according to some examples of the present invention and the conventional distortion-corrected binocular fisheye image. は、本発明のいくつかの実施例によるカメラの位置姿勢特定及びマップ作成のフローチャートを示す。Shows a flowchart of camera position / orientation identification and map creation according to some embodiments of the present invention. は、本発明のいくつかの実施形態による、単眼の広視野カメラによって構築されたマップポイントの概略図を示す。Shows a schematic diagram of map points constructed by a monocular wide field camera according to some embodiments of the present invention. は、本発明のいくつかの実施例による双眼広視野カメラの極線検索の模式図である。Is a schematic diagram of a polar line search of a binocular wide-field camera according to some examples of the present invention. は、本発明のいくつかの実施例による双眼広視野カメラのマップ点作成の模式図である。Is a schematic diagram of creating map points of a binocular wide-field camera according to some examples of the present invention.

以下の説明は、当業者がこのアプリケーションでコンテンツを作成および使用できるようにするために、このアプリケーションの特定のアプリケーションシナリオおよび要件を提供する。開示された実施形態に対する様々な修正は、当業者には明らかであり、本明細書で定義された一般原理は、本開示の精神および範囲から逸脱することなく他の実施形態に適用できる。アプリケーション。したがって、本開示は、例示された実施形態に限定されず、特許請求の範囲と一致する最も広い範囲である。 The following description provides specific application scenarios and requirements for this application in order for those skilled in the art to create and use content in this application. Various modifications to the disclosed embodiments will be apparent to those skilled in the art and the general principles defined herein can be applied to other embodiments without departing from the spirit and scope of the present disclosure. application. Therefore, the present disclosure is not limited to the illustrated embodiments, but is the broadest scope that is consistent with the claims.

本明細書で使用される用語は、特定の例示的な実施形態のみを説明するためのものであり、限定するものではない。例えば、本明細書で使用されるように、文脈がそうではないことを明確に示さない限り、単数形「a」、「an」および「the」は複数形を含み得る。この仕様で使用される「含む」、「含む」、および/または「含む」という用語は、関連する整数、ステップ、操作、要素、および/またはコンポーネントが存在することを意味しますが、1つ以上の他の機能を除外するものではありません、整数、ステップ、操作、要素、コンポーネント、および/またはその他の機能、整数、ステップ、操作、要素、コンポーネントをシステム/メソッドに追加できます。 The terms used herein are for the purposes of describing only certain exemplary embodiments and are not intended to be limiting. For example, as used herein, the singular forms "a," "an," and "the" may include the plural, unless the context explicitly indicates otherwise. The terms "contain", "contain", and / or "contain" as used in this specification mean that there are associated integers, steps, operations, elements, and / or components, but one. It does not preclude other features above, you can add integers, steps, operations, elements, components, and / or other features, integers, steps, operations, elements, components to your system / methods.

以下の説明を考慮すると、本開示のこれらおよび他の特徴、ならびに構造の関連要素の動作および機能、ならびに構成要素の組み合わせおよび製造の経済性を大幅に改善することができる。図面を参照すると、そのすべてが本開示の一部を形成する。ただし、図面は説明と説明のみを目的としており、開示の制限の定義を意図したものではないことを明確に理解する必要があります。 Considering the following description, these and other features of the present disclosure, as well as the behavior and function of the relevant components of the structure, as well as the combination of components and the economics of manufacture can be significantly improved. With reference to the drawings, all of which form part of this disclosure. However, it should be clearly understood that the drawings are for illustration and explanation purposes only and are not intended to define restrictions on disclosure.

本開示で使用されるフローチャートは、本開示のいくつかの実施形態によるシステムによって実施される動作を示す。フローチャートの動作は順不同で実装できることを明確に理解する必要があります。代わりに、操作を逆順または同時に実行できます。さらに、1つ以上の他のアクションをフローチャートに追加できます。フローチャートから1つ以上のアクションを削除できます。 The flowcharts used in the present disclosure show the operations performed by the system according to some embodiments of the present disclosure. You need to clearly understand that flowchart behavior can be implemented in any order. Instead, you can perform the operations in reverse order or at the same time. In addition, you can add one or more other actions to the flowchart. You can remove one or more actions from the flowchart.

本開示の一態様は自己位置推定と環境マップ作成を同時に行う方法に関する。具体的には、該方法は、マルチ仮想ピンホールカメラモデルに基づいて、広視野カメラによって取得された広視野画像を歪み補正して歪み補正画像を取得するステップと、歪み補正画像に基づいて広視野カメラの位置姿勢を決定し、マップを作成するステップと、を含む。前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なる。
図1は本発明のいくつかの実施例による自己位置推定と環境マップ作成を同時に行うシステムを示す。
One aspect of the present disclosure relates to a method of simultaneously performing self-position estimation and environment map creation. Specifically, the method is based on a multi-virtual pinhole camera model, a step of distortion-correcting a wide-field image acquired by a wide-field camera to obtain a distortion-corrected image, and a wide field based on the distortion-corrected image. Includes steps to determine the position and orientation of the field of view camera and create a map. The multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras overlaps the camera center of the wide-field camera.
FIG. 1 shows a system that simultaneously performs self-position estimation and environment map creation according to some examples of the present invention.

自己位置推定と環境マップ作成を同時に行うシステム100は広視野画像を取得し、自己位置推定と環境マップ作成を同時に行う方法を実行することができる。前記自己位置推定と環境マップ作成を同時に行う方法は図2〜図11についての説明を参照すればよい。 The system 100 that simultaneously estimates the self-position and creates the environment map can acquire a wide-field image and execute a method of simultaneously estimating the self-position and creating the environment map. For the method of simultaneously estimating the self-position and creating the environment map, the description of FIGS. 2 to 11 may be referred to.

図示するように、自己位置推定と環境マップ作成を同時に行うシステム100は広視野カメラ101、及び自己位置推定と環境マップ作成を同時に行う装置102を備える。前記広視野カメラ101と自己位置推定と環境マップ作成を同時に行う装置102は一体として装着されてもよく、個別装着されてもよい。本開示の発明についての説明の便宜上、本開示の広視野カメラは魚眼カメラを例とする。 As shown in the figure, the system 100 that simultaneously performs self-position estimation and environment map creation includes a wide-field camera 101 and a device 102 that simultaneously performs self-position estimation and environment map creation. The wide-field camera 101 and the device 102 that simultaneously estimates the self-position and creates the environment map may be mounted integrally or individually. For convenience of explanation of the invention of the present disclosure, the wide-field camera of the present disclosure is taken as an example of a fisheye camera.

広視野カメラ101は被写体の魚眼画像を取得する。いくつかの実施例では、広視野カメラ101は魚眼カメラ、反射屈折カメラ、パノラマカメラであってもよい。いくつかの実施例では、広視野カメラ101は単眼広視野カメラ、双眼広視野カメラ又は多眼広視野カメラであってもよい。 The wide-field camera 101 acquires a fisheye image of the subject. In some embodiments, the wide-field camera 101 may be a fisheye camera, a reflection / refraction camera, or a panoramic camera. In some embodiments, the wide-field camera 101 may be a monocular wide-field camera, a binocular wide-field camera, or a multi-eye wide-field camera.

例として、広視野カメラ101は単眼魚眼カメラ及び双眼魚眼カメラを含む。双眼魚眼カメラの左側カメラは左眼と呼ばれ、双眼魚眼カメラの右側カメラは右眼と呼ばれる。左眼によって取得された画像は左魚眼画像(左視野画像)と呼ばれ、右眼によって取得された画像は右魚眼画像(右視野画像)と呼ばれる。 As an example, the wide field camera 101 includes a monocular fisheye camera and a binocular fisheye camera. The left camera of the binocular fisheye camera is called the left eye, and the right camera of the binocular fisheye camera is called the right eye. The image acquired by the left eye is called a left fisheye image (left visual field image), and the image acquired by the right eye is called a right fisheye image (right visual field image).

自己位置推定と環境マップ作成を同時に行う装置102は自己位置推定と環境マップ作成を同時に行う方法を実行できる例示的なコンピューティング装置である。 The device 102 that simultaneously performs self-position estimation and environment map creation is an exemplary computing device that can execute a method of simultaneously performing self-position estimation and environment map creation.

位置決めおよびマッピングのためのデバイス102は、データ通信を促進するためにCOMポート150を含むことができる。同時に位置決めおよびマッピングするためのデバイス102は、コンピュータ命令を実行するための1つまたは複数のプロセッサの形態のプロセッサ120をさらに含むことができる。コンピュータ命令には、たとえば、本明細書で説明する特定の機能を実行するルーチン、プログラム、オブジェクト、コンポーネント、データ構造、手順、モジュール、および機能を含めることができます。例えば、プロセッサ120は、複数の仮想ピンホールカメラモデルに基づいて魚眼画像の歪んだ画像を決定してもよい。別の例として、プロセッサ120は、広視野カメラ101の姿勢を決定し、歪んだ画像に基づいて地図を構築してもよい。 The device 102 for positioning and mapping can include a COM port 150 to facilitate data communication. The device 102 for simultaneous positioning and mapping may further include a processor 120 in the form of one or more processors for executing computer instructions. Computer instructions can include, for example, routines, programs, objects, components, data structures, procedures, modules, and functions that perform the specific functions described herein. For example, the processor 120 may determine a distorted image of a fisheye image based on a plurality of virtual pinhole camera models. As another example, the processor 120 may determine the orientation of the wide field camera 101 and build a map based on the distorted image.

いくつかの実施形態では、プロセッサ120は、マイクロコントローラ、マイクロプロセッサ、縮小命令セットコンピュータ(RISC)、特定用途向け集積回路(ASIC)、特定用途向けなどの1つ以上のハードウェアプロセッサを含み得る。命令セットプロセッサ(ASIP)、中央処理装置(CPU)、グラフィック処理装置(GPU)、物理処理装置(PPU)、マイクロコントローラユニット、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA) )、アドバンストRISCマシン(ARM)、プログラマブルロジックデバイス(PLD)、1つ以上の機能を実行できる回路またはプロセッサなど、またはそれらの組み合わせ。 In some embodiments, the processor 120 may include one or more hardware processors such as a microcontroller, microprocessor, reduced instruction set computer (RISC), application specific integrated circuit (ASIC), application specific, and the like. Instruction set processor (ASIP), central processing unit (CPU), graphics processing unit (GPU), physical processing unit (PPU), microcontroller unit, digital signal processor (DSP), field programmable gate array (FPGA)), advanced RISC A machine (ARM), a programmable logic device (PLD), a circuit or processor capable of performing one or more functions, or a combination thereof.

いくつかの実施形態では、同時位置決めおよびマッピングのためのデバイス102は、内部通信バス110、プログラムストレージ、および異なる形式のデータストレージ(例えば、ディスク170、読み取り専用メモリ(ROM)130、またはランダムアクセス)を含み得る。メモリ(RAM)140)。同時位置決めおよびマッピングのためのデバイス102は、ROM 130、RAM 140、および/またはプロセッサ120によって実行される他のタイプの非一時的記憶媒体に格納されたプログラム命令も含み得る。本発明の方法および/またはプロセスは、プログラム命令として実装されてもよい。同時位置決めおよびマッピングのためのデバイス102はまた、コンピュータと他のコンポーネント(例えば、ユーザーインターフェース要素)との間の入力/出力をサポートするI / Oコンポーネント160を含む。位置決めとマッピングを同時に行うデバイス102は、ネットワーク通信を通じてプログラミングとデータを受信することもできます。 In some embodiments, the device 102 for simultaneous positioning and mapping is an internal communication bus 110, program storage, and different types of data storage (eg, disk 170, read-only memory (ROM) 130, or random access). May include. Memory (RAM) 140). Device 102 for simultaneous positioning and mapping may also include program instructions stored in ROM 130, RAM 140, and / or other types of non-temporary storage media executed by processor 120. The methods and / or processes of the present invention may be implemented as program instructions. The device 102 for simultaneous positioning and mapping also includes an I / O component 160 that supports input / output between the computer and other components (eg, user interface elements). The simultaneous positioning and mapping device 102 can also receive programming and data over network communication.

例示のみを目的として、本発明における同時の位置決めおよびマッピングのために、デバイス102には1つのプロセッサのみが記載されている。しかしながら、本発明における同時測位およびマッピングのためのデバイス102は複数のプロセッサを含むこともできることに留意すべきであり、したがって、本発明に開示される動作および/または方法ステップは、本開示に記載される1つのプロセッサによって実行され得る、複数のプロセッサが共同で実行することもできます。例えば、本発明における位置決めおよびマッピングのためのデバイス102のプロセッサ120がステップAおよびBを実行する場合、ステップAおよびBは、情報処理における2つの異なるプロセッサによって結合または分離され得ることを理解されたい。実行(たとえば、第1プロセッサがステップAを実行し、第2プロセッサがステップBを実行するか、第1プロセッサと第2プロセッサがステップAとBを一緒に実行します)。 For purposes of illustration only, device 102 describes only one processor for simultaneous positioning and mapping in the present invention. However, it should be noted that the device 102 for simultaneous positioning and mapping in the present invention may also include multiple processors, and therefore the operation and / or method steps disclosed in the present invention are described herein. It can also be run jointly by multiple processors, which can be run by one processor. For example, if processor 120 of device 102 for positioning and mapping in the present invention performs steps A and B, it should be understood that steps A and B can be combined or separated by two different processors in information processing. .. Run (for example, the first processor performs step A and the second processor performs step B, or the first and second processors perform steps A and B together).

図2は本発明のいくつかの実施例による自己位置推定と環境マップ作成を同時に行う方法のフローチャートを示す。プロセス200は自己位置推定と環境マップ作成を同時に行う装置102中の非一時的な記憶媒体における)一組命令として実施できる。自己位置推定と環境マップ作成を同時に行う装置102は該一組命令を実行し且つプロセス200のステップを対応付けて実行する。 FIG. 2 shows a flowchart of a method of simultaneously performing self-position estimation and environment map creation according to some embodiments of the present invention. Process 200 can be performed as a set of instructions (in a non-temporary storage medium in device 102) that simultaneously estimates self-position and creates an environment map. The device 102 that simultaneously estimates the self-position and creates the environment map executes the set of instructions and executes the steps of the process 200 in association with each other.

以下に提示される例示されたプロセス200の動作は、例示的であり、限定的ではないことが意図される。いくつかの実施形態では、プロセス200は、説明されていない1つ以上の追加の動作を追加し、および/または本明細書で説明された1つ以上の動作を削除することができる。さらに、図2に示され、以下で説明される動作の順序は、これに対する制限ではない。
210では、自己位置推定と環境マップ作成を同時に行う装置102は広視野カメラ101によって広視野画像を取得することができる。
The behavior of the illustrated process 200 presented below is intended to be exemplary and not limiting. In some embodiments, the process 200 may add one or more additional actions not described and / or remove one or more actions described herein. Furthermore, the order of operations shown in FIG. 2 and described below is not a limitation.
In 210, the device 102 that simultaneously estimates the self-position and creates the environment map can acquire a wide-field image by the wide-field camera 101.

広視野カメラ101が単眼広視野カメラである場合、単眼広視野カメラが広視野画像を取得し、広視野カメラ101が双眼広視野カメラである場合、双眼広視野カメラが、左視野画像及び右視野画像を含む広視野画像を取得する。 When the wide-field camera 101 is a monocular wide-field camera, the monocular wide-field camera acquires a wide-field image, and when the wide-field camera 101 is a binocular wide-field camera, the binocular wide-field camera is a left-field image and a right-field image. Acquire a wide field of view image including the image.

220では、自己位置推定と環境マップ作成を同時に行う装置102はマルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得することができる。 In 220, the device 102 that simultaneously estimates the self-position and creates the environment map can acquire a distortion-corrected image corresponding to the wide-field image based on the multi-virtual pinhole camera model.

広視野カメラ101が単眼広視野カメラである場合、自己位置推定と環境マップ作成を同時に行う装置102はマルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得することができる。 When the wide-field camera 101 is a monocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map acquires a distortion-corrected image corresponding to the wide-field image based on the multi-virtual pinhole camera model. Can be done.

上記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記単眼広視野カメラのカメラ中心と重なる。 The multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras overlaps the camera center of the monocular wide-field camera.

広視野カメラ101が双眼広視野カメラである場合、自己位置推定と環境マップ作成を同時に行う装置102は第1マルチ仮想ピンホールカメラモデルに基づいて、前記左視野画像に対応する左歪み補正画像を取得し、第2マルチ仮想ピンホールカメラモデルに基づいて、前記右視野画像に対応する右歪み補正画像を取得する。前記第1マルチ仮想ピンホールカメラモデルと前記第2マルチ仮想ピンホールカメラモデルは同じであってもよく、異なってもよい。 When the wide-field camera 101 is a binocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map produces a left distortion correction image corresponding to the left-field image based on the first multi-virtual pinhole camera model. Acquire and acquire a right distortion correction image corresponding to the right field image based on the second multi-virtual pinhole camera model. The first multi-virtual pinhole camera model and the second multi-virtual pinhole camera model may be the same or different.

上記第1マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は広視野カメラ101の左眼のカメラ中心と重なるようにしてもよく、上記第2マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は広視野カメラ101の右眼のカメラ中心と重なるようにしてもよい。 The first multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras overlaps the left eye camera center of the wide-field camera 101. The second multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras is to the right of the wide-field camera 101. It may overlap with the center of the camera of the eye.

例として、図3は本発明のいくつかの実施例による2つの向きを含むマルチ仮想ピンホールカメラモデルを示す。2つの仮想ピンホールカメラの向きは90°の夾角をなし、且つカメラ中心は広視野カメラのカメラ中心とC点で重なる。 As an example, FIG. 3 shows a multi-virtual pinhole camera model that includes two orientations according to some embodiments of the present invention. The orientations of the two virtual pinhole cameras form a 90 ° angle, and the center of the camera overlaps the center of the wide-field camera at point C.

例として、図4は本発明のいくつかの実施例による5つの向きを含むマルチ仮想ピンホールカメラモデルを示す。図示するように、該マルチ仮想ピンホールカメラモデルはキューブの前向き、上向き、下向き、左向き及び右向きの計5つの向きの仮想ピンホールカメラを含む。5つの仮想ピンホールカメラのカメラ中心は広視野カメラのカメラ中心とC点で重なる。このとき、上記歪み補正方法は、キューブマップに基づく歪み補正方法(cubemap−based undistortion method)(以下、Cube又はキューブモデルと略称する)と呼ばれる。 As an example, FIG. 4 shows a multi-virtual pinhole camera model that includes five orientations according to some embodiments of the present invention. As shown, the multi-virtual pinhole camera model includes a total of five orientations of the cube, forward, upward, downward, left and right. The camera centers of the five virtual pinhole cameras overlap with the camera centers of the wide-field cameras at point C. At this time, the distortion correction method is called a distortion correction method based on a cube map (cubemap-based unition method) (hereinafter, abbreviated as Cube or cube model).

具体的には、自己位置推定と環境マップ作成を同時に行う装置102は広視野画像(又は左視野画像、右視野画像)をマルチ仮想ピンホールカメラモデル(又は第1マルチ仮想ピンホールカメラモデル、第2マルチ仮想ピンホールカメラモデル)に投影し、少なくとも2つの異なる向きの仮想ピンホールカメラの投影図を取得し、前記少なくとも2つの異なる向きの仮想ピンホールカメラの投影図を展開すると、前記左魚眼画像に対応する歪み補正画像を取得することができる。 Specifically, the device 102 that simultaneously estimates the self-position and creates the environment map converts the wide-field image (or left-field image or right-field image) into a multi-virtual pinhole camera model (or a first multi-virtual pinhole camera model, a first When projected onto a two-multi virtual pinhole camera model), the projections of at least two virtual pinhole cameras in different directions are acquired, and the projections of the virtual pinhole cameras in at least two different directions are expanded, the left fish A distortion-corrected image corresponding to an eye image can be acquired.

図5に示すように、本発明のいくつかの実施例によるマルチ仮想ピンホールカメラモデルに基づいて歪み補正を行う模式図である。以下、第1マルチ仮想ピンホールカメラモデル及び左視野画像を例とする。 As shown in FIG. 5, it is a schematic diagram that performs distortion correction based on the multi-virtual pinhole camera model according to some examples of the present invention. Hereinafter, the first multi-virtual pinhole camera model and the left-field image will be taken as examples.

点Aは双眼広視野カメラの左眼のカメラ中心、点B、点C及び点Dは左視野画像中の例示的な画素である。第1マルチ仮想ピンホールカメラ510はキューブモデルであり、5つの向きの仮想ピンホールカメラを含み、それぞれキューブの前向き、上向き、下向き、左向き及び右向きである。前記5つの向きの仮想ピンホールカメラのカメラ中心は点Aで重なる。 Point A is the center of the left eye of the binocular wide-field camera, and points B, C and D are exemplary pixels in the left-field image. The first multi-virtual pinhole camera 510 is a cube model and includes virtual pinhole cameras in five orientations, with the cubes facing forward, upward, downward, left and right, respectively. The camera centers of the virtual pinhole cameras in the five directions overlap at the point A.

図示するように、左視野画像を第1マルチ仮想ピンホールカメラモデル510の5つの異なる向きの仮想ピンホールカメラのイメージング平面に投影する。それに対応して、5つの異なる向きの投影図を取得する。前記5つの異なる向きの投影図を展開すると、左歪み補正画像を取得する。 As shown, the left-field image is projected onto the imaging planes of five differently oriented virtual pinhole cameras of the first multi-virtual pinhole camera model 510. Correspondingly, five different orientation projections are acquired. When the projection views in the five different directions are developed, a left distortion correction image is acquired.

図6に示すように、本発明のいくつかの実施例による原単眼魚眼画像、従来の歪み補正後の単眼魚眼画像及び本開示の方法による歪み補正後の単眼魚眼画像を示す。 As shown in FIG. 6, the original monocular fisheye image according to some examples of the present invention, the conventional monocular fisheye image after distortion correction, and the monocular fisheye image after distortion correction by the method of the present disclosure are shown.

図610は単眼魚眼カメラによって取得された広視野画像である。図示からわかるように、該広視野画像は普通のカメラによって取得された画像よりも広視野があるが、全画像に空間の歪みが存在し、画像の中心から離れるほご、歪みが大きい。 FIG. 610 is a wide-field image acquired by a monocular fisheye camera. As can be seen from the illustration, the wide-field image has a wider field of view than the image acquired by an ordinary camera, but there is spatial distortion in all the images, and the dust and distortion away from the center of the image are large.

図620は従来の歪み補正方法によって該広視野画像に対して歪み補正処理を行って取得された歪み補正画像である。普通のカメラによって取得された画像の画角は一般には約80°であるが、図620の画角は100°である。普通のカメラによって取得された画像の画角よりも拡大したが、歪み補正処理前の画像に比べて多くの画角が損失してしまう。従って、広視野画像を含むすべての画角のマップを作成できない。 FIG. 620 is a distortion correction image obtained by performing distortion correction processing on the wide field image by a conventional distortion correction method. The angle of view of an image acquired by an ordinary camera is generally about 80 °, but the angle of view of FIG. 620 is 100 °. The angle of view of the image acquired by an ordinary camera is enlarged, but many angles of view are lost compared to the image before the distortion correction processing. Therefore, it is not possible to create a map of all angles of view including a wide-field image.

図630は本発明の一実施例による5つの向きのマルチ仮想ピンホールカメラモデル基づく歪み補正後に展開された広視野歪み補正画像であり、すなわち、キューブモデルによって取得された歪み補正画像である。図示するように、図630は広視野画像のすべての画角を保持する。該広視野歪み補正画像に基づいてSLAMを行うことによって、元のすべての画角コンテンツを含むマップを作成できる。
図7は本発明のいくつかの実施例による原双眼魚眼画像及び従来の歪み補正後の双眼魚眼画像を示す。
FIG. 630 is a wide-field distortion correction image developed after distortion correction based on a multi-virtual pinhole camera model in five directions according to an embodiment of the present invention, that is, a distortion correction image acquired by a cube model. As shown, FIG. 630 retains all angles of view of a wide field image. By performing SLAM based on the wide-field distortion-corrected image, a map including all the original angle-of-view contents can be created.
FIG. 7 shows an original binocular fisheye image according to some examples of the present invention and a conventional distortion-corrected binocular fisheye image.

図示するように、画像701及び画像702はそれぞれ広視野カメラ101によって実世界で取得された原左魚眼画像及び右魚眼画像である。画像703及び画像704はそれぞれ従来の歪み補正後の左歪み補正画像及び右歪み補正画像である。 As shown, the images 701 and 702 are the original left fisheye image and the right fisheye image acquired by the wide field camera 101 in the real world, respectively. The image 703 and the image 704 are a left distortion correction image and a right distortion correction image after the conventional distortion correction, respectively.

キューブモデルによって処理された左歪み補正画像及び右歪み補正画像(図示せず)との比較として、画像601及び画像602から従来の歪み補正方法によって取得された単一画像は、画像の縦方向と横方向の画角がともに100°だけである。以上からわかるように、広視野カメラ101によって取得された広視野画像に対し、本発明に係る歪み補正方法は広視野を保持するとともに、画像歪みを効果的に防止することができる。 As a comparison with the left distortion corrected image and the right distortion corrected image (not shown) processed by the cube model, the single image obtained from the images 601 and 602 by the conventional distortion correction method is the vertical direction of the image. Both horizontal angles of view are only 100 °. As can be seen from the above, the distortion correction method according to the present invention can maintain a wide field of view and effectively prevent image distortion with respect to the wide field of view image acquired by the wide field camera 101.

230では、自己位置推定と環境マップ作成を同時に行う装置102は前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する。 In 230, the device 102 that simultaneously estimates the self-position and creates the environment map determines the position and orientation of the wide-field camera based on the distortion-corrected image and creates the map.

いくつかの実施例では、単眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は歪み補正画像の特徴点を抽出し、抽出された特徴点に基づいて対応する広視野フレームを作成し、次に前記広視野フレームに基づいて、単眼広視野カメラの位置姿勢を決定し、マップを作成することができる。 In some embodiments, in the case of a monocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates the environment map extracts the feature points of the distortion-corrected image and corresponds to the corresponding wide-field frame based on the extracted feature points. Then, based on the wide-field frame, the position and orientation of the monocular wide-field camera can be determined, and a map can be created.

好ましくは、広視野歪み補正画像の特徴点、すなわち、広視野歪み補正画像のキーポイント及び記述子を抽出することによって、広視野歪み補正画像の特徴点に基づいて、カメラの動きの位置姿勢を追跡し、マップを作成する。好ましくは、キーポイント及び記述子を計算せずに、直接広視野歪み補正画像中の画素輝度情報に基づいてカメラの動きの位置姿勢を推定し、マップを作成する。 Preferably, by extracting the feature points of the wide-field distortion-corrected image, that is, the key points and descriptors of the wide-field distortion-corrected image, the position and orientation of the movement of the camera are determined based on the feature points of the wide-field distortion-corrected image. Track and create maps. Preferably, the position and orientation of the camera movement are estimated directly based on the pixel luminance information in the wide-field distortion-corrected image without calculating the key points and descriptors, and a map is created.

上記マルチ仮想ピンホールカメラモデルに基づく歪み補正方法によって取得された広視野歪み補正画像は原広視野画像のすべての画角を保持する。それにより、広視野画像間の豊富な共有特徴に基づいて自己位置推定と環境マップ作成を同時に行うことができ、より効率的な自己位置推定及びより正確なマップを取得できる。それと同時に、上記方法によって、さらに広視野カメラの複雑な投影モデルによるシステムの計算コストの増加を回避できる。 The wide-field distortion-corrected image acquired by the distortion correction method based on the multi-virtual pinhole camera model retains all the angles of view of the original wide-field image. As a result, self-position estimation and environment map creation can be performed at the same time based on abundant shared features between wide-field images, and more efficient self-position estimation and more accurate map can be obtained. At the same time, the above method can avoid an increase in the computational cost of the system due to the complicated projection model of the wide-field camera.

いくつかの実施例では、双眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は左歪み補正画像及び右歪み補正画像の特徴点を抽出し、抽出された特徴点に基づいて対応する双眼画像フレームを作成し、次に、前記双眼画像フレームに基づいて双眼広視野カメラの位置姿勢を決定し、マップを作成することができる。 In some embodiments, in the case of a binocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates the environment map extracts the feature points of the left distortion corrected image and the right distortion corrected image, and is based on the extracted feature points. The corresponding binocular image frame can be created, and then the position and orientation of the binocular wide-field camera can be determined based on the binocular image frame to create a map.

広視野フレーム(又は双眼画像フレーム)に歪み補正画像(又は左歪み補正画像、右歪み補正画像)中のすべての特徴点の情報が含まれるため、それによって広視野カメラ101の動きの位置姿勢を追跡し、マップを作成することができる。 Since the wide-field frame (or binocular image frame) contains information on all the feature points in the distortion-corrected image (or left-handed distortion-corrected image, right-handed distortion-corrected image), the position and orientation of the movement of the wide-field camera 101 can be determined accordingly. You can track and create maps.

例として、自己位置推定と環境マップ作成を同時に行う装置102は上記歪み補正画像(又は左歪み補正画像、右歪み補正画像)を拡大縮小し、該歪み補正画像(又は左歪み補正画像、右歪み補正画像)に対応する画像ピラミッド(Image Pyramid)を取得する。該画像ピラミッドの各スケール画像からコーナーを抽出し記述子を計算する。画像の特徴点が前記コーナー及び記述子で構成される。前記コーナーは、画像中の認識度が高くて代表性がある領域であり、特徴点の画像における位置情報を示すためのものである。記述子はベクトルで示してもよく、コーナーの周囲画素の情報を記述するためのものである。記述子は、外観が類似する特徴点に、類似する記述子を付与するように設計されてもよい。 As an example, the device 102 that simultaneously estimates the self-position and creates the environment map enlarges / reduces the distortion correction image (or left distortion correction image, right distortion correction image), and scales the distortion correction image (or left distortion correction image, right distortion). The image pyramid (Image Pyramid) corresponding to the corrected image) is acquired. Corners are extracted from each scale image of the image pyramid and descriptors are calculated. The feature points of the image are composed of the corners and descriptors. The corner is a region having a high degree of recognition and being representative in the image, and is for showing the position information of the feature point in the image. The descriptor may be shown as a vector and is for describing the information of the pixels around the corner. Descriptors may be designed to give similar descriptors to features that are similar in appearance.

歪み補正画像(又は左歪み補正画像、右歪み補正画像)に対してその特徴点を抽出し、抽出された特徴点に基づいて対応する広視野フレーム(又は双眼画像フレーム)を作成する。該広視野フレーム(又は双眼画像フレーム)は対応する歪み補正画像(又は左歪み補正画像、右歪み補正画像)中のすべての特徴点を含む。広視野フレーム(又は双眼画像フレーム)の作成完了後、該広視野フレーム(又は双眼画像フレーム)に対応する歪み補正画像(又は左歪み補正画像、右歪み補正画像)の画素データを破棄し、それにより保存領域を節約し、システムの電力消費量を低減させる。
ステップ230についての更なる説明は図8及びその関連説明を参照すればよい。
The feature points of the distortion-corrected image (or left-distortion-corrected image or right-handed distortion-corrected image) are extracted, and a corresponding wide-field frame (or binocular image frame) is created based on the extracted feature points. The wide-field frame (or binocular image frame) includes all feature points in the corresponding distortion-corrected image (or left-distortion-corrected image, right-handed distortion-corrected image). After the creation of the wide-field frame (or binocular image frame) is completed, the pixel data of the distortion correction image (or left distortion correction image, right distortion correction image) corresponding to the wide-field frame (or binocular image frame) is discarded, and the pixel data is discarded. Saves storage space and reduces system power consumption.
Further description of step 230 may be referred to FIG. 8 and related description.

なお、広視野カメラ101が双眼広視野カメラであ場合、双眼広視野カメラの左眼と右眼の光軸は平行ではない可能性がある。従って、プロセス200は、広視野カメラ101の左眼と右眼の光軸を平行にするステップをさらに含んでもよい。例えば、自己位置推定と環境マップ作成を同時に行う装置102は双眼カメラ補正プログラムによって双眼魚眼カメラの左眼と右眼の仮想光軸を平行に調整することができる。 When the wide-field camera 101 is a binocular wide-field camera, the optical axes of the left eye and the right eye of the binocular wide-field camera may not be parallel. Therefore, the process 200 may further include a step of parallelizing the optical axes of the left eye and the right eye of the wide field camera 101. For example, the device 102 that simultaneously estimates the self-position and creates the environment map can adjust the virtual optical axes of the left eye and the right eye of the binocular fisheye camera in parallel by the binocular camera correction program.

図8は本発明のいくつかの実施例によるカメラの位置姿勢特定及びマップ作成のフローチャートを示す。プロセス230は自己位置推定と環境マップ作成を同時に行う装置102中の非一時的な記憶媒体における一組命令として実施されてもよい。自己位置推定と環境マップ作成を同時に行う装置102は該一組命令を実行し、それに対応してプロセス200のステップを実行することができる。 FIG. 8 shows a flowchart of camera position / orientation identification and map creation according to some embodiments of the present invention. Process 230 may be performed as a set of instructions in a non-temporary storage medium in device 102 that simultaneously estimates self-position and creates an environment map. The device 102, which simultaneously estimates the self-position and creates the environment map, can execute the set of instructions and execute the steps of the process 200 correspondingly.

以下、説明されるプロセス230の操作は単に説明を目的とし、限定的なものではない。いくつかの実施例では、プロセス230は実現時、説明されていない1つ又は複数の操作を追加し、及び/又はここで説明される1つ又は複数の操作を削除することができる。また、図8に示される後述される操作の順序を限定しない。 The operations of process 230 described below are for illustration purposes only and are not limiting. In some embodiments, process 230 may add one or more operations not described and / or remove one or more operations described herein upon realization. Further, the order of operations described later shown in FIG. 8 is not limited.

810では、自己位置推定と環境マップ作成を同時に行う装置102は初期化ステップを実行することができ、前記初期化ステップでは、初期マップを作成することができる。 In 810, the device 102 that simultaneously estimates the self-position and creates the environment map can execute the initialization step, and in the initialization step, the initial map can be created.

単眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は2つの異なる時点における歪み補正画像(又は広視野フレーム)を取得し、前記2つの異なる時点における歪み補正画像(又は広視野フレーム)の互いにマッチングする特徴点を決定し、前記互いにマッチングする特徴点に基づいて初期マップを作成することができる。 In the case of a monocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map acquires distortion-corrected images (or wide-field frames) at two different time points, and obtains distortion-corrected images (or wide-field frames) at the two different time points. It is possible to determine the feature points that match each other in the field frame) and create an initial map based on the feature points that match each other.

例として、自己位置推定と環境マップ作成を同時に行う装置102は第1時点に対応する歪み補正画像(又は広視野フレーム)と第2時点に対応する歪み補正画像(又は広視野フレーム)を取得し、前記第1時点に対応する歪み補正画像(又は広視野フレーム)と前記第2時点に対応する歪み補正画像(又は広視野フレーム)の互いにマッチングする特徴点を決定し、前記互いにマッチングする特徴点に基づいて初期マップを作成することができる。 As an example, the device 102 that simultaneously estimates the self-position and creates the environment map acquires the distortion correction image (or wide field frame) corresponding to the first time point and the distortion correction image (or wide field frame) corresponding to the second time point. , The distortion-corrected image (or wide-field frame) corresponding to the first time point and the distortion-corrected image (or wide-field frame) corresponding to the second time point are determined to match each other, and the feature points matching each other are determined. You can create an initial map based on.

いくつかの実施例では、第1時点に対応する広視野フレームと第2時点に対応する広視野フレームは現在の広視野フレームと基準広視野フレームであってもよい。前記現在の広視野フレームと基準広視野フレームは連続フレームであってもよく、それらの間に1つ又は複数の間隔フレームがあってもよい。初期化をスムーズに行うことを確保するように、現在の広視野フレームと基準広視野フレームの間に所定の視差を必要とする。 In some embodiments, the wide-field frame corresponding to the first time point and the wide-field frame corresponding to the second time point may be the current wide-field frame and the reference wide-field frame. The current wide-field frame and the reference wide-field frame may be continuous frames, and there may be one or more spacing frames between them. A predetermined parallax is required between the current wide-field frame and the reference wide-field frame to ensure smooth initialization.

いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102はマルチ仮想ピンホールカメラモデル(例えば、図4に示されるマルチ仮想ピンホールカメラモデル)に基づいて、第1時点に対応する歪み補正画像(又は広視野フレーム)と第2時点に対応する歪み補正画像(又は広視野フレーム)を、それぞれ各仮想ピンホールカメラに対応するサブ視野フレームに分解することができる。それにより各仮想ピンホールカメラに、それに対応する2つのサブ視野フレームを取得し、これら2つのサブ視野フレームはそれぞれ第1時点に対応する歪み補正画像(又は広視野フレーム)及び第2時点に対応する歪み補正画像(又は広視野フレーム)の由来である。これら2つのサブ視野フレームに対してフレーム間マッチングを行うことで、互いにマッチングする特徴点を決定する。 In some embodiments, device 102, which simultaneously estimates self-position and creates an environment map, corresponds to a first time point based on a multi-virtual pinhole camera model (eg, the multi-virtual pinhole camera model shown in FIG. 4). The distortion-corrected image (or wide-field frame) and the distortion-corrected image (or wide-field frame) corresponding to the second time point can be decomposed into sub-field frames corresponding to each virtual pinhole camera. As a result, each virtual pinhole camera acquires two corresponding sub-field frames, and these two sub-field frames correspond to the distortion-corrected image (or wide-field frame) corresponding to the first time point and the second time point, respectively. This is the origin of the distortion-corrected image (or wide-field frame). By performing inter-frame matching for these two sub-field frames, feature points that match each other are determined.

いくつかの実施例では、互いにマッチングする特徴点に基づいて初期マップを作成することは、前記第1時点に対応する歪み補正画像中の特徴点及び前記第1時点における前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、前記第2時点に対応する歪み補正画像中のマッチングする特徴点及び前記第2時点における前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、前記マップ点に基づいて初期マップを作成するステップと、を含む。 In some embodiments, creating an initial map based on feature points that match each other is the feature points in the distortion-corrected image corresponding to the first time point and the camera center of the wide-field camera at the first time point. Based on the step of determining the direction vector corresponding to the first feature point, the matching feature points in the distortion-corrected image corresponding to the second time point, and the camera center of the wide-field camera at the second time point. Then, the step of determining the direction vector corresponding to the second feature point, the direction vector corresponding to the first feature point, and the direction vector corresponding to the second feature point are subjected to triangular survey to correspond to the feature point. It includes a step of determining a map point and a step of creating an initial map based on the map point.

具体的には、自己位置推定と環境マップ作成を同時に行う装置102は基準広視野フレームF1を該マルチ仮想ピンホールカメラモデルに基づいて、それぞれ各仮想ピンホールカメラに対応するサブ視野フレームF11、F12、F13、F14及びF15に分解し、現在の広視野フレームF2も該マルチ仮想ピンホールカメラモデルに基づいて、それぞれ各仮想ピンホールカメラに対応するサブ視野フレームF21、F22、F23、F24及びF25に分解する。ここで、サブ視野フレームF11及びF21は前向きの仮想ピンホールカメラに対応し、サブ視野フレームF12及びF22は上向きの仮想ピンホールカメラに対応し、サブ視野フレームF13及びF23は下向きの仮想ピンホールカメラに対応し、サブ視野フレームF14及びF24は左向きの仮想ピンホールカメラに対応し、サブ視野フレームF15及びF25は右向きの仮想ピンホールカメラに対応する。サブ視野フレームF11及びF21、F12及びF22、F13及びF23、F14及びF24、並びにF15及びF25に対してフレーム間マッチングを行うことで、現在の広視野フレームと基準広視野フレームの互いにマッチングする特徴点を決定する。[ここで、サブ視野フレームのマッチングは2つの視野フレームの互いにマッチングする特徴点を決定し、さらに方向ベクトルに基づいて三角測量を行うことで新たなマップ点を作成する。このような説明は正確であるか?]
以下、サブ視野フレームF11及びF21を例にフレーム間マッチングを説明する。
Specifically, the device 102 that simultaneously estimates the self-position and creates the environment map uses the reference wide-field frame F1 as the sub-field frames F11 and F12 corresponding to each virtual pinhole camera based on the multi-virtual pinhole camera model, respectively. , F13, F14 and F15, and the current wide-field frame F2 is also divided into sub-field frames F21, F22, F23, F24 and F25 corresponding to each virtual pinhole camera based on the multi-virtual pinhole camera model. Disassemble. Here, the sub-field frames F11 and F21 correspond to forward-facing virtual pinhole cameras, the sub-field frames F12 and F22 correspond to upward virtual pinhole cameras, and the sub-field frames F13 and F23 correspond to downward virtual pinhole cameras. The sub-field frames F14 and F24 correspond to the left-facing virtual pinhole camera, and the sub-field frames F15 and F25 correspond to the right-facing virtual pinhole camera. Features that match the current wide-field frame and the reference wide-field frame with each other by performing frame-to-frame matching for the sub-field frames F11 and F21, F12 and F22, F13 and F23, F14 and F24, and F15 and F25. To determine. [Here, in the matching of the sub-field frames, the feature points that match each other of the two field frames are determined, and a new map point is created by performing triangulation based on the direction vector. Is such an explanation accurate? ]
Hereinafter, inter-frame matching will be described using the sub-field frames F11 and F21 as examples.

まず、サブ視野フレームF11及びF21の特徴点をマッチングし、マッチングする特徴点ペアの数が初期化閾値以上であるか否かを検出し、初期化閾値未満であると、初期化が失敗する。マッチングする特徴点ペアの数が初期化閾値を超える場合、例えば、ランダムサンプルコンセンサスアルゴリズム(Random Sample Consensus、RANSACと略称する)を用いて、マッチングする特徴点ペアの方向ベクトルに基づいて、2つのフレーム間のエッセンシャル(Essential)行列を計算する。初期化閾値は初期マップを作成することに必要な最小限の特徴点ペアの数を示し、直接デフォルト値、例えば100を使用してもよく、ユーザーによって予め設定されてもよい。 First, the feature points of the sub-field frames F11 and F21 are matched, it is detected whether or not the number of matching feature point pairs is equal to or greater than the initialization threshold value, and if it is less than the initialization threshold value, initialization fails. When the number of matching feature point pairs exceeds the initialization threshold, for example, using a random sample consensus algorithm (abbreviated as Random Sample Consensus, RANSAC), two frames based on the direction vector of the matching feature point pairs. Compute the Essential matrix between them. The initialization threshold indicates the minimum number of feature point pairs required to create the initial map, and the default value, for example 100, may be used directly or may be preset by the user.

次に、エッセンシャル行列を分解して現在の広視野フレームと基準広視野フレームとの相対位置姿勢を取得し、前記相対位置姿勢は位置姿勢行列で示され得る。現在の広視野フレームと基準広視野フレームとの相対位置姿勢に基づいて、マッチングする特徴点ペアに三角測量を行い、該特徴点ペアに対応するマップ点の三次元座標、すなわちマップ点の位置を取得する。 Next, the essential matrix is decomposed to obtain the relative position and orientation of the current wide-field frame and the reference wide-field frame, and the relative position and orientation can be indicated by the position-orientation matrix. Based on the relative position and orientation of the current wide-field frame and the reference wide-field frame, triangulation is performed on the matching feature point pair, and the three-dimensional coordinates of the map point corresponding to the feature point pair, that is, the position of the map point is determined. get.

図9に示すように、O1点はサブ視野フレームF11に対応する仮想ピンホールカメラのカメラ中心、O2点はサブ視野フレームF12に対応する仮想ピンホールカメラのカメラ中心、p1とp2はマッチングする特徴点である。ベクトルO1p1の方向とベクトルO2p2の方向によって、マップ点の三次元座標、すなわちP点の位置を決定できる。SLAMでは、ノイズの影響によって、ベクトルO1p1とベクトルO2p2が交差しない可能性があり、この場合、例えば、最小二乗法で誤差を最小にするP点の座標を求める。O1とO2の間の距離は三角測量の誤差に大きな影響を与える。距離が小さすぎ、つまり、カメラのシフトが小さすぎる場合、P点で観測される角度誤差は大きな深度誤差につながる。一方、距離が大きすぎる場合、シーンの重畳部分が大幅に減少し、特徴マッチングが困難になる。従って、現在の広視野フレームと基準広視野フレームの間に所定の視差を必要とする。選択された2つの広視野フレームがこの要件を満たさないと、初期化が失敗し、これら2つの広視野フレームを破棄し、再初期化を行う。 As shown in FIG. 9, the O1 point is the camera center of the virtual pinhole camera corresponding to the sub-field frame F11, the O2 point is the camera center of the virtual pinhole camera corresponding to the sub-field frame F12, and p1 and p2 are matching features. It is a point. The three-dimensional coordinates of the map point, that is, the position of the P point can be determined by the direction of the vector O1p1 and the direction of the vector O2p2. In SLAM, the vector O1p1 and the vector O2p2 may not intersect due to the influence of noise. In this case, for example, the coordinates of the point P that minimizes the error are obtained by the least squares method. The distance between O1 and O2 has a great influence on the error of triangulation. If the distance is too small, that is, the camera shift is too small, the angular error observed at point P leads to a large depth error. On the other hand, if the distance is too large, the overlapping portion of the scene is greatly reduced, and feature matching becomes difficult. Therefore, a predetermined parallax is required between the current wide-field frame and the reference wide-field frame. If the two selected wide-field frames do not meet this requirement, the initialization will fail, the two wide-field frames will be discarded, and reinitialization will be performed.

最後に、上記三角測量に基づいてマップ点の三次元座標を取得し初期マップ点を作成する。該三次元座標をマップ点の座標とし、該三次元座標に対応する特徴点の記述子をマップ点の記述子とする。 Finally, the three-dimensional coordinates of the map points are acquired based on the above triangulation to create the initial map points. The three-dimensional coordinates are used as the coordinates of the map points, and the descriptors of the feature points corresponding to the three-dimensional coordinates are used as the descriptors of the map points.

双眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は上記単眼広視野カメラの初期化ステップを実行してもよく、同一時点における左歪み補正画像と右歪み補正画像の互いにマッチングする特徴点に基づいて初期マップを作成してもよい。 In the case of a binocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates the environment map may execute the initialization step of the monocular wide-field camera, and the left distortion correction image and the right distortion correction image at the same time point may be mutually executed. An initial map may be created based on matching feature points.

例として、自己位置推定と環境マップ作成を同時に行う装置102は左歪み補正画像と右歪み補正画像の互いにマッチングする特徴点を決定し、前記互いにマッチングする特徴点に基づいて初期マップを作成することができる。 As an example, the device 102 that simultaneously estimates the self-position and creates the environment map determines the feature points that match the left distortion correction image and the right distortion correction image, and creates an initial map based on the feature points that match each other. Can be done.

いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102は、右歪み補正画像における左歪み補正画像中の特徴点に対応する極線を決定し、次に、前記極線上で前記左歪み補正画像中の特徴点にマッチングする特徴点を検索することができる。前記極線は多線分折れ線である。 In some embodiments, the device 102, which simultaneously estimates the self-position and creates the environment map, determines a pole line corresponding to a feature point in the left distortion corrected image in the right distortion corrected image, and then on the pole line. It is possible to search for feature points that match the feature points in the left distortion corrected image. The polar line is a multi-line segment polygonal line.

図10に示すように、本発明のいくつかの実施例による双眼広視野カメラの極線検索の模式図である。左歪み補正画像1010に極線1001を有し、右歪み補正画像1020に極線1002を有する。左歪み補正画像1010の特徴点にマッチングする特徴点は必ず極線1002にある。一方、右歪み補正画像1020の特徴点にマッチングする特徴点は極線1001にある。従って、極線検索によって、左歪み補正画像と右歪み補正画像の互いにマッチングする特徴点を素早くに見つけることができる。
図示するように、極線1001と極線1002は3線分折れ線であり、2本の傾斜した線分及び1本の水平線分を含む。
As shown in FIG. 10, it is a schematic diagram of the polar line search of the binocular wide-field camera according to some examples of the present invention. The left distortion correction image 1010 has a polar wire 1001, and the right distortion correction image 1020 has a polar wire 1002. The feature points that match the feature points of the left distortion correction image 1010 are always on the pole line 1002. On the other hand, the feature point matching the feature point of the right distortion correction image 1020 is on the pole line 1001. Therefore, the polar line search can quickly find feature points that match the left distortion corrected image and the right distortion corrected image.
As shown in the figure, the pole line 1001 and the pole line 1002 are three line segment polygonal lines, and include two inclined line segments and one horizontal line segment.

図示するように、左歪み補正画像1010と右歪み補正画像1020はそれぞれ左魚眼画像と右魚眼画像のすべての画角を保持する。左歪み補正画像1010と右歪み補正画像1020に基づいて自己位置推定と環境マップ作成を同時に行うことによって、元のすべての画角コンテンツを含むマップを作成することができる。 As shown in the figure, the left distortion correction image 1010 and the right distortion correction image 1020 hold all the angles of view of the left fisheye image and the right fisheye image, respectively. By simultaneously estimating the self-position and creating the environment map based on the left distortion correction image 1010 and the right distortion correction image 1020, it is possible to create a map including all the original angle-of-view contents.

いくつかの実施例では、上記した前記互いにマッチングする特徴点に基づいてマップを作成することは、まず、左歪み補正画像中の特徴点及び広視野カメラ101の左眼のカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定し、次に、右歪み補正画像中のマッチングする特徴点及び広視野カメラ101の右眼のカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定し、さらに、前記双眼魚眼カメラの基線に基づいて、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定し、最後に、前記マップ点に基づいてマップを作成するステップを含む。 In some embodiments, creating a map based on the above-mentioned mutually matching feature points is first based on the feature points in the left distortion corrected image and the camera center of the left eye of the wide-field camera 101. The direction vector corresponding to the first feature point is determined, and then the direction vector corresponding to the second feature point is determined based on the matching feature point in the right distortion corrected image and the camera center of the right eye of the wide-field camera 101. Then, based on the baseline of the binocular fish-eye camera, a triangular survey is performed on the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point to correspond to the feature point. A step of determining map points and finally creating a map based on the map points is included.

図11に示すように、本発明のいくつかの実施例による双眼広視野カメラのマップ点作成の模式図である。以下、広視野カメラ101の前方のマップ点を例とする。 As shown in FIG. 11, it is a schematic diagram of map point creation of a binocular wide-field camera according to some examples of the present invention. Hereinafter, a map point in front of the wide-field camera 101 will be taken as an example.

点O1は広視野カメラ101の左眼のカメラ中心であり、左歪み補正画像中の特徴点と点O1を結んで第1特徴点に対応する方向ベクトルを取得する。点O2は広視野カメラ101の右眼のカメラ中心であり、右歪み補正画像中のマッチングする特徴点と点O2を結んで第2特徴点に対応する方向ベクトルを取得する。いくつかの実施例では、第1特徴点に対応する方向ベクトル及び第2特徴点に対応する方向ベクトルは単位化後のベクトルである。 The point O1 is the center of the camera of the left eye of the wide-field camera 101, and connects the feature points in the left distortion corrected image with the point O1 to acquire the direction vector corresponding to the first feature point. The point O2 is the center of the camera of the right eye of the wide-field camera 101, and connects the matching feature points and the points O2 in the right distortion corrected image to acquire the direction vector corresponding to the second feature point. In some embodiments, the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point are the united vectors.

前記第1特徴点に対応する方向ベクトルと前記第2特徴点に対応する方向ベクトルが点Eで交差し、それぞれ線分O1Eと線分O2Eを取得する。点O1と点O2を結んで線分O1O2を取得し、線分O1O2の長さがb(すなわち、広視野カメラ101の基線)である。線分O1O2と線分O1Eと線分O2Eとが三角形を形成する。前記三角形を解いて、線分O1Eの長さをd1、線分O2Eの長さをd2、O1O2と線分O1Eとの夾角をα1、O1O2と線分O2Eとの夾角を と取得しα2、さらに特徴点に対応するマップ点Eの座標を取得する。さらに、広視野カメラ101の現在の位置姿勢に合わせて、マップ点Eを広視野カメラ101の座標系から世界座標系に変換する。次に、世界座標系中の点Eの位置に基づいてマップを作成する。 The direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point intersect at the point E, and the line segment O1E and the line segment O2E are acquired, respectively. The line segment O1O2 is acquired by connecting the point O1 and the point O2, and the length of the line segment O1O2 is b (that is, the baseline of the wide-field camera 101). The line segment O1O2, the line segment O1E, and the line segment O2E form a triangle. By solving the triangle, the length of the line segment O1E is d1, the length of the line segment O2E is d2, the angle between O1O2 and the line segment O1E is α1, the angle between O1O2 and the line segment O2E is α2, and further. Acquire the coordinates of the map point E corresponding to the feature point. Further, the map point E is converted from the coordinate system of the wide field camera 101 to the world coordinate system according to the current position and orientation of the wide field camera 101. Next, a map is created based on the position of point E in the world coordinate system.

具体的には、自己位置推定と環境マップ作成を同時に行う装置102は以下の式に基づいて三角測量を行う。まず正弦・余弦定理に基づいて式(1)、(2)及び(3)を取得する。
Specifically, the device 102 that simultaneously estimates the self-position and creates the environment map performs triangulation based on the following equation. First, equations (1), (2) and (3) are obtained based on the sine / cosine theorem.

いくつかの実施例では、単眼広視野カメラと双眼広視野カメラによって新たに作成されたマップ点に対して、さらに関連付け処理を行う必要がある。1つのマップ点は複数のキー広視野フレームによって観測でき、このマップ点を観測したキー広視野フレームをこのマップ点に関連付けると同時に、このマップ点に関連付けられたキー広視野フレーム上の特徴点、すなわち、このマップ点を取得するように測量に適用できる特徴点を記録する。上記初期化によって取得されたマップ点に対して、初期化によって作成された2つのキー広視野フレームを関連付ける必要があると同時に、該マップ点に関連付けられたこれらの2つのキー広視野フレーム上の特徴点を記録する。
作成された初期マップは、上記2つのキー広視野フレーム及び上記初期マップ点、並びにそれらの関連付け関係の情報を含む。
In some embodiments, the map points newly created by the monocular wide-field camera and the binocular wide-field camera need to be further associated. One map point can be observed by multiple key wide-field frames, and at the same time as associating the key wide-field frame that observed this map point with this map point, the feature points on the key wide-field frame associated with this map point, That is, the feature points that can be applied to the survey are recorded so as to acquire the map points. It is necessary to associate the two key wide-field frames created by the initialization with the map point acquired by the above initialization, and at the same time, on these two key wide-field frames associated with the map point. Record the feature points.
The created initial map includes the above two key wide-field frames, the above initial map points, and information on their association.

いくつかの実施例では、初期化ステップは、マッチングする特徴点ペアの数が初期化閾値を超える場合、上記2つのキー広視野フレームに基づいて、単語の袋(Bag of Word)モデルに基づくベクトルを作成し、前記単語の袋モデルに基づくベクトルをマップデータベースに追加するステップをさらに含む。単語の袋モデルにおいて、各種の画像特徴に基づいてクラスタリングする。例えば、目、鼻、耳、口、各種の特徴のエッジ及び角等は異なる特徴クラスである。10000クラスがあるとすると、各々の広視野フレームに対して、含まれるクラスを分析し、有りは1で示され、無しは0で示される。この場合、この広視野フレームは1つの10000次元のベクトルで表現できる。異なる広視野フレームに対して、それらの単語の袋モデルに基づくベクトルを比較してそれらの類似度を判断できる。前記マップデータベースはキー広視野フレームに基づいて作成された単語の袋モデルに基づくベクトルを格納するために用いられる。 In some embodiments, the initialization step is a vector based on the Bag of Word model, based on the above two key wide-field frames, when the number of matching feature point pairs exceeds the initialization threshold. Further includes the step of creating and adding a vector based on the bag model of the word to the map database. In the word bag model, clustering is performed based on various image features. For example, eyes, nose, ears, mouth, edges and corners of various features are different feature classes. If there are 10000 classes, for each wide field frame, the included classes are analyzed and the presence is indicated by 1 and the absence is indicated by 0. In this case, this wide-field frame can be represented by one 10000-dimensional vector. For different wide-field frames, their similarity can be determined by comparing the vectors based on the bag model of those words. The map database is used to store vectors based on a bag model of words created based on key wide-field frames.

820では、自己位置推定と環境マップ作成を同時に行う装置102はグローバルバンドル最適化ステップを実行することができる。グローバルバンドル最適化は、SLAMによって現在作成されているマップ(以下、現在のマップと略称する)中のすべてのキー広視野フレーム(又はキー双眼画像フレーム)及びすべてのマップ点を最適化する。例えば、ステップ810で作成された初期マップに対してグローバルバンドル最適化を行うことは、上記2つのキー広視野フレーム及びマップ点のみを有するマップに対してグローバルバンドル最適化を行うことである。なお、初期マップを除き、マップ作成中の任意の時点において、該時点における現在のマップに対して該グローバルバンドル最適化を実行してもよい。バンドル最適化は、マップ中のキー広視野フレーム(又はキー双眼画像フレーム)の位置姿勢及びマップ点の位置を微調整し、SLAMによって作成されたマップ中のマップ点のキー広視野フレーム(又はキー双眼画像フレーム)における再投影誤差を最小化し、それにより作成されたマップを最適化することを目的とする。 At 820, the device 102, which simultaneously estimates the self-position and creates the environment map, can perform the global bundle optimization step. Global bundle optimization optimizes all key wide-field frames (or key binocular image frames) and all map points in the map currently being created by SLAM (hereinafter abbreviated as the current map). For example, performing global bundle optimization on the initial map created in step 810 means performing global bundle optimization on a map having only the above two key wide-field frames and map points. In addition, except for the initial map, the global bundle optimization may be executed for the current map at any time during map creation. Bundle optimization fine-tunes the position and orientation of the key wide-field frame (or key binocular image frame) in the map and the position of the map points, and the key wide-field frame (or key) of the map points in the map created by SLAM. The purpose is to minimize the reprojection error in the binocular image frame) and optimize the map created thereby.

単眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102はマップ中のキー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、各マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、各マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び該マップ点に対応する特徴点に基づいて、各マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定し、前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び前記キー広視野フレームに関連付けられたすべてのマップ点の位置を更新する。 In the case of a monocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map projects each map point associated with the key wide-field frame in the map onto the multi-virtual pinhole camera model, and the above-mentioned of each map point. The reprojection points in the multi-virtual pinhole camera model are acquired, and the re-projection error of each map point is calculated based on the re-projection points of each map point in the multi-virtual pinhole camera model and the feature points corresponding to the map points. Determine and determine the reprojection error based on the reprojection error of the map points associated with all the key wide field frames, and based on the reprojection error, the position and orientation of the key wide field frame and the key wide. Update the position of all map points associated with the field frame.

なお、本発明では、フレームの位置姿勢(例えば、キー広視野フレームの位置姿勢)は広視野カメラ101が該フレームを取得する時点における広視野カメラ101の動きの位置姿勢であり、簡潔にするために、フレームの位置姿勢と呼ぶ。 In the present invention, the position / orientation of the frame (for example, the position / orientation of the key wide-field frame) is the position / orientation of the movement of the wide-field camera 101 at the time when the wide-field camera 101 acquires the frame. In addition, it is called the position and orientation of the frame.

図4に示される5つの向きのマルチ仮想ピンホールカメラモデルを例に、該マルチ仮想ピンホールカメラモデルに基づいて、マップ点を対応する仮想ピンホールカメラの座標系に変換し、例えば、該マップ点に対応する仮想ピンホールカメラは前向きの仮想ピンホールカメラであり、さらに該前向きの仮想ピンホールカメラのイメージング平面に投影して該マップ点の再投影点を取得する。ここで使用されるマルチ仮想ピンホールカメラモデルがステップ220で広視野画像歪み補正処理に使用されるマルチ仮想ピンホールカメラモデルと同じであるため、該イメージング平面は前向きの仮想ピンホールカメラに分解される該キー広視野フレームのサブ視野フレームに対応する。該再投影点は、該サブ視野フレームの位置姿勢に基づく該マップ点の観測値として理解され得る。該マップ点に関連付けられた該キー広視野フレーム上の特徴点(すなわち、三角測量によって該マップ点の根拠となる特徴点を取得する)及び該マップ点の再投影点に基づいて該マップ点の再投影誤差を決定する。SLAMによって作成されたマップに誤差がなくて理想的な場合、再投影誤差が0である。しかし、現実条件において測量誤差等の誤差が不可避的に発生するため、再投影誤差を完全に無くすことができず、SLAMは該再投影誤差を最小化することによって、作成されたマップを最適化する。 Taking the multi-virtual pinhole camera model of the five orientations shown in FIG. 4 as an example, based on the multi-virtual pinhole camera model, map points are converted into the coordinate system of the corresponding virtual pinhole camera, for example, the map. The virtual pinhole camera corresponding to the point is a forward-facing virtual pinhole camera, and further projects onto the imaging plane of the forward-facing virtual pinhole camera to acquire a reprojection point of the map point. Since the multi-virtual pinhole camera model used here is the same as the multi-virtual pinhole camera model used for the wide-field image distortion correction process in step 220, the imaging plane is decomposed into forward-facing virtual pinhole cameras. Corresponds to the sub-field frame of the key wide-field frame. The reprojection point can be understood as an observation value of the map point based on the position and orientation of the sub-field frame. A feature point on the key wide-field frame associated with the map point (ie, a triangulation is used to obtain the feature point on which the map point is based) and a reprojection point of the map point of the map point. Determine the reprojection error. Ideally, the map created by SLAM is error-free and the reprojection error is zero. However, since errors such as survey errors inevitably occur under actual conditions, the reprojection error cannot be completely eliminated, and SLAM optimizes the created map by minimizing the reprojection error. To do.

双眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102はマップ中のキー双眼画像フレームに関連付けられた各マップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定する。 In the case of a binocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map projects each map point associated with the key binocular image frame in the map onto the first multi-virtual pinhole camera model, and the map point. The reprojection points in the first multi-virtual pinhole camera model of the above are acquired, and the map is based on the re-projection points of the map points in the first multi-virtual pinhole camera model and the feature points corresponding to the map points. The point reprojection error is determined and the left reprojection error is determined based on the map point reprojection error associated with all said key binocular image frames.

或いは、自己位置推定と環境マップ作成を同時に行う装置102は前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定する。 Alternatively, the device 102 that simultaneously estimates the self-position and creates the environment map projects the map point associated with the key binocular image frame onto the second multi-virtual pinhole camera model, and the second multi-virtual pinhole of the map point. The reprojection point in the camera model is acquired, and the reprojection error of the map point is determined based on the reprojection point of the map point in the second multi-virtual pinhole camera model and the feature point corresponding to the map point. , The right reprojection error is determined based on the reprojection error of the map points associated with all said key binocular image frames.

さらに、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差、右再投影誤差又はそれらの和に基づいて、キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新することができる。具体的には、単眼マップ点の場合、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差又は右再投影誤差に基づいて、キー双眼画像フレームの位置姿勢及び双眼画像フレームに関連付けられたすべてのマップ点の位置を更新し、双眼マップ点の場合、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差と右再投影誤差との和に基づいて、キー双眼画像フレームの位置姿勢及び双眼画像フレームに関連付けられたすべてのマップ点の位置を更新することができる。 Further, the device 102 that simultaneously estimates the self-position and creates the environment map sets the position and orientation of the key binocular image frame and all associated with the key binocular image frame based on the left reprojection error, the right reprojection error, or the sum thereof. You can update the position of the map points in. Specifically, in the case of a monocular map point, the device 102 that simultaneously estimates the self-position and creates the environment map associates the position and orientation of the key binocular image frame with the binocular image frame based on the left reprojection error or the right reprojection error. In the case of binocular map points, the device 102 that updates the positions of all the map points and simultaneously estimates the self-position and creates the environment map is a key binocular image based on the sum of the left reprojection error and the right reprojection error. The position and orientation of the frame and the positions of all map points associated with the binocular image frame can be updated.

いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102は再投影誤差(例えば、左再投影誤差、右再投影誤差、左再投影誤差と右再投影誤差との和)に基づいて、損失関数を決定することができる。損失関数を取得した後、好ましくは、ガウスニュートン法(Gauss−Newton)、レーベンバーグ−マルカート法(Levenberg−Marquardt)等の勾配降下方法によって反復してキー広視野フレーム(又はキー双眼画像フレーム)の位置姿勢及びそれに関連付けられたマップ点の位置のそれぞれに対応する勾配を求め、それぞれに対応する勾配によってキー広視野フレーム(又はキー双眼画像フレーム)の位置姿勢及びそれに関連付けられたマップ点の位置を更新し、最終的に現在のマップを、再投影誤差が最小になる最適状態にする。 In some embodiments, the device 102, which simultaneously estimates the self-position and creates the environment map, has a reprojection error (eg, left reprojection error, right reprojection error, sum of left reprojection error and right reprojection error). Based on this, the loss function can be determined. After obtaining the loss function, preferably, the key wide-field frame (or key binocular image frame) is repeatedly subjected to a gradient descent method such as the Gauss-Newton method (Gauss-Newton) or the Levenberg-Marquardt method (Levenberg-Marquardt). The gradient corresponding to each of the position and orientation and the position of the map point associated with it is obtained, and the position and orientation of the key wide-field frame (or key binocular image frame) and the position of the map point associated with it are determined by the corresponding gradient. Updates and finally puts the current map in an optimal state with minimal reprojection error.

上記バンドル最適化は広視野画像の歪み補正処理と同様なマルチ仮想ピンホールカメラモデルに基づいて、複雑な広視野カメラの投影モデルを複数の仮想ピンホールカメラ投影モデルに変換する。それにより広視野カメラの複雑な投影モデルによる複雑な最適化処理を回避し、それによりシステムの処理性能を向上させる。 The bundle optimization is based on a multi-virtual pinhole camera model similar to the distortion correction processing of a wide-field image, and converts a complex wide-field camera projection model into a plurality of virtual pinhole camera projection models. This avoids the complex optimization process of the complex projection model of the wide field camera, thereby improving the processing performance of the system.

830では、自己位置推定と環境マップ作成を同時に行う装置102は追跡ステップを実行することができる。前記追跡ステップは現在の広視野フレーム(又は現在の双眼画像フレーム)におけるマップ点の再投影誤差を最小化することによって現在の広視野カメラの位置姿勢を最適化する。追跡ステップでは、現在の広視野カメラの位置姿勢のみを最適化し、ほかの時点における広視野カメラの位置姿勢及びマップ点の位置を維持する。ステップ830はマップ作成中の任意の時点において行われてもよく、例えば上記初期化ステップ810で作成された初期マップ又は上記グローバルバンドル最適化ステップ820で最適化されたマップに基づいて、SLAMは新たな広視野フレーム(又は双眼画像フレーム)によって広視野カメラの動きの位置姿勢を連続的に追跡する。 At 830, the device 102, which simultaneously estimates the self-position and creates the environment map, can perform the tracking step. The tracking step optimizes the position and orientation of the current wide-field camera by minimizing the reprojection error of the map points in the current wide-field frame (or current binocular image frame). The tracking step optimizes only the current position and orientation of the wide-field camera and maintains the position and orientation of the wide-field camera and the position of the map points at other times. Step 830 may be performed at any time during map creation, for example, based on the initial map created in initialization step 810 or the map optimized in global bundle optimization step 820, SLAM is new. A wide-field frame (or binocular image frame) continuously tracks the position and orientation of the movement of the wide-field camera.

単眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は現在の広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定し、前記再投影誤差に基づいて、前記現在の広視野フレームの位置姿勢を更新する。 In the case of a monocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map projects each map point associated with the current wide-field frame onto the multi-virtual pinhole camera model, and the multi-virtual of the map point. The reprojection points in the pinhole camera model are acquired, and the reprojection error of the map points is determined based on the reprojection points of the map points in the multi-virtual pinhole camera model and the feature points corresponding to the map points. , The reprojection error is determined based on the reprojection error of the map points associated with all the current wide field frames, and the position and orientation of the current wide field frame is updated based on the reprojection error.

いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102は以下の3つのサブステップを実行することによって追跡ステップを行うことができる。
追跡サブステップ1では、現在の広視野フレームの基準広視野フレームを決定する。
好ましくは、現在の広視野フレームの1つ前の広視野フレームを基準広視野フレームとして決定する。
In some embodiments, the device 102, which simultaneously estimates the self-position and creates the environment map, can perform the tracking step by performing the following three sub-steps.
In tracking substep 1, the reference wide-field frame of the current wide-field frame is determined.
Preferably, the wide-field frame immediately preceding the current wide-field frame is determined as the reference wide-field frame.

好ましくは、ローカルマップ中の、現在の広視野フレームとの共通視野程度が最も高いキー広視野フレームを基準広視野フレームとして選択する。現在のマップ中のキー広視野フレームの数がN(Nは2より大きい整数)未満の場合、ローカルマップは現在のマップ中のすべてのキー広視野フレーム及びすべてのマップ点を含む。Nは直接デフォルト値、例えば10を使用してもよく、ユーザーによって予め設定されてもよい。現在のマップが初期化によって取得されたマップであると、ローカルマップは現在のマップであり、初期の2つのキー広視野フレーム及びそれに関連付けられたマップ点を含む。現在のマップ中のキー広視野フレームの数がN以上の場合、ローカルマップは現在のマップ中の、現在の広視野フレームとの共通視野程度が最も高い少なくともN個のキー広視野フレーム及び前記少なくともN個のキー広視野フレームに関連付けられたマップ点を含む。 Preferably, the key wide-field frame having the highest degree of common field of view with the current wide-field frame in the local map is selected as the reference wide-field frame. If the number of key wide-field frames in the current map is less than N (N is an integer greater than 2), the local map includes all key wide-field frames and all map points in the current map. N may directly use the default value, for example 10, or may be preset by the user. If the current map is a map obtained by initialization, the local map is the current map and contains the initial two key widefield frames and their associated map points. When the number of key wide-field frames in the current map is N or more, the local map has at least N key wide-field frames and at least the above-mentioned at least N key wide-field frames in the current map that have the highest degree of common field of view with the current wide-field frames. Includes map points associated with N-key wide-field frames.

好ましくは、ローカルマップ中の、現在の広視野フレームの1つ前の広視野フレームとの共通視野程度が最も高いキー広視野フレームを基準広視野フレームとして選択する。現在の広視野フレームとその1つ前の広視野フレームとの共通視野程度が一般的に高いため、後者に基づいて現在の広視野フレームの基準広視野フレームを選択できる。作成直後の現在の広視野フレームとの共通視野程度が最も高いキー広視野フレームに比べて、その1つ前の広視野フレームとの共通視野程度が最も高いキー広視野フレームのほうは選択しやすい。それにより、SLAM方法をスムーズに実現することに有利である。 Preferably, the key wide-field frame having the highest degree of common field of view with the wide-field frame immediately preceding the current wide-field frame in the local map is selected as the reference wide-field frame. Since the degree of common field of view between the current wide-field frame and the previous wide-field frame is generally high, the reference wide-field frame of the current wide-field frame can be selected based on the latter. Compared to the key wide-field frame that has the highest degree of common field of view with the current wide-field frame immediately after creation, the key wide-field frame that has the highest degree of common field of view with the previous wide-field frame is easier to select. .. Thereby, it is advantageous to realize the SLAM method smoothly.

好ましくは、グローバルマッチングによって基準広視野フレームを決定する。まず、現在の広視野フレームに基づいて、単語の袋モデルに基づくベクトルを作成する。次に、該単語の袋モデルに基づくベクトルに基づいて、初期化ステップ810で作成されたマップデータベースを照会し、現在の広視野フレームにマッチングするキー広視野フレームを、基準広視野フレームとして取得する。 Preferably, the reference wide-field frame is determined by global matching. First, we create a vector based on the word bag model based on the current wide-field frame. Next, the map database created in the initialization step 810 is queried based on the vector based on the bag model of the word, and the key wide-field frame matching the current wide-field frame is acquired as the reference wide-field frame. ..

一例では、現在の広視野フレームとその1つ前の広視野フレームとをマッチングし、マッチングする特徴点ペアを取得する。マッチングする特徴点ペアの数が追跡閾値より大きい場合、現在の広視野フレームの1つ前の広視野フレームを基準広視野フレームとして決定する。追跡閾値は広視野カメラの位置姿勢追跡に必要な最小限の特徴点ペアの数を示し、直接デフォルト値、例えば20を使用してもよく、ユーザーによって予め設定されてもよい。 In one example, the current wide-field frame and the previous wide-field frame are matched, and a matching feature point pair is acquired. If the number of matching feature point pairs is greater than the tracking threshold, the wide-field frame immediately preceding the current wide-field frame is determined as the reference wide-field frame. The tracking threshold indicates the minimum number of feature point pairs required for positioning and orientation tracking of the wide field camera, and a direct default value, for example 20, may be used or preset by the user.

現在の広視野フレームとその1つ前の広視野フレームとのマッチングする特徴点ペアの数が追跡閾値以下である場合、ローカルマップ中の、現在の広視野フレーム又はその前1つの広視野フレームとの共通視野程度が最も高いキー広視野フレームを選択して、現在の広視野フレームと該キー広視野フレームとをマッチングし、マッチングする特徴点ペアを取得する。マッチングする特徴点ペアの数が追跡閾値より大きい場合、該キー広視野フレームを基準広視野フレームとして決定する。 If the number of matching feature point pairs between the current wide-field frame and the previous wide-field frame is less than or equal to the tracking threshold, then the current wide-field frame or the previous wide-field frame in the local map The key wide-field frame having the highest degree of common field of view is selected, the current wide-field frame is matched with the key wide-field frame, and a matching feature point pair is obtained. If the number of matching feature point pairs is greater than the tracking threshold, the key wide-field frame is determined as the reference wide-field frame.

現在の広視野フレームと該キー広視野フレームとのマッチングする特徴点ペアの数が追跡閾値以下である場合、グローバルマッチングによって基準広視野フレームを決定する。具体的な決定プロセスは上述した通りであり、簡潔にするために、ここでは重複説明を省略する。
それにより、現在の広視野フレームの参照性がより高い基準広視野フレームを取得でき、SLAM追跡がさらに正確になり、マップ作成も効率的になる。
When the number of matching feature point pairs between the current wide-field frame and the key wide-field frame is less than or equal to the tracking threshold, the reference wide-field frame is determined by global matching. The specific decision process is as described above, and for the sake of brevity, duplicate description will be omitted here.
As a result, it is possible to obtain a reference wide-field frame with higher referenceability of the current wide-field frame, SLAM tracking becomes more accurate, and mapping becomes more efficient.

追跡サブステップ2では、現在の広視野フレーム及び上記決定された基準広視野フレームによって、マルチ仮想ピンホールカメラモデルに基づいて現在の広視野フレームの位置姿勢を決定する。一例では、現在の広視野フレームと基準広視野フレームとの相対位置姿勢を決定することで、現在の広視野フレームの位置姿勢を決定する。 In the tracking sub-step 2, the position and orientation of the current wide-field frame is determined based on the multi-virtual pinhole camera model by the current wide-field frame and the above-determined reference wide-field frame. In one example, the position and orientation of the current wide-field frame is determined by determining the relative position and orientation of the current wide-field frame and the reference wide-field frame.

マルチ仮想ピンホールカメラモデルに基づいて、現在の広視野フレームを、それぞれ各仮想ピンホールカメラに対応するサブ視野フレームに分解し、基準広視野フレームにも同様な操作を実行する。それにより、各仮想ピンホールカメラに、それに対応する2つのサブ視野フレームを取得する。それぞれ異なる仮想ピンホールカメラに対応するサブ視野フレームペアのうち、マッチングする特徴点ペアの数が最も多いサブ視野フレームペアを選択する。該サブ視野フレームペア中の2つのサブ視野フレームにフレーム間マッチングを行うことで、それらの相対位置姿勢を取得する。具体的なサブ視野フレームのフレーム間マッチングプロセスは初期化ステップ810におけるフレーム間マッチング処理と同じであるため、簡潔にするために、ここでは重複説明を省略する。 Based on the multi-virtual pinhole camera model, the current wide-field frame is decomposed into sub-field frames corresponding to each virtual pinhole camera, and the same operation is performed for the reference wide-field frame. As a result, each virtual pinhole camera acquires two corresponding sub-field frames. Among the sub-field frame pairs corresponding to different virtual pinhole cameras, the sub-field frame pair having the largest number of matching feature point pairs is selected. By performing inter-frame matching on two sub-field frames in the sub-field frame pair, their relative positions and orientations are acquired. Since the specific inter-frame matching process for sub-field frames is the same as the inter-frame matching process in the initialization step 810, duplicate description will be omitted here for the sake of brevity.

各仮想ピンホールカメラのカメラ中心が広視野カメラのカメラ中心と重なるため、マルチ仮想ピンホールカメラモデル中の各仮想ピンホールカメラと広視野カメラとの間に一定の回転角度が存在する。各仮想ピンホールカメラの回転角度は1つの確定した回転行列に対応する。それにより、広視野フレームの位置姿勢行列は対応する回転行列でサブ視野フレームの位置姿勢行列に変換することができる。一方、サブ視野フレームの位置姿勢行列も対応する回転行列で広視野フレームの位置姿勢行列に変換できる。 Since the camera center of each virtual pinhole camera overlaps with the camera center of the wide-field camera, there is a constant rotation angle between each virtual pinhole camera and the wide-field camera in the multi-virtual pinhole camera model. The rotation angle of each virtual pinhole camera corresponds to one fixed rotation matrix. Thereby, the position / orientation matrix of the wide-field frame can be converted into the position / orientation matrix of the sub-field frame with the corresponding rotation matrix. On the other hand, the position / orientation matrix of the sub-field frame can also be converted into the position / orientation matrix of the wide-field frame by the corresponding rotation matrix.

上記技術案はマルチ仮想ピンホールカメラモデルによって、複雑な広視野カメラ投影モデルに基づく位置姿勢取得を、シンプルな仮想ピンホールカメラ投影モデルに基づく位置姿勢取得に変換することで、広視野SLAMのアルゴリズムを大幅に簡略化し、性能を大幅に向上させる。
追跡サブステップ3では、上記追跡サブステップ2で取得された現在の広視野フレームの位置姿勢を更新する。
The above technical proposal is a wide-field SLAM algorithm by converting position / orientation acquisition based on a complicated wide-field camera projection model into position / orientation acquisition based on a simple virtual pinhole camera projection model using a multi-virtual pinhole camera model. Is greatly simplified and the performance is greatly improved.
In the tracking sub-step 3, the position and orientation of the current wide-field frame acquired in the tracking sub-step 2 are updated.

現在の広視野フレームと基準広視野フレームとのマッチングする特徴点ペアによって、基準広視野フレーム中のマッチングする各特徴点に対して、マルチ仮想ピンホールカメラモデルに基づいて、該特徴点に関連付けられたマップ点を、現在の広視野フレームの、対応する仮想ピンホールカメラの座標系に変換する。次に、該マップ点を該仮想ピンホールカメラのイメージング平面に投影して、該マップ点の現在の広視野フレームにおける再投影点を取得する。 The matching feature point pair of the current wide-field frame and the reference wide-field frame associates each matching feature point in the reference wide-field frame with the feature point based on the multi-virtual pinhole camera model. Converts the map points to the coordinate system of the corresponding virtual pinhole camera in the current wide-field frame. The map point is then projected onto the imaging plane of the virtual pinhole camera to obtain a reprojection point of the map point in the current wide field frame.

一例では、現在の広視野フレームと基準広視野フレームとの間に大きな視差がある。図4に示される5つの向きのマルチ仮想ピンホールカメラモデルに基づいて処理を行う。基準広視野フレーム中の特定のマッチングする特徴点が左向きの仮想ピンホールカメラのイメージング平面上にある。該特徴点に関連付けられたマップ点をマルチ仮想ピンホールカメラモデルに基づいて変換した後、現在の広視野フレームの前向きの仮想ピンホールカメラの座標系に対応付ける。現在の広視野フレームの前向きの仮想ピンホールカメラのイメージング平面上で該マップ点の再投影点を取得する。なお、基準広視野フレームの位置姿勢でマルチ仮想ピンホールカメラモデル中の左向きの仮想ピンホールカメラによって該マップ点を観察でき、現在の広視野フレームの位置姿勢でマルチ仮想ピンホールカメラモデル中の前向きの仮想ピンホールカメラによって該マップ点を観察できる。 In one example, there is a large parallax between the current wide-field frame and the reference wide-field frame. Processing is performed based on the multi-virtual pinhole camera model of the five orientations shown in FIG. Specific matching feature points in the reference wide-field frame are on the imaging plane of the left-pointing virtual pinhole camera. The map points associated with the feature points are transformed based on the multi-virtual pinhole camera model and then associated with the coordinate system of the forward facing virtual pinhole camera of the current wide-field frame. The reprojection point of the map point is acquired on the imaging plane of the forward-looking virtual pinhole camera of the current wide-field frame. The map point can be observed by the left-facing virtual pinhole camera in the multi-virtual pinhole camera model in the position and orientation of the reference wide-field frame, and the forward-facing in the multi-virtual pinhole camera model in the position and orientation of the current wide-field frame. The map point can be observed by the virtual pinhole camera of.

該再投影点と現在の広視野フレーム中のマッチングする特徴点に基づいて、該マップ点の再投影誤差を決定する。基準広視野フレーム中のすべてのマッチングする特徴点に関連付けられたマップ点の再投影誤差に基づいて、現在の広視野フレームの位置姿勢を更新する。本ステップにおける再投影誤差計算及び再投影誤差に基づいて現在の広視野フレームの位置姿勢を更新する処理はステップ820におけるグローバルバンドル最適化の処理方法と同じであるため、簡潔にするために、ここでは重複説明を省略する。 The reprojection error of the map point is determined based on the reprojection point and the matching feature points in the current wide-field frame. Updates the current position and orientation of the wide-field frame based on the reprojection error of the map points associated with all matching feature points in the reference wide-field frame. The process of updating the position and orientation of the current wide-field frame based on the reprojection error calculation and the reprojection error in this step is the same as the process of global bundle optimization in step 820, so for the sake of brevity, here Then, the duplicate explanation is omitted.

現在の広視野フレームの位置姿勢をさらに最適化して更新することで、現在の広視野フレームの位置姿勢の信頼度を向上させ、追跡誤差を減少させる。それによりSLAM追跡がさらに正確になり、マップ作成がさらに効率的になる。 By further optimizing and updating the position and orientation of the current wide-field frame, the reliability of the position and orientation of the current wide-field frame is improved and the tracking error is reduced. This makes SLAM tracking more accurate and mapping more efficient.

双眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は現在の双眼画像フレームに関連付けられた各マップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得でき、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定することができる。 In the case of a binocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map projects each map point associated with the current binocular image frame onto the first multi-virtual pinhole camera model, and the above-mentioned map points. The reprojection points in the first multi-virtual pinhole camera model can be acquired, and the map points of the map points are based on the re-projection points of the map points and the feature points corresponding to the map points. The reprojection error can be determined and the left reprojection error can be determined based on the reprojection error of the map points associated with all said current binocular image frames.

或いは、自己位置推定と環境マップ作成を同時に行う装置102は前記マップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得でき、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定することができる。 Alternatively, the device 102 that simultaneously estimates the self-position and creates the environment map projects the map point onto the second multi-virtual pinhole camera model, and acquires the re-projected point of the map point in the second multi-virtual pinhole camera model. The reprojection error of the map point is determined based on the reprojection point of the map point in the second multi-virtual pinhole camera model and the feature point corresponding to the map point, and all the current binocular images of the current map point. The right reprojection error can be determined based on the reprojection error of the map points associated with the frame.

さらに、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差、右再投影誤差又はそれらの和に基づいて、現在の双眼画像フレームの位置姿勢を更新することができる。例えば、単眼マップ点の場合、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差又は右再投影誤差に基づいて、現在の双眼画像フレームの位置姿勢を更新でき、双眼マップ点の場合、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差と右再投影誤差との和に基づいて、現在の双眼画像フレームの位置姿勢を更新することができる。 Further, the device 102 that simultaneously estimates the self-position and creates the environment map can update the current position and orientation of the binocular image frame based on the left reprojection error, the right reprojection error, or the sum thereof. For example, in the case of a monocular map point, the device 102 that simultaneously estimates the self-position and creates the environment map can update the position and orientation of the current binocular image frame based on the left reprojection error or the right reprojection error, and can update the position and orientation of the binocular map point. In this case, the device 102 that simultaneously estimates the self-position and creates the environment map can update the current position / orientation of the binocular image frame based on the sum of the left reprojection error and the right reprojection error.

具体的には、自己位置推定と環境マップ作成を同時に行う装置102は左再投影誤差、右再投影誤差、又は左再投影誤差と右再投影誤差との和を求めて広視野カメラ101の位置姿勢増分を決定し、次に、事前情報に合わせて、広視野カメラ101の現在の位置姿勢を決定することができる。 Specifically, the device 102 that simultaneously estimates the self-position and creates the environment map obtains the left reprojection error, the right reprojection error, or the sum of the left reprojection error and the right reprojection error, and obtains the position of the wide-field camera 101. The posture increment can be determined, and then the current position and orientation of the wide-field camera 101 can be determined according to prior information.

いくつかの実施例では、上記事前情報は前1つのフレーム広視野カメラ101の位置姿勢、又は1つ前のフレーム広視野カメラ101の位置姿勢と1つ前のフレーム位置姿勢増分との和であってもよい。前記1つ前のフレーム位置姿勢増分は2つ前のフレーム広視野カメラ101の位置姿勢に対する1つ前のフレーム広視野カメラ101の位置姿勢の位置姿勢増分である。 In some embodiments, the prior information is the position / orientation of the previous frame wide-field camera 101, or the sum of the position / orientation of the previous frame wide-field camera 101 and the previous frame position / orientation increment. You may. The previous frame position / orientation increment is a position / orientation increment of the position / orientation of the previous frame wide-field camera 101 with respect to the position / orientation of the two-previous frame wide-field camera 101.

いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102は以下の複数の式によって左投影誤差及び/又は右投影誤差を計算し、位置姿勢増分を求める。式(7)は以下の通りである。
In some embodiments, the apparatus 102, which simultaneously estimates the self-position and creates the environment map, calculates the left projection error and / or the right projection error by the following plurality of equations to obtain the position / orientation increment. Equation (7) is as follows.

式中、P2はマルチ仮想ピンホールカメラモデルの座標系におけるマップ点Pの投影点、P1は前記マルチ仮想ピンホールカメラモデルの1つの面の座標系における点P2の投影点を示す。
従って、チェーンルールによってuからカメラ位置姿勢までのヤコビ行列を導出できる。式(9)に示される。
In the equation, P2 indicates the projection point of the map point P in the coordinate system of the multi-virtual pinhole camera model, and P1 indicates the projection point of the point P2 in the coordinate system of one surface of the multi-virtual pinhole camera model.
Therefore, the Jacobian matrix from u to the camera position and orientation can be derived by the chain rule. It is shown in the formula (9).

広視野カメラ101に対して、自己位置推定と環境マップ作成を同時に行う装置102は式(7)、(8)、(9)及び(10)に基づいて広視野カメラ101の左再投影誤差を決定し、広視野カメラ101の位置姿勢を決定することができる。 For the wide-field camera 101, the device 102 that simultaneously estimates the self-position and creates the environment map determines the left reprojection error of the wide-field camera 101 based on equations (7), (8), (9), and (10). The position and orientation of the wide-field camera 101 can be determined.

なお、同様な原理に基づいて、自己位置推定と環境マップ作成を同時に行う装置102は広視野カメラ101の右再投影誤差を決定し、次に、前記右再投影誤差又は左再投影誤差と右再投影誤差との和に基づいて、広視野カメラ101の位置姿勢を決定することができる。 Based on the same principle, the device 102 that simultaneously estimates the self-position and creates the environment map determines the right reprojection error of the wide-field camera 101, and then the right reprojection error or the left reprojection error and the right. The position and orientation of the wide-field camera 101 can be determined based on the sum of the reprojection error.

840では、自己位置推定と環境マップ作成を同時に行う装置102はマップ作成ステップ(又はマップ更新ステップと呼ばれる)を実行することができる。マップ作成ステップでは、現在のマップをもとに、広視野カメラの動きに伴ってマップを拡張する。換言すれば、マップ作成ステップでは、新たなマップ点を現在のマップに挿入する。好ましくは、マップ作成ステップ840は追跡ステップ830の後に行われ、現在の広視野フレーム(又は現在の双眼画像フレーム)に対して、追跡ステップ830でその位置姿勢を決定し、すなわち、現在の時点における広視野カメラの動きの位置姿勢を決定することができる。 In the 840, the device 102 that simultaneously performs self-position estimation and environment map creation can execute a map creation step (or a map update step). In the map creation step, the map is expanded according to the movement of the wide-field camera based on the current map. In other words, the map creation step inserts a new map point into the current map. Preferably, the mapping step 840 is performed after the tracking step 830 to determine its position or orientation in the tracking step 830 with respect to the current wide field frame (or current binocular image frame), i.e., at the current time point. The position and orientation of the movement of the wide-field camera can be determined.

単眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は現在の広視野フレーム及びその基準フレームの互いにマッチングする特徴点を決定し、前記現在の広視野フレームの特徴点及び現在の前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定でき、前記基準フレームのマッチングする特徴点及び前記基準フレームに対応する前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定し、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定し、前記マップ点に基づいてマップを作成する。
いくつかの実施例では、自己位置推定と環境マップ作成を同時に行う装置102は、3つのサブステップを実行してマップ作成ステップを行うことができる。
マップ作成サブステップ1では、現在の広視野フレームがキー広視野フレームであるか否かを決定する。
In the case of a monocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map determines the feature points of the current wide-field frame and its reference frame that match each other, and the feature points of the current wide-field frame and the present The direction vector corresponding to the first feature point can be determined based on the camera center of the wide-field camera, and based on the matching feature point of the reference frame and the camera center of the wide-field camera corresponding to the reference frame. , The direction vector corresponding to the second feature point is determined, the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point are triangulated, and the map point corresponding to the feature point is obtained. Determine and create a map based on the map points.
In some embodiments, the device 102, which simultaneously estimates the self-position and creates the environment map, can perform the map creation step by performing three substeps.
In the map creation substep 1, it is determined whether or not the current wide-field frame is a key wide-field frame.

広視野カメラが連続的に動いてデータを収集するため、取得された各広視野フレームにマップ更新操作を行うことは膨大な計算量をもたらす。従って、いくつかの重要な広視野フレームをキー広視野フレームとして選択し、さらにキー広視野フレームに基づいてマップ更新操作を行うようにしてもよい。キー広視野フレームの決定は任意の公知技術の又は将来開発される技術を採用できる。例えば、初期キー広視野フレームに基づいて、10個の広視野フレームごとに1個をキー広視野フレームとして選択する。すなわち、11番目、21番目、31番目…をキー広視野フレームとして選択する。また、例えば、1つ前のキー広視野フレームとは適切な視差を有する広視野フレームをキー広視野フレームとして選択する。 Since the wide-field camera moves continuously to collect data, performing a map update operation on each acquired wide-field frame results in a huge amount of calculation. Therefore, some important wide-field frames may be selected as the key wide-field frames, and the map update operation may be performed based on the key wide-field frames. Any known or future developed technology can be used to determine the key wide field frame. For example, based on the initial key wide-field frame, one out of every ten wide-field frames is selected as the key wide-field frame. That is, the 11th, 21st, 31st ... Are selected as the key wide-field frames. Further, for example, a wide-field frame having an appropriate parallax from the previous key wide-field frame is selected as the key wide-field frame.

現在の広視野フレームがキー広視野フレームである場合、マップ更新サブステップ2に進み、現在の広視野フレームに基づいてマップ更新処理を行う。現在の広視野フレームがキー広視野フレームではない場合、マップ更新サブステップ3に進み、現在の広視野フレームにマップ点関連付け処理を行う。
マップ作成サブステップ2では、現在の広視野フレームがキー広視野フレームである場合、現在の広視野フレームに基づいてマップ更新処理を行う。
If the current wide-field frame is a key wide-field frame, the process proceeds to the map update substep 2 and the map update process is performed based on the current wide-field frame. If the current wide-field frame is not the key wide-field frame, the process proceeds to the map update sub-step 3 and the map point association process is performed on the current wide-field frame.
In the map creation sub-step 2, when the current wide-field frame is the key wide-field frame, the map update process is performed based on the current wide-field frame.

ローカルマップ中の各キー広視野フレームに対して、マルチ仮想ピンホールカメラモデルに基づいて、該キー広視野フレームを、それぞれ各仮想ピンホールカメラに対応するサブ視野フレームに分解し、現在の広視野フレームにも同様な操作を実行する。それにより各仮想ピンホールカメラに、それに対応する2つのサブ視野フレームを取得し、該2つのサブ視野フレームにフレーム間マッチングを行うことで新たなマップ点を作成する。 For each key wide-field frame in the local map, based on the multi-virtual pinhole camera model, the key wide-field frame is decomposed into sub-field frames corresponding to each virtual pinhole camera, and the current wide field of view is obtained. Do the same for the frame. As a result, each virtual pinhole camera acquires two corresponding sub-field frames, and the two sub-field frames are matched between frames to create a new map point.

好ましくは、該2つのサブ視野フレームにフレーム間マッチングを行う過程では、単語の袋モデルに基づくベクトルを用いて特徴点間のマッチングを速める。単語の袋モデルによってマッチングする特徴点ペアに対して、さらにエピポーラ拘束を満たすか否かを検出する。エピポーラ拘束を満たす特徴点ペアに対して、該特徴点ペアに基づく三角測量によって新たなマップ点の三次元座標点を取得する。 Preferably, in the process of performing inter-frame matching on the two sub-field frames, matching between feature points is accelerated by using a vector based on the word bag model. It detects whether or not the epipolar constraint is further satisfied for the feature point pair matched by the word bag model. For a feature point pair that satisfies the epipolar constraint, a three-dimensional coordinate point of a new map point is acquired by triangulation based on the feature point pair.

ここで、サブ視野フレームのフレーム間マッチング処理及び特徴点ペアに基づく三角測量によって新たなマップ点の三次元座標点を取得するプロセスは、初期化ステップ810中の対応する処理と同じであるため、簡潔にするために、ここでは重複説明を省略する。 Here, the process of acquiring the three-dimensional coordinate points of the new map points by the inter-frame matching process of the subfield frame and the triangulation based on the feature point pair is the same as the corresponding process in the initialization step 810. For the sake of brevity, duplicate description is omitted here.

新たなマップ点を作成した後、現在の広視野フレームの位置姿勢に基づいて該新たなマップ点を世界座標系中のマップ点に変換して現在のマップに挿入し、現在の広視野フレームを現在のマップに挿入する。一般には、初期化においてマップを作成するための1番目のキー広視野フレームの座標系を世界座標系とする。その後、新たなマップ点に対して、カメラ座標系と世界座標系との変換を行う必要がある。
当業者であれば、現在のマップは新たなマップ点及び新たなキー広視野フレームを絶えず挿入されることで徐々に拡張し完備になることを理解できる。
After creating a new map point, convert the new map point to a map point in the world coordinate system based on the position and orientation of the current wide-field frame and insert it into the current map to create the current wide-field frame. Insert into the current map. In general, the coordinate system of the first key wide-field frame for creating a map in initialization is the world coordinate system. After that, it is necessary to convert the camera coordinate system and the world coordinate system for the new map point.
Those skilled in the art will understand that the current map will gradually expand and complete with the constant insertion of new map points and new key wide-field frames.

好ましくは、現在の広視野フレームに基づいて新たな単語の袋モデルに基づくベクトルを作成し、前記新たな単語の袋モデルに基づくベクトルを上記マップデータベースに追加する。マップデータベースに基づいて、単語の袋モデルに基づくベクトルによって特徴点間のマッチングを速め、それによりSLAM追跡及びマップ作成の効率を向上させる。
マップ作成サブステップ3では、現在の広視野フレームがキー広視野フレームではない場合、現在の広視野フレームにマップ点関連付け処理を行う。
Preferably, a vector based on the new word bag model is created based on the current wide field frame, and the vector based on the new word bag model is added to the map database. Based on the map database, vectors based on the word bag model speed up matching between feature points, thereby improving the efficiency of SLAM tracking and mapping.
In the map creation sub-step 3, if the current wide-field frame is not the key wide-field frame, the map point association process is performed on the current wide-field frame.

ローカルマップ中の各マップ点に対して、現在の広視野フレームの位置姿勢によって、マルチ仮想ピンホールカメラモデルに基づいて、該マップ点を、現在の広視野フレームの、対応する仮想ピンホールカメラの座標系に変換する。さらに該マップ点を該仮想ピンホールカメラのイメージング平面に投影して、該マップ点の現在の広視野フレームにおける再投影点を取得する。投影が失敗する場合、現在の広視野フレームの位置姿勢で該マップ点を観測できない。投影が成功する場合、現在の広視野フレームの位置姿勢で該マップ点を観測でき、該マップ点の再投影点を取得する。現在の広視野フレームのすべての特徴点のうち、該再投影点付近の特徴点から該マップ点と最もマッチングする特徴点を選択して該マップ点に関連付ける。なお、このステップによって、現在の広視野フレームと該現在の広視野フレームの位置姿勢で観測できるマップ点とが関連付けられる。このように、次の広視野フレームの処理時、該現在の広視野フレームは次の広視野フレームの1つ前の広視野フレームとして追跡処理に用いられる。それによりSLAM追跡がさらにスムーズになり、位置推定精度がさらに高くなり、作成されたマップがさらに正確になる。 For each map point in the local map, the position and orientation of the current wide field of view frame, based on the multi-virtual pinhole camera model, the map point of the current wide field of view frame of the corresponding virtual pinhole camera. Convert to a coordinate system. Further, the map point is projected onto the imaging plane of the virtual pinhole camera to obtain a reprojection point of the map point in the current wide-field frame. If the projection fails, the map point cannot be observed in the current position and orientation of the wide-field frame. If the projection is successful, the map point can be observed in the current position and orientation of the wide-field frame, and the reprojection point of the map point is acquired. Of all the feature points in the current wide-field frame, the feature point that best matches the map point is selected from the feature points near the reprojection point and associated with the map point. Note that this step associates the current wide-field frame with map points that can be observed in the position and orientation of the current wide-field frame. As described above, when processing the next wide-field frame, the current wide-field frame is used for the tracking process as the wide-field frame immediately before the next wide-field frame. This makes SLAM tracking smoother, more accurate position estimation, and more accurate maps created.

双眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は上記単眼広視野カメラのマップ作成ステップを実行してもよく、同一時点における左歪み補正画像と右歪み補正画像の互いにマッチングする特徴点に基づいてマップを作成してもよい。 In the case of a binocular wide-field camera, the device 102 that simultaneously estimates the self-position and creates an environment map may execute the map creation step of the monocular wide-field camera, and the left distortion correction image and the right distortion correction image at the same time point may be mutually executed. Maps may be created based on matching feature points.

後者の場合、自己位置推定と環境マップ作成を同時に行う装置102は現在の左歪み補正画像と現在の右歪み補正画像の互いにマッチングする特徴点を決定することができ、前記現在の左歪み補正画像の特徴点及び現在の前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定し、前記現在の右歪み補正画像の特徴点及び現在の前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定し、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定し、前記マップ点に基づいてマップを作成する。 In the latter case, the device 102 that simultaneously estimates the self-position and creates the environment map can determine the feature points that match the current left distortion correction image and the current right distortion correction image, and the current left distortion correction image. The direction vector corresponding to the first feature point is determined based on the feature point of the current right distortion correction image and the camera center of the left camera of the current binocular wide-field camera, and the feature point of the current right distortion correction image and the current binocular wide A direction vector corresponding to the second feature point is determined based on the camera center of the camera on the right side of the field camera, and a triangular survey is performed on the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point. This is performed, the map points corresponding to the feature points are determined, and a map is created based on the map points.

いくつかの実施例では、双眼広視野カメラの場合、自己位置推定と環境マップ作成を同時に行う装置102は初期化ステップ810における関連説明を参照して上記第1特徴点に対応する方向ベクトル及び第2特徴点に対応する方向ベクトルを決定し、三角測量を行うことができる。 In some embodiments, in the case of a binocular wide-field camera, the apparatus 102, which simultaneously estimates the self-position and creates the environment map, refers to the related description in the initialization step 810, and the direction vector corresponding to the first feature point and the first The direction vector corresponding to the two feature points can be determined and triangulation can be performed.

現在の広視野フレーム(又は現在の双眼画像フレーム)がキー広視野フレーム(又はキー双眼画像フレーム)である場合、マップ作成ステップ840はローカルバンドル最適化をさらに含んでもよい。ローカルバンドル最適化は、ローカルマップ中のキー広視野フレーム(又はキー双眼画像フレーム)の位置姿勢及びマップ点の位置を微調整し、ローカルマップ中のマップ点のキー広視野フレーム(又はキー双眼画像フレーム)における再投影誤差を最小化し、それにより作成されたマップを最適化することを目的とする。
単眼広視野カメラの場合、ローカルマップ中の各キー広視野フレームに対するバンドル最適化処理は以下の通りである。
If the current wide-field frame (or current binocular image frame) is a key wide-field frame (or key binocular image frame), mapping step 840 may further include local bundle optimization. Local bundle optimization fine-tunes the position orientation of the key wide-field frame (or key binocular image frame) in the local map and the position of the map points, and the key wide-field frame (or key binocular image) of the map points in the local map. The purpose is to minimize the reprojection error in the frame) and optimize the map created thereby.
In the case of a monocular wide-field camera, the bundle optimization process for each key wide-field frame in the local map is as follows.

該キー広視野フレームに関連付けられた各マップ点に対して、前記マルチ仮想ピンホールカメラモデルに基づいて、該マップ点を対応する仮想ピンホールカメラの座標系に変換し、さらに該仮想ピンホールカメラのイメージング平面に投影して、該マップ点の再投影点を取得する。且つ該マップ点に関連付けられた特徴点及び該マップ点の再投影点に基づいて該マップ点の再投影誤差を決定する。該キー広視野フレームに関連付けられたすべてのマップ点の再投影誤差に基づいて、該キー広視野フレームの位置姿勢及び該キー広視野フレームに関連付けられたすべてのマップ点の位置を更新する。本ステップのバンドル最適化処理プロセスは上記グローバルバンドル最適化ステップ820の処理プロセスと同じであるため、簡潔にするために、ここでは重複説明を省略する。
双眼広視野カメラの場合、ローカルマップ中の各キー双眼画像フレームに対するバンドル最適化処理は以下の通りである。
For each map point associated with the key wide-field frame, the map point is converted into the coordinate system of the corresponding virtual pinhole camera based on the multi-virtual pinhole camera model, and further, the virtual pinhole camera The reprojection point of the map point is acquired by projecting onto the imaging plane of. Moreover, the reprojection error of the map point is determined based on the feature point associated with the map point and the reprojection point of the map point. Based on the reprojection error of all map points associated with the key wide-field frame, the position orientation of the key wide-field frame and the positions of all map points associated with the key wide-field frame are updated. Since the bundle optimization processing process of this step is the same as the processing process of the global bundle optimization step 820, duplicate description is omitted here for the sake of brevity.
In the case of a binocular wide-field camera, the bundle optimization process for each key binocular image frame in the local map is as follows.

前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定する。 The map point associated with the key binocular image frame is projected onto the first multi-virtual pinhole camera model, the re-projected point of the map point in the first multi-virtual pinhole camera model is acquired, and the map point is described. Based on the reprojection points in the first multi-virtual pinhole camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and of the map points associated with all the key binocular image frames. The left reprojection error is determined based on the reprojection error.

或いは、前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定する。 Alternatively, the map point associated with the key binocular image frame is projected onto the second multi-virtual pinhole camera model, the re-projected point of the map point in the second multi-virtual pinhole camera model is acquired, and the map point is obtained. Based on the reprojection points in the second multi-virtual pinhole camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and the map associated with all the key binocular image frames. The right reprojection error is determined based on the point reprojection error.

さらに、前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新する。 Further, it is associated with the position and orientation of the key binocular image frame and the key binocular image frame based on the left reprojection error, the right reprojection error, or the sum of the left reprojection error and the right reprojection error. Update the position of all map points.

850では、自己位置推定と環境マップ作成を同時に行う装置102は閉ループ検出処理ステップを実行することができる。単眼広視野カメラ及び双眼広視野カメラの閉ループ検出処理ステップは同じであってもよく、以下、単眼広視野カメラの閉ループ検出処理を例とする。 At the 850, the device 102 that simultaneously estimates the self-position and creates the environment map can execute the closed loop detection processing step. The closed-loop detection processing steps of the monocular wide-field camera and the binocular wide-field camera may be the same, and the closed-loop detection processing of the monocular wide-field camera will be taken as an example below.

現在の広視野フレームがキー広視野フレームである場合、単語の袋モデルに基づくベクトルによって、現在のマップデータベース中の、現在の広視野フレームと類似する閉ループ広視野フレームを検出する。 If the current wide-field frame is a key wide-field frame, a vector based on the word bag model detects closed-loop wide-field frames in the current map database that are similar to the current wide-field frame.

該閉ループ広視野フレームと現在の広視野フレームのマッチングする特徴点ペアを決定する。好ましくは、単語の袋モデルに基づくベクトルを用いて特徴点間のマッチングを速める。 A matching feature point pair of the closed-loop wide-field frame and the current wide-field frame is determined. Preferably, a vector based on the word bag model is used to speed up matching between feature points.

該閉ループ広視野フレームと現在の広視野フレームのマッチングする特徴点ペアに基づいて、相似変換演算子(Sim3Solver)及びRANSACアルゴリズムによって該閉ループ広視野フレームと現在の広視野フレームの間の相似変換行列を計算する。 Based on the matching feature point pair of the closed-loop wide-field frame and the current wide-field frame, the similarity transformation operator (Sim3 Solver) and the RANSAC algorithm are used to calculate the similarity transformation matrix between the closed-loop wide-field frame and the current wide-field frame. calculate.

現在の広視野フレーム中のマッチングする各特徴点に対して、マルチ仮想ピンホールカメラモデルに基づいて、該特徴点に関連付けられたマップ点を該閉ループ広視野フレームの、対応する仮想ピンホールカメラの座標系に変換する。さらに該マップ点を該仮想ピンホールカメラのイメージング平面に投影して、該マップ点の該閉ループ広視野フレームにおける再投影点を取得する。該再投影点及び該閉ループ広視野フレーム中のマッチングする特徴点に基づいて、第1再投影誤差を決定する。現在の広視野フレーム中のすべてのマッチングする特徴点の第1再投影誤差に基づいて第1累計再投影誤差を決定する。 For each matching feature point in the current wide-field frame, based on the multi-virtual pinhole camera model, the map points associated with the feature point are assigned to the corresponding virtual pinhole camera in the closed-loop wide-field frame. Convert to a coordinate system. Further, the map point is projected onto the imaging plane of the virtual pinhole camera to obtain a reprojection point of the map point in the closed-loop wide-field frame. The first reprojection error is determined based on the reprojection point and the matching feature points in the closed-loop wide-field frame. The first cumulative reprojection error is determined based on the first reprojection error of all matching feature points in the current wide-field frame.

該閉ループ広視野フレーム中のマッチングする各特徴点に対して、マルチ仮想ピンホールカメラモデルに基づいて、該特徴点に関連付けられたマップ点を現在の広視野フレームの、対応する仮想ピンホールカメラの座標系に変換する。さらに該仮想ピンホールカメラのイメージング平面に投影して、該マップ点の現在の広視野フレームにおける再投影点を取得する。該再投影点及び現在の広視野フレーム中のマッチングする特徴点に基づいて第2再投影誤差を決定する。該閉ループ広視野フレーム中のすべてのマッチングする特徴点の第2再投影誤差に基づいて第2累計再投影誤差を決定する。
前記第1累計再投影誤差及び前記第2累計再投影誤差に基づいて損失関数を決定する。損失を最小化することによって上記相似変換行列を最適化する。
For each matching feature point in the closed-loop wide-field frame, the map points associated with the feature point are assigned to the corresponding virtual pinhole camera in the current wide-field frame, based on the multi-virtual pinhole camera model. Convert to a coordinate system. Further, it is projected onto the imaging plane of the virtual pinhole camera to acquire the reprojection point of the map point in the current wide-field frame. The second reprojection error is determined based on the reprojection point and the matching feature points in the current wide-field frame. The second cumulative reprojection error is determined based on the second reprojection error of all matching feature points in the closed-loop wide-field frame.
The loss function is determined based on the first cumulative reprojection error and the second cumulative reprojection error. The similarity transformation matrix is optimized by minimizing the loss.

閉ループプロセスで累計された誤差をなくすために、現在のマップ中の、現在の広視野フレームとは共通視野関係を有するキー広視野フレーム及びそれに関連付けられたマップ点を補正する必要がある。まず、現在の広視野フレームとは共通視野関係を有するキー広視野フレームを取得する。2つの広視野フレームで観察される共通マップ点の数が共通視野関係閾値より大きいと、これら2つの広視野フレームは共通視野関係を有する。共通視野関係閾値は、2つのキー広視野フレームが共通視野関係を有することを判断することに必要な最小限の共通マップ点の数を示し、直接デフォルト値、例えば20を使用してもよく、ユーザーによって予め設定されてもよい。次に、上記相似変換行列によってこれらのキー広視野フレームの位置姿勢及びこれらのキー広視野フレームに関連付けられたマップ点の位置を補正する。ここまで、閉ループ検出処理が完了する。 In order to eliminate the error accumulated in the closed-loop process, it is necessary to correct the key wide-field frame and its associated map points in the current map that have a common field-of-view relationship with the current wide-field frame. First, a key wide-field frame having a common field-of-view relationship with the current wide-field frame is acquired. If the number of common map points observed in the two wide-field frames is greater than the common-field relationship threshold, these two wide-field frames have a common-field relationship. The common field relationship threshold indicates the minimum number of common map points required to determine that two key wide field frames have a common field relationship, and a direct default value, such as 20, may be used. It may be preset by the user. Next, the position orientation of these key wide-field frames and the positions of the map points associated with these key wide-field frames are corrected by the similarity transformation matrix. Up to this point, the closed loop detection process is completed.

広視野カメラの動きに伴って、追跡によって計算される広視野カメラの位置姿勢及び三角測量によって取得されるマップ点の位置はともに誤差が生じる。ローカルバンドル最適化又はグローバルバンドル最適化によって最適化を行うとしても、累積誤差が生じる。上記閉ループ検出処理によって、累計誤差を効果的になくし、それによりSLAMで作成されたマップがさらに正確になる。 With the movement of the wide-field camera, an error occurs in both the position and orientation of the wide-field camera calculated by tracking and the position of the map point acquired by triangulation. Even if the optimization is performed by local bundle optimization or global bundle optimization, cumulative error occurs. The closed-loop detection process effectively eliminates cumulative error, which makes the SLAM-created map more accurate.

好ましくは、閉ループ検出処理はポーズグラフ最適化(pose−graph optimization)によって現在のマップ中のすべてのキー広視野フレームの位置姿勢及びすべてのマップ点の位置をさらに最適化するステップをさらに含む。好ましくは、閉ループ検出処理は冗長なキーフレーム及びマップ点を検索して削除するステップをさらに含み、それによりシステムの保存領域を節約するとともに、冗長な計算操作を回避する。 Preferably, the closed-loop detection process further comprises the step of further optimizing the position orientation of all key widefield frames and the positions of all map points in the current map by pose-graph optimization. Preferably, the closed-loop detection process further includes finding and deleting redundant keyframes and map points, thereby saving system storage space and avoiding redundant computational operations.

上記実施例のステップ810〜850はマルチ仮想ピンホールカメラモデルに基づく広視野SLAMのステップ230の実施形態を提供した。なお、ステップ220で取得された歪み補正画像に基づいて、任意の公知の又は将来開発される広視野SLAM方法を採用できる。例えば、上記マルチ仮想ピンホールカメラモデルに基づいて再投影誤差計算を行う最適化更新処理のかわりに、単位方向ベクトル誤差計算に基づいて最適化更新処理を行うようにしてもよい。前記単位方向ベクトルに基づく誤差計算は、マップ点に対応する単位方向ベクトルと該マップ点に関連付けられた特徴点に対応する単位方向ベクトルとの差を最小化することで、最終的な最適化目標を達成する。前記最適化される目標損失は単位方向ベクトル間の距離、又は単位ベクトル間の夾角、又はベクトル誤差を記述するほかの指標であってもよい。 Steps 81 to 850 of the above embodiment provided an embodiment of step 230 of a wide field SLAM based on a multi-virtual pinhole camera model. Any known or future wide-field SLAM method can be adopted based on the distortion-corrected image acquired in step 220. For example, instead of the optimization update process for calculating the reprojection error based on the multi-virtual pinhole camera model, the optimization update process may be performed based on the unit direction vector error calculation. The error calculation based on the unit direction vector is a final optimization goal by minimizing the difference between the unit direction vector corresponding to the map point and the unit direction vector corresponding to the feature point associated with the map point. To achieve. The optimized target loss may be a distance between unit direction vectors, or an angle between unit vectors, or another index that describes a vector error.

最後に、このアプリケーションで言及されている「左」と「右」、たとえば「左目」、「右目」、「左魚眼画像」、「右魚眼画像」、「左歪み補正画像」、「右のゆがんだ画像」、「左の再投影エラー」、「右の再投影エラー」は説明のみを目的としており、このアプリケーションの保護範囲を制限するものではありません。 Finally, the "left" and "right" mentioned in this application, such as "left eye", "right eye", "left fisheye image", "right fisheye image", "left distortion corrected image", "right" "Distorted Image", "Left Reprojection Error", and "Right Reprojection Error" are for illustration purposes only and do not limit the scope of protection for this application.

要約すると、この詳細な開示を読んだ後、当業者は、前述の詳細な開示が例としてのみ提示されてもよく、限定的ではないことを理解することができる。ここでは明示的に述べていないが、当業者は、本発明が実施形態に対する様々な合理的な変更、改善、および修正を網羅することを意図していることを理解することができる。これらの変更、改善、および修正は、本開示によって示唆されることを意図しており、本開示の例示的な実施形態の精神および範囲内にある。 In summary, after reading this detailed disclosure, one of ordinary skill in the art can understand that the detailed disclosure described above may be presented as an example only and is not limiting. Although not explicitly stated herein, one of ordinary skill in the art can understand that the present invention is intended to cover various reasonable changes, improvements, and modifications to embodiments. These changes, improvements, and modifications are intended to be implied by this disclosure and are within the spirit and scope of the exemplary embodiments of this disclosure.

さらに、本発明の特定の用語は、本開示の実施形態を説明するために使用されてきた。例えば、「一実施形態」、「実施形態」、および/または「いくつかの実施形態」は、実施形態に関連して説明される特定の特徴、構造、または特性を本開示の少なくとも1つの実施形態に含めることができることを意味する。したがって、本明細書の様々な部分における「実施形態」または「一実施形態」または「代替実施形態」への2つ以上の言及は、必ずしもすべて同じ実施形態を指すとは限らないことを強調および理解できる。さらに、特定の特徴、構造、または特性は、本開示の1つまたは複数の実施形態において適切に組み合わされてもよい。 In addition, certain terms of the invention have been used to describe embodiments of the present disclosure. For example, "one embodiment", "embodiments", and / or "some embodiments" describe at least one embodiment of the present disclosure of a particular feature, structure, or property described in connection with an embodiment. It means that it can be included in the form. Therefore, it is emphasized that two or more references to "embodiments" or "one embodiment" or "alternative embodiments" in various parts of the specification do not necessarily refer to the same embodiment. Understandable. In addition, certain features, structures, or properties may be adequately combined in one or more embodiments of the present disclosure.

本開示の実施形態の前述の説明において、特徴の理解を助けるために、本開示を単純化する目的で、本発明は、単一の実施形態、図面、またはその説明において様々な特徴を時々組み合わせることが理解されるべきである。あるいは、本発明は、本発明の複数の実施形態において様々な特徴を分散させる。しかし、これは、これらの特徴の組み合わせが必要であることを言うものではなく、当業者は、本発明を読むときにこれらの特徴のいくつかを別個の実施形態として抽出する可能性が高い。すなわち、本発明の実施形態は、複数の二次実施形態の統合として理解することもできる。各二次実施形態の内容が、以前に開示された単一の実施形態のすべての特徴よりも少ないことも事実である。 In the above description of embodiments of the present disclosure, the present invention sometimes combines various features in a single embodiment, drawing, or description thereof, for the purpose of simplifying the disclosure to aid in understanding the features. Should be understood. Alternatively, the invention disperses various features in a plurality of embodiments of the invention. However, this does not mean that a combination of these features is required, and one of ordinary skill in the art is likely to extract some of these features as separate embodiments when reading the invention. That is, the embodiment of the present invention can also be understood as the integration of a plurality of secondary embodiments. It is also true that the content of each secondary embodiment is less than all the features of a single previously disclosed embodiment.

いくつかの実施形態では、本発明の特定の実施形態を説明および請求するために使用される量または特性を表す数字は、用語「約」、「およそ」または「実質的に」によって変更される場合がある。たとえば、特に明記しない限り、「約」、「およそ」、または「実質的に」とは、説明する値が±20%変化することを意味する場合があります。したがって、いくつかの実施形態では、記載された説明および添付の特許請求の範囲に記載された数値パラメータは、特定の実施形態によって得られることが求められる所望の特性に応じて変わり得る近似値である。一部の実施形態では、数値パラメータは、報告された有効桁数に基づいて、一般的な丸め手法を適用することにより解釈されるべきである。本発明に記載されているいくつかの実施形態は、広範囲の数値範囲およびパラメータを概算しているが、特定の例は、可能な限り正確な数値を列挙している。 In some embodiments, numbers representing quantities or properties used to describe and claim a particular embodiment of the invention are varied by the terms "about," "approximately," or "substantially." In some cases. For example, unless otherwise stated, "about," "approximately," or "substantially" may mean that the value described changes by ± 20%. Therefore, in some embodiments, the numerical parameters described in the description and the appended claims are approximate values that may vary depending on the desired properties required to be obtained by the particular embodiment. is there. In some embodiments, the numerical parameters should be interpreted by applying common rounding techniques based on the reported number of valid digits. While some embodiments described in the present invention estimate a wide range of numerical ranges and parameters, certain examples list the most accurate numerical values possible.

各特許、特許出願、特許出願の公開、および記事、書籍、説明書、出版物、文書、記事など、本明細書で引用された他の資料は、参照により本明細書に組み込まれ得る。関連する検察文書の履歴、この文書と矛盾または矛盾する可能性のあるもの、またはクレームの最も広い範囲に制限的な影響を与える可能性のある同一の検察文書を除く、すべての目的の内容全体歴史。現在または今後、このドキュメントに関連付けられます。たとえば、このドキュメントに含まれる資料のいずれかに関連する説明、定義、および/または用語の使用に矛盾または矛盾がある場合、用語が優先されます。 Each patent, patent application, publication of a patent application, and other material cited herein, such as articles, books, instructions, publications, documents, articles, etc., may be incorporated herein by reference. The entire content of all purposes except the history of the relevant prosecution document, those that are inconsistent with or may be inconsistent with this document, or the same prosecution document that may have a limiting effect on the widest range of claims. history. Currently or in the future, it will be associated with this document. For example, if there is a conflict or inconsistency in the description, definition, and / or use of a term associated with any of the materials contained in this document, the term will prevail.

最後に、本明細書に開示された本発明の実施形態は、本発明の実施形態の原理の例示であることを理解されたい。他の修正された実施形態も本発明の範囲内である。したがって、本発明で開示される実施形態は単なる例であり、限定するものではない。当業者は、本発明の実施形態に従って本発明で本発明を実施するための代替構成をとることができる。したがって、本発明の実施形態は、どの実施形態が本発明で正確に説明されるかに限定されない。
Finally, it should be understood that the embodiments of the present invention disclosed herein are exemplary of the principles of the embodiments of the present invention. Other modified embodiments are also within the scope of the invention. Therefore, the embodiments disclosed in the present invention are merely examples and are not limited thereto. One of ordinary skill in the art can adopt an alternative configuration for carrying out the present invention in the present invention according to an embodiment of the present invention. Therefore, embodiments of the present invention are not limited to which embodiments are precisely described in the present invention.

Claims (20)

自己位置推定と環境マップ作成を同時に行う方法であって、
広視野カメラによって広視野画像を取得するステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得するステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するステップと、を含み、
前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なることを特徴とする自己位置推定と環境マップ作成を同時に行う方法。
It is a method of performing self-position estimation and environment map creation at the same time.
The steps to acquire a wide-field image with a wide-field camera,
Based on the multi-virtual pinhole camera model, the step of acquiring the distortion-corrected image corresponding to the wide-field image, and
Including a step of determining the position and orientation of the wide-field camera and creating a map based on the distortion-corrected image.
The multi-virtual pinhole camera model includes at least two virtual pinhole cameras in different orientations, and the camera center of the at least two different orientations of the virtual pinhole camera overlaps the camera center of the wide-field camera. How to perform self-position estimation and environment map creation at the same time.
前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、初期化ステップを含み、前記初期化ステップは、
第1時点に対応する歪み補正画像及び第2時点に対応する歪み補正画像を取得するステップと、
前記第1時点に対応する歪み補正画像と前記第2時点に対応する歪み補正画像の互いにマッチングする特徴点を決定するステップと、
前記互いにマッチングする特徴点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。
The wide-field camera is a monocular wide-field camera, and the position and orientation of the wide-field camera are determined based on the distortion-corrected image, and a map is created. The above includes an initialization step, and the initialization step includes an initialization step. ,
The step of acquiring the distortion correction image corresponding to the first time point and the distortion correction image corresponding to the second time point,
A step of determining feature points that match the distortion correction image corresponding to the first time point and the distortion correction image corresponding to the second time point with each other.
The method of simultaneously performing self-position estimation and environment map creation according to claim 1, wherein an initial map is created based on feature points that match each other.
前記互いにマッチングする特徴点に基づいて初期マップを作成する前記ことは、
前記第1時点に対応する歪み補正画像中の特徴点及び前記第1時点における前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記第2時点に対応する歪み補正画像中のマッチングする特徴点及び前記第2時点における前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項2に記載の自己位置推定と環境マップ作成を同時に行う方法。
Creating an initial map based on the feature points that match each other
A step of determining a direction vector corresponding to the first feature point based on the feature points in the distortion-corrected image corresponding to the first time point and the camera center of the wide-field camera at the first time point.
A step of determining a direction vector corresponding to the second feature point based on the matching feature points in the distortion-corrected image corresponding to the second time point and the camera center of the wide-field camera at the second time point.
A step of performing triangulation on the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point to determine a map point corresponding to the feature point.
The method of simultaneously performing self-position estimation and environment map creation according to claim 2, further comprising a step of creating an initial map based on the map points.
前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、グローバルバンドル最適化ステップを含み、前記グローバルバンドル最適化ステップは、
前記マップ中の各キー広視野フレームに対して、
前記キー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、
前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び前記キー広視野フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。
The wide-field camera is a monocular wide-field camera, and the position and orientation of the wide-field camera are determined based on the distortion-corrected image, and a map is created. The above includes a global bundle optimization step, and the global bundle The optimization step is
For each key wide field frame in the map
Each map point associated with the key wide-field frame is projected onto the multi-virtual pinhole camera model, the re-projection point of the map point in the multi-virtual pinhole camera model is acquired, and the multi-virtual pin of the map point is obtained. Based on the reprojection points in the hall camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and based on the reprojection errors of the map points associated with all the key widefield frames. And the steps to determine the reprojection error
The first aspect of the present invention includes a step of updating the position and orientation of the key wide-field frame and the positions of all map points associated with the key wide-field frame based on the reprojection error. How to perform self-position estimation and environment map creation at the same time.
前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、追跡ステップを含み、前記追跡ステップは、
現在の広視野フレームに関連付けられた各マップ点に対して、
前記マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、
前記再投影誤差に基づいて、前記現在の広視野フレームの位置姿勢を更新するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。
The wide-field camera is a monocular wide-field camera, and the position and orientation of the wide-field camera are determined based on the distortion-corrected image, and a map is created. The above includes a tracking step, and the tracking step includes a tracking step.
For each map point associated with the current wide field frame
The map point is projected onto the multi-virtual pinhole camera model, the re-projection point of the map point in the multi-virtual pinhole camera model is acquired, the re-projection point of the map point in the multi-virtual pinhole camera model, and the above. The step of determining the reprojection error of the map point based on the feature points corresponding to the map points and determining the reprojection error based on the reprojection error of the map points associated with all the current widefield frames. When,
The method for simultaneously performing self-position estimation and environment map creation according to claim 1, further comprising a step of updating the position and orientation of the current wide-field frame based on the reprojection error.
前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、マップ作成ステップを含み、前記マップ作成ステップは、
現在の広視野フレーム及びその基準フレームの互いにマッチングする特徴点を決定するステップと、
前記現在の広視野フレームの特徴点及び現在の前記広視野カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記基準フレームのマッチングする特徴点及び前記基準フレームに対応する前記広視野カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいてマップを作成するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。
The wide-field camera is a monocular wide-field camera, and the position and orientation of the wide-field camera are determined based on the distortion-corrected image to create a map. The above includes a map creation step, and the map creation step includes a map creation step. ,
Steps to determine the matching feature points of the current wide-field frame and its reference frame,
A step of determining a direction vector corresponding to the first feature point based on the feature point of the current wide-field frame and the camera center of the current wide-field camera.
A step of determining a direction vector corresponding to the second feature point based on the matching feature points of the reference frame and the camera center of the wide-field camera corresponding to the reference frame.
A step of performing triangulation on the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point to determine a map point corresponding to the feature point.
The method for simultaneously performing self-position estimation and environment map creation according to claim 1, wherein a step of creating a map based on the map points is included.
前記マップ作成ステップはローカルバンドル最適化ステップをさらに含み、前記ローカルバンドル最適化ステップは、
ローカルマップ中の各キー広視野フレームに対して、
前記キー広視野フレームに関連付けられた各マップ点をマルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー広視野フレームに関連付けられたマップ点の再投影誤差に基づいて再投影誤差を決定するステップと、
前記再投影誤差に基づいて、前記キー広視野フレームの位置姿勢及び該キー広視野フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項6に記載の自己位置推定と環境マップ作成を同時に行う方法。
The mapping step further includes a local bundle optimization step, which includes the local bundle optimization step.
For each key wide field frame in the local map
Each map point associated with the key wide-field frame is projected onto the multi-virtual pinhole camera model, the re-projection point of the map point in the multi-virtual pinhole camera model is acquired, and the multi-virtual pin of the map point is obtained. Based on the reprojection points in the hall camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and based on the reprojection errors of the map points associated with all the key widefield frames. And the steps to determine the reprojection error
6. The sixth aspect of claim 6 comprises the step of updating the position and orientation of the key wide-field frame and the positions of all map points associated with the key wide-field frame based on the reprojection error. How to perform self-position estimation and environment map creation at the same time.
前記広視野カメラは双眼広視野カメラであり、
前記双眼広視野カメラによって左視野画像及び右視野画像を取得するステップと、
第1マルチ仮想ピンホールカメラモデルに基づいて、前記左視野画像に対応する左歪み補正画像を取得するステップと、
第2マルチ仮想ピンホールカメラモデルに基づいて、前記右視野画像に対応する右歪み補正画像を取得するステップと、
前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成するステップと、を含み、
前記第1マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記双眼広視野カメラの左側カメラのカメラ中心と重なり、
前記第2マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記双眼広視野カメラの右側カメラのカメラ中心と重なることを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。
The wide-field camera is a binocular wide-field camera.
The step of acquiring the left-field image and the right-field image by the binocular wide-field camera,
A step of acquiring a left distortion correction image corresponding to the left field of view image based on the first multi-virtual pinhole camera model, and
A step of acquiring a right distortion correction image corresponding to the right field of view image based on the second multi-virtual pinhole camera model, and
A step of determining the position and orientation of the binocular wide-field camera and creating a map based on the left distortion correction image and the right distortion correction image is included.
The first multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras is the camera center of the left camera of the binocular wide-field camera. Overlaps with
The second multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras is the camera center of the right camera of the binocular wide-field camera. The method for simultaneously performing self-position estimation and environment map creation according to claim 1, wherein the method overlaps with.
前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、初期化ステップを含み、前記初期化ステップは、
前記左歪み補正画像と前記右歪み補正画像の互いにマッチングする特徴点を決定するステップと、
前記互いにマッチングする特徴点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。
Based on the left distortion correction image and the right distortion correction image, the position and orientation of the binocular wide-field camera is determined and a map is created. The above includes an initialization step, and the initialization step includes an initialization step.
A step of determining feature points that match the left distortion correction image and the right distortion correction image with each other,
The method of simultaneously performing self-position estimation and environment map creation according to claim 8, wherein an initial map is created based on the feature points that match each other.
前記左歪み補正画像と前記右歪み補正画像の互いにマッチングする特徴点を決定する前記ことは、
前記右歪み補正画像における前記左歪み補正画像中の特徴点に対応する極線を決定するステップと、
前記極線上で前記左歪み補正画像中の特徴点にマッチングする特徴点を検索するステップと、を含み、
前記極線は多線分折れ線であることを特徴とする請求項9に記載の自己位置推定と環境マップ作成を同時に行う方法。
Determining the feature points that match the left distortion correction image and the right distortion correction image with each other
A step of determining a pole line corresponding to a feature point in the left distortion correction image in the right distortion correction image, and
A step of searching for a feature point matching the feature point in the left distortion corrected image on the pole line is included.
The method for simultaneously performing self-position estimation and environment map creation according to claim 9, wherein the pole line is a multi-line segment polygonal line.
前記互いにマッチングする特徴点に基づいて初期マップを作成する前記ことは、
前記左歪み補正画像中の特徴点及び前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記右歪み補正画像中のマッチングする特徴点及び前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記双眼広視野カメラの基線に基づいて、前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項9に記載の自己位置推定と環境マップ作成を同時に行う方法。
Creating an initial map based on the feature points that match each other
A step of determining a direction vector corresponding to the first feature point based on the feature points in the left distortion corrected image and the camera center of the left camera of the binocular wide-field camera.
A step of determining a direction vector corresponding to the second feature point based on the matching feature points in the right distortion corrected image and the camera center of the right camera of the binocular wide-field camera.
A step of performing triangulation on a direction vector corresponding to the first feature point and a direction vector corresponding to the second feature point based on the baseline of the binocular wide-field camera to determine a map point corresponding to the feature point. When,
The method of simultaneously performing self-position estimation and environment map creation according to claim 9, further comprising a step of creating an initial map based on the map points.
前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、グローバルバンドル最適化ステップを含み、前記グローバルバンドル最適化ステップは、
前記マップ中の各キー双眼画像フレームに対して、
前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は
前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、
前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。
Based on the left distortion correction image and the right distortion correction image, the position and orientation of the binocular wide-field camera is determined and a map is created. The above includes a global bundle optimization step, and the global bundle optimization step includes a global bundle optimization step. ,
For each key binocular image frame in the map
The map point associated with the key binocular image frame is projected onto the first multi-virtual pinhole camera model, the re-projected point of the map point in the first multi-virtual pinhole camera model is acquired, and the map point is described. Based on the reprojection points in the first multi-virtual pinhole camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and of the map points associated with all the key binocular image frames. The step of determining the left reprojection error based on the reprojection error, or projecting the map point associated with the key binocular image frame onto the second multi-virtual pinhole camera model and the second multi-virtual pin of the map point. The reprojection point in the hall camera model is acquired, and the reprojection error of the map point is determined based on the reprojection point of the map point in the second multi-virtual pinhole camera model and the feature point corresponding to the map point. And the step of determining the right reprojection error based on the reprojection error of the map points associated with all the key binocular image frames.
Based on the left reprojection error, the right reprojection error, or the sum of the left reprojection error and the right reprojection error, the position and orientation of the key binocular image frame and all associated with the key binocular image frame. The method of simultaneously performing self-position estimation and environment map creation according to claim 8, further comprising a step of updating the position of a map point.
前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、追跡ステップを含み、前記追跡ステップは、
現在の双眼画像フレームに関連付けられた各マップ点に対して、
前記マップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は
前記マップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記現在の双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、
前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記現在の双眼画像フレームの位置姿勢を更新するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。
Based on the left distortion correction image and the right distortion correction image, the position and orientation of the binocular wide-field camera is determined and a map is created. The above includes a tracking step, and the tracking step includes a tracking step.
For each map point associated with the current binocular image frame
The map point is projected onto the first multi-virtual pinhole camera model, the re-projected point of the map point in the first multi-virtual pinhole camera model is acquired, and the map point is obtained in the first multi-virtual pinhole camera model. The reprojection error of the map point is determined based on the reprojection point and the feature points corresponding to the map point, and left reprojection based on the reprojection error of the map points associated with all the current binocular image frames. The step of determining the projection error, or the map point is projected onto the second multi-virtual pinhole camera model, the re-projection point of the map point in the second multi-virtual pinhole camera model is acquired, and the map point is described. Based on the reprojection points in the second multi-virtual pinhole camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and the map points associated with all the current binocular image frames. Steps to determine the right reprojection error based on the reprojection error of
It is characterized by including a step of updating the position and orientation of the current binocular image frame based on the left reprojection error, the right reprojection error, or the sum of the left reprojection error and the right reprojection error. The method for simultaneously performing self-position estimation and environment map creation according to claim 8.
前記左歪み補正画像及び前記右歪み補正画像に基づいて、前記双眼広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、マップ作成ステップを含み、前記マップ作成ステップは、
現在の左歪み補正画像と現在の右歪み補正画像の互いにマッチングする特徴点を決定するステップと、
前記現在の左歪み補正画像の特徴点及び現在の前記双眼広視野カメラの左側カメラのカメラ中心に基づいて、第1特徴点に対応する方向ベクトルを決定するステップと、
前記現在の右歪み補正画像の特徴点及び現在の前記双眼広視野カメラの右側カメラのカメラ中心に基づいて、第2特徴点に対応する方向ベクトルを決定するステップと、
前記第1特徴点に対応する方向ベクトル及び前記第2特徴点に対応する方向ベクトルに三角測量を行い、前記特徴点に対応するマップ点を決定するステップと、
前記マップ点に基づいてマップを作成するステップと、を含むことを特徴とする請求項8に記載の自己位置推定と環境マップ作成を同時に行う方法。
The position and orientation of the binocular wide-field camera are determined based on the left distortion correction image and the right distortion correction image, and a map is created. The map creation step includes a map creation step.
Steps to determine feature points that match the current left distortion corrected image and the current right distortion corrected image, and
A step of determining a direction vector corresponding to the first feature point based on the feature point of the current left distortion corrected image and the camera center of the left camera of the current binocular wide-field camera.
A step of determining a direction vector corresponding to the second feature point based on the feature point of the current right distortion corrected image and the camera center of the right camera of the current binocular wide-field camera.
A step of performing triangulation on the direction vector corresponding to the first feature point and the direction vector corresponding to the second feature point to determine a map point corresponding to the feature point.
The method of simultaneously performing self-position estimation and environment map creation according to claim 8, wherein a step of creating a map based on the map points is included.
前記マップ作成ステップはローカルバンドル最適化ステップをさらに含み、前記ローカルバンドル最適化ステップは、
ローカルマップ中の各キー双眼画像フレームに対して、
前記キー双眼画像フレームに関連付けられたマップ点を第1マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第1マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて左再投影誤差を決定するステップ、又は
前記キー双眼画像フレームに関連付けられたマップ点を第2マルチ仮想ピンホールカメラモデルに投影し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点を取得し、前記マップ点の前記第2マルチ仮想ピンホールカメラモデルにおける再投影点及び前記マップ点に対応する特徴点に基づいて、前記マップ点の再投影誤差を決定し、すべての前記キー双眼画像フレームに関連付けられたマップ点の再投影誤差に基づいて右再投影誤差を決定するステップと、
前記左再投影誤差、前記右再投影誤差又は前記左再投影誤差と前記右再投影誤差との和に基づいて、前記キー双眼画像フレームの位置姿勢及び前記キー双眼画像フレームに関連付けられたすべてのマップ点の位置を更新するステップと、を含むことを特徴とする請求項14に記載の自己位置推定と環境マップ作成を同時に行う方法。
The mapping step further includes a local bundle optimization step, which includes the local bundle optimization step.
For each key binocular image frame in the local map
The map point associated with the key binocular image frame is projected onto the first multi-virtual pinhole camera model, the re-projected point of the map point in the first multi-virtual pinhole camera model is acquired, and the map point is described. Based on the reprojection points in the first multi-virtual pinhole camera model and the feature points corresponding to the map points, the reprojection error of the map points is determined and of the map points associated with all the key binocular image frames. The step of determining the left reprojection error based on the reprojection error, or projecting the map point associated with the key binocular image frame onto the second multi-virtual pinhole camera model and the second multi-virtual pin of the map point. The reprojection point in the hall camera model is acquired, and the reprojection error of the map point is determined based on the reprojection point of the map point in the second multi-virtual pinhole camera model and the feature point corresponding to the map point. And the step of determining the right reprojection error based on the reprojection error of the map points associated with all the key binocular image frames.
Based on the left reprojection error, the right reprojection error, or the sum of the left reprojection error and the right reprojection error, the position and orientation of the key binocular image frame and all associated with the key binocular image frame. The method of simultaneously performing self-position estimation and environment map creation according to claim 14, further comprising a step of updating the position of a map point.
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成する前記ことは、閉ループ検出処理ステップを含み、前記閉ループ検出処理ステップは、
現在の広視野フレームがキー広視野フレームである場合、マップデータベース中の前記現在の広視野フレームと類似する閉ループ広視野フレームを決定するステップと、
前記現在の広視野フレームと前記閉ループ広視野フレームとの互いにマッチングする特徴点を決定するステップと、
前記現在の広視野フレーム中のマッチングする各特徴点に対し、該特徴点に関連付けられたマップ点を、前記閉ループ広視野フレームに対応するマルチ仮想ピンホールカメラモデルの座標系に変換し、さらに前記マルチ仮想ピンホールカメラモデルのイメージング平面に投影し、該マップ点の前記閉ループ広視野フレームにおける再投影点を取得し、該再投影点及び前記閉ループ広視野フレーム中のマッチングする特徴点に基づいて第1再投影誤差を決定するステップと、
前記現在の広視野フレーム中のすべてのマッチングする特徴点の第1再投影誤差に基づいて第1累計再投影誤差を決定するステップと、
前記閉ループ広視野フレーム中のマッチングする各特徴点に対して、該特徴点に関連付けられたマップ点を、前記現在の広視野フレームに対応するマルチ仮想ピンホールカメラモデルの座標系に変換し、さらに前記マルチ仮想ピンホールカメラモデルのイメージング平面に投影し、該マップ点の前記現在の広視野フレームにおける再投影点を取得し、該再投影点及び前記現在の広視野フレーム中のマッチングする特徴点に基づいて第2再投影誤差を決定するステップと、
前記閉ループ広視野フレーム中のすべてのマッチングする特徴点の第2再投影誤差に基づいて第2累計再投影誤差を決定するステップと、
前記第1累計再投影誤差及び前記第2累計再投影誤差を利用して、マップ中の前記現在の広視野フレームとは共通視野関係を有するキー広視野フレーム及びそれに関連付けられたマップ点を補正するステップと、を含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。
Based on the distortion-corrected image, the position and orientation of the wide-field camera and the map are created. The above includes a closed-loop detection processing step, and the closed-loop detection processing step includes a closed-loop detection processing step.
If the current wide-field frame is a key wide-field frame, the steps to determine a closed-loop wide-field frame similar to the current wide-field frame in the map database,
A step of determining feature points that match each other between the current wide-field frame and the closed-loop wide-field frame, and
For each matching feature point in the current wide-field frame, the map points associated with the feature point are converted into the coordinate system of the multi-virtual pinhole camera model corresponding to the closed-loop wide-field frame, and further described. Projected onto the imaging plane of the multi-virtual pinhole camera model, the reprojected points of the map points in the closed-loop wide-field frame are acquired, and the reprojected points and the matching feature points in the closed-loop wide-field frame are the first. 1 Steps to determine the reprojection error and
A step of determining the first cumulative reprojection error based on the first reprojection error of all matching feature points in the current wide-field frame.
For each matching feature point in the closed-loop wide-field frame, the map points associated with the feature point are converted to the coordinate system of the multi-virtual pinhole camera model corresponding to the current wide-field frame, and further. Projected onto the imaging plane of the multi-virtual pinhole camera model, the reprojected points of the map points in the current wide-field frame are acquired, and the re-projected points and matching feature points in the current wide-field frame are used. Steps to determine the second reprojection error based on
A step of determining the second cumulative reprojection error based on the second reprojection error of all matching feature points in the closed-loop wide-field frame.
Using the first cumulative reprojection error and the second cumulative reprojection error, the key wide-field frame having a common field-of-view relationship with the current wide-field frame in the map and the map points associated therewith are corrected. The method of simultaneously performing self-position estimation and environment map creation according to claim 1, wherein the step and the step are included.
前記少なくとも2つの異なる向きは、キューブの前向き、上向き、下向き、左向き又は右向きを含むことを特徴とする請求項1に記載の自己位置推定と環境マップ作成を同時に行う方法。 The method of simultaneously performing self-position estimation and environment map creation according to claim 1, wherein the at least two different orientations include forward, upward, downward, left or right orientation of the cube. 自己位置推定と環境マップ作成を同時に行う装置であって、
一組命令を含む少なくとも1つの記憶デバイスと、
前記少なくとも1つの記憶デバイスと通信する少なくとも1つのプロセッサと、を備え、前記一組命令を実行する時、前記少なくとも1つのプロセッサは、前記自己位置推定と環境マップ作成を同時に行う装置に、
広視野カメラによって広視野画像を取得するステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得するステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するステップと、を実行させ、
前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なる自己位置推定と環境マップ作成を同時に行う装置。
It is a device that simultaneously estimates the self-position and creates an environment map.
With at least one storage device containing a set of instructions
A device comprising at least one processor communicating with the at least one storage device and executing the set of instructions, the at least one processor simultaneously performing the self-position estimation and the environment map creation.
The steps to acquire a wide-field image with a wide-field camera,
Based on the multi-virtual pinhole camera model, the step of acquiring the distortion-corrected image corresponding to the wide-field image, and
Based on the distortion-corrected image, the steps of determining the position and orientation of the wide-field camera and creating a map are executed.
The multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras is self-positioning that overlaps the camera center of the wide-field camera. A device that creates an environment map at the same time.
前記広視野カメラは単眼広視野カメラであり、前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するために、前記少なくとも1つのプロセッサはさらに、前記自己位置推定と環境マップ作成を同時に行う装置に初期化ステップを実行させ、前記初期化ステップは、
第1時点に対応する歪み補正画像及び第2時点に対応する歪み補正画像を取得するステップと、
前記第1時点に対応する歪み補正画像と前記第2時点に対応する歪み補正画像の互いにマッチングする特徴点を決定するステップと、
前記互いにマッチングする特徴点に基づいて初期マップを作成するステップと、を含むことを特徴とする請求項18に記載の自己位置推定と環境マップ作成を同時に行う装置。
The wide-field camera is a monocular wide-field camera, and in order to determine the position and orientation of the wide-field camera and create a map based on the distortion-corrected image, the at least one processor further estimates the self-position. And the device that creates the environment map at the same time is made to execute the initialization step, and the initialization step is
The step of acquiring the distortion correction image corresponding to the first time point and the distortion correction image corresponding to the second time point,
A step of determining feature points that match the distortion correction image corresponding to the first time point and the distortion correction image corresponding to the second time point with each other.
The device for simultaneously performing self-position estimation and environment map creation according to claim 18, further comprising a step of creating an initial map based on the feature points matching each other.
コンピュータプログラム製品を含む非一時的なコンピュータ可読媒体であって、前記コンピュータプログラム製品はいくつかの命令を含み、前記命令は、コンピューティング装置に、
広視野カメラによって広視野画像を取得するステップと、
マルチ仮想ピンホールカメラモデルに基づいて、前記広視野画像に対応する歪み補正画像を取得するステップと、
前記歪み補正画像に基づいて、前記広視野カメラの位置姿勢を決定し、マップを作成するステップと、を実行させ、
前記マルチ仮想ピンホールカメラモデルは少なくとも2つの異なる向きの仮想ピンホールカメラを含み、且つ前記少なくとも2つの異なる向きの仮想ピンホールカメラのカメラ中心は前記広視野カメラのカメラ中心と重なる非一時的なコンピュータ可読媒体。
A non-transitory computer-readable medium, including a computer program product, said computer program product containing several instructions, the instructions to a computing device.
The steps to acquire a wide-field image with a wide-field camera,
Based on the multi-virtual pinhole camera model, the step of acquiring the distortion-corrected image corresponding to the wide-field image, and
Based on the distortion-corrected image, the steps of determining the position and orientation of the wide-field camera and creating a map are executed.
The multi-virtual pinhole camera model includes at least two differently oriented virtual pinhole cameras, and the camera center of the at least two differently oriented virtual pinhole cameras is non-temporary overlapping the camera center of the wide-field camera. Computer readable medium.
JP2019572827A 2018-06-07 2018-12-28 Method and device for simultaneous self-position estimation and environment map creation Active JP7096274B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201810578095.3 2018-06-07
CN201810578095.3A CN108776976B (en) 2018-06-07 2018-06-07 Method, system and storage medium for simultaneously positioning and establishing image
CN201811401646.5A CN111210476B (en) 2018-11-22 2018-11-22 Method and device for simultaneously positioning and mapping
CN201811401646.5 2018-11-22
PCT/CN2018/124786 WO2019233090A1 (en) 2018-06-07 2018-12-28 Simultaneous localization and mapping method and apparatus

Publications (2)

Publication Number Publication Date
JP2021505979A true JP2021505979A (en) 2021-02-18
JP7096274B2 JP7096274B2 (en) 2022-07-05

Family

ID=68770787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019572827A Active JP7096274B2 (en) 2018-06-07 2018-12-28 Method and device for simultaneous self-position estimation and environment map creation

Country Status (5)

Country Link
US (1) US11017545B2 (en)
EP (1) EP3806036A4 (en)
JP (1) JP7096274B2 (en)
KR (1) KR102367361B1 (en)
WO (1) WO2019233090A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11417014B2 (en) 2020-02-28 2022-08-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for constructing map

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020287875A1 (en) * 2019-06-07 2021-12-23 Pictometry International Corp. Using spatial filter to reduce bundle adjustment block size
US11595568B2 (en) * 2020-02-18 2023-02-28 Occipital, Inc. System for generating a three-dimensional scene of a physical environment
CN111461998A (en) * 2020-03-11 2020-07-28 中国科学院深圳先进技术研究院 Environment reconstruction method and device
CN112509047A (en) * 2020-12-10 2021-03-16 北京地平线信息技术有限公司 Image-based pose determination method and device, storage medium and electronic equipment
CN113345032B (en) * 2021-07-07 2023-09-15 北京易航远智科技有限公司 Initialization map building method and system based on wide-angle camera large distortion map
CN113465617B (en) * 2021-07-08 2024-03-19 上海汽车集团股份有限公司 Map construction method and device and electronic equipment
CN113506369A (en) * 2021-07-13 2021-10-15 阿波罗智能技术(北京)有限公司 Method, apparatus, electronic device, and medium for generating map
CN113781573B (en) * 2021-07-19 2024-04-23 长春理工大学 Visual odometer method based on binocular refraction and reflection panoramic camera
CN116468786B (en) * 2022-12-16 2023-12-26 中国海洋大学 Semantic SLAM method based on point-line combination and oriented to dynamic environment
CN116009559B (en) * 2023-03-24 2023-06-13 齐鲁工业大学(山东省科学院) Inspection robot and inspection method for inner wall of water conveying pipeline

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209770A (en) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd Device and method for estimation of position of moving body and generation of map, and computer-readable recording medium storing computer program controlling the device
JP2008102620A (en) * 2006-10-17 2008-05-01 Toyota Motor Corp Image processing device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101926563B1 (en) 2012-01-18 2018-12-07 삼성전자주식회사 Method and apparatus for camera tracking
KR101423139B1 (en) * 2012-06-19 2014-07-28 한양대학교 산학협력단 Method for localization and mapping using 3D line, and mobile body thereof
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR101592740B1 (en) * 2014-07-24 2016-02-15 현대자동차주식회사 Apparatus and method for correcting image distortion of wide angle camera for vehicle
KR101666959B1 (en) * 2015-03-25 2016-10-18 ㈜베이다스 Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor
CN106846467B (en) 2017-01-23 2020-05-05 阿依瓦(北京)技术有限公司 Entity scene modeling method and system based on optimization of position of each camera
CN107862744B (en) 2017-09-28 2021-05-18 深圳万图科技有限公司 Three-dimensional modeling method for aerial image and related product
CN108776976B (en) * 2018-06-07 2020-11-20 驭势科技(北京)有限公司 Method, system and storage medium for simultaneously positioning and establishing image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209770A (en) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd Device and method for estimation of position of moving body and generation of map, and computer-readable recording medium storing computer program controlling the device
JP2008102620A (en) * 2006-10-17 2008-05-01 Toyota Motor Corp Image processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11417014B2 (en) 2020-02-28 2022-08-16 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for constructing map

Also Published As

Publication number Publication date
JP7096274B2 (en) 2022-07-05
EP3806036A1 (en) 2021-04-14
KR20200014858A (en) 2020-02-11
US11017545B2 (en) 2021-05-25
WO2019233090A1 (en) 2019-12-12
US20210082137A1 (en) 2021-03-18
EP3806036A4 (en) 2022-03-16
KR102367361B1 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
JP7096274B2 (en) Method and device for simultaneous self-position estimation and environment map creation
CN109166149B (en) Positioning and three-dimensional line frame structure reconstruction method and system integrating binocular camera and IMU
CN109727288B (en) System and method for monocular simultaneous localization and mapping
US10989540B2 (en) Binocular vision localization method, device and system
CN108776976B (en) Method, system and storage medium for simultaneously positioning and establishing image
Concha et al. Using superpixels in monocular SLAM
CN111598993B (en) Three-dimensional data reconstruction method and device based on multi-view imaging technology
CN108171791B (en) Dynamic scene real-time three-dimensional reconstruction method and device based on multi-depth camera
US9269194B2 (en) Method and arrangement for 3-dimensional image model adaptation
CN107845134A (en) A kind of three-dimensional rebuilding method of the single body based on color depth camera
CN111127524A (en) Method, system and device for tracking trajectory and reconstructing three-dimensional image
Lourakis et al. Model-based pose estimation for rigid objects
US20170070724A9 (en) Camera pose estimation apparatus and method for augmented reality imaging
CN109472820B (en) Monocular RGB-D camera real-time face reconstruction method and device
EP2751777A1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
CN113298934B (en) Monocular visual image three-dimensional reconstruction method and system based on bidirectional matching
CN109785373B (en) Speckle-based six-degree-of-freedom pose estimation system and method
CN106981078A (en) Sight bearing calibration, device, intelligent meeting terminal and storage medium
CN111798373A (en) Rapid unmanned aerial vehicle image stitching method based on local plane hypothesis and six-degree-of-freedom pose optimization
CN113674400A (en) Spectrum three-dimensional reconstruction method and system based on repositioning technology and storage medium
CN107330930B (en) Three-dimensional image depth information extraction method
WO2022217794A1 (en) Positioning method of mobile robot in dynamic environment
Koppel et al. Image-based rendering and modeling in video-endoscopy
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
CN110009683B (en) Real-time on-plane object detection method based on MaskRCNN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150