KR20220122471A - Method and apparatus for simultaneous localization and mapping (SLAM), computer-readable recording medium - Google Patents

Method and apparatus for simultaneous localization and mapping (SLAM), computer-readable recording medium Download PDF

Info

Publication number
KR20220122471A
KR20220122471A KR1020210169346A KR20210169346A KR20220122471A KR 20220122471 A KR20220122471 A KR 20220122471A KR 1020210169346 A KR1020210169346 A KR 1020210169346A KR 20210169346 A KR20210169346 A KR 20210169346A KR 20220122471 A KR20220122471 A KR 20220122471A
Authority
KR
South Korea
Prior art keywords
image frame
current image
obtaining
frame
constraint
Prior art date
Application number
KR1020210169346A
Other languages
Korean (ko)
Inventor
지후아 리우
창 왕
이홍석
김윤태
시옹펭 펭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/681,179 priority Critical patent/US20220277479A1/en
Publication of KR20220122471A publication Critical patent/KR20220122471A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Abstract

A simultaneous localization and mapping method, apparatus, and a computer readable medium include: obtaining a structure of a current image frame; obtaining structure re-identification constraints based on the structure of the current image frame, and obtaining a SLAM result based on a structure re-identification constraint. By introducing the structure re-identification constraint in a bundle adjustment process for obtaining the SLAM result, error accumulation can be better suppressed, and the accuracy and robustness in obtaining the SLAM result can be improved.

Description

동시적 위치추정 및 지도작성(SLAM) 방법 및 장치와, 컴퓨터 판독 가능 저장 매체 {Method and apparatus for simultaneous localization and mapping (SLAM), computer-readable recording medium}Simultaneous localization and mapping (SLAM) method and apparatus, and computer-readable storage medium

위치추정 기술 분야에 관한 것으로서, 구체적으로는 동시적 위치추정 및 지도작성(SLAM) 방법, 장치 및 컴퓨터 판독 가능 저장 매체에 관한 것이다.FIELD OF THE INVENTION The field of localization technology relates, and more particularly, to a simultaneous localization and mapping (SLAM) method, apparatus, and computer-readable storage medium.

장치 상의 카메라, 관성 측정 장치 등의 센서를 이용할 때, 장치가 위치하는 공간의 3차원 맵을 실시간으로 구성하고 맵에서의 장치의 위치와 포즈를 실시간으로 판단하는 기술을 동시적 위치추정 및 지도작성(Simultaneous Localization And Mapping, SLAM)이라 한다. 카메라와 관성 측정 장치는 라이다(LiDAR, light detection and ranging) 센서에 비하여 그 가격이 비교적 저렴하고, 휴대폰, 증강현실용 안경 및 실내 로봇 등 장치의 표준 구성 요소이며, 다양한 상황에서 사용될 수 있으므로, 모든 기존의 SLAM 기술의 주된 연구 내용은 카메라와 관성 측정 장치를 센서로 사용하여 실시간으로 지도를 작성하고 장치의 포즈를 획득하는 방법에 관한 것이었다. 단안 카메라에 비해, 쌍안 카메라에 의해 작성된 3차원 맵은 실제적이고 물리적 스케일을 가지므로, 실제 응용에 있어서, 장치의 시각 센서는 일반적으로 쌍안 카메라이다.When using sensors such as cameras and inertial measurement devices on the device, simultaneous localization and map creation of a technology that constructs a three-dimensional map of the space where the device is located and determines the location and pose of the device on the map in real time (Simultaneous Localization And Mapping, SLAM). Since cameras and inertial measurement devices are relatively inexpensive compared to LiDAR (light detection and ranging) sensors, they are standard components of devices such as mobile phones, augmented reality glasses, and indoor robots, and can be used in various situations. The main research content of all existing SLAM technologies has been on how to map and acquire poses of devices in real time using cameras and inertial measuring devices as sensors. Compared to a monocular camera, a three-dimensional map created by a binocular camera has a real and physical scale, so in practical applications, the visual sensor of the device is usually a binocular camera.

기존의 시각 기반 SLAM 시스템은 주로 다시점 기하 이론에 근거하여, 이미지의 특징점과 특징선에 대한 추적 매칭을 이용하여 장치의 포즈(여기서, '장치의 포즈'라 함은 장치의 3차원 공간 위치와 방향을 가리킴)와 3차원 환경 정보를 획득한다. 그러나, 기존의 SLAM 시스템은 궤적 드리프트(즉, 오차 누계)를 잘 억제하지 못하여, SLAM 결과 획득에 있어서의 강건성 또한 비교적 부족해지므로, 기존의 SLAM 방법에 대한 개선이 필요하다.The existing vision-based SLAM system is mainly based on multi-view geometry theory, and uses tracking matching for feature points and feature lines of the image to determine the pose of the device (here, the 'pose of the device' refers to the three-dimensional spatial position of the device and the direction) and 3D environment information. However, the existing SLAM system does not suppress the trajectory drift (ie, accumulated error) well, and thus the robustness in obtaining the SLAM result is also relatively insufficient.

동시적 위치추정 및 지도작성 방법 및 장치와, 컴퓨터 판독 가능 저장 매체를 제공하며, 아래에서 설명하는 실시예들로부터 다른 기술적 과제들이 유추될 수 있다.It provides a method and apparatus for simultaneous localization and mapping, and a computer-readable storage medium, and other technical problems can be inferred from the embodiments described below.

일 측면에서, 본 실시예에 의하여 제공되는 동시적 위치추정 및 지도작성(simultaneous localization and mapping, SLAM) 방법은: 현재 이미지 프레임의 구조를 획득하는 단계; 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하는 단계; 및 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계를 포함한다.In one aspect, a simultaneous localization and mapping (SLAM) method provided by this embodiment includes: obtaining a structure of a current image frame; obtaining a structure re-identification constraint based on the structure of the current image frame; and obtaining a SLAM result based on the structure re-identification constraint.

본 실시예에 있어서, 방법은: 현재 이미지 프레임의 점과 선을 획득하는 단계; 현재 이미지 프레임의 점과 선을 재식별하여 점-선 재식별 제약을 획득하는 단계;를 더 포함하며, 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계는 점-선 재식별 제약 및 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계를 포함한다.In this embodiment, the method includes: obtaining points and lines of the current image frame; Re-identifying the points and lines of the current image frame to obtain a point-line re-identification constraint; further comprising, wherein the step of obtaining a SLAM result based on the structure re-identification constraint includes: and obtaining a SLAM result based on the identification constraint.

본 실시예에 있어서, 현재 이미지 프레임 구조를 획득하는 단계는: 현재 이미지 프레임의 선에 기반하여 초기 구조를 획득하는 단계; 현재 이미지 프레임의 선에 기반하여 초기 구조를 최적화하여 구조를 획득하는 단계를 포함한다.In this embodiment, obtaining the current image frame structure includes: obtaining an initial structure based on a line of the current image frame; and optimizing the initial structure based on the lines of the current image frame to obtain the structure.

본 실시예에서, 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하는 단계는: 현재 이미지 프레임과 키 이미지 프레임에 기반하여 글로벌 서브 맵을 획득하는 단계; 글로벌 서브 맵에 기반하여 구조를 재식별하고 구조 재식별 제약을 획득하는 단계를 포함한다.In this embodiment, obtaining the structure re-identification constraint based on the structure of the current image frame includes: obtaining a global sub-map based on the current image frame and the key image frame; and re-identifying the structure based on the global sub-map and obtaining the structure re-identification constraint.

본 실시예에서, 현재 이미지 프레임과 키 이미지 프레임에 기반하여, 이에 대응되는 글로벌 서브 맵을 획득하는 단계는: 현재 이미지 프레임과 키 이미지 프레임 사이의 타임 시퀀스 관계, 및 현재 이미지 프레임과 대응되는 3차원 맵과 키 이미지 프레임과 대응되는 3차원 맵 간의 공간적 관계에 기반하여 전체 서브 맵을 획득하는 단계를 포함한다.In this embodiment, based on the current image frame and the key image frame, obtaining a corresponding global submap includes: a time sequence relationship between the current image frame and the key image frame, and a three-dimensional (3D) corresponding current image frame and obtaining an entire sub-map based on the spatial relationship between the map and the key image frame and the corresponding three-dimensional map.

본 실시예에서, 현재 이미지 프레임과 키 이미지 프레임 간의 타임 시퀀스 관계, 및 현재 이미지 프레임에 대응되는 3차원 맵과 키 이미지 프레임에 대응되는 3차원 맵 간의 공간적 관계에 기반하여 글로벌 서브 맵을 획득하는 단계는: 현재 이미지 프레임과 키 이미지 프레임 간의 타임 시퀀스 관계에 기반하여 현재 이미지 프레임의 기준 키 이미지 프레임을 획득하는 단계; 현재 이미지 프레임과 대응되는 3차원 맵 및 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여, 공간 분포에서 기준 키 이미지 프레임과 중첩 영역을 가지는 키 이미지 프레임을 현재 이미지 프레임의 공간적 공통 뷰 키 이미지 프레임으로 설정하는 단계; 및 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 글로벌 서브 맵을 획득하는 단계를 포함한다.In this embodiment, obtaining a global sub-map based on a time sequence relationship between the current image frame and the key image frame, and a spatial relationship between a three-dimensional map corresponding to the current image frame and a three-dimensional map corresponding to the key image frame is: obtaining a reference key image frame of the current image frame based on a time sequence relationship between the current image frame and the key image frame; Based on the spatial relationship between the current image frame and the corresponding three-dimensional map and the key image frame and the corresponding three-dimensional map, the key image frame having an overlapping area with the reference key image frame in the spatial distribution is the spatial common view key of the current image frame. setting as an image frame; and obtaining a global sub-map based on the key image frame having a spatial common view.

본 실시예에서, 기준 키 이미지 프레임은 키 이미지 프레임 중 현재 이미지 프레임과 타임 시퀀스 상 가장 근접한 키 이미지 프레임이다.In the present embodiment, the reference key image frame is the key image frame closest to the current image frame in time sequence among the key image frames.

본 실시예에서, 글로벌 서브 맵에 기반하여 구조를 재식별하는 단계는: 글로벌 서브 맵에 기반하여 현재 이미지 프레임의 공통적 공간 뷰 키 이미지 프레임을 획득하는 단계; 및 공통적 공간 뷰 키 이미지 프레임의 공통 뷰 상관 구조에 기반하여 구조를 재식별하는 단계를 포함한다.In this embodiment, the step of re-identifying the structure based on the global sub-map includes: obtaining a common spatial view key image frame of the current image frame based on the global sub-map; and re-identifying the structure based on the common view correlation structure of the common spatial view key image frame.

본 실시예에서, 공간적 공통 뷰 키 이미지 프레임의 공간적 공통 뷰 상관 구조에 기반하여 구조를 재식별하는 단계는: 현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조에 기반하여, 구조에 대하여 시간 일관성 테스트를 실시하고; 구조에 대한 시간 일관성 테스트를 통과하면, 현재 이미지 프레임과 대응되는 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조, 및 공간적 공통 뷰를 가지는 키 이미지 프레임과 대응되는 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 공간적 공통 뷰 상관 구조에 기반하여 구조를 매칭하고; 매칭을 구현한 후, 시간적 상관 구조와 이에 대응되는 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 구조에 대한 시간-공간 일관성 테스트를 실시한다.In the present embodiment, the step of re-identifying the structure based on the spatial common view correlation structure of the spatial common view key image frame includes: the temporal structure of the current image frame and the image frame within the corresponding first preset time sequence sliding window. based on the correlation structure, perform a temporal consistency test on the structure; If the temporal consistency test for the structure is passed, the temporal correlation structure of the image frame within the sliding window corresponding to the second preset time sequence corresponding to the current image frame, and the third preset time sequence corresponding to the key image frame having a spatial common view match the structure based on the spatial common view correlation structure of the image frame within the sliding window; After the matching is implemented, a temporal-spatial consistency test is performed on the structure based on the temporal correlation structure and the key image frame having the corresponding spatial common view.

본 실시예에서, 현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조에 기반하여 구조에 대한 시간 일관성 테스트를 실시하는 단계는: 현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조 간의 상대 회전 오차를 획득하는 단계; 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 모든 상대 회전 오차에 기반하여 상기 구조에 대한 시간 일관성 테스트를 수행하는 단계를 포함한다.In the present embodiment, the step of performing a temporal consistency test on the structure based on the structure of the current image frame and the temporal correlation structure of the image frame in the first preset time sequence sliding window corresponding thereto includes: the structure of the current image frame and the obtaining a relative rotation error between temporal correlation structures of image frames within a sliding window corresponding to a first preset time sequence; and performing a temporal consistency test on the structure based on all relative rotation errors corresponding to the first preset time sequence sliding window.

본 실시예에서, 시간적 상관 구조 및 이와 대응되는 공간적 공통 뷰 키 이미지 프레임에 기반하여 시간-공간 일관성 테스트를 실시하는 단계는: 시간적 상관 구조 및 이에 대응되는 공간적 공통 뷰 키 이미지 프레임 간의 상대 회전 드리프트 오차를 획득하는 단계; 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우와 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 상대 회전 드리프트 오차를 획득하는 단계; 및 상기 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우와 상기 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 상대 회전 드리프트 오차에 기반하여, 상기 구조에 대한 시간-공간 일관성 테스트를 실시하는 단계를 포함한다.In the present embodiment, the step of performing the temporal-spatial consistency test based on the temporal correlation structure and the corresponding spatial common view key image frame includes: a relative rotation drift error between the temporal correlation structure and the corresponding spatial common view key image frame. obtaining a; obtaining a relative rotation drift error corresponding to the second preset time sequence sliding window and the third preset time sequence sliding window; and performing a time-spatial consistency test on the structure based on a relative rotation drift error corresponding to the second preset time sequence sliding window and the third preset time sequence sliding window.

본 실시예에서, 현재 이미지 프레임이 키 이미지 프레임이며, 점-선 재식별 제약과 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계는: 점-선 재식별 제약 및 구조 재식별 제약에 기반하여, 글로벌 번들 조정된 SLAM 결과를 획득하는 단계; 현재 이미지 프레임에 대응되는 제4 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 모든 이미지 프레임의 점-선 재식별 제약에 기반하여, 전체 번들 조정된 SLAM 결과에 대해 로컬 번들 조정을 실시하여 SLAM 결과를 획득하는 단계를 포함한다.In this embodiment, the current image frame is a key image frame, and the step of obtaining a SLAM result based on the dot-line re-identification constraint and the structure re-identification constraint is: , obtaining a global bundle adjusted SLAM result; Based on the dot-line re-identification constraint of all image frames in the fourth preset time sequence sliding window corresponding to the current image frame, performing local bundle adjustment on the entire bundle adjusted SLAM result to obtain a SLAM result. include

다른 측면에서, 본 실시예는 현재 이미지 프레임의 구조를 획득하기 위하여 사용되는 구조 획득 모듈; 현재 이미지 프레임의 구조에 근거해 구조 재식별 제약을 획득하기 위하여 사용되는 구조 재식별 제약 획득 모듈; 및 구조 재식별 제약에 기반하여 SLAM 결과를 획득하기 위해 사용되는 SLAM 결과 획득 모듈을 포함하는, 동시적 위치추정 및 지도작성(SLAM) 장치를 제공한다.In another aspect, the present embodiment provides a structure obtaining module used to obtain a structure of a current image frame; a structure re-identification constraint obtaining module used to obtain structure re-identification constraints based on the structure of the current image frame; and a SLAM result acquisition module used to acquire a SLAM result based on the structural re-identification constraint.

또 다른 측면에서, 본 실시예는, 메모리와 프로세서를 포함하며; 메모리 내에는 컴퓨터 프로그램이 저장되고; 프로세서는 컴퓨터 프로그램을 실행하여 제1 측면의 실시예 또는 제1 측면의 임의의 선택 가능한 실시예에서 제공된 방법을 구현하기 위하여 사용되는, 전자 장치를 제공한다.In another aspect, the embodiment includes a memory and a processor; a computer program is stored in the memory; An electronic device is provided, wherein the processor executes a computer program to implement the method provided in the embodiments of the first aspect or any selectable embodiments of the first aspect.

또 다른 측면에서, 본 실시예는 프로세서에 의하여 실행될 때 제1 측면의 실시예 또는 제1 측면의 선택 가능한 일 실시예에서 제공된 방법이 구현되는 컴퓨터 프로그램이 저장된, 컴퓨터 판독 가능 저장 매체를 제공한다.In another aspect, the present embodiment provides a computer-readable storage medium having stored thereon a computer program that, when executed by a processor, implements the method provided in the embodiment of the first aspect or a selectable embodiment of the first aspect.

상기된 바에 따르면, SLAM 결과를 획득하는 번들 조정 과정에 구조 재식별 제약을 도입함으로써, 오차 누계를 보다 잘 제어할 수 있고, SLAM 결과 획득에 있어서의 정확성과 강건성을 향상시킬 수 있다.According to the above, by introducing the structure re-identification constraint in the bundle adjustment process for obtaining the SLAM result, it is possible to better control the accumulated error and improve the accuracy and robustness in obtaining the SLAM result.

도 1은 일 실시예에 의해 제공되는 동시적 위치추정 및 지도작성(simultaneous localization and mapping, SLAM) 시스템의 구조도이다.
도 2는 일 실시예에 의해 제공되는 SLAM 방법의 흐름도이다.
도 3은 일 실시예 중 한 예시에서의 SLAM 방법의 구체적인 흐름도이다.
도 4는 일 실시예 중 한 예시에서의 이미지 평면, 등가 평면 및 맨하탄 월드 사이의 관계도이다.
도 5는 일 실시예 중 한 예시에서 서로 직교하는 세 개의 소실 방향을 fine 추정한 경우의 도면이다.
도 6은 일 실시예 중 한 예시에서 시공간 민감 글로벌 서브 맵의 구조도이다.
도 7은 일 실시예 중 한 예시에서의 맨하탄 프레임의 포즈 가이드 검증 및 매칭에 대한 흐름도이다.
도 8은 일 실시예 중 한 예시에서의 맨하탄 프레임의 시간 일관성 테스트도이다.
도 9는 일 실시예 중 한 예시에서의 맨하탄 프레임의 시간-공간 일관성 테스트도이다.
도 10은 일 실시예 중 한 예시에서의 SLAM 방법을 도시한 도면이다.
도 11은 일 실시예에 의하여 제공되는 SLAM 장치의 구조를 도시한 블록도이다.
도 12는 일 실시예에 의하여 제공되는 전자 장치의 구조도이다.
1 is a structural diagram of a simultaneous localization and mapping (SLAM) system provided by an embodiment.
2 is a flowchart of a SLAM method provided by an embodiment.
3 is a detailed flowchart of a SLAM method in an example of an embodiment.
4 is a diagram of a relationship between an image plane, an equivalence plane, and the Manhattan world in one example of an embodiment.
5 is a diagram illustrating a case in which three vanishing directions orthogonal to each other are finely estimated in an example of one embodiment.
6 is a structural diagram of a spatiotemporal sensitive global sub-map in one example of an embodiment.
7 is a flowchart for pose guide validation and matching of a Manhattan frame in one example of an embodiment.
8 is a temporal consistency test diagram of a Manhattan frame in an example of an embodiment.
9 is a temporal-spatial consistency test diagram of a Manhattan frame in one example of an embodiment.
10 is a diagram illustrating a SLAM method in an example of an embodiment.
11 is a block diagram illustrating a structure of a SLAM device provided according to an embodiment.
12 is a structural diagram of an electronic device provided according to an embodiment.

이하, 본 실시예를 자세히 설명한다. 상기 실시예의 예시는 도면에 도시된 것으로서, 동일하거나 유사한 부호는 일관되게 동일하거나 유사한 부품 또는 동일하거나 유사한 기능을 가지는 부품을 나타낸다. 이하, 도면을 참조하여 설명되는 실시예는 예시적인 것으로서, 본 실시예를 설명하기 위해서만 사용되며, 본 실시예를 제한하는 것으로 해석되어서는 안된다.Hereinafter, this embodiment will be described in detail. Examples of the embodiment are shown in the drawings, wherein the same or similar reference numerals consistently indicate the same or similar parts or parts having the same or similar functions. Hereinafter, the embodiments described with reference to the drawings are exemplary, and are used only to describe the present embodiment, and should not be construed as limiting the present embodiment.

특별히 언급하지 않는 이상, 본문에서 사용된 단수 형식 "1", "하나", "상기" 또는 "당해" 등이 복수 형식을 포함할 수도 있음은 당업자들에게 이해될 것이다. 또한, 본 명세서에서 사용한 단어 "포함하다"는 상기 특징, 정수, 단계, 동작, 부품 및/또는 구성요소의 존재를 나타내나, 하나 또는 다수의 다른 특징, 정수, 단계, 동작, 부품, 구성요소 및/또는 그 조합의 존재나 부가 가능성을 배제하지 않음도 이해되어야 할 것이다. 부품이 다른 부품에 "연결" 또는 "커플링"된다고 할 때, 다른 부품에 직접 연결 또는 커플링될 수도 있지만, 그 사이에 다른 부품이 존재할 수 있음 또한 이해되어야 할 것이다. 그 밖에, 본 명세서에서 사용한 "연결" 또는 "커플링"은 무선 연결 또는 무선 커플링을 포함할 수 있다. 본 명세서에서 사용한 단어 "및/또는"은 하나 또는 다수의 서로 연관을 가지고 나열된 항목 중 전체 또는 어느 하나의 유닛과 전체의 조합을 포함한다.It will be understood by those skilled in the art that the singular forms "1", "an", "the", or "there" used in this text may include the plural forms, unless specifically stated otherwise. Also, as used herein, the word "comprises" refers to the presence of said feature, integer, step, action, part and/or component, but one or more other features, integer, step, action, part, component. It will also be understood that this does not exclude the possibility of the presence or addition of and/or combinations thereof. It should also be understood that when a component is referred to as “connected” or “coupled” to another component, it may be directly connected or coupled to the other component, although other components may exist in between. In addition, "connection" or "coupling" as used herein may include wireless connection or wireless coupling. As used herein, the word “and/or” includes all or any one unit and combination of one or more of the listed items in relation to each other.

본 실시예의 목적, 기술적 해결 방법과 장점이 보다 명확해지도록, 도면을 참조하여 본 실시예의 실시 방식을 보다 자세히 설명한다.An embodiment of the present embodiment will be described in more detail with reference to the drawings so that the purpose, technical solution, and advantage of the present embodiment are more clear.

기존의 SLAM 시스템의 경우, 구체적으로, 시간 순서 상으로 서로 관련된 이미지에서의 주파수의 점과 선 특징은 다시점 기하학 원리에 따라 추적 및 매칭될 수 있으며, 쌍안 이미지의 점과 선 특징은 에피폴라 제약(epipolar constraint)에 따라 매칭될 수 있고, 마지막으로 이러한 매칭은 장치 포즈와 3차원(3D) 맵의 기하학적 제약 관계를 구성할 수 있으며, 스무딩(smoothing) 또는 번들 조정의 방법을 통해 장치의 포즈와 3차원 맵을 구할 수 있다.In the case of the existing SLAM system, specifically, the point and line features of frequencies in the images related to each other in time sequence can be tracked and matched according to the multi-view geometry principle, and the point and line features of the binocular image are epipolar constrained. (epipolar constraint), and finally, this matching can construct the geometric constraint relationship of the device pose and three-dimensional (3D) map, and can be matched with the device pose through the method of smoothing or bundle adjustment. You can get a 3D map.

현재 많이 사용되는 폐쇄 루프 방법은 누적 오차를 감소시킬 수 있지만 회수율이 비교적 낮고 폐쇄 루프가 발견된 경우에만 유효하므로, 궤적 드리프트의 억제를 위해 히스토리 정보를 충분히 이용할 수 없게 된다. 또 다른 측면에서는, 기존의 방법 대다수가 일반적인 상황에 초점이 맞춰진 것으로서, 인공적인 환경과 같은 특수 상황에 초점이 맞춰지는 경우는 비교적 적다. 이러한 환경들은 매우 강한 구조적 규칙을 가지며, 그 중 대다수가 하나의 박스 월드(Manhattan world, 맨하탄 월드) 또는 수평면 상의 다수 개의 박스 월드(Atlanta world, 애틀랜타 월드)로 추상화된다. 맨하탄 월드 환경에서는, 수직 방향의 평면 또는 선이 주도적인 위치를 점유한다. 이러한 특성은 이미 실내 3D 재구성, 상황 이해 및 포즈 추정에 응용되고 있다. 맨하탄 월드 가설과 애틀랜타 월드 가설을 이용하면 시각적 SLAM의 강건성과 정확성을 향상시킬 수 있다.Although the closed-loop method that is currently widely used can reduce the accumulated error, the recovery rate is relatively low and is effective only when a closed-loop is found, so that the historical information cannot be sufficiently used to suppress the trajectory drift. On the other hand, the majority of existing methods focus on general situations, and relatively few focus on special situations such as artificial environments. These environments have very strong structural rules, and many of them are abstracted into one box world (Manhattan world) or multiple box worlds (Atlanta world) on a horizontal plane. In the Manhattan world environment, a vertical plane or line occupies a dominant position. These properties have already been applied to indoor 3D reconstruction, situational understanding, and pose estimation. Using the Manhattan world hypothesis and the Atlanta world hypothesis can improve the robustness and accuracy of visual SLAM.

그러나, 맨하탄 월드 가설이든 애틀랜타 월드 가설이든, 보통의 이상적인 인공 환경에만 적용할 수 있다는 한계성을 가진다. 실제로 가장 흔한 상황에서는, 다수 개의 박스 월드를 포함할 경우, 각각의 박스 월드는 모두 다른 방향을 가지며, 상이한 위치에 있는 박스의 방향이 매우 인접할 수 있다. 테스트된 박스 월드가 단일의 맨하탄 월드 또는 애틀랜타 월드와 부자연스럽게 평행하게 되면, 성능과 강건성이 훨씬 떨어질 수 있다.However, whether it is the Manhattan World Hypothesis or the Atlanta World Hypothesis, there is a limitation that it can be applied only to a normal ideal artificial environment. In practice, in the most common situation, when you include multiple box worlds, each box world all has a different orientation, and the orientations of boxes in different locations can be very adjacent. If the tested box world is unnaturally parallel to a single Manhattan world or Atlanta world, performance and robustness can be much worse.

전술한 문제에 대하여, 본 실시예의 일 측면은 고효율적이며 정확한 방법을 사용하여 히스토리 맵 정보 중 점, 선 및 구조(맨하탄 프레임에 대응됨) 정보를 재식별하는 것이다. 또 다른 일 측면은, 위치에 따라 장면을 단일의 맨하탄 월드 또는 애틀랜타 월드가 아닌 다수 개의 로컬로 된 맨하탄 월드로 분할하는 것이다. 각 로컬의 맨하탄 월드는 공간적 공통 뷰(common view)에 의하여 서로 관련되는 맨하탄 프레임(현재의 이미지 카메라 좌표계에서 하부 로컬 박스 월드의 좌표계로 표현됨)의 집합으로 구성된다. 다시 말해, 각각의 새로운 맨하탄 프레임은 로컬 박스 월드와 대응되는 공간적 공통 뷰 상관 맨하탄 프레임에 의해 재식별된다. 또한, 일부 각도에서의 카메라의 영상 정보가 맨하탄 프레임 추정에 부족한 경우, 추정이 부정확해질 수 있으며, 맨하탄 프레임을 매번 테스트할 필요는 없다. 충분한 직선을 찾았고 맨하탄 프레임의 상대적 회전과 SLAM 시스템의 출력 포즈 사이에 일정한 관계가 존재할 때 맨하탄 프레임의 테스트를 허가할 수 있다. 이와 같이 알고리즘으로 하여금 히스토리 맵 정보와 상이한 차원의 특징 정보를 보다 효과적으로 이용하도록 함으로써, 보다 정확하고 강건하게 오차 누적을 억제할 수 있다.With respect to the above-mentioned problem, one aspect of the present embodiment is to re-identify the point, line, and structure (corresponding to the Manhattan frame) information among the history map information using a highly efficient and accurate method. Another aspect is to divide the scene according to location into multiple local Manhattan worlds rather than a single Manhattan world or Atlanta world. Each local Manhattan world consists of a set of Manhattan frames (represented in the coordinate system of the underlying local box world in the current image camera coordinate system) that are related to each other by a spatial common view. In other words, each new Manhattan frame is re-identified by the local box world and the corresponding spatial common view correlated Manhattan frame. In addition, if the image information of the camera at some angles is insufficient for the Manhattan frame estimation, the estimation may be inaccurate, and it is not necessary to test the Manhattan frame every time. Testing of the Manhattan frame can be permitted when a sufficient straight line has been found and a constant relationship exists between the relative rotation of the Manhattan frame and the output pose of the SLAM system. In this way, by allowing the algorithm to more effectively use feature information of a dimension different from the history map information, it is possible to more accurately and robustly suppress the accumulation of errors.

구체적으로, 본 실시예에서는 신규한 시각-관성 SLAM 방법을 제시하였으며, 본 방법은 시각 관계(visual relationship) SLAM 방법을 기초로 하여 점, 선 및 맨하탄 프레임 재식별 방법을 도입한 것이다. 점, 선 및 맨하탄 프레임의 재식별 방법을 간단하게 요약하면: 먼저, 현재 이미지 프레임으로부터 점과 선 특징을 검출하고, 선 특징을 사용하여 맨하탄 프레임을 coarse-to-fine 추정하여 현재 이미지 프레임의 맨하탄 프레임을 획득하는 단계; 다음으로, 시각-관성 SLAM에 의하여 생성된 글로벌 맵을 사용하여 시공간 민감 글로벌 서브 맵을 구성하는 단계; 마지막으로, 시공간 민감 글로벌 서브 맵과 포즈 안내 검증 및 매칭 방법을 사용하여 점과 선을 재식별하고 맨하탄 프레임의 시간 일관성과 시공간 일관성을 순서대로 검증, 즉 맨하탄 프레임을 재식별하고, 점, 선 및 맨하탄 프레임 등의 재식별 제약 관계를 번들 조정의 비용 함수에 추가하여 장치의 포즈와 3차원 맵에 대한 해를 구하는 단계를 포함한다.Specifically, in this embodiment, a novel visual-inertial SLAM method is presented, and the method is based on the visual relationship SLAM method and introduces a point, line and Manhattan frame re-identification method. To briefly summarize the method of re-identification of points, lines, and Manhattan frames: first, we detect point and line features from the current image frame, and coarse-to-fine the Manhattan frame using the line features to estimate the Manhattan frame of the current image frame. acquiring a frame; Next, constructing a spatiotemporal sensitive global submap using the global map generated by the visual-inertial SLAM; Finally, using a spatiotemporal-sensitive global submap and pose-guided validation and matching method, re-identify points and lines, and sequentially verify temporal coherence and spatiotemporal coherence of the Manhattan frame, i.e., re-identifying the Manhattan frame, with points, lines and adding the re-identification constraint relationship of the Manhattan frame or the like to the cost function of the bundle adjustment to solve the pose of the device and the three-dimensional map.

도 1에 도시된 바와 같이, 본 실시예에 의하여 제공된 SLAM 방법의 실행은 도면에 도시된 SLAM 시스템에 의한 것으로서, 본 시스템은 입력 모듈, 전단 모듈, 후단 모듈, 재식별 모듈 및 출력 모듈을 포함한다. 그 중, 입력 모듈은 관계 측정 장치와 쌍안 카메라를 포함하며, 이들은 각각 사용자가 관성 측정 데이터와 이미지 데이터를 획득하는 데에 사용된다. 전단 모듈(front-end module)은 관성 측정 데이터의 예비 적분 유닛, 점-선 테스트 및 추적 매칭 유닛, 및 맨하탄 프레임 추정 유닛을 포함한다. 후단 모듈(back-end module)은 글로벌 번들 조정 유닛 및 로컬 번들 조정 유닛을 포함한다. 재식별 모듈(re-identification module)은 시공간 민감 글로벌 서브 맵 작성 유닛과 포즈 가이드 검증 및 매칭 유닛을 포함한다. 출력 모듈은 실시간 포즈 출력 유닛을 포함한다. 각 모듈에 포함된 각 유닛의 기능은 후속하는 SLAM 방법에 대한 설명 시 상세히 설명할 것이다.As shown in Fig. 1, the execution of the SLAM method provided by this embodiment is by the SLAM system shown in the figure, and the system includes an input module, a front-end module, a rear-end module, a re-identification module and an output module. . Among them, the input module includes a relationship measurement device and a binocular camera, which are used by the user to acquire inertial measurement data and image data, respectively. The front-end module includes a preliminary integration unit of inertial measurement data, a point-line test and tracking matching unit, and a Manhattan frame estimation unit. The back-end module includes a global bundle coordination unit and a local bundle coordination unit. The re-identification module includes a spatiotemporal sensitive global sub-map creation unit and a pose guide verification and matching unit. The output module includes a real-time pause output unit. The function of each unit included in each module will be described in detail in the following description of the SLAM method.

도 2는 본 실시예에 의하여 제공되는 SLAM 방법의 흐름도로서, 도 2에 도시된 바와 같이, 상기 방법은 현재 이미지 프레임의 구조를 획득하는 단계(S201), 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하는 단계(S202), 및 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계(S203)를 포함한다. 상기 방법은 SLAM 결과를 획득하는 번들 조정 과정에 구조 재식별 제약을 도입함으로써, 오차 누적을 보다 잘 억제할 수 있으며, SLAM 결과 획득에 있어서의 정확성과 강건성을 향상시킬 수 있다.FIG. 2 is a flowchart of the SLAM method provided by this embodiment. As shown in FIG. 2, the method includes obtaining a structure of a current image frame (S201), restructuring based on the structure of the current image frame. obtaining an identification constraint (S202), and obtaining a SLAM result based on the structure re-identification constraint (S203). The method can better suppress error accumulation by introducing a structure re-identification constraint in the bundle adjustment process for obtaining SLAM results, and can improve accuracy and robustness in obtaining SLAM results.

본 실시예에서, 맨하탄 프레임과 같은 구조에 의하여 SLAM 방법을 설명할 것이다. 즉, "구조"를 "맨하탄 프레임"으로 대체하여 SLAM 방법에 대해서 설명할 것이며, 본 실시예의 보호범위가 이에 의하여 제한되지 않음은 물론이다.In this embodiment, the SLAM method will be described with the same structure as the Manhattan frame. That is, the SLAM method will be described by replacing "structure" with "manhattan frame", and it goes without saying that the protection scope of the present embodiment is not limited thereby.

나아가, 상기 방법은 다음의 단계를 포함한다:Furthermore, the method comprises the steps of:

단계 (1)에서, 현재 이미지 프레임과 대응되는 관성 측정 데이터의 예비 적분 제약을 획득하고, 현재 이미지 프레임과 대응되는 제1 클래스 점, 제1 클래스 선의 점-선 추적 제약과 제1 점-선 매칭 제약을 획득한다.In step (1), a preliminary integration constraint of the inertial measurement data corresponding to the current image frame is obtained, and the first class point corresponding to the current image frame, the dot-line tracking constraint of the first class line and the first point-line matching get restrictions.

이 때, 제1 클래스 점과 제1 클래스 선은 각각 현재 이미지 프레임 이전의 이미지 프레임에 포함된 점과 선이며, 제2 클래스 선과 제2 클래스 선은 각각 앞선 이미지 프레임에 포함되지 않은 점과 선이다. 현재 이미지 프레임 이전의 프레임을 기준으로, 제2 클래스 점과 제2 클래스 선은 새롭게 증가된 점과 선, 즉 새롭게 증가된 특징 정보임을 알 수 있다. 현재 이미지 프레임의 정보 처리 과정에서, 제1 클래스 점과 제1 클래스 선에 대해 추적 및 매칭을 실시하고, 제2 클래스 점과 제2 클래스 선을 테스트한다.In this case, the first class point and the first class line are points and lines included in the image frame before the current image frame, respectively, and the second class line and the second class line are points and lines not included in the previous image frame, respectively. . Based on the frame before the current image frame, it can be seen that the second class point and the second class line are newly increased points and lines, that is, newly increased feature information. In the information processing process of the current image frame, the first class point and the first class line are tracked and matched, and the second class point and the second class line are tested.

구체적으로, 쌍안 카메라의 이미지 데이터(즉, 현재 이미지 프레임)와 관성 측정 데이터를 획득하는 단계에서, 관성 측정 데이터의 예비 적분 유닛(pre-integration unit)은 현재 이미지 프레임과 이전 이미지 프레임 사이의 관성 측정 데이터를 예비적분한다. 점-선 검출 및 추적 매칭 유닛은 이전 프레임 이미지의 점과 선 특징(즉, 제1 클래스 점과 제1클래스 선)을 추적하고, 점과 선 특징이 없는 영역에서 새로운 점과 선 특징(즉, 제2 클래스 점과 제2 클래스 선)을 검출한 다음, 제한된 제약(limit constraint)에 근거하여 또 다른 카메라의 이미지로부터 현재 이미지 프레임의 모든 점과 선의 특징을 검출하고, 나아가 제1 클래스 점과 제1 클래스 선의 제1 점-선 매칭 제약을 획득하고, 제2 클래스 점과 제2 클래스 선에 대한 제2 점-선 매칭 제약을 획득한다.Specifically, in the step of acquiring the image data (ie, the current image frame) and the inertial measurement data of the binocular camera, a pre-integration unit of the inertial measurement data is configured to measure the inertia between the current image frame and the previous image frame. Pre-integrate the data. The dot-line detection and tracking matching unit tracks the point and line features of the previous frame image (ie, first class points and first class lines), and in the area where there are no point and line features, new point and line features (ie, After detecting the second class point and the second class line), the first class point and the second class line) are detected, and then all points and line features of the current image frame are detected from the image of another camera based on the limit constraint. Obtain a first point-line matching constraint of a first class line, and obtain a second point-line matching constraint for a second class point and a second class line.

단계 (2)에서, 현재 이미지 프레임의 제2 클래스 점과 제2 클래스 선을 획득하고, 제1 클래스 선과 제2 클래스 선에 기반하여 현재 프레임의 맨하탄 프레임을 획득한다.In step (2), a second class point and a second class line of the current image frame are obtained, and a Manhattan frame of the current frame is obtained based on the first class line and the second class line.

구체적으로, 현재 이미지 프레임의 모든 선 특징(즉, 제1 클래스 선과 제2 클래스 선)을 이용하여 맨하탄 프레임에 coarse-to-fine 추정을 실시하고, 현재 이미지 프레임의 맨하탄 프레임을 획득한다.Specifically, coarse-to-fine estimation is performed on the Manhattan frame using all line features of the current image frame (ie, the first class line and the second class line), and the Manhattan frame of the current image frame is obtained.

단계 (3)에서, 제2 클래스 점, 제2 클래스 선 및 맨하탄 프레임에 근거하여, 제2 점-선 매칭 제약, 점-선 재식별 제약 및 맨하탄 재식별 제약을 획득한다.In step (3), a second point-line matching constraint, a dot-line re-identification constraint and a Manhattan re-identification constraint are obtained based on the second class point, the second class line, and the Manhattan frame.

구체적으로, 재식별 모듈에서, 시공간 민감 글로벌 서브 맵 작성 유닛(space-time-sensitive global sub-map construction unit)(또는 STS(Spatial Temporal Sensitive) 서브 글로벌 맵 작성 유닛)은 현재 이미지 프레임과 대응되는 3차원 맵과 후단의 각 키 이미지 프레임과 대응되는 3차원 맵의 공간 분포 관계, 및 현재 이미지 프레임과 후단의 각 키 이미지 프레임의 시간 관계에 근거하여 시공간 민감 글로벌 서브 맵(time- and space-sensitive global sub-map)을 작성한다. 포즈 안내 매칭 유닛은, 시공간 민감 글로벌 서브 맵을 통하여 현재 이미지 프레임의 이미지와 공간적 공통 뷰를 가지는 키 이미지 프레임의 이미지를 획득하고, 공간적 공통 뷰를 가지는 키 이미지 프레임의 점-선 특징 및 맨하탄 프레임을 이용하여, 현재 이미지 프레임의 이미지에 대하여 새롭게 검출한 점-선 특징(즉 제2 클래스 점과 제2 클래스 선)과 맨하탄 프레임을 재식별한다.Specifically, in the re-identification module, a space-time-sensitive global sub-map construction unit (or Spatial Temporal Sensitive (STS) sub-global map construction unit) is configured with 3 corresponding to the current image frame. A time- and space-sensitive global submap (time- and space-sensitive global submap) based on the spatial distribution relationship of the dimensional map and the three-dimensional map corresponding to each key image frame at the rear end, and the temporal relationship between the current image frame and each key image frame at the rear end sub-map) is created. The pose guide matching unit acquires the image of the current image frame and the image of the key image frame having a spatial common view through the spatiotemporal-sensitive global sub-map, and compares the dot-line feature of the key image frame with the spatial common view and the Manhattan frame By using, the newly detected dot-line features (ie, second-class points and second-class lines) for the image of the current image frame and the Manhattan frame are re-identified.

단계 (4)에서, 예비 적분 제약, 점-선 추적 제약, 점-선 재식별 제약, 제1 점-선 매칭 제약, 제2 점-선 매칭 제약, 및 맨하탄 프레임 재식별 제약에 기반하여 SLAM 결과를 획득한다.In step (4), the SLAM result is based on the preliminary integration constraint, the dot-line tracing constraint, the dot-line re-identification constraint, the first dot-line matching constraint, the second dot-line matching constraint, and the Manhattan frame re-identification constraint. to acquire

구체적으로, 후단 모듈에서 예비 적분 제약, 점-선 추적 제약, 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약에 기반하여 번들 조정을 실시함으로써 포즈와 3차원 맵을 최적화하여 이에 대응되는 SLAM 결과를 획득하고, 출력 모듈을 통하여 대응되는 실시간 포즈를 출력한다.Specifically, by performing bundle adjustments based on the preliminary integration constraint, dot-line tracking constraint, dot-line re-identification constraint, and Manhattan frame re-identification constraint in the back-end module, the pose and 3D map are optimized and corresponding SLAM results are obtained. and output the corresponding real-time pose through the output module.

본 실시예에서, 현재 이미지 프레임은 키 이미지 프레임이고, 예비 적분 제약, 점-선 매칭 제약, 제1 점-선 매칭 제약, 제2 점-선 매칭 제약, 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약에 기반하여 SLAM 결과를 획득하는 방법은:In this embodiment, the current image frame is a key image frame, and a preliminary integration constraint, a dot-line matching constraint, a first dot-line matching constraint, a second dot-line matching constraint, a dot-line re-identify constraint, and a Manhattan frame re-constraint How to obtain a SLAM result based on an identification constraint:

현재 이미지 프레임에 대응되는 초기 SLAM 결과를 획득하는 단계;obtaining an initial SLAM result corresponding to the current image frame;

예비 적분, 점-선 추적 제약, 제1 점-선 매칭 제약, 제2 점-선 매칭 제약, 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약에 기반하여, 현재 이미지 프레임 이전의 모든 키 이미지 프레임과 대응되는 예비 적분 제약, 점-선 추적 제약, 제1 점-선 매칭 제약, 제2 점-선 매칭 제약, 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약을 결합하고 초기 SLAM 결과에 글로벌 번들 조정을 실시하여 글로벌 번들 조정된 SLAM 결과를 획득하는 단계; 및All key image frames before the current image frame, based on the preliminary integral, dot-line tracing constraint, first dot-line matching constraint, second dot-line matching constraint, dot-line re-identification constraint, and Manhattan frame re-identification constraint Combine the corresponding preliminary integration constraint, dot-line tracing constraint, first dot-line match constraint, second dot-line match constraint, dot-line re-identification constraint and Manhattan frame re-identification constraint, and bundle the global bundle into the initial SLAM result. performing an adjustment to obtain a global bundle adjusted SLAM result; and

현재 이미지 프레임에 대응되는 제4 사전 설정 타임 시퀀스 슬라이딩 윈도우(the fourth preset time sequence sliding window) 내의 모든 이미지 프레임의 예비 적분 제약, 점-선 추적 제약, 제1 점-선 매칭 제약 및 점-선 재식별 제약에 기반하여, 글로벌 번들 조정된 SLAM의 결과에 로컬 번들 조정을 실시함으로써 SLAM 결과를 획득하는 단계를 포함한다. Pre-integration constraint, dot-line tracking constraint, first dot-line matching constraint and dot-line re-constraint of all image frames within the fourth preset time sequence sliding window corresponding to the current image frame and obtaining a SLAM result by performing a local bundle adjustment on the result of the global bundle adjusted SLAM, based on the identification constraint.

이때, 현재 이미지 프레임이 키 이미지 프레임인지의 여부를 판단함으로써 이전 키 이미지 프레임을 기준으로 새로 추가된 현재 이미지 프레임의 점 및 선 정보가 기 설정된 수량에 도달하는지 확정할 수 있으며, 기 설정된 수량에 도달한 경우, 현재 이미지 프레임은 키 이미지 프레임이다. 키 이미지 프레임에 대한 판단은 예컨대 타임 시퀀스 상으로 동일한 간격의 이미지 프레임을 키 이미지 프레임으로 확정하는 것 등의 다른 기 설정된 규칙에 근거한 것일 수도 있음을 설명하고자 한다.In this case, by determining whether the current image frame is a key image frame, it can be determined whether the point and line information of the newly added current image frame reaches a preset quantity based on the previous key image frame, and the preset quantity is reached. In one case, the current image frame is the key image frame. It will be explained that the determination of the key image frame may be based on other preset rules such as determining, for example, image frames having the same interval in the time sequence as the key image frame.

여기서, 현재 이미지 프레임 이전의 모든 키 이미지 프레임과 대응되는 예비 적분 제약, 점-선 추적 제약, 제1 점-선 매칭 제약, 제2 점-선 매칭 제약, 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약, 및 현재 이미지 프레임과 대응되는 제4 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 모든 이미지 프레임의 예비 적분 제약, 점-선 추적 제약, 제1 점-선 매칭 제약 및 점-선 재식별 제약은 초기 SLAM 결과로부터 획득될 수 있다. 즉, 초기 SLAM 결과와 대응되는 글로벌 맵으로부터 획득될 수 있다.Here, preliminary integration constraint, dot-line tracking constraint, first dot-line matching constraint, second dot-line matching constraint, dot-line re-identification constraint, and Manhattan frame re-identification constraint corresponding to all key image frames before the current image frame The identification constraint, and the preliminary integration constraint, the dot-line tracking constraint, the first dot-line matching constraint and the dot-line re-identification constraint of all image frames within the fourth preset time sequence sliding window corresponding to the current image frame are the initial SLAM can be obtained from the results. That is, it may be obtained from the global map corresponding to the initial SLAM result.

구체적으로, 현재 이미지 프레임을 키 이미지 프레임으로 확정하는 경우, 번들 조정 과정에서, 먼저 초기 SLAM 결과에 대해 글로벌 번들 조정을 실시하여 글로벌 번들 조정된 SLAM 결과를 획득한 후, 글로벌 번들 조정된 SLAM 결과에 대하여 로컬 번들 조정을 실시하여 SLAM 결과를 획득한다. 현재 이미지 프레임이 키 이미지 프레임이 아닌 것으로 확정하는 경우, 현재 이미지 프레임과 대응되는 제4 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 모든 이미지 프레임의 예비 적분 제약, 점-선 추적 제약, 제1 점-선 매칭 제약 및 점-선 재식별 제약에 직접적으로 기반하여 초기 SLAM 결과에 대한 로컬 번들 조정을 실시함으로써 SLAM 결과를 획득한다.Specifically, when determining the current image frame as a key image frame, in the bundle adjustment process, global bundle adjustment is first performed on the initial SLAM result to obtain a global bundle adjusted SLAM result, and then the global bundle adjusted SLAM result is added to the global bundle adjusted SLAM result. SLAM results are obtained by performing local bundle adjustments. When it is determined that the current image frame is not a key image frame, the preliminary integration constraint, the dot-line tracking constraint, and the first dot-line matching constraint of all image frames in the fourth preset time sequence sliding window corresponding to the current image frame are determined. and a local bundle adjustment to the initial SLAM result based directly on the dot-line re-identification constraint to obtain the SLAM result.

예컨대, 도 3에 도시된 것은 본 실시예에 의해 제공되는 SLAM 방법의 구체적인 흐름도로서, 아래의 몇 가지 단계를 포함할 수 있다:For example, shown in FIG. 3 is a specific flowchart of a SLAM method provided by this embodiment, which may include the following several steps:

먼저, 쌍안 카메라의 이미지 데이터와 관성 측정 데이터를 획득하고, 관성 측정 장치가 수집한, 현재 이미지 프레임과 이전 이미지 프레임 간의 데이터에 대하여 예비 적분을 실시하고, 이전 프레임의 이미지의 점과 선 특징을 추적하고 점과 선 특징이 없는 영역에서 새로운 점과 선 특징을 검출한 후, 극한 제약에 근거하여 또 다른 카메라의 이미지로부터 현재 이미지 프레임의 모든 점과 선 특징을 검출하고, 현재 이미지 프레임의 모든 선 특징을 사용하여 맨하탄 프레임에 coarse-to-fine 추정을 실시한다. 선택적으로는, 키 이미지 프레임에 대해서만 이를 실시할 수도 있다.First, image data and inertial measurement data of the binocular camera are acquired, and preliminary integration is performed on the data between the current image frame and the previous image frame collected by the inertial measurement device, and the point and line characteristics of the image of the previous frame are traced. Then, after detecting new point and line features in a region without point and line features, all points and line features of the current image frame are detected from the image of another camera based on the limit constraint, and all line features of the current image frame are detected. is used to perform coarse-to-fine estimation on the Manhattan frame. Optionally, this may be done only for key image frames.

다음으로, 현재 이미지 프레임의 이미지와 대응되는 3차원 맵과 후단의 각 키 이미지 프레임의 이미지와 대응되는 3차원 맵의 공간 분포 관계, 및 현재 이미지 프레임의 이미지와 후단의 각 키 이미지 프레임의 이미지의 시간 관계에 근거하여 시공간 민감 글로벌 서브 맵을 구성하고, 시공간 민감 글로벌 서브 맵을 통하여 현재 이미지 프레임의 이미지와 공간적 공통 뷰를 가지는 키 이미지 프레임의 이미지를 획득하고, 공간적 공통 뷰를 가지는 키 이미지 프레임의 이미지의 점-선 특징과 맨하탄 프레임을 통하여, 현재 이미지 프레임의 이미지에 대하여 새롭게 검출한 점-선 특징과 맨하탄 프레임을 재식별한다.Next, the spatial distribution relationship of the 3D map corresponding to the image of the current image frame and the 3D map corresponding to the image of each key image frame at the rear end, and the image of the current image frame and the image of each key image frame at the rear end Construct a spatiotemporal-sensitive global submap based on the temporal relationship, obtain an image of the current image frame and an image of a key image frame having a spatial common view through the spatiotemporal sensitive global submap, and obtain a key image frame having a spatial common view. Through the dot-line feature of the image and the Manhattan frame, the newly detected dot-line feature and the Manhattan frame for the image of the current image frame are re-identified.

마지막으로, 새로운 키 이미지 프레임이 생성될 때, 모든 키 이미지 프레임의 점-선 특징의 추적 매칭과 재식별 제약, 공간적 공통 뷰를 가지는 이미지와 맨하탄 프레임 간의 상대적 회전 제약, 및 관성 측정 데이터의 예비 적분 제약을 번들 조정하여 글로벌 범위의 포즈와 3차원 맵을 최적화한다. 또한, 타임 시퀀스 슬라이딩 윈도우 내의 모든 이미지 프레임의 점-선 특징의 추적 매칭 및 재식별 제약과 관성 측정 데이터의 예비 적분 제약에 대하여 번들 조정을 실시함으로써 시간 영역의 로컬 범위의 포즈와 3차원 맵을 최적화한다.Finally, when a new key image frame is generated, the tracking matching and re-identification constraints of the dot-line features of all key image frames, the relative rotation constraints between the image with a spatial common view and the Manhattan frame, and preliminary integration of the inertial measurement data Bundling constraints to optimize poses and 3D maps with global scope. In addition, by performing bundle adjustment for tracking matching and re-identification constraints of dot-line features of all image frames within the time sequence sliding window and pre-integration constraints of inertial measurement data, it optimizes poses and 3D maps in the local range of the time domain. do.

본 실시예에서, 상기 제1 클래스 선과 상기 제2 클래스 선에 기반하여 상기 현재 이미지 프레임의 맨하탄 프레임을 얻는 방법은:In this embodiment, the method of obtaining the Manhattan frame of the current image frame based on the first class line and the second class line is:

상기 제1 클래스 선과 상기 제2 클래스 선 중 임의의 두 선들에 기반하여, 2선분 최소 솔루션 세트 알고리즘(two-line segment minimum solution set algorithm)을 통하여 상기 맨하탄 프레임의 제1 소실 방향을 구하는 단계;finding a first vanishing direction of the Manhattan frame through a two-line segment minimum solution set algorithm based on any two of the first class line and the second class line;

상기 제1 소실 방향의 수직원(vertical circle) 상에서 등각 샘플링을 실시하여 상기 맨하탄 프레임의 제2 소실 방향을 획득하고, 상기 제1 소실 방향과 상기 제2 소실 방향에 기반하여 상기 맨하탄 프레임의 제3 소실 방향을 획득하는 단계로서, 상기 수직원의 직경과 상기 현재 이미지 프레임의 등가 구면의 직경은 동일하고;A second vanishing direction of the Manhattan frame is obtained by performing conformal sampling on a vertical circle of the first vanishing direction, and a third vanishing direction of the Manhattan frame is obtained based on the first vanishing direction and the second vanishing direction. obtaining a vanishing direction, wherein the diameter of the vertical column and the diameter of the equivalent spherical surface of the current image frame are the same;

상기 제1 소실 방향, 상기 제2 소실 방향 및 상기 제3 소실 방향에 기반하여 초기 맨하탄 프레임을 획득하는 단계;obtaining an initial Manhattan frame based on the first vanishing direction, the second vanishing direction, and the third vanishing direction;

상기 현재 이미지 프레임에서의 상기 맨하탄 프레임의 세 개 소실점의 내선분(inner line segments)을 각각 획득하고, 상기 세 개 소실점의 내선분에 기반하여 상기 초기 맨하탄 프레임의 세 개 소실 방향을 최적화하여 상기 맨하탄 프레임을 획득하는 단계를 포함한다.Each of the inner line segments of the three vanishing points of the Manhattan frame in the current image frame is acquired, and the three vanishing directions of the initial Manhattan frame are optimized based on the inner line segments of the three vanishing points to optimize the Manhattan frame. acquiring a frame.

구체적으로, 구조화 환경(일반적으로 인공 장면)은 예컨대 평행성과 직교성 같은 특정한 규칙성을 나타낸다. 도 4에 도시된 바와 같이, 맨하탄 월드는 등가 구면 상에 세 개의 서로 직교하는 소실 방향이 있는 장면을 가리키며, 이는 이미지 평면 상의 세 개의 소실점에 대응된다. 맨하탄 월드에서, 보정 이미지로부터 감지된 모든 선분이 주어질 때, 목표는 세 개의 소실점으로 이를 개별적으로 수집하는 것이다. 맨하탄 프레임은 맨하탄 월드의 구조 모형에 광범위하게 사용되며, 맨하탄 프레임의 세 개 축은 맨하탄 월드의 서로 직교하는 세 개의 소실 방향에 대응되고, 맨하탄 월드의 3차원 선은 전체 맨하탄 프레임의 세 개의 좌표축과 평행한다. 이 제약에 기반하여, 서로 직교하는 세 개의 소실 방향은 다시 맨하탄 월드와 카메라 프레임 사이의 회전, 즉 맨하탄 프레임으로 설명될 수 있다.Specifically, a structured environment (generally an artificial scene) exhibits certain regularities, such as parallelism and orthogonality, for example. As shown in Fig. 4, the Manhattan world refers to a scene with three mutually orthogonal vanishing directions on an equivalent sphere, which correspond to three vanishing points on the image plane. In Manhattan World, given all the line segments detected from the calibration image, the goal is to collect them individually as three vanishing points. The Manhattan frame is used extensively in the structural model of the Manhattan World, in which the three axes of the Manhattan frame correspond to three mutually orthogonal vanishing directions of the Manhattan World, and the three-dimensional lines of the Manhattan World are parallel to the three coordinate axes of the entire Manhattan frame. do. Based on this constraint, the three vanishing directions orthogonal to each other can again be described as a rotation between the Manhattan world and the camera frame, that is, the Manhattan frame.

본 실시예에서, 서로 직교하는 세 개의 소실 방향(즉 맨하탄 프레임)의 추정 과정에 대해 자세히 설명한다. 검출된 이미지 선분 특징에 근거하여 세 개의 소실점을 추정하고, 세 개의 소실점에 의하여 서로 직교하는 세 개의 소실 방향을 계산한다. 주의할 것은, 선 클러스터링 결과에 근거하여 소실점을 계산할 수 있으며, 소실점이 추정되면 순서대로 선 클러스터를 획득할 수 있다는 것이다. 이러한 사실에 기반하여, coarse-to-fine 맨하탄 프레임 추정 방법을 설계하였으며, 상기 방법은 주로 coarse 추정 모듈과 fine 추정 모듈로 구성된다. coarse 추정 모듈은 서로 직교하는 세 개의 소실 방향에 대해 전체 고속 검색을 실시하고, fine 추정 모듈에 초기값을 제공한다. fine 추정 모듈은 coarse 추정 모듈의 출력을 기반으로 서로 직교하는 세 개의 소실 방향 결과를 더 최적화한다. 아래에서는 coarse 추정 모듈과 fine 추정 모듈의 구체적인 실행 방식에 대해 자세히 설명한다.In this embodiment, an estimation process of three vanishing directions (that is, the Manhattan frame) orthogonal to each other will be described in detail. Three vanishing points are estimated based on the detected image segment features, and three vanishing directions orthogonal to each other are calculated by the three vanishing points. Note that the vanishing point can be calculated based on the line clustering result, and when the vanishing point is estimated, the line clusters can be sequentially obtained. Based on this fact, a coarse-to-fine Manhattan frame estimation method is designed, and the method is mainly composed of a coarse estimation module and a fine estimation module. The coarse estimation module performs a full high-speed search for three disappearance directions orthogonal to each other, and provides initial values to the fine estimation module. The fine estimation module further optimizes the results of three vanishing directions orthogonal to each other based on the output of the coarse estimation module. Below, the detailed execution methods of the coarse estimation module and the fine estimation module will be described in detail.

coarse 추정 모듈: 본 실시예는 2선 최소 솔루션 세트(two-line minimum solution set)를 사용하여 제1 소실 방향의 가설을 형성하고, 제2 소실 방향을 샘플링하고, 제1 및 제2 소실 방향을 통하여 제3 소실 방향을 생성한다. 구체적으로, 우선, 현재 이미지 프레임 내의 두 갈래의 서로 직교하는 선분을 임의로 선택하고, 이 두 갈래의 서로 직교하는 선분에 기반하여 제1 소실 방향(

Figure pat00001
)을 생성한다. 다음으로, 제1 소실 방향의 수직원 상에서 등각 샘플링을 실시하여 맨하탄 프레임의 제2 소실 방향(
Figure pat00002
)을 획득한다. 마지막으로,
Figure pat00003
Figure pat00004
의 교차 곱셈에 의하여 제3 소실 방향(
Figure pat00005
)을 획득한다. 이상의 세 단계를 통하여 다양한 소실 방향의 조합을 획득한 다음, 가설 검증을 통하여 초기 맨하탄 프레임을 결정한다. 즉, 극좌표 격자의 구성을 통하여 가장 바람직한, 서로 직교하는 세 개의 소실 방향이 결정된다. 이로써, 맨하탄 프레임에 대한 coarse 추정이 완료된다.Coarse estimation module: This embodiment uses a two-line minimum solution set to form a hypothesis of the first vanishing direction, sample the second vanishing direction, and calculate the first and second vanishing directions. to create a third vanishing direction. Specifically, first, two mutually orthogonal line segments in the current image frame are arbitrarily selected, and based on the two mutually orthogonal line segments, the first vanishing direction (
Figure pat00001
) is created. Next, conformal sampling is performed on the vertical line of the first vanishing direction to form the second vanishing direction (
Figure pat00002
) is obtained. Finally,
Figure pat00003
class
Figure pat00004
The third vanishing direction (
Figure pat00005
) is obtained. After obtaining a combination of various vanishing directions through the above three steps, the initial Manhattan frame is determined through hypothesis testing. That is, through the configuration of the polar coordinate lattice, the most desirable three vanishing directions orthogonal to each other are determined. Accordingly, coarse estimation for the Manhattan frame is completed.

fine 추정 모듈: 도 5에 도시된 바와 같이, 먼저, 초기 맨하탄 프레임의 현재 이미지 프레임에서의 세 개의 소실점을 획득하고, 세 개 소실점과 각각 대응되는 내부 선분을 획득한다. 구체적으로, 어느 한 선분의 중점과 어느 한 소실점을 연결하는 선과 상기 선분 사이의 끼인각이 기 설정된 각도 이하인 경우, 상기 선분을 상기 소실점의 내부 선분으로 확정한다. 하나의 소실점의 내부 선분이 여러 개일 수 있으며, 기 설정된 각도의 크기는 실제 필요에 따라 설정할 수 있음은 물론이다. 다음으로, 초기 맨하탄 프레임의 세 소실 점의 내부 선분(평면에서의 비교적 굵은 선분에 해당)(

Figure pat00006
,
Figure pat00007
,
Figure pat00008
)에 의하여 세 개의 소실 방향에 대한 coarse 추정치를 계산하고, 이하의 공식을 통하여 세 개의 소실 방향(
Figure pat00009
,
Figure pat00010
,
Figure pat00011
)을 최적화한다:Fine estimation module: As shown in FIG. 5 , first, three vanishing points in the current image frame of the initial Manhattan frame are obtained, and inner line segments corresponding to the three vanishing points are respectively obtained. Specifically, when the included angle between the line connecting the midpoint of any one line segment and the vanishing point and the line segment is less than or equal to a preset angle, the line segment is determined as the inner line segment of the vanishing point. Of course, there may be multiple internal line segments of one vanishing point, and the size of the preset angle may be set according to actual needs. Next, the inner segments of the three vanishing points of the initial Manhattan frame (corresponding to relatively thick segments in the plane) (
Figure pat00006
,
Figure pat00007
,
Figure pat00008
) calculates the coarse estimates for the three vanishing directions, and the three vanishing directions (
Figure pat00009
,
Figure pat00010
,
Figure pat00011
) to optimize:

Figure pat00012
Figure pat00012

여기서, π()는 좌표 변환, 즉 카메라 좌표계로부터 이미지 좌표 시스템으로 변환되는 것이다.Here, π() is coordinate transformation, that is, transformation from the camera coordinate system to the image coordinate system.

마지막으로 최적화되는 세 개의 소실 방향에 의하여 맨하탄 월드(Manhattan world)와 카메라 프레임(즉, 이미지 프레임) 간의 회전(

Figure pat00013
)을 계산할 수 있으며, 이 때
Figure pat00014
으로서, 마찬가지로 맨하탄 프레임이다.Finally, the rotation between the Manhattan world and the camera frame (i.e. the image frame) by the three vanishing directions being optimized (
Figure pat00013
) can be calculated, where
Figure pat00014
As, likewise, the Manhattan frame.

본 실시예에서, 제2 클래스 점, 제2 클래스 선 및 맨하탄 프레임에 근거하여 재식별을 실시하고 대응되는 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약을 획득하는 방법은:In this embodiment, the method of performing re-identification based on the second class point, the second class line and the Manhattan frame and obtaining the corresponding point-line re-identification constraint and the Manhattan frame re-identification constraint is:

현재 이미지 프레임 이전의 키 이미지 프레임을 획득하는 단계;obtaining a key image frame before the current image frame;

현재 이미지 프레임과 키 이미지 프레임에 기반하여 이에 대응되는, 시공간 민감 글로벌 서브 맵을 획득하는 단계;obtaining a spatiotemporal sensitive global submap corresponding thereto based on the current image frame and the key image frame;

시공간 민감 글로벌 서브 맵에 기반하여 제2 클래스 점, 제2 클래스 선 및 맨하탄 프레임에 재식별을 실시함으로써 대응되는 점-선 재식별 제약 및 맨하탄 프레임 재식별 제약을 획득하는 단계를 포함한다.and obtaining corresponding point-line re-identification constraints and Manhattan frame re-identification constraints by performing re-identification on second class points, second class lines, and Manhattan frames based on the spatiotemporal sensitive global sub-map.

아래에서는 시공간 민감 글로벌 서브 맵의 획득 및 맨하탄 프레임에 대한 재식별 실시의 두 가지 측면을 자세히 설명한다.Below, two aspects of the acquisition of spatiotemporal-sensitive global submaps and the implementation of re-identification for the Manhattan frame are described in detail.

본 실시예에서, 현재 이미지 프레임과 키 이미지 프레임에 기반하여, 이에 대응되는, 시공간 민감 글로벌 서브 맵을 획득하는 방법은:In this embodiment, on the basis of the current image frame and the key image frame, the method for obtaining the corresponding spatiotemporal sensitive global submap is:

현재 이미지 프레임과 키 이미지 프레임 사이의 타임 시퀀스 관계 및 현재 이미지 프레임과 대응되는 3차원 맵과 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여 이에 대응되는, 시공간 민감 글로벌 서브 맵을 획득하는 단계를 포함한다.Based on the time sequence relationship between the current image frame and the key image frame and the spatial relationship between the three-dimensional map corresponding to the current image frame and the three-dimensional map corresponding to the key image frame, to obtain a corresponding, spatiotemporal-sensitive global sub-map includes steps.

구체적으로, 현재 이미지 프레임과 키 이미지 프레임 간의 타임 시퀀스 관계 및 현재 이미지 프레임과 대응되는 3차원 맵과 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여 이에 대응되는, 시공간 민감 글로벌 서브 맵을 획득하는 단계는:Specifically, based on the time sequence relationship between the current image frame and the key image frame and the spatial relationship between the three-dimensional map corresponding to the current image frame and the three-dimensional map corresponding to the key image frame, a corresponding, space-time-sensitive global sub-map is generated. The steps to obtain are:

현재 이미지 프레임과 키 이미지 프레임 간의 타임 시퀀스 관계에 기반하여 현재 이미지 프레임의 기준 키 이미지 프레임을 획득하는 단계;obtaining a reference key image frame of the current image frame based on a time sequence relationship between the current image frame and the key image frame;

현재 이미지 프레임과 대응되는 3차원 맵과 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여, 기존 이미지 프레임과 키 이미지 프레임 간의 2차원 공간 분포를 획득하는 단계;obtaining a two-dimensional spatial distribution between an existing image frame and a key image frame based on a spatial relationship between a three-dimensional map corresponding to the current image frame and a three-dimensional map corresponding to the key image frame;

2차원 공간 분포에서 기준 키 이미지 프레임과 중첩 영역을 가지는 키 이미지 프레임을 현재 이미지 프레임과 공간적 공통 뷰를 가지는 키 이미지 프레임으로 사용하고, 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 시공간 민감 글로벌 서브 맵을 획득한다.In a two-dimensional spatial distribution, a key image frame with a reference key image frame and an overlapping region is used as a key image frame with a spatial common view with the current image frame, and a spatiotemporal sensitive global submap based on the key image frame with a spatial common view to acquire

구체적으로, 도 6에 도시된 바와 같이, 좌측 평면도에서 카메라는 시계방향으로 움직이고, 각 키 이미지 프레임의 2차원 공간 분포는 점선으로 표시된 직사각형에 의하여 가시화되며, 이는 오른쪽 도면에서 입방체로 표시된 3차원 공간 분포에 대응된다. 현재 이미지 프레임의 기준 키 이미지 프레임의 공간 분포와 중첩 영역(음영 영역)을 가지는 키 이미지 프레임은 현재 이미지 프레임과 공간적 공통 뷰를 가지는 키 이미지 프레임(

Figure pat00015
)으로 간주되며, 시간적으로 현재 이미지 프레임과 비교적 멀리 떨어진 공간적 공통 뷰 키 프레임 이미지는 현재 이미지 프레임의 시공간 민감 글로벌 서브 맵, 즉 (
Figure pat00016
)를 구성한다.Specifically, as shown in Fig. 6, the camera moves clockwise in the left plan view, and the two-dimensional spatial distribution of each key image frame is visualized by a rectangle indicated by a dotted line, which is a three-dimensional space indicated by a cube in the figure on the right. corresponding to the distribution. A key image frame having a spatial distribution and overlapping area (shaded area) of the reference key image frame of the current image frame is a key image frame having a spatial common view (
Figure pat00015
), and a spatially common view keyframe image that is relatively far away from the current image frame in time
Figure pat00016
) constitutes

본 실시예에서, 시공간 민감 글로벌 서브 맵에 기반하여 제2 클래스 점, 제2 클래스 선 및 맨하탄 프레임을 재식별하는 방법은:In this embodiment, the method of re-identifying the second class point, the second class line and the Manhattan frame based on the spatiotemporal sensitive global submap is:

시공간 민감 글로벌 서브 맵에 기반하여 현재 이미지 프레임과 공간적 공통 뷰를 가지는 키 이미지 프레임을 획득하는 단계;obtaining a key image frame having a spatial common view with the current image frame based on the spatiotemporal-sensitive global sub-map;

공간적 공통 뷰를 가지는 키 이미지 프레임의 점, 선 및 맨하탄 프레임을 획득하고, 공간적 공통 뷰를 가지는 키 이미지 프레임의 점, 선 및 공간적 공통 뷰와 관련된 맨하탄 프레임에 기반하여 제2 클래스 점, 제2 클래스 선 및 맨하탄 프레임을 재식별하는 단계를 포함한다.Obtain a point, a line and a Manhattan frame of a key image frame having a spatial common view, and a second class point, a second class based on the point, line, and Manhattan frame associated with the point, line and spatial common view of the key image frame having a spatial common view and re-identifying the line and the Manhattan frame.

구체적으로, 공간적 공통 뷰를 가지는 키 이미지 프레임의 공간적 공통 뷰와 관련된 맨하탄 프레임에 기반하여 맨하탄 프레임을 재식별하는 단계는:Specifically, re-identifying the Manhattan frame based on the Manhattan frame associated with the spatially common view of the key image frame having the spatially common view comprises:

현재 이미지 프레임의 맨하탄 프레임과, 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임 의 시간 상관 맨하탄 프레임 간의 상대 회전 오차에 기반하여, 맨하탄 프레임에 대하여 시간 일관성 테스트를 실시하는 단계;performing a temporal consistency test on the Manhattan frame based on a relative rotation error between the Manhattan frame of the current image frame and the time-correlated Manhattan frame of the image frame in the corresponding first preset time sequence sliding window;

맨하탄 프레임에 대한 시간 일관성 테스트에 통과하면, 현재 이미지 프레임과 대응되는 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간 상관 맨하탄 프레임, 및 공간적 공통 뷰를 가지는 키 이미지 프레임과 대응되는 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 공간 상관 맨하탄 프레임을 획득하고, 시간 상관 맨하탄 프레임과 이에 대응되는 공간적 공통 뷰를 가진 키 이미지 프레임 사이의 상대 회전 드리프트 오차를 획득하는 단계;If the temporal consistency test for the Manhattan frame is passed, the temporal correlation Manhattan frame of the image frame within the sliding window corresponding to the second preset time sequence sliding window corresponding to the current image frame, and the third preset corresponding to the key image frame having a spatially common view obtaining a spatially correlated Manhattan frame of an image frame within a time sequence sliding window, and obtaining a relative rotational drift error between the temporally correlated Manhattan frame and a corresponding key image frame having a spatial common view;

상대 회전 드리프트의 오차에 기반하여 맨하탄 프레임에 시간-공간 일관성 테스트를 실시하는 단계를 포함한다.and performing a temporal-spatial consistency test on the Manhattan frame based on the error of the relative rotational drift.

구체적으로, 보다 복잡한 환경에 대응하고 맨하탄 프레임 추정에 있어서의 강건성을 확보하기 위하여, 본 실시예에서는 도 7에 도시된 바와 같은 맨하탄 프레임의 포즈 가이드 검증 및 매칭 방법을 사용하여 맨하탄 프레임을 재식별하였다. 입력되는 것은 현재 맨하탄 프레임과 시각-관성 SLAM에 의하여 생성된 전체 맵이다. 먼저, 현재 이미지 프레임의 맨하탄 프레임과 이에 대응되는 시간 관련 맨하탄 프레임 간의 시간 일관성을 테스트하고, 현재 맨하탄 프레임이 충분히 강건한지의 여부를 점검한다. 그 후 시공간 민감 글로벌 서브 맵을 통하여 현재 이미지 프레임의 맨하탄 프레임의 공통적 공간 뷰 상관 맨하탄 프레임을 검색하고, 이를 현재 이미지 프레임의 맨하탄 프레임과 매칭한다. 맨하탄 프레임의 시간 일관성 테스트와 매칭이 구현된 후, 맨하탄 프레임 추정의 강건성을 보다 향상시키기 위하여, 맨하탄 프레임의 시간 일관성을 테스트하였다. 마지막으로, 현재 이미지 프레임의 맨하탄 프래임과 이에 대응되는 공간적 공통 뷰 상관 맨하탄 프레임의 상대 회전 세트를 후단으로 출력하고, 맨하탄 프레임 제약을 후단에 입력한다. 아래에서는 맨하탄 프레임의 시간 일관성 테스트, 맨하탄 프레임의 매칭 및 맨하탄 프레임의 시간-공간 일관성 테스트에 대하여 자세히 설명한다.Specifically, in order to cope with a more complex environment and secure robustness in the Manhattan frame estimation, in this embodiment, the Manhattan frame was re-identified using the pose guide verification and matching method of the Manhattan frame as shown in FIG. . Input is the current Manhattan frame and the entire map generated by the visual-inertial SLAM. First, temporal consistency between the Manhattan frame of the current image frame and the corresponding time-related Manhattan frame is tested, and whether the current Manhattan frame is sufficiently robust is checked. Thereafter, the common spatial view correlation Manhattan frame of the Manhattan frame of the current image frame is searched for through the spatiotemporal-sensitive global submap, and it is matched with the Manhattan frame of the current image frame. After the temporal consistency test and matching of the Manhattan frame were implemented, in order to further improve the robustness of the Manhattan frame estimation, the temporal consistency of the Manhattan frame was tested. Finally, the relative rotation set of the Manhattan frame of the current image frame and the corresponding spatial common view correlation Manhattan frame is output to the rear end, and the Manhattan frame constraint is input to the rear end. Below, the temporal consistency test of the Manhattan frame, the matching of the Manhattan frame, and the temporal-spatial consistency test of the Manhattan frame will be described in detail.

본 실시예에서, 현재 이미지 프레임의 맨하탄 프레임과 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간 상관 맨하탄 프레임 간의 상대 회전 오차에 기반하여, 맨하탄 프레임에 대하여 시간 일관성 테스트를 실시하는 방법은:In this embodiment, based on the relative rotation error between the Manhattan frame of the current image frame and the time-correlated Manhattan frame of the image frame within the corresponding first preset time sequence sliding window, a method for performing a temporal consistency test on the Manhattan frame silver:

제1 사전 설정 타임 시퀀스 슬라이딩 윈도우와 대응되는 모든 상대 회전 오차에 기반하여, 대응되는 평균 상대 회전 오차를 획득하는 단계;obtaining a corresponding average relative rotation error based on all relative rotation errors corresponding to the first preset time sequence sliding window;

평균 상대 오차가 제1 사전 설정 임계값 이하이면, 맨하탄 프레임을 시간 일관성 테스트에서 통과시키는 단계를 포함한다.passing the Manhattan frame in a temporal consistency test if the average relative error is less than or equal to the first preset threshold.

구체적으로, 시각-관성 주행거리 측정(VIO; visual-inertial odometry) 또는 시각-관성 SLAM 방법에서, 동일한 시간 슬라이딩 윈도우 내의 이미지 프레임 사이의 상대 회전은 매우 작은 오차를 가지며, 상대 회전의 실제값(

Figure pat00017
)과 거의 유사하다. 이러한 특성을 이용하여, 본 실시예에서는 맨하탄 프레임의 안정성과 강건성에 대한 테스트를 실시하였다. 도 8에 도시된 바와 같이, 타임 시퀀스 슬라이딩 윈도우(즉 제1 타임 시퀀스 슬라이딩 윈도우)에는 연속 이미지 프레임, 즉
Figure pat00018
이 포함된다. 본 실시예에서는 각각 VIO와 맨하탄 프레임 방법을 이용하여 이미지 프레임(
Figure pat00019
)과 타임 시퀀스 슬라이딩 윈도우 내의 다른 이미지 프레임 사이의
Figure pat00020
Figure pat00021
의 상대 회전을 계산한다. 타임 시퀀스 슬라이딩 윈도우 내의
Figure pat00022
Figure pat00023
사이의 오차(즉, 상대 회전 오차)를 계산하여 맨하탄 프레임의 강건성을 검증하였다.Specifically, in the visual-inertial odometry (VIO) or visual-inertial SLAM method, the relative rotation between image frames within the same time sliding window has a very small error, and the actual value of the relative rotation (
Figure pat00017
) is almost identical to Using these characteristics, in this embodiment, the stability and robustness of the Manhattan frame were tested. As shown in Fig. 8, the time sequence sliding window (ie, the first time sequence sliding window) has a continuous image frame, that is,
Figure pat00018
This is included. In this embodiment, using the VIO and Manhattan frame methods, respectively, the image frame (
Figure pat00019
) and the time sequence between other image frames within the sliding window.
Figure pat00020
class
Figure pat00021
Calculate the relative rotation of within a time sequence sliding window
Figure pat00022
Wow
Figure pat00023
The robustness of the Manhattan frame was verified by calculating the error between them (ie, relative rotation error).

구체적으로, 평균 상대 회전 오차의 계산 공식은 다음과 같다:Specifically, the calculation formula of the average relative rotation error is as follows:

Figure pat00024
Figure pat00024

이 때,

Figure pat00025
는 회전 벡터 오차가 각도 스칼라 오차로 변환되는 함수이며, 구체적인 공식은 하기와 같다:At this time,
Figure pat00025
is a function in which the rotation vector error is converted to an angle scalar error, and the specific formula is as follows:

Figure pat00026
Figure pat00026

Figure pat00027
는 현재 윈도우 프레임과 i번째 이미지 프레임의 맨하탄 프레임 방법으로 획득한 상대 회전을 나타내며,
Figure pat00028
는 현재 이미지 프레임과 i번째 이미지 프레임의 VIO 방법으로 획득한 상대 회전을 나타낸다.
Figure pat00029
가 제1 사전 설정 임계값 이하인 경우, 즉 맨하탄 프레임이 시간 일관성 테스트를 통과하면, 맨하탄 프레임과 이에 대응되는 공간적 공통 뷰 상관 맨하탄 프레임을 매칭한다.
Figure pat00027
represents the relative rotation obtained by the Manhattan frame method of the current window frame and the i-th image frame,
Figure pat00028
denotes the relative rotation of the current image frame and the i-th image frame obtained by the VIO method.
Figure pat00029
If is less than or equal to the first preset threshold, that is, if the Manhattan frame passes the temporal consistency test, the Manhattan frame and the corresponding spatial common view correlation Manhattan frame are matched.

본 실시예에서, 상대 회전 드리프트 오차에 기반하여 맨하탄 프레임에 대하여 시간-공간 일관성 테스트를 실시하는 방법은:In this embodiment, the method of performing a time-space consistency test for the Manhattan frame based on the relative rotation drift error is:

제2 사전 설정 타임 시퀀스 슬라이딩 윈도우 및 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우와 대응되는 상대 회전 드리프트 오차 중 제2 사전 설정 임계값 이상인 상대 회전 드리프트 오차가 차지하는 비율을 획득하는 단계;obtaining a ratio of relative rotational drift errors corresponding to the second preset time sequence sliding window and the third preset time sequence sliding window corresponding to a relative rotational drift error equal to or greater than a second preset threshold value;

상기 비율이 제3 사전 설정 임계값 이하인 경우, 맨하탄 프레임으로 하여금 시공간 일관성 테스트를 통과하도록 하는 단계를 포함한다.if the ratio is less than or equal to a third preset threshold, causing the Manhattan frame to pass a spatiotemporal consistency test.

구체적으로, 맨하탄 프레임이 시간 일관성과 매칭을 만족할 경우, 맨하탄 프레임 추정에 있어서의 강건성을 보다 향상시키기 위하여, 시간-공간 일관성을 점검한다. 도 9에 도시된 바와 같이, VIO 방법은 두 개의 상이한 타임 시퀀스 슬라이딩 윈도우 간에 일치하는 드리프트(

Figure pat00030
)를 생성하고, (
Figure pat00031
)는 상대 회전의 실제값(
Figure pat00032
)과 근사하다. 이러한 특성을 이용하여, 맨하탄 프레임의 안정성과 강건성을 추가적으로 테스트한다. 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우는 (
Figure pat00033
) 및 이와 시간적으로 인접한 다수 개의 이미지 프레임을 포함하며, 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우는 (
Figure pat00034
) 및 이와 시간적으로 인접한 다수 개의 이미지 프레임을 포함한다.Specifically, when the Manhattan frame satisfies temporal coherence and matching, in order to further improve the robustness of the Manhattan frame estimation, temporal-spatial coherence is checked. As shown in Fig. 9, the VIO method uses a consistent drift (
Figure pat00030
), and (
Figure pat00031
) is the actual value of the relative rotation (
Figure pat00032
) is close to Using these characteristics, the stability and robustness of the Manhattan frame are further tested. The second preset time sequence sliding window is (
Figure pat00033
) and a plurality of image frames temporally adjacent thereto, and the third preset time sequence sliding window is (
Figure pat00034
) and a plurality of image frames temporally adjacent thereto.

구체적으로, 두 개의 상이한 타임 시퀀스 슬라이딩 윈도우에서 맨하탄 프레임과 매칭된

Figure pat00035
Figure pat00036
를 이용하여 상대 회전 드리프트(
Figure pat00037
)를 계산하며, 공식은 하기와 같다:Specifically, in two different time-sequence sliding windows, the Manhattan frame and matched
Figure pat00035
class
Figure pat00036
Relative rotation drift (
Figure pat00037
), the formula is as follows:

Figure pat00038
Figure pat00038

다음으로, 현재 이미지와, 제2 사전 설정 임계값(

Figure pat00039
) 이하의 다른 매칭된 맨하탄 프레임 사이의 상대 회전 드리프트 오차의 수를 계산한다.Next, the current image and a second preset threshold (
Figure pat00039
) below, calculate the number of relative rotation drift errors between different matched Manhattan frames.

Figure pat00040
Figure pat00040

Figure pat00041
는 두 개의 타임 시퀀스 슬라이딩 윈도우 사이의, 맨하탄 프레임 매칭된 그룹을 나타낸다.
Figure pat00041
denotes a Manhattan frame matched group between two time sequence sliding windows.

마지막으로, 본 실시예에서는 하기와 같은 공식으로 비율을 계산한다:Finally, in this example, the ratio is calculated by the following formula:

Figure pat00042
Figure pat00042

Figure pat00043
은 두 개의 상이한 슬라이딩 윈도우 간의, 맨하탄 프레임 매칭의 총 수를 나타낸다.
Figure pat00044
이 제3 사전 설정 임계값 이하이면, 맨하탄 프레임이 시간-공간 일관성을 만족하는 것으로 판단한다.
Figure pat00043
represents the total number of Manhattan frame matches between two different sliding windows.
Figure pat00044
If it is less than or equal to this third preset threshold, it is determined that the Manhattan frame satisfies the temporal-spatial coherence.

나아가, 대다수의 시각-관성 SLAM과 유사하게, 본 실시예의 목표는 카메라 포즈, 속도 및 3차원 맵을 포함하는, 밝혀지지 않은 카메라의 상태를 추정하는 것이다.Furthermore, similar to most sight-inertial SLAMs, the goal of this embodiment is to estimate the camera's state, which is not revealed, including camera pose, velocity, and a three-dimensional map.

카메라 포즈가

Figure pat00045
로 설명된다고 가정한다. 각 3차원 맵의 점(
Figure pat00046
), 선(
Figure pat00047
)에 대하여, 추적 및 재식별 방법에 의하여 다수의 이미지 프레임 내에서 관찰을 수행한다. 관성 측정은 상대 운동 제약의 제공에 있어서도 매우 중요하므로, 관성 측정에 대한 예비 적분에 의하여 관성 측정 유닛의 상태(
Figure pat00048
)를 추정하며, 이 때
Figure pat00049
는 각각 속도와 바이어스를 나타낸다.camera pose
Figure pat00045
It is assumed to be described as Points on each 3D map (
Figure pat00046
), line(
Figure pat00047
), observations are performed within multiple image frames by tracking and re-identification methods. Since the inertia measurement is also very important in providing the relative motion constraint, the state of the inertial measurement unit (
Figure pat00048
) is estimated, at this time
Figure pat00049
are the speed and bias, respectively.

로컬 번들 조정된 비선형 최적화 프레임워크에 기반하여 슬라이딩 윈도우 내의 이미지 프레임 (

Figure pat00050
) 간의 관성 측정(
Figure pat00051
), 점-선 측정(
Figure pat00052
)과 재식별(
Figure pat00053
)의 시각적 측정(
Figure pat00054
)을 처리한다. 슬라이딩 윈도우 내에서 가장 오래된 프레임이 슬라이딩 윈도우 외부로 반출될 때, 이와 대응되는 시각적 및 관성 측정은 번들 조정된 선험적 오차(
Figure pat00055
)로 변환된다. 로컬 번들 조정된 함수는 하기와 같이 정의된다:Image frames within sliding windows based on local bundle coordinated non-linear optimization framework (
Figure pat00050
) to measure the inertia between
Figure pat00051
), point-line measurement (
Figure pat00052
) and re-identification (
Figure pat00053
) a visual measure of (
Figure pat00054
) is processed. When the oldest frame within a sliding window is taken out of the sliding window, the corresponding visual and inertial measurements are subject to bundle-adjusted a priori error (
Figure pat00055
) is converted to A local bundle coordinated function is defined as:

Figure pat00056
Figure pat00056

글로벌 번들 조정된 비선형 최적화 프레임워크에 기반하여 모든 키 이미지 프레임 (

Figure pat00057
) 간의 관성 측정(
Figure pat00058
), 점-선 추적(
Figure pat00059
) 및 점-선 재식별(
Figure pat00060
), 시각적 측정(
Figure pat00061
), 맨하탄 프레임 재식별 상대 회전(
Figure pat00062
)을 처리한다. 타임 시퀀스 슬라이딩 윈도우 내의 가장 오래된 키 이미지 프레임이 슬라이딩 윈도우로부터 반출될 때, 이에 대응되는 선험 프레임은 전역 번들 조정에서 상대 포즈(
Figure pat00063
)로 변환된다. 전역 번들 조정의 함수는 하기와 같이 정의된다:All key image frames (
Figure pat00057
) to measure the inertia between
Figure pat00058
), dot-line trace (
Figure pat00059
) and dot-line re-identification (
Figure pat00060
), a visual measurement (
Figure pat00061
), Manhattan frame re-identification relative rotation (
Figure pat00062
) is processed. When the oldest key image frame in the time sequence sliding window is exported from the sliding window, the corresponding a priori frame is set to the relative pose (
Figure pat00063
) is converted to The function of global bundle coordination is defined as follows:

Figure pat00064
Figure pat00064

Figure pat00065
Figure pat00065

도 10은 네 개의 부분 맨하탄 월드를 포함하는 경우의 카메라의 궤적 운동을 도시한 것으로서, 좌측 도면의 437th, 1081th, 1446th 및 1709th는 각각 우측의 이미지와 대응된다. 437th와 1081th는 동일한 로컬 맨하탄 월드(4)에 대응되며, 우측 도면 또한 437th와 1081th의 공간적 공통 뷰를 도시하므로, 맨하탄 프레임 재식별 후 계산된 상대 회전각 오차는 시각-관성 SLAM에 의해 추정된 것보다 작을 것이다. 이와 반대로, 1446th와 1709th는 상이한 로컬 맨하탄 세계에 대응되고, 우측 도면 또한 1446th와 1709th에 공간적 공통 뷰가 존재하지 않는 것으로 도시하므로, 맨하탄 프레임 매칭 후 계산된 상대 회전각 오차는 시각-관성 SLAM에 의해 추정된 것보다 클 것이다.10 shows the trajectory motion of the camera in the case of including four partial Manhattan worlds. 437th, 1081th, 1446th, and 1709th of the left figure correspond to the image on the right, respectively. 437th and 1081th correspond to the same local Manhattan world (4), and the right figure also shows a spatial common view of 437th and 1081th, so the calculated relative rotation angle error after Manhattan frame re-identification is that estimated by visual-inertia SLAM will be smaller than On the contrary, since 1446th and 1709th correspond to different local Manhattan worlds, and the right figure also shows that there is no spatial common view at 1446th and 1709th, the relative rotation angle error calculated after Manhattan frame matching is calculated by visual-inertia SLAM will be larger than estimated.

도 11은 본 실시예에 의하여 제공되는 SLAM 장치의 구조 블록도로서, 도 11에 도시된 바와 같이, 상기 장치(1000)는 구조 획득 모듈(1001), 구조 재식별 제약 획득 모듈(1002), SLAM 결과 획득 모듈(1003)을 포함하고:11 is a structural block diagram of a SLAM device provided by the present embodiment. As shown in FIG. 11 , the device 1000 includes a structure acquisition module 1001, a structure re-identification constraint acquisition module 1002, and a SLAM. A result acquisition module 1003 comprising:

구조 획득 모듈(1001)은 현재 이미지 프레임의 구조를 얻기 위하여 사용되며;The structure obtaining module 1001 is used to obtain the structure of the current image frame;

구조 재식별 제약 획득 모듈(1002)은 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하기 위하여 사용되고;The structure re-identification constraint obtaining module 1002 is used to obtain the structure re-identification constraint based on the structure of the current image frame;

SLAM 결과 획득 모듈(1003)은 구조 재식별 제약에 기반하여 SLAM 결과를 획득하기 위하여 사용된다.The SLAM result obtaining module 1003 is used to obtain a SLAM result based on the structure re-identification constraint.

본 실시예가 제공하는 방법에 있어서, SLAM 결과를 획득하는 번들 조정 과정에서 구조 재식별 제약을 도입하여 오차 누계를 보다 잘 억제할 수 있고, SLAM 결과의 정확성과 강건성을 향상시킬 수 있다.In the method provided by this embodiment, it is possible to better suppress the accumulation of errors by introducing the structure re-identification constraint in the bundle adjustment process for obtaining the SLAM result, and to improve the accuracy and robustness of the SLAM result.

본 실시예에서, 상기 장치는:In this embodiment, the device comprises:

현재 이미지 프레임의 점과 선을 획득하고;obtain points and lines of the current image frame;

현재 이미지 프레임의 점과 선을 재식별하여 점-선 재식별 제약을 획득하기 위한 점-선 재식별 제약 모듈을 포함하며;a dot-line re-identification constraint module for re-identifying points and lines of the current image frame to obtain a point-line re-identification constraint;

SLAM 결과 획득 모듈은 구체적으로The SLAM Result Acquisition module specifically

점-선 재식별 제약 및 구조 재식별 제약에 기반하여 SLAM 결과를 획득하기 위하여 사용된다.It is used to obtain SLAM results based on the dot-line re-identification constraint and the structural re-identification constraint.

본 실시예에서, 구조 획득 모듈은:In this embodiment, the structure acquisition module includes:

현재 이미지 프레임의 선에 기반하여 초기 구조를 획득하고;obtain an initial structure based on the line of the current image frame;

현재 이미지 프레임 중 기 설정된 조건을 만족하는 선에 기반하여 초기 구조를 최적화하고 구조를 획득하기 위하여 사용된다.It is used to optimize the initial structure and obtain the structure based on a line that satisfies a preset condition among the current image frame.

본 실시예에서, 구조 재식별 제약 획득 모듈은 구체적으로In this embodiment, the structure re-identification constraint obtaining module is specifically

현재 이미지 프레임과 키 이미지 프레임에 기반하여 글로벌 서브 맵을 획득하고;obtain a global submap based on the current image frame and the key image frame;

글로벌 서브 맵에 기반하여 구조를 재식별하고, 구조 재식별 제약을 획득하기 위하여 사용된다.It is used to re-identify the structure based on the global sub-map, and to obtain the structure re-identification constraint.

본 실시예에서, 구조 재식별 제약 획득 모듈은 또한In this embodiment, the structure re-identification constraint obtaining module is also

현재 이미지 프레임과 키 이미지 프레임 간의 타임 시퀀스 관계, 및 현재 이미지 프레임과 대응되는 3차원 맵과 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여 글로벌 서브 맵을 획득하기 위하여 사용된다.It is used to obtain a global sub-map based on a time sequence relationship between the current image frame and the key image frame, and a spatial relationship between a three-dimensional map corresponding to the current image frame and a three-dimensional map corresponding to the key image frame.

본 실시예에서, 구조 재식별 제약 획득 모듈은 또한In this embodiment, the structure re-identification constraint obtaining module is also

현재 이미지 프레임과 키 이미지 프레임 간의 타임 시퀀스 관계에 기반하여 현재 이미지 프레임의 기준 키 이미지 프레임을 획득하는 단계;obtaining a reference key image frame of the current image frame based on a time sequence relationship between the current image frame and the key image frame;

현재 이미지 프레임과 대응되는 3차원 맵 및 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여, 공간 분포에서 기준 키 이미지 프레임과 중첩 영역을 가지는 키 이미지 프레임을 현재 이미지 프레임과 공간적 공통 뷰를 가지는 키 이미지 프레임으로 설정하는 단계; 및Based on the spatial relationship between the current image frame and the corresponding three-dimensional map and the key image frame and the corresponding three-dimensional map, the key image frame having the overlapping area with the reference key image frame in the spatial distribution is divided into the current image frame and the spatial common view. setting the branch as a key image frame; and

공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 글로벌 서브 맵을 획득하는 단계를 포함한다.and obtaining a global sub-map based on the key image frame having a spatial common view.

본 실시예에서, 구조 재식별 제약 획득 모듈은 또한In this embodiment, the structure re-identification constraint obtaining module is also

글로벌 서브 맵에 기반하여 현재 이미지 프레임과 공통적 공간 뷰를 가지는 키 이미지 프레임을 획득하는 단계;obtaining a key image frame having a common spatial view with the current image frame based on the global sub-map;

공통적 공간 뷰를 가지는 키 이미지 프레임의 공통 뷰 상관 구조에 기반하여 구조를 재식별하는 단계를 포함한다.and re-identifying the structure based on the common view correlation structure of the key image frame having a common spatial view.

본 실시예에서, 구조 재식별 제약 획득 모듈은 또한In this embodiment, the structure re-identification constraint obtaining module is also

현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간 상관 구조에 기반하여, 구조에 대하여 시간 일관성 테스트를 실시하고;based on the structure of the current image frame and the temporal correlation structure of the image frame in the first preset time sequence sliding window corresponding thereto, perform a temporal consistency test on the structure;

구조에 대한 시간 일관성 테스트를 통과하면, 현재 이미지 프레임과 대응되는 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간 상관 구조, 및 공간적 공통 뷰를 가지는 키 이미지 프레임과 대응되는 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 공간적 공통 뷰 상관 구조에 기반하여 구조를 매칭하고;If the temporal consistency test for the structure is passed, the temporal correlation structure of the image frame in the sliding window corresponding to the second preset time sequence corresponding to the current image frame, and the third preset time sequence corresponding to the key image frame having a spatially common view match the structure based on the spatial common view correlation structure of the image frame within the sliding window;

매칭을 구현한 후, 시간 상관 구조와 이에 대응되는 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 구조에 대한 시간 일관성 테스트를 실시한다.After matching is implemented, a temporal consistency test is performed on the structure based on a key image frame having a temporal correlation structure and a corresponding spatial common view.

본 실시예에서, 구조 재식별 제약 획득 모듈은 또한In this embodiment, the structure re-identification constraint obtaining module is also

현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간 상관 구조 간의 상대 회전 오차를 획득하고;obtain a relative rotation error between the structure of the current image frame and the temporal correlation structure of the image frame within the corresponding first preset time sequence sliding window;

제1 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 모든 상대 회전 오차에 기반하여 구조에 대한 시간 일관성 테스트를 실시하기 위하여 사용된다.The first preset time sequence is used to perform a temporal consistency test on the structure based on all relative rotation errors corresponding to the sliding window.

본 실시예에서, 구조 재식별 제약 획득 모듈은 또한In this embodiment, the structure re-identification constraint obtaining module is also

시간 상관 구조 및 이에 대응되는 공간적 공통 뷰를 가지는 키 이미지 프레임 사이의 상대 회전 드리프트 오차를 획득하고;obtain a relative rotational drift error between a key image frame having a temporal correlation structure and a corresponding spatially common view;

제2 사전 설정 타임 시퀀스 슬라이딩 윈도우와 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 상대 회전 드리프트 오차를 획득하고;obtain a relative rotation drift error corresponding to the second preset time sequence sliding window and the third preset time sequence sliding window;

제2 사전 설정 타임 시퀀스 슬라이딩 윈도우와 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 상대 회전 드리프트 오차에 기반하여, 구조에 대한 시간-공간 일관성 테스트를 실시하기 위하여 사용된다.Based on the relative rotation drift error corresponding to the second preset time sequence sliding window and the third preset time sequence sliding window, it is used to perform a time-spatial consistency test for the structure.

본 실시예에서, 현재 이미지 프레임이 키 이미지 프레임인 경우, SLAM 결과 획득 모듈은 구체적으로In this embodiment, when the current image frame is a key image frame, the SLAM result obtaining module specifically

점-선 재식별 제약 및 구조 재식별 제약에 기반하여, 글로벌 번들 조정된 SLAM 결과를 획득하고;obtain a global bundle adjusted SLAM result based on the dot-line re-identification constraint and the structure re-identification constraint;

현재 이미지 프레임에 대응되는 제4 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 모든 이미지 프레임의 점-선 재식별 제약에 기반하여, 글로벌 번들 조정된 SLAM 결과에 대해 로컬 번들 조정을 실시하여 SLAM 결과를 획득하기 위하여 사용된다.Based on the dot-line re-identification constraint of all image frames in the fourth preset time sequence sliding window corresponding to the current image frame, local bundle adjustment is performed on the global bundle adjusted SLAM result to obtain a SLAM result. do.

이하, 본 실시예를 구현하기 위한 전자 장치(예컨대, 도 2에 도시된 방법을 실행하는 단말 장비 또는 서버)(1100)의 구조도가 도시된 도 12를 참조한다.Hereinafter, reference is made to FIG. 12 in which a structural diagram of an electronic device (eg, a terminal equipment or a server executing the method shown in FIG. 2 ) 1100 for implementing the present embodiment is shown.

본 실시예의 전자 장치는 모바일 폰, 노트북, 디지털 방송 송신기, PDA(personal digital assistant), PAD(태블릿), 휴대용 멀티미디어 플레이어(PMP; portable multimedia player), GPS(예컨대, 차량 내비게이션 단말), 웨어러블 디바이스 등의 이동 단말 및 디지털 TV, 데스크톱 PC 등의 고정 단말을 포함할 수 있으나 이에 제한되지 않는다. 도 12에 도시된 전자 장치는 일 실시예에 불과한 것으로서, 본 실시예의 기능과 사용 범위에 어떤 제한도 하지 않는다.The electronic device of the present embodiment includes a mobile phone, a notebook computer, a digital broadcast transmitter, a personal digital assistant (PDA), a tablet (PAD), a portable multimedia player (PMP), a GPS (eg, a vehicle navigation terminal), a wearable device, and the like. It may include, but is not limited to, a mobile terminal of a mobile terminal and a fixed terminal such as a digital TV and a desktop PC. The electronic device shown in FIG. 12 is only an exemplary embodiment, and does not limit the function and use range of the present exemplary embodiment.

전자 장치는 메모리 및 프로세서를 포함하며, 메모리는 상기 각 방법의 실시예에서 설명한 방법의 프로시저(procedure)를 저장하고; 프로세서는 메모리에 저장된 프로시저를 실행하도록 구성된다. 여기서, 프로세서는 후술될 처리 장치(1101)로 지칭될 수 있고, 메모리는 후술될 읽기 전용 메모리(ROM)(1102)를 포함할 수 있으며, 랜덤 액세스 메모리(RAM)(1103) 및 메모리 장치(1108) 중의 적어도 하나를 포함할 수 있고, 구체적으로는 하기와 같다:The electronic device includes a memory and a processor, wherein the memory stores a procedure of the method described in the embodiment of each method; The processor is configured to execute the procedure stored in the memory. Here, the processor may be referred to as a processing unit 1101 to be described below, and the memory may include a read-only memory (ROM) 1102 to be described below, and a random access memory (RAM) 1103 and a memory device 1108 , which will be described below. ) may include at least one of, specifically as follows:

도 12에 도시된 바와 같이, 전자 장치(1100)는 ROM(1102)에 저장된 프로시저 또는 메모리 장치(1108)로부터 RAM(1103)에 로드된 프로시저에 따라 각종 적절한 동작과 처리를 수행할 수 있는 처리 장치(예컨대 CPU, GPU 등)(1101)를 포함할 수 있다. RAM(1103)에는 전자 장치(1100)의 작동에 필요한 각종 프로시저와 데이터가 더 포함된다. 처리 장치(1101), ROM(1102) 및 RAM(1103)은 버스(1104)를 통하여 서로 연결된다. 입력/출력(I/O) 인터페이스(1105) 또한 버스(1104)에 연결된다.As shown in FIG. 12 , the electronic device 1100 can perform various appropriate operations and processing according to a procedure stored in the ROM 1102 or a procedure loaded into the RAM 1103 from the memory device 1108 . processing unit (eg, CPU, GPU, etc.) 1101 . The RAM 1103 further includes various procedures and data necessary for the operation of the electronic device 1100 . The processing unit 1101 , the ROM 1102 , and the RAM 1103 are connected to each other via a bus 1104 . An input/output (I/O) interface 1105 is also coupled to the bus 1104 .

일반적으로, 터치스크린, 터치패드, 키보드, 마우스, 카메라, 마이크, 가속계, 자이로스코프 등을 포함하는 입력 장치(1106); 액정 디스플레이(LCD), 스피커, 바이브레이터 등을 포함하는 출력 장치(1107); 자기 테이프, 하드 디스크 등을 포함하는 메모리 장치(1108); 및 통신 장치(1109)가 I/O 인터페이스(1105)에 연결될 수 있다. 통신 장치(1109)는 전자 장치(1100)가 다른 디바이스와 유선 또는 무선으로 통신하여 데이터를 교환하도록 할 수 있다. 도 12에는 각종 장치를 포함하는 전자 장치가 도시되었으나, 도시된 모든 장치를 실행하거나 또는 구비해야 하는 것은 아님이 이해될 것이다. 보다 많거나 보다 적은 수의 장치를 대체적으로 실행 또는 구비할 수 있다.input devices 1106, including generally a touchscreen, touchpad, keyboard, mouse, camera, microphone, accelerometer, gyroscope, and the like; an output device 1107 including a liquid crystal display (LCD), a speaker, a vibrator, and the like; memory device 1108, including magnetic tape, hard disk, and the like; and a communication device 1109 may be coupled to the I/O interface 1105 . The communication device 1109 may allow the electronic device 1100 to communicate with another device by wire or wirelessly to exchange data. Although FIG. 12 illustrates an electronic device including various devices, it will be understood that not all illustrated devices may be implemented or provided. More or fewer devices may generally be implemented or equipped.

특히, 본 실시예에 따르면, 흐름도를 참고하여 설명한 상기 과정은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 예컨대, 본 실시예는 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 포함하고, 상기 컴퓨터 프로그램은 흐름도에 도시된 방법을 실행하기 위한 프로그램 코드를 포함한다. 이러한 실시예에서, 상기 컴퓨터 프로그램은 통신 장치(1109)를 통하여 네트워크 상으로부터 다운로드 및 설치되거나, 또는 메모리 장치(1108)로부터 설치되거나, 또는 ROM(1102)으로부터 설치될 수 있다. 상기 컴퓨터 프로그램이 처리 장치(1101)에 의해 실행될 경우, 본 실시예의 방법에서 한정된 상기 기능을 실행한다.In particular, according to this embodiment, the process described with reference to the flowchart may be implemented as a computer software program. For example, the present embodiment includes a computer program product including a computer program stored in a non-transitory computer readable medium, wherein the computer program includes program code for executing the method shown in the flowchart. In this embodiment, the computer program may be downloaded and installed from the network via the communication device 1109 , installed from the memory device 1108 , or installed from the ROM 1102 . When the computer program is executed by the processing device 1101, it executes the functions defined in the method of this embodiment.

참고로, 전술한 컴퓨터 판독 가능 저장 매체는 컴퓨터 판독 가능 신호 매체 또는 컴퓨터 판독 가능 저장 매체, 또는 전술한 양자의 임의의 조합일 수 있다. 컴퓨터 판독 가능 저장 매체는 예컨대 전자, 자기, 광, 전자기, 적외선 또는 반도체 시스템, 장치 또는 소자 또는 이들의 임의의 조합을 포함할 수 있으나, 이에 제한되지 아니한다. 컴퓨터 판독 가능 저장 매체의 보다 구체적인 예는 하나 또는 다수의 도선을 포함하는 전기적 연결, 휴대식 컴퓨터 자기 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 및 프로그램 가능한 ROM(EPROM 또는 플래시 메모리), 광섬유, 휴대식 컴팩트 디스크 ROM(CD-ROM), 광 메모리 소자, 자기 메모리 소자, 또는 전술한 예들의 임의의 적절한 조합을 포함할 수 있으나, 이에 제한되지 아니한다. 컴퓨터 판독 가능 저장 매체는 프로그램을 포함 또는 저장하는 유형의 매체일 수 있으며, 상기 프로그램은 인스트럭션 실행 시스템, 장치 또는 소자에 의하여 사용되거나 또는 이와 결합되어 사용될 수 있다. 또한, 컴퓨터 판독 가능 신호는 기저 대역에 포함되거나 또는 반송파의 일부로서 전송되는 데이터 신호일 수 있으며, 내부에 컴퓨터 판독 가능한 프로그램 코드를 반송한다. 이러한 전송된 데이터 신호는 다양한 형태를 사용할 수 있으며, 전자기 신호, 광 신호 또는 전술한 형태의 임의의 적절한 조합을 포함할 수 있으나 이에 제한되지 아니한다. 컴퓨터 판독 가능 신호 매체는 컴퓨터 판독 가능 저장 매체 이외의 임의의 컴퓨터 판독 가능 매체로서, 상기 컴퓨터 판독 가능 신호 매체는 인스트럭션에 의하여 실행되는 시스템, 장치, 또는 소자에 의해 사용되거나 또는 이들과 결합되어 사용되는 프로그램을 발송, 전달, 전송할 수 있다. 컴퓨터 판독 가능 매체에 포함되는 프로그램 카드는 임의의 적합한 매체를 사용하여 전송될 수 있으며, 이는 전선, 광 케이블, RF(주파수) 등, 또는 전술한 것들의 임의의 적합한 조합을 포함할 수 있으나 이에 제한되지 아니한다.For reference, the computer-readable storage medium described above may be a computer-readable signal medium or a computer-readable storage medium, or any combination of both. A computer-readable storage medium may include, but is not limited to, for example, an electronic, magnetic, optical, electromagnetic, infrared or semiconductor system, device or element, or any combination thereof. More specific examples of computer-readable storage media include an electrical connection comprising one or more conductors, a portable computer magnetic disk, a hard disk, random access memory (RAM), read-only memory (ROM), erasable and programmable ROM (EPROM). or flash memory), optical fiber, portable compact disk ROM (CD-ROM), optical memory device, magnetic memory device, or any suitable combination of the foregoing examples. A computer-readable storage medium may be a tangible medium containing or storing a program, and the program may be used by or in combination with an instruction execution system, apparatus, or element. Further, the computer readable signal may be a data signal included in baseband or transmitted as part of a carrier wave, and carries therein a computer readable program code. The transmitted data signal may use various forms, and may include, but is not limited to, an electromagnetic signal, an optical signal, or any suitable combination of the foregoing forms. A computer-readable signal medium is any computer-readable medium other than a computer-readable storage medium, wherein the computer-readable signal medium is used by or in combination with a system, apparatus, or element that executes instructions. You may send, deliver, and transmit programs. A program card included in a computer readable medium may be transmitted using any suitable medium, which may include, but is not limited to, wire, optical cable, RF (frequency), etc., or any suitable combination of the foregoing. doesn't happen

일부 실시 양태에서, 사용자 단말, 서버는 HTTP(HyperText Transfer Protocol, 하이퍼텍스트 전송 규약)과 같은 임의의 공지 또는 장차 연구 개발될 네트워크 프로토콜을 사용하여 통신을 수행할 수 있으며, 임의의 형태 또는 매체의 디지털 데이터 통신(예컨대, 통신 네트워크)과 상호 연결될 수 있다. 통신 네트워크의 예시는 로컬 영역 네트워크("LAN"), 광역 네트워크("WAN"), 네트워크들의 네트워크(예컨대, 인터넷) 및 단말 대 단말 네트워크(예컨대, ad hoc 단말 대 단말 네트워크), 및 임의의 공지 또는 장차 연구 개발될 네트워크를 포함할 수 있다.In some embodiments, the user terminal and the server may perform communication using any known or to-be researched and developed network protocol, such as HTTP (HyperText Transfer Protocol, Hypertext Transfer Protocol), and may be digitally in any form or medium. It may be interconnected with data communications (eg, a communications network). Examples of communication networks include local area networks (“LANs”), wide area networks (“WANs”), networks of networks (eg, the Internet) and end-to-end networks (eg, ad hoc end-to-end networks), and any known public domain. Alternatively, it may include a network to be researched and developed in the future.

전술한 컴퓨터 판독 가능 매체는 전술한 전자 장치에 포함되는 것일 수 있으며; 단독으로 존재하고 상기 전자 장치에 설치되지 않는 것일 수도 있다.The aforementioned computer readable medium may be included in the aforementioned electronic device; It may exist alone and may not be installed in the electronic device.

전술한 컴퓨터 판독 가능 매체에는 하나 또는 다수 개의 프로그램이 로드되며, 전술한 하나 또는 다수 개의 프로그램이 상기 전자 장치에 의해 실행되면, 상기 전자 장치는:One or more programs are loaded in the aforementioned computer readable medium, and when the aforementioned one or more programs are executed by the electronic device, the electronic device includes:

현재 이미지 프레임의 구조를 획득하고; 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하며; 구조 재식별 제약에 기반하여 SLAM 결과를 획득하게 된다.obtain the structure of the current image frame; obtain a structure re-identification constraint based on the structure of the current image frame; Based on the structural re-identification constraint, SLAM results are obtained.

하나 또는 다수의 프로그래밍 설계 언어 또는 그 조합으로써 본 실시예의 작동을 구현하기 위한 컴퓨터 프로그램 코드를 생성할 수 있으며, 상기 프로그래밍 설계 언어는 예컨대 Java, Smalltalk, C++와 같은 개체 지향의 프로그래밍 설계 언어를 포함할 수 있으나 이에 제한되지 아니하며, "C" 언어와 같은 절차형 프로그래밍 설계 언어 또는 이와 유사한 프로그래밍 설계 언어를 포함할 수도 있다. 프로그램 코드는 사용자 컴퓨터 상에서 완전히 실행될 수 있으며, 사용자 컴퓨터 상에서 부분적으로 실행될 수도 있고, 독립된 소프트웨어 패키지로서 실행될 수도 있으며, 일부는 사용자 컴퓨터 상에서 사용되고 일부는 원격 컴퓨터 상에서 실행되거나, 또는 완전히 원격 컴퓨터나 서버 상에서 실행될 수도 있다. 원격 컴퓨터 상에서 실행되는 경우에 있어서, 원격 컴퓨터는 로컬 영역 네트워크(LAN) 또는 광역 네트워크(WAN)와 같은 임의의 종류의 네트워크를 통하여 사용자 컴퓨터에 연결될 수 있거나, 또는 외부 컴퓨터(예컨대, 인터넷 서비스 제공자에 의하여 인터넷으로 연결)에 연결될 수도 있다.One or more programming design languages or a combination thereof may generate computer program code for implementing the operation of the present embodiment, wherein the programming design language may include an object-oriented programming design language such as Java, Smalltalk, or C++. However, the present invention is not limited thereto, and may include a procedural programming design language such as "C" language or a similar programming design language. The program code may run entirely on the user's computer, partially on the user's computer, as a separate software package, some on the user's computer and some on a remote computer, or completely on a remote computer or server. may be When running on a remote computer, the remote computer may be connected to the user's computer through any kind of network, such as a local area network (LAN) or wide area network (WAN), or an external computer (eg, to an Internet service provider). may be connected to the Internet).

도면의 흐름도와 블록도는 각 실시예에 따른 시스템, 방법 및 컴퓨터 프로그래밍 제품의 실현 가능한 구조, 기능 또는 작동을 도시하였다. 이러한 점에서, 흐름도 또는 블록도의 각 블록은 하나의 모듈, 프로그램 조각, 또는 코드의 일부를 나타낼 수 있으며, 상기 모듈, 프로그램 조각, 또는 코드의 일부는 규정된 로직 기능을 구현하기 위한 하나 또는 다수의 실행 가능한 인스트럭션을 포함한다. 일부 대체된 구현예에서, 블록에서 표시된 기능은 도면에 표시된 기능과 상이한 순서로 발생할 수도 있다. 예컨대, 연결되어 표시된 두 개의 블록은 실제로는 기본적으로 동시에 실행될 수 있고, 이들은 경우에 따라서 반대되는 순서로 실행될 수도 있으며, 이는 관련 기능에 따라 결정된다. 주의할 점은, 블록도 및/또는 흐름도의 각 블록, 및 블록도 및/또는 흐름도의 블록의 조합은 규정된 기능 또는 동작을 수행하는 소프트웨어 기반의 전용 시스템을 사용하여 구현할 수 있으며, 또는 전용 소프트웨어와 컴퓨터 인스트럭션의 조합을 사용해서도 구현할 수 있다는 것이다.The flowcharts and block diagrams in the drawings illustrate possible structures, functions, or operations of systems, methods, and computer programming products according to respective embodiments. In this regard, each block in the flowchart or block diagram may represent one module, program piece, or portion of code, wherein the module, program piece, or portion of code is one or more for implementing a specified logic function. contains executable instructions. In some alternative implementations, the functions indicated in the blocks may occur in a different order than the functions indicated in the figures. For example, two blocks indicated as being connected may actually be basically executed simultaneously, and in some cases, they may be executed in the opposite order, depending on the function involved. It should be noted that each block in the block diagram and/or flowchart, and a combination of blocks in the block diagram and/or flowchart may be implemented using a software-based dedicated system that performs specified functions or operations, or dedicated software And it can be implemented using a combination of computer instructions.

본 실시예에서 설명한 모듈 또는 유닛은 소프트웨어 방식으로 구현될 수 있으며, 하드웨어 방식으로도 구현될 수 있다. 여기서, 모듈 또는 유닛의 명칭은 상황에 따라서는 상기 유닛 자체에 대한 한정을 구성하지 않을 수도 있다. 예컨대, 제1 제약 획득 모듈은 "제1 제약을 획득하는 모듈"로 설명될 수도 있다.Modules or units described in this embodiment may be implemented in a software manner or may be implemented in a hardware manner. Here, the name of the module or unit may not constitute a limitation on the unit itself depending on circumstances. For example, the first constraint obtaining module may be described as “a module obtaining the first constraint”.

앞서 설명된 기능은 적어도 부분적으로 하나 또는 다수 개의 하드웨어 로직 구성요소에 의하여 실행될 수 있다. 예컨대, 비제한적으로, 사용 가능한 바람직한 유형의 하드웨어 로직 구성요소는 필드 프로그래밍 가능 게이트 어레이(field programmable gate array, FPGA), 특수 용도 집적 회로(application-specific integrated circuit, ASIC), 특수 용도 표준형 제품(application-specific standard product, ASSP), 단일 칩 시스템(system on chip, SOC), 복합 프로그래밍 가능 로직 소자(complex programmable logic device, CPLD) 등을 포함한다.The functions described above may be implemented, at least in part, by one or more hardware logic components. By way of example, and not limitation, preferred types of hardware logic components that may be used include field programmable gate arrays (FPGAs), application-specific integrated circuits (ASICs), and application-specific integrated circuits (ASICs). -specific standard product (ASSP), single-chip system (system on chip, SOC), complex programmable logic device (complex programmable logic device, CPLD), and the like.

본 실시예에 관한 상하 문맥에서, 기계 판독 가능 매체는 인스트럭션 실행 시스템, 장치, 또는 디바이스에 제공되거나 또는 인스트럭션 실행 시스템, 장치, 또는 디바이스와 결합되어 사용되는 프로그램을 포함 또는 저장할 수 있는 유형의 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 자외선, 또는 반도체 시스템, 장치 또는 디바이스 또는 전술한 내용의 임의의 적절한 조합을 포함할 수 있으나, 이에 제한되지 아니한다. 기계 판독 가능 저장 매체의 보다 구체적인 예시는 하나 또는 다수의 선에 의한 전기적 연결, 휴대형 컴퓨터 디스크, 하드 디스크, RAM, 삭제 가능한 롬(EPROM 또는 고속 플래시 메모리), 광섬유, 콤팩트 디스크 ROM(CD-ROM), 광학 저장 디바이스, 자기 저장 디바이스, 또는 전술한 내용의 임의의 적절한 조합을 포함할 수 있다.In the context of the present embodiment, a machine-readable medium is a tangible medium that can contain or store a program provided on or used in combination with an instruction execution system, apparatus, or device. can The machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. Machine-readable media may include, but are not limited to, electronic, magnetic, optical, electromagnetic, ultraviolet, or semiconductor systems, apparatus or devices, or any suitable combination of the foregoing. More specific examples of machine-readable storage media include one or more wire electrical connections, portable computer disks, hard disks, RAM, removable ROM (EPROM or high-speed flash memory), optical fiber, compact disk ROM (CD-ROM). , an optical storage device, a magnetic storage device, or any suitable combination of the foregoing.

당업자들은 설명의 편의성과 간결성을 위하여 상기 설명한 컴퓨터 판독 가능 매체가 전자 장치에 의하여 실행될 때 구현되는 구체적인 방법에 대해 전술한 방법 실시예에 기재된 대응되는 단계를 참고할 수 있음을 명확하게 이해할 수 있으므로, 반복되는 설명은 생략한다. Those skilled in the art can clearly understand that, for convenience and conciseness of description, they can refer to corresponding steps described in the above-described method embodiments for specific methods implemented when the computer-readable medium described above is executed by an electronic device, so that the repetition A description will be omitted.

앞서 설명한 실시예들은 예시들일 뿐이며, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 잘 알려진 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 다른 기능적인 측면들의 기재는 생략되었다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로 구현될 수 있다.The above-described embodiments are merely examples, and do not limit the technical scope in any way. For brevity of the specification, descriptions of well-known electronic components, control systems, software, and other functional aspects have been omitted. In addition, the connections or connecting members of the lines between the components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional It may be implemented as a connection, or circuit connections.

한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예들에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. In addition, the structure of data used in the above-described embodiments may be recorded in a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).

본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 실시예가 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 실시예에 포함된 것으로 해석되어야 할 것이다.Those of ordinary skill in the art related to the present embodiment will understand that the embodiment may be implemented in a modified form without departing from the essential characteristics of the above description. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the rights is indicated in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as included in the present embodiment.

Claims (14)

동시적 위치추정 및 지도작성(simultaneous localization and mapping, SLAM) 방법에 있어서,
현재 이미지 프레임의 구조(structure)를 획득하는 단계;
상기 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약(constraint)을 획득하는 단계; 및
상기 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성(SLAM) 방법.
In the simultaneous localization and mapping (SLAM) method,
obtaining a structure of a current image frame;
obtaining a structure re-identification constraint based on the structure of the current image frame; and
and obtaining a SLAM result based on the structural re-identification constraint.
제 1 항에 있어서,
현재 이미지 프레임의 점과 선을 획득하는 단계;
상기 현재 이미지 프레임의 점과 선에 대한 재식별을 실시하여 점-선 재식별 제약을 획득하는 단계를 더 포함하고,
상기 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계는:
상기 점-선 재식별 제약 및 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
The method of claim 1,
obtaining points and lines of the current image frame;
Re-identifying the points and lines of the current image frame to obtain a point-line re-identification constraint,
Acquiring a SLAM result based on the structure re-identification constraint comprises:
and obtaining a SLAM result based on the dot-line re-identification constraint and the structural re-identification constraint.
제 1 항에 있어서,
상기 현재 이미지 프레임의 구조를 획득하는 단계는:
상기 현재 이미지 프레임의 선에 기반하여 초기 구조를 획득하는 단계; 및
상기 현재 이미지 프레임 중 기 설정된 조건을 만족시키는 선에 기반하여 상기 초기 구조를 최적화하여 상기 구조를 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
The method of claim 1,
The step of obtaining the structure of the current image frame includes:
obtaining an initial structure based on a line of the current image frame; and
and obtaining the structure by optimizing the initial structure based on a line that satisfies a preset condition among the current image frame.
제 1 항에 있어서,
상기 현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하는 단계는:
상기 현재 이미지 프레임과 키 이미지 프레임에 기반하여 글로벌 서브 맵을 획득하는 단계;
상기 글로벌 서브 맵에 기반하여 상기 구조를 재식별하고 상기 구조 재식별 제약을 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
The method of claim 1,
The step of obtaining a structure re-identification constraint based on the structure of the current image frame includes:
obtaining a global sub-map based on the current image frame and the key image frame;
and re-identifying the structure based on the global sub-map and obtaining the structure re-identification constraint.
제 4 항에 있어서,
상기 현재 이미지 프레임과 상기 키 이미지 프레임에 기반하여 글로벌 서브 맵을 획득하는 단계는:
상기 현재 이미지 프레임과 상기 키 이미지 프레임 간의 타임 시퀀스(time sequence) 관계, 및 상기 현재 이미지 프레임에 대응되는 3차원 맵과 상기 키 이미지 프레임에 대응되는 3차원 맵 간의 공간 관계에 기반하여 글로벌 서브 맵을 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
5. The method of claim 4,
Acquiring a global submap based on the current image frame and the key image frame includes:
A global submap is generated based on a time sequence relationship between the current image frame and the key image frame, and a spatial relationship between a three-dimensional map corresponding to the current image frame and a three-dimensional map corresponding to the key image frame. Simultaneous localization and mapping method comprising the step of acquiring.
제 5 항에 있어서,
상기 현재 이미지 프레임과 상기 키 프레임 간의 타임 시퀀스 관계, 및 상기 현재 이미지 프레임에 대응되는 3차원 맵과 상기 키 이미지 프레임에 대응되는 3차원 맵 간의 공간 관계에 기반하여 글로벌 서브 맵을 획득하는 단계는:
상기 현재 이미지 프레임과 상기 키 이미지 프레임 간의 타임 시퀀스 관계에 기반하여 상기 현재 이미지 프레임의 기준 키 이미지 프레임을 획득하는 단계;
상기 현재 이미지 프레임과 대응되는 3차원 맵 및 상기 키 이미지 프레임과 대응되는 3차원 맵 간의 공간 관계에 기반하여, 공간 분포에서 상기 기준 키 이미지 프레임과 중첩 영역을 가지는 키 이미지 프레임을 상기 현재 이미지 프레임과 공간적 공통 뷰를 가지는 키 이미지 프레임으로 설정하는 단계; 및
상기 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 상기 글로벌 서브 맵을 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
6. The method of claim 5,
Acquiring a global submap based on a time sequence relationship between the current image frame and the key frame and a spatial relationship between a 3D map corresponding to the current image frame and a 3D map corresponding to the key image frame includes:
obtaining a reference key image frame of the current image frame based on a time sequence relationship between the current image frame and the key image frame;
Based on the spatial relationship between the three-dimensional map corresponding to the current image frame and the three-dimensional map corresponding to the key image frame, a key image frame having an overlapping area with the reference key image frame in the spatial distribution is divided into the current image frame and the current image frame. setting a key image frame having a spatially common view; and
and obtaining the global sub-map based on a key image frame having the spatially common view.
제 4 항에 있어서,
상기 글로벌 서브 맵에 기반하여 상기 구조를 재식별하는 단계는:
상기 글로벌 서브 맵에 기반하여, 상기 현재 이미지 프레임의 공간적 공통 뷰를 가지는 키 이미지 프레임을 획득하는 단계; 및
상기 공간적 공통 뷰를 가지는 키 이미지 프레임의 공간적 공통 뷰 상관 구조에 기반하여, 상기 구조를 재식별하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
5. The method of claim 4,
Re-identifying the structure based on the global sub-map comprises:
obtaining, based on the global sub-map, a key image frame having a spatially common view of the current image frame; and
based on the spatially common view correlation structure of key image frames having the spatially common view, re-identifying the structure.
제 7 항에 있어서,
상기 공간적 공통 뷰를 가지는 키 이미지 프레임의 공간적 공통 뷰 상관 구조에 기반하여 상기 구조를 재식별하는 단계는:
상기 현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우의 시간 상관 구조에 기반하여 상기 구조에 대하여 시간 일관성 테스트를 실시하는 단계;
상기 구조에 대한 시간 일관성 테스트를 통과하면, 현재 이미지 프레임과 대응되는 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조, 및 상기 공간적 공통 뷰를 가지는 키 이미지 프레임과 대응되는 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 공간적 공통 뷰 상관 구조에 기반하여 구조를 매칭하는 단계; 및
매칭을 구현한 후, 상기 시간적 상관 구조 및 이와 대응되는 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 구조에 대한 시간-공간 일관성 테스트를 실시하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
8. The method of claim 7,
Re-identifying the structure based on the spatial common view correlation structure of the key image frame having the spatial common view comprises:
performing a temporal consistency test on the structure of the current image frame and the temporal correlation structure of a sliding window corresponding to a first preset time sequence;
If the temporal consistency test for the structure is passed, the temporal correlation structure of the image frame in the sliding window of the second preset time sequence corresponding to the current image frame, and the third preset corresponding to the key image frame having the spatial common view matching the structure based on the spatial common view correlation structure of the image frame within the time sequence sliding window; and
after implementing matching, performing a temporal-spatial consistency test on the structure based on the temporal correlation structure and a key image frame having a corresponding spatial common view.
제 8 항에 있어서,
상기 현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조에 기반하여 상기 구조에 대하여 시간 일관성 테스트를 실시하는 단계는:
현재 이미지 프레임의 구조와 이에 대응되는 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 이미지 프레임의 시간적 상관 구조 간의 상대 회전 오차를 획득하는 단계; 및
상기 제1 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 모든 상대 회전 오차에 기반하여 상기 구조에 대한 시간 일관성 테스트를 실시하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
9. The method of claim 8,
The step of performing a temporal consistency test on the structure of the current image frame based on the structure of the current image frame and the temporal correlation structure of the image frame in the first preset time sequence sliding window corresponding thereto may include:
obtaining a relative rotation error between the structure of the current image frame and the temporal correlation structure of the image frame in the corresponding first preset time sequence sliding window; and
and performing a temporal consistency test on the structure based on all relative rotation errors corresponding to the first preset time sequence sliding window.
제 8 항에 있어서,
상기 시간적 상관 구조 및 이와 대응되는 공간적 공통 뷰를 가지는 키 이미지 프레임에 기반하여 상기 구조에 대한 시간-공간 일관성 테스트를 실시하는 단계는:
상기 시간적 상관 구조 및 이와 대응되는 공간적 공통 뷰를 가지는 키 이미지 프레임 간의 상대 회전 드리프트 오차를 획득하는 단계;
제2 사전 설정 타임 시퀀스 슬라이딩 윈도우와 상기 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 상대 회전 드리프트 오차를 획득하는 단계; 및
상기 제2 사전 설정 타임 시퀀스 슬라이딩 윈도우와 상기 제3 사전 설정 타임 시퀀스 슬라이딩 윈도우에 대응되는 상대 회전 드리프트 오차에 기반하여, 상기 구조에 대한 시간-공간 일관성 테스트를 실시하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
9. The method of claim 8,
The step of performing a temporal-spatial consistency test for the structure based on the temporal correlation structure and a key image frame having a corresponding spatial common view includes:
obtaining a relative rotation drift error between the temporal correlation structure and a key image frame having a corresponding spatial common view;
obtaining a relative rotation drift error corresponding to a second preset time sequence sliding window and the third preset time sequence sliding window; and
performing a temporal-spatial consistency test on the structure based on a relative rotation drift error corresponding to the second preset time sequence sliding window and the third preset time sequence sliding window; Estimation and mapping methods.
제 2 항에 있어서,
상기 현재 이미지 프레임이 키 이미지 프레임인 경우, 상기 점-선 재식별 제약과 상기 구조 재식별에 기반하여 SLAM 결과를 획득하는 단계는:
상기 점-선 재식별 제약 및 상기 구조 재식별 제약에 기반하여 글로벌 번들 조정된 SLAM 결과를 획득하는 단계; 및
상기 현재 이미지 프레임에 대응되는 제4 사전 설정 타임 시퀀스 슬라이딩 윈도우 내의 모든 이미지 프레임의 점-선 재식별 제약에 기반하여, 글로벌 번들 조정된 SLAM 결과에 대해 로컬 번들 조정을 실시하여 SLAM 결과를 획득하는 단계를 포함하는, 동시적 위치추정 및 지도작성 방법.
3. The method of claim 2,
When the current image frame is a key image frame, obtaining a SLAM result based on the dot-line re-identification constraint and the structure re-identification includes:
obtaining a global bundle adjusted SLAM result based on the dot-line re-identification constraint and the structure re-identification constraint; and
Based on the dot-line re-identification constraint of all image frames in the fourth preset time sequence sliding window corresponding to the current image frame, performing local bundle adjustment on the global bundle adjusted SLAM result to obtain a SLAM result; Including, simultaneous localization and mapping method.
동시적 위치추정 및 지도작성(simultaneous localization and mapping, SLAM) 장치에 있어서,
현재 이미지 프레임의 구조를 획득하는 구조 획득 모듈;
현재 이미지 프레임의 구조에 근거하여 구조 재식별 제약을 획득하는 구조 재식별 제약 획득 모듈; 및
상기 구조 재식별 제약에 기반하여 SLAM 결과를 획득하는 SLAM 결과 획득 모듈;을 포함하는, 동시적 위치추정 및 지도작성(SLAM) 장치.
In a simultaneous localization and mapping (SLAM) device,
a structure obtaining module for obtaining a structure of the current image frame;
a structure re-identification constraint obtaining module for obtaining structure re-identification constraints based on the structure of the current image frame; and
Simultaneous localization and mapping (SLAM) device comprising a; SLAM result acquisition module for acquiring a SLAM result based on the structure re-identification constraint.
메모리; 및
프로세서를 포함하며,
상기 메모리 내에는 컴퓨터 프로그램이 저장되고;
상기 프로세서는 상기 컴퓨터 프로그램을 실행하여 제 1 항 내지 제 11 항 중 어느 한 항에 따른 방법을 구현하기 위해 사용되는, 전자 장치.
Memory; and
including a processor;
a computer program is stored in the memory;
The electronic device, wherein the processor is used to implement the method according to any one of claims 1 to 11 by executing the computer program.
프로세서에 의하여 실행될 때 제 1 항 내지 제 11 항 중 어느 한 항에 따른 방법이 구현되는 컴퓨터 프로그램이 저장된, 컴퓨터 판독 기능 저장 매체.A computer readable storage medium having stored thereon a computer program that, when executed by a processor, implements the method according to any one of claims 1 to 11.
KR1020210169346A 2021-02-26 2021-11-30 Method and apparatus for simultaneous localization and mapping (SLAM), computer-readable recording medium KR20220122471A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/681,179 US20220277479A1 (en) 2021-02-26 2022-02-25 Method and apparatus for simultaneous localization and mapping, and computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110221233.4A CN114964273A (en) 2021-02-26 2021-02-26 Instant positioning and map construction method, device and computer readable storage medium
CN202110221233.4 2021-02-26

Publications (1)

Publication Number Publication Date
KR20220122471A true KR20220122471A (en) 2022-09-02

Family

ID=82973230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210169346A KR20220122471A (en) 2021-02-26 2021-11-30 Method and apparatus for simultaneous localization and mapping (SLAM), computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR20220122471A (en)
CN (1) CN114964273A (en)

Also Published As

Publication number Publication date
CN114964273A (en) 2022-08-30

Similar Documents

Publication Publication Date Title
US11734846B2 (en) System and method for concurrent odometry and mapping
US11668571B2 (en) Simultaneous localization and mapping (SLAM) using dual event cameras
CN110322500B (en) Optimization method and device for instant positioning and map construction, medium and electronic equipment
CN109084746B (en) Monocular mode for autonomous platform guidance system with auxiliary sensor
JP6198230B2 (en) Head posture tracking using depth camera
EP3400507B1 (en) System and method for fault detection and recovery for concurrent odometry and mapping
Pei et al. Optimal heading estimation based multidimensional particle filter for pedestrian indoor positioning
CN109461208B (en) Three-dimensional map processing method, device, medium and computing equipment
US20130142384A1 (en) Enhanced navigation through multi-sensor positioning
TW201715476A (en) Navigation system based on augmented reality technique analyzes direction of users' moving by analyzing optical flow through the planar images captured by the image unit
JP2016524128A (en) Locating system and locating method
JP2021530821A (en) Methods, equipment and computer programs for performing 3D wireless model construction
CN112819860B (en) Visual inertial system initialization method and device, medium and electronic equipment
WO2016068742A1 (en) Method and system for indoor positioning of a mobile terminal
US10533874B2 (en) Inertial positioning and navigation device featuring a novel walk detection method
US20130329950A1 (en) Method and system of tracking object
Ren et al. Movement pattern recognition assisted map matching for pedestrian/wheelchair navigation
Ishihara et al. Beacon-guided structure from motion for smartphone-based navigation
Kasmi et al. Algorithms and position optimization for a decentralized localization platform based on resource-constrained devices
Cheng et al. Positioning and navigation of mobile robot with asynchronous fusion of binocular vision system and inertial navigation system
KR20220122471A (en) Method and apparatus for simultaneous localization and mapping (SLAM), computer-readable recording medium
Shu et al. Accurate indoor 3d location based on mems/vision by using a smartphone
CN114187509B (en) Object positioning method and device, electronic equipment and storage medium
US20220277479A1 (en) Method and apparatus for simultaneous localization and mapping, and computer-readable storage medium
US20240005552A1 (en) Target tracking method and apparatus, device, and medium