KR102275695B1 - Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building - Google Patents

Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building Download PDF

Info

Publication number
KR102275695B1
KR102275695B1 KR1020200067293A KR20200067293A KR102275695B1 KR 102275695 B1 KR102275695 B1 KR 102275695B1 KR 1020200067293 A KR1020200067293 A KR 1020200067293A KR 20200067293 A KR20200067293 A KR 20200067293A KR 102275695 B1 KR102275695 B1 KR 102275695B1
Authority
KR
South Korea
Prior art keywords
image frame
distance information
edge
current image
map
Prior art date
Application number
KR1020200067293A
Other languages
Korean (ko)
Other versions
KR20200068624A (en
Inventor
유소희
류수용
임종우
최병헌
Original Assignee
현대모비스 주식회사
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180035623A external-priority patent/KR102508960B1/en
Application filed by 현대모비스 주식회사, 한양대학교 산학협력단 filed Critical 현대모비스 주식회사
Priority to KR1020200067293A priority Critical patent/KR102275695B1/en
Publication of KR20200068624A publication Critical patent/KR20200068624A/en
Application granted granted Critical
Publication of KR102275695B1 publication Critical patent/KR102275695B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Abstract

본 발명은 3차원 지도 구축에 있어서, 이전 영상 프레임의 에지점(edge-point)의 3차원 지도 정보를 현재 영상 프레임으로 전파하고, 기 지정된 개수의 이전 영상 프레임 및 현재 영상 프레임 간의 에지점 뎁스(edge-point depth)에 따른 SAD(Sum of Absolute Differences) 코스트를 산출하고, SAD 코스트를 이용하여 SAD 코스트 볼륨을 생성하고, 현재 영상 프레임의 에지점에 대한 최적의 3차원 거리정보를 산출하고, 현재 영상 프레임의 에지점에 대응하는 기존의 3차원 거리정보 및 현재 영상 프레임에 기초하여, 최적의 3차원 거리정보에 기 지정된 비율을 적용함으로써 기존의 3차원 거리정보를 보정하여 새로운 3차원 거리정보로 업데이트 하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치 및 방법을 제공한다.In constructing a 3D map, the present invention propagates 3D map information of an edge-point of a previous image frame to a current image frame, and provides an edge point depth ( Calculate SAD (Sum of Absolute Differences) cost according to edge-point depth), generate SAD cost volume using SAD cost, calculate optimal 3D distance information for edge point of current image frame, and Based on the existing 3D distance information corresponding to the edge point of the image frame and the current image frame, by applying a predetermined ratio to the optimal 3D distance information, the existing 3D distance information is corrected into new 3D distance information. Provided are an apparatus and method for real-time updating of 3D distance information, characterized in that it is updated.

Description

3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법{Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building}{Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building}

본 발명은 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법에 관한 것으로, 보다 상세하게는 세미-덴스(semi-dense) SLAM(Simultaneous Localization And Mapping)을 현재 영상 프레임에 적용시켜, 자율주행 차량을 위한 3차원 지도를 실시간으로 구축하고, 복수의 이전 영상 프레임과 현재 영상 프레임의 코스트 볼륨(cost volume)을 산출하여 현재의 3차원 지도를 업데이트할 수 있도록 하는 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for real-time updating of 3D distance information in 3D map construction, and more particularly, by applying semi-dense SLAM (Simultaneous Localization And Mapping) to a current image frame, In constructing a 3D map that can be used to build a 3D map for an autonomous vehicle in real time and to update the current 3D map by calculating the cost volume of a plurality of previous image frames and the current image frame The present invention relates to an apparatus and method for real-time updating of 3D distance information.

일반적으로 SLAM(Simultaneous Localization and Mapping)은 이동 로봇(mobile robot) 등의 자율 주행에 주로 이용되는 기술로서, 주변 환경의 지도를 이용하여 위치를 인식하거나 역으로 위치를 인식하여 특정 지역의 지도를 만들고, 위치 인식과 지도 작성 두 가지를 동시에 수행하는 기술을 말한다. In general, SLAM (Simultaneous Localization and Mapping) is a technology mainly used for autonomous driving such as mobile robots. It uses a map of the surrounding environment to recognize a location or vice versa to create a map of a specific area. , refers to a technology that performs both location recognition and map creation at the same time.

SLAM을 이용하는 이동 로봇은, 카메라로부터 획득한 영상에서 키프레임(key frame) 및 랜드마크(landmark) 등을 추출하여 SLAM 지도를 생성한다.A mobile robot using SLAM generates a SLAM map by extracting key frames and landmarks from images acquired from a camera.

이동 로봇은 SLAM 지도가 생성된 지역을 이동할 때, 카메라로부터 획득한 영상으로부터, 키프레임 및 랜드마크 등을 추출하여 기 생성된 지도의 키프레임 및 랜드마크 등과 비교하여 자신의 위치를 인식한다. When the mobile robot moves in the area where the SLAM map is generated, it extracts keyframes and landmarks from the image acquired from the camera and compares the keyframes and landmarks of the previously generated map to recognize its location.

한편 세미-덴스(semi-dense) SLAM은 기존의 SLAM에서 특징점을 사용하는 대신에 에지(edge) 점들을 특징점으로 사용하는 방법이다. On the other hand, semi-dense SLAM is a method of using edge points as feature points instead of using feature points in the existing SLAM.

세미-덴스 SLAM은 키프레임을 기반으로 전반적인 3차원 환경지도(3-D environment map)를 구축한다. 이러한 세미-덴스 SLAM은 현재 프레임과 현재 키프레임 간의 에피폴(epipole) 라인을 구하여 현재의 3차원 환경지도(또는 3차원 지도)를 추정하고, 추정된 3차원 환경지도를 키프레임의 3차원 환경지도 정보에 업데이트하며, 현재 프레임이 새로운 키프레임인지를 판단 및 선정하여, 새로운 키프레임으로 판단될 될 경우 이전 키프레임의 정보들을 선정된 새로운 키프레임에 대한 정보로 변환하여 전파한다. Semi-dense SLAM builds an overall 3-D environment map based on keyframes. Such semi-dense SLAM estimates the current 3D environment map (or 3D map) by obtaining an epipole line between the current frame and the current keyframe, and uses the estimated 3D environment map as the 3D environment of the keyframe. The map information is updated, and it is determined and selected whether the current frame is a new keyframe, and when it is determined as a new keyframe, the information of the previous keyframe is converted into information about the selected new keyframe and propagated.

또한, 세미-덴스 SLAM에서의 키프레임과 현재 프레임 간의 3차원 환경지도 정보의 추정 방법은 확률론적 정보를 사용한 EKF(Extended Kalman Filter)를 사용하거나 단순한 필터링 방법을 사용한다. 이에 따라 종래의 세미-덴스 SLAM은 모든 영상 프레임에 대한 전반적인 3차원 환경지도를 구축할 수 있게 해준다. In addition, a method of estimating 3D environment map information between a key frame and a current frame in semi-dense SLAM uses an Extended Kalman Filter (EKF) using probabilistic information or a simple filtering method. Accordingly, the conventional semi-dense SLAM makes it possible to construct an overall 3D environment map for all image frames.

그러나 상기 모든 영상 프레임에 대한 환경지도를 구축하는 방법은 현재 프레임에서의 3차원 환경지도를 실시간으로 알기 힘들고, 해당 정보를 얻기 위해서는 추가적인 방법이 필요하여 자율 주행 등에 있어 3차원 환경지도 정보가 필요한 곳에 실시간으로 정보를 전달할 수 없는 문제점이 있다. 또한 매 프레임에 대한 3차원 환경지도를 구축하면, 종래의 SLAM 기술에서 사용된 키프레임에 대한 3차원 환경지도 업데이트 방법을 사용할 수 없게 되는 문제점이 있다.However, in the method of constructing the environment map for all the image frames, it is difficult to know the 3D environment map in the current frame in real time, and an additional method is required to obtain the corresponding information. There is a problem in that information cannot be transmitted in real time. In addition, if a 3D environment map is built for every frame, there is a problem in that the 3D environment map update method for keyframes used in the conventional SLAM technology cannot be used.

본 발명의 배경기술은 대한민국 공개특허 10-2016-0013713호(2016.02.05. 공개, 자율주행차량의 전역경로 생성장치 및 방법)에 개시되어 있다. Background art of the present invention is disclosed in Korean Patent Application Laid-Open No. 10-2016-0013713 (published on Feb. 5, 2016, apparatus and method for generating global routes for autonomous vehicles).

본 발명의 일 측면에 따르면, 세미-덴스 SLAM 기술을 현재 영상 프레임을 기반으로 수행하도록 하여 자율주행 차량을 위한 3차원 지도를 실시간으로 구축하고, 복수의 이전 영상 프레임과 현재 영상 프레임의 코스트 볼륨을 산출함으로써 현재의 3차원 지도를 실시간으로 업데이트하는, 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법을 제공하는 데 그 목적이 있다. According to one aspect of the present invention, a three-dimensional map for an autonomous vehicle is built in real time by performing the semi-dense SLAM technology based on the current image frame, and the cost volume of a plurality of previous image frames and the current image frame is calculated. An object of the present invention is to provide an apparatus and method for real-time updating of 3D distance information in 3D map construction, which updates the current 3D map in real time by calculating it.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.

본 발명의 일 측면에 따르면, 3차원 지도 구축에 있어서, 이전 영상 프레임(image frame)의 에지점(edge-point)의 3차원 지도 정보를 현재 영상 프레임으로 전파(propagate)하는 전파기; 기 지정된 개수의 이전 영상 프레임 및 현재 영상 프레임 간의 에지점 뎁스(edge-point depth)에 따른 SAD(Sum of Absolute Differences) 코스트(cost)를 산출하는 SAD 코스트 산출기; 상기 SAD 코스트를 이용하여 SAD 코스트 볼륨(cost volume)을 생성하고 상기 현재 영상 프레임의 에지점에 대한 최적의 3차원 거리정보를 산출하는 거리정보 산출기; 상기 현재 영상 프레임의 상기 에지점에 대응하는 기존의 3차원 거리정보 및 상기 현재 영상 프레임에 기초하여, 상기 최적의 3차원 거리정보에 기 지정된 비율을 적용함으로써 상기 기존의 3차원 거리정보를 보정하여 새로운 3차원 거리정보로 업데이트(update) 하는 업데이트기를 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치를 제공한다.According to an aspect of the present invention, in constructing a 3D map, there is provided a 3D map comprising: a propagator for propagating 3D map information of an edge-point of a previous image frame to a current image frame; a SAD cost calculator for calculating a sum of absolute differences (SAD) cost according to an edge-point depth between a predetermined number of previous image frames and a current image frame; a distance information calculator for generating an SAD cost volume using the SAD cost and calculating optimal 3D distance information for an edge point of the current image frame; Based on the existing 3D distance information corresponding to the edge point of the current image frame and the current image frame, the existing 3D distance information is corrected by applying a predetermined ratio to the optimal 3D distance information. There is provided a real-time updating device for 3D distance information, characterized in that it includes an updater for updating with new 3D distance information.

본 발명의 다른 측면에 따르면, 3차원 지도 구축에 있어서, 이전 영상 프레임(image frame)의 에지점(edge-point)의 3차원 지도정보를 현재 영상 프레임으로 전파하는 전파과정; 기 지정된 개수의 이전 영상 프레임 및 현재 영상 프레임 간의 에지점 뎁스(edge-point depth)에 따른 SAD(Sum of Absolute Differences) 코스트를 산출하는 SAD 코스트 산출과정; 상기 SAD 코스트를 이용하여 SAD 코스트 볼륨(cost volume)을 생성하고 상기 현재 영상 프레임의 에지점에 대한 최적의 3차원 거리정보를 산출하는 3차원 거리정보 산출과정; 상기 현재 영상 프레임의 상기 에지점에 대응하는 기존의 3차원 거리정보 및 상기 현재 영상 프레임에 기초하여, 상기 최적의 3차원 거리정보에 기 지정된 비율을 적용함으로써 상기 기존의 3차원 거리정보를 보정하여 새로운 3차원 거리정보로 업데이트 하는 업데이트과정을 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 방법을 제공한다.According to another aspect of the present invention, in constructing a 3D map, the method includes: a propagation process of propagating 3D map information of an edge-point of a previous image frame to a current image frame; a SAD cost calculation process of calculating a sum of absolute differences (SAD) cost according to an edge-point depth between a predetermined number of previous image frames and a current image frame; a three-dimensional distance information calculation process of generating an SAD cost volume using the SAD cost and calculating optimal three-dimensional distance information for an edge point of the current image frame; Based on the existing 3D distance information corresponding to the edge point of the current image frame and the current image frame, the existing 3D distance information is corrected by applying a predetermined ratio to the optimal 3D distance information. There is provided a real-time updating method of 3D distance information, characterized in that it includes an update process of updating to new 3D distance information.

본 발명의 일 측면에 따르면, 본 발명은 세미-덴스 SLAM을 현재 영상 프레임을 기반으로 수행하도록 하여, 자율주행 차량을 위한 3차원 지도를 실시간으로 구축할 수 있게 한다. According to one aspect of the present invention, the present invention enables semi-dense SLAM to be performed based on a current image frame, thereby enabling a three-dimensional map for an autonomous vehicle to be built in real time.

또한 본 발명은 일 측면에 따르면, 복수의 이전 영상 프레임과 현재 영상 프레임의 코스트 볼륨을 산출하여 현재의 3차원 지도를 실시간으로 업데이트할 수 있도록 한다.In addition, according to one aspect of the present invention, the current 3D map can be updated in real time by calculating the cost volumes of a plurality of previous image frames and the current image frame.

도 1은 본 발명의 일 실시예에 따른 실시간 3차원 지도구축 장치의 개략적인 구성을 보인 예시도이다.
도 2는 본 발명의 일 실시예에 따른 실시간 3차원 지도 구축 방법을 설명하기 위한 흐름도이다.
도 3은 상기 도 2에 있어서, SAD(Sum of absolute differences) 코스트 볼륨을 산출하는 방법을 설명하는 흐름도이다.
도 4는 상기 도 3에 있어서, 에피폴 라인 검색(search)에 따른 SAD 패치 매칭 방법을 보여주는 예시도이다.
도 5는 상기 도 3에 있어서, SAD 코스트 볼륨의 의미를 설명하기 위한 예시도이다.
도 6은 상기 도 3에 있어서, 현재 프레임과 이전 프레임간의 SAD 코스트 볼륨을 설명하기 위한 뎁스와 SAD 코스트 간의 관계의 예시를 나타내는 그래프이다.
1 is an exemplary diagram showing a schematic configuration of a real-time three-dimensional map construction apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method for constructing a real-time 3D map according to an embodiment of the present invention.
3 is a flowchart illustrating a method of calculating a sum of absolute differences (SAD) cost volume in FIG. 2 .
4 is an exemplary diagram illustrating an SAD patch matching method according to an epipole line search in FIG. 3 .
5 is an exemplary diagram for explaining the meaning of the SAD cost volume in FIG. 3 .
6 is a graph illustrating an example of the relationship between the depth and the SAD cost for describing the SAD cost volume between the current frame and the previous frame in FIG. 3 .

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시간 3차원 지도구축 장치 및 방법의 일 실시예를 설명한다. Hereinafter, an embodiment of a real-time three-dimensional map construction apparatus and method according to the present invention will be described with reference to the accompanying drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

본 발명에 따른 일 실시예는, 이전 영상 프레임에 대한 정보(예: 에지점들의 뎁스(즉, 거리) 정보)들을 이용하여 현재 영상 프레임에 대한 3차원 환경지도(또는 3차원 지도)를 실시간으로 구축하는 방법을 제공한다. 좀 더 구체적으로, 본 발명에 따른 일 실시예는 세미-덴스(semi-dense) SLAM 기술을 현재 영상 프레임에 대해 적용시키기 위하여, 이전 영상 프레임에 대한 정보(예: 에지점들의 뎁스(거리) 정보)들을 이용하여 현재 영상 프레임에 대한 코스트 볼륨(cost volume)을 구하는 방법을 제공한다. According to an embodiment of the present invention, a 3D environment map (or 3D map) for a current image frame is generated in real time by using information about a previous image frame (eg, depth (ie, distance) information of edge points). It provides a way to build More specifically, an embodiment according to the present invention provides information on a previous image frame (eg, depth (distance) information of edge points) in order to apply semi-dense SLAM technology to a current image frame. ) to provide a method of obtaining a cost volume for the current image frame.

도 1은 본 발명의 일 실시예에 따른 실시간 3차원 지도구축 장치의 개략적인 구성을 보인 예시도이다.1 is an exemplary diagram showing a schematic configuration of a real-time three-dimensional map construction apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 실시예에 따른 실시간 3차원 지도구축 장치는, 영상 입력부(110), 영상 처리부(121), 에지 및 에지점 추출부(edge and edge-point extraction unit, 122), 에지점 추적부(edge-point tracing unit, 123), 및 뎁스 추정부(depth estimation unit, 124)를 포함한다.As shown in FIG. 1 , the real-time 3D map construction apparatus according to the present embodiment includes an image input unit 110 , an image processing unit 121 , and an edge and edge-point extraction unit 122 . , an edge-point tracing unit 123 , and a depth estimation unit 124 .

영상 입력부(110)는 차량에 장착된 카메라(미도시)로부터 주기적으로 촬영되는 영상을 프레임(frame) 단위를 입력 받는다.The image input unit 110 receives an image periodically photographed from a camera (not shown) mounted on the vehicle in frame units.

영상 처리부(121)는 영상 입력부(110)로부터 주기적으로 입력되는 각 영상 프레임(또는 프레임)에서 에지 추출이 용이하도록 피사체의 윤곽선과 영상신호의 분포를 이진화(binarization) 처리한다.The image processing unit 121 binarizes the outline of the subject and the distribution of the image signal to facilitate edge extraction from each image frame (or frame) periodically input from the image input unit 110 .

에지 및 에지점 추출부(120)는 영상 처리부(120)가 처리한 각 영상 프레임으로부터 에지를 추출하고, 추출된 에지에서 복수의 에지점들(예: 세미-덴스의 후보자(candidate)로 지정되는 에지점들)을 추출한다.The edge and edge point extraction unit 120 extracts an edge from each image frame processed by the image processing unit 120, and a plurality of edge points (eg, semi-dense candidates) are selected from the extracted edge. edge points).

추출된 에지 및 에지점들은 주기적으로 입력되는 영상 프레임별로 추출되며, 에지점 추적부(123)는 영상 프레임이 새로 입력될 때마다 복수의 에지점들을 추적한다.The extracted edges and edge points are extracted for each periodically input image frame, and the edge point tracking unit 123 tracks a plurality of edge points whenever an image frame is newly input.

뎁스 추정부(124)는 에지점 추적부(140)가 추적한 에지점들에 대한 최적의 뎁스를 각기 추정하고, 이 추정된 최적의 뎁스를 내부적으로 생성된 3차원 지도(미도시)에 반영하여 업데이트한다. 이때, 뎁스는 에지점들 간 거리가 될 수 있다. 또한, 최적의 뎁스는 SAD(Sum of Absolute Differences) 코스트(cost) 최소인 뎁스일 수 있다. The depth estimator 124 estimates optimal depths for the edge points tracked by the edge point tracking unit 140, respectively, and reflects the estimated optimal depths on an internally generated 3D map (not shown). to update In this case, the depth may be a distance between edge points. In addition, the optimal depth may be a depth having a minimum sum of absolute differences (SAD) cost.

영상 처리부(121), 에지 및 에지점 추출부(122), 에지점 추적부(123) 및 뎁스 추정부(124)에 대한 동작은 하나의 제어부(120)로 통합되어 기능할 수 있다. 제어부(120)는 소프트웨어에 의해 프로그래머블(programmable) 방식으로 동작하는 마이크로프로세서(미도시)로 구현될 수 있다.The operations of the image processing unit 121 , the edge and edge point extraction unit 122 , the edge point tracking unit 123 , and the depth estimation unit 124 may be integrated into one control unit 120 to function. The controller 120 may be implemented as a microprocessor (not shown) operating in a programmable manner by software.

도 2는 본 발명의 일 실시예에 따른 실시간 3차원 지도 구축 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for constructing a real-time 3D map according to an embodiment of the present invention.

도 2를 참조하여, 이전 영상 프레임(image frame)에 대한 정보(예: 에지점들의 뎁스)들을 이용하여 현재 영상 프레임에 대한 3차원 환경지도(또는 3차원 지도)를 실시간으로 구축하는 방법을 설명한다.A method of constructing a 3D environment map (or 3D map) for a current image frame in real time using information (eg, depths of edge points) on a previous image frame will be described with reference to FIG. 2 . do.

제어부(120)는 이전 영상 프레임의 에지점들의 3차원 환경지도 정보를 현재 영상 프레임으로 전파(propagate)한다(S101).The controller 120 propagates the 3D environment map information of the edge points of the previous image frame to the current image frame (S101).

이때, 전파는, 제어부(120)가 이전 영상 프레임의 에지점들에 대한 뎁스를 3차원 지도에 반영하고, 이전 영상 프레임과 현재 영상 프레임을 비교하여 SAD 코스트를 산출하도록 3차원 지도에 반영된 에지점을 현재 영상 프레임에 투영함으로써 이루어질 수 있다.In this case, the propagation is the edge point reflected in the 3D map so that the controller 120 reflects the depths of the edge points of the previous image frame on the 3D map, and calculates the SAD cost by comparing the previous image frame with the current image frame. This can be achieved by projecting the

제어부(120)는 미리 지정된 개수의 이전 영상 프레임들과 현재 영상 프레임 간의 에지점들의 뎁스에 따른 SAD(Sum of absolute differences) 코스트를 산출한다(S102).The controller 120 calculates a sum of absolute differences (SAD) cost according to depths of edge points between a predetermined number of previous image frames and the current image frame ( S102 ).

SAD 코스트는 차량에 장착된 카메라의 이동 방향과 이동 거리에 대응하여, 각 영상들(예: 이전 영상 프레임 및 현재 영상 프레임 등)의 에지점들에 대한 패치(patch, 에지점을 중심으로 일정하게 지정된 사각의 윈도우 영역)의 값이 같은 정도를 의미한다. 예컨대, 패치값에 차이에 비례하여 SAD 코스트 값이 작아진다. 따라서 SAD 코스트 값이 최소이면, 에지점들에 대한 최적의 뎁스가 추정된 것으로 판단할 수 있다.The SAD cost corresponds to the moving direction and moving distance of the camera mounted on the vehicle, and the patch for the edge points of each image (eg, the previous image frame and the current image frame, etc.) is constant around the edge point. The value of the specified rectangular window area) means the same degree. For example, the SAD cost value decreases in proportion to the difference in the patch value. Therefore, if the SAD cost value is the minimum, it may be determined that the optimal depths for the edge points are estimated.

제어부(120)는 SAD 코스트들을 이용해 SAD 코스트 볼륨(cost volume)을 생성하여, 현재 영상 프레임의 에지점들에 대한 최적의 새로운 3차원 거리정보를 산출한다(S103).The controller 120 generates an SAD cost volume using the SAD costs, and calculates new optimal 3D distance information for edge points of the current image frame (S103).

제어부(120)는 에지점들에 대한 기존의 3차원 거리정보, 즉, 이전 영상 프레임들에 기초한 3차원 거리정보와 현재 영상 프레임에 기초하여 새로 구한 3차원 거리정보에 대하여 미리 지정된 비율을 적용하는 보정을 함으로써 새로운 3차원 거리정보로 업데이트 한다(S104). 예컨대, 기존의 3차원 거리정보와 새로 구한 3차원 거리정보의 비율을 5:5로 반영 또는 기존의 3차원 거리정보와 새로 구한 3차원 거리정보의 비율을 8:2로 반영할 수 있다.The control unit 120 applies a predetermined ratio to the existing 3D distance information for the edge points, that is, 3D distance information based on previous image frames and 3D distance information newly obtained based on the current image frame. It is updated with new 3D distance information by performing correction (S104). For example, the ratio of the existing 3D distance information and the newly obtained 3D distance information may be reflected as 5:5, or the ratio of the existing 3D distance information and the newly obtained 3D distance information may be reflected as 8:2.

본 발명에 따른 일 실시예는, 종래의 키프레임 기반 3차원 환경지도를 구축하는 방법 대신, 현재 영상 프레임에 대한 3차원 환경지도를 구축할 수 있도록 하며, 그에 따라 종래 기술과는 다르게 이전 영상 프레임의 정보들을 이용하여 SAD 코스트 볼륨을 산출하여 3차원 환경지도를 구축하는 방법을 제공한다.An embodiment according to the present invention makes it possible to build a 3D environment map for a current image frame instead of the conventional method of constructing a keyframe-based 3D environment map, and thus, unlike the prior art, a previous image frame A method of constructing a 3D environment map by calculating the SAD cost volume using the information of

이하 도 3을 참조하여, 미리 지정된 개수의 이전 영상 프레임들과 현재 영상 프레임 간의 뎁스에 따른 SAD 코스트 볼륨을 산출하는 방법에 대해서 구체적으로 설명한다.Hereinafter, a method of calculating a SAD cost volume according to a depth between a predetermined number of previous image frames and a current image frame will be described in detail with reference to FIG. 3 .

도 3은 도 2에 있어서, SAD(Sum of absolute differences) 코스트 볼륨을 산출하는 방법을 설명하는 흐름도이다.3 is a flowchart illustrating a method of calculating a sum of absolute differences (SAD) cost volume in FIG. 2 .

제어부(120)는 각 영상 프레임(즉, 이전 영상 프레임들 및 현재 영상 프레임 등)에서 세미-덴스(Semi-dense)의 후보자(candidate)로 지정되는 에지들의 각 에지점마다 에피폴 라인(epipole line)을 산출한다(S201).The control unit 120 controls an epipole line for each edge point of edges designated as semi-dense candidates in each image frame (ie, previous image frames and current image frame). ) is calculated (S201).

이때, 에피폴 라인은 에피폴 매칭(epipole matching)을 통해 표현되는 정보이다. 에피폴 매칭이란 연속된 2개의 영상 프레임을 찾는 방법으로, 이전 영상 프레임과 현재 영상 프레임에 대하여 각각의 카메라 위치정보를 알 때, 이전 영상의 한 에지점은 현재 영상 프레임에서 하나의 에피폴 라인으로 표현되어 에피폴 라인 상 가장 비슷한 점(예: SAD 코스트 값이 최소인 에지점)을 검색(search)하는 것이다.In this case, the epipole line is information expressed through epipole matching. Epipole matching is a method of finding two consecutive image frames. When each camera position information is known for the previous image frame and the current image frame, one edge point of the previous image is converted to one epipole line from the current image frame. It is expressed and searches for the most similar point on the epipole line (eg, the edge point with the minimum SAD cost value).

제어부(120)는 각 에지점들의 에피폴 라인을 각기 산출한 후, 에피폴 라인들에 대하여 미리 지정된 복수의 뎁스로 샘플링하여 현재 영상 프레임에서 이전 영상 프레임으로 재투영(re-projection) 한다(S202).After calculating the epipole lines of the respective edge points, the controller 120 samples the epipole lines at a plurality of predetermined depths to re-project the current image frame to the previous image frame (S202). ).

재투영은, 도 2에서 설명한 전파한다는 의미와는 반대의 의미로서, 제어부(120)가 현재 영상 프레임의 에지점들에 대한 뎁스를 3차원 지도에 반영하고 이전 영상 프레임과 현재 영상 프레임의 비교를 통해 SAD 코스트를 산출하기 위한, 3차원 지도에 반영된 에지점을 이전 영상 프레임에 투영하는 동작을 의미한다.The re-projection has the opposite meaning to the propagation described in FIG. 2 , and the controller 120 reflects the depths of the edge points of the current image frame on the 3D map and compares the previous image frame with the current image frame. It means an operation of projecting the edge point reflected in the 3D map onto the previous image frame for calculating the SAD cost through the

제어부(120)는 이전 영상 프레임에 재투영된 에지점과 현재 영상 프레임에서의 에지점의 패치를 비교하여 SAD 코스트를 산출한다(S203, 도 4 참조).The controller 120 calculates the SAD cost by comparing the re-projected edge point on the previous image frame with the patch of the edge point on the current image frame (S203, see FIG. 4 ).

제어부(120)는 여러 영상 프레임에 대해서 재투영을 수행(S102 단계)함으로써 패치 비교를 통한 SAD 코스트를 산출하고, 산출된 SAD 코스트 값을 이용하여 SAD 코스트 볼륨을 산출한다(S204).The controller 120 calculates the SAD cost through patch comparison by performing re-projection on several image frames (step S102), and calculates the SAD cost volume using the calculated SAD cost value (S204).

제어부(120)는 SAD 코스트 볼륨에서 최적의 뎁스값을 산출하여 3차원 환경지도에 적용한다(S205, 도 6 참조).The control unit 120 calculates an optimal depth value from the SAD cost volume and applies it to the 3D environment map (S205, see FIG. 6 ).

도 4는 도 3에 있어서, 에피폴 라인 검색(search)에 따른 SAD 패치 매칭 방법을 보여주는 예시도이다.FIG. 4 is an exemplary diagram illustrating an SAD patch matching method according to an epipole line search in FIG. 3 .

도 5는 도 3에 있어서, SAD 코스트 볼륨의 의미를 설명하기 위한 예시도이다.5 is an exemplary diagram for explaining the meaning of the SAD cost volume in FIG. 3 .

도 6은 도 3에 있어서, 현재 프레임과 이전 프레임간의 SAD 코스트 볼륨을 설명하기 위한 뎁스와 SAD 코스트 간의 관계를 나타내는 그래프이다. FIG. 6 is a graph illustrating a relationship between a depth and an SAD cost for describing an SAD cost volume between a current frame and a previous frame in FIG. 3 .

도 4를 참조하면, 에피폴 라인은 핀홀(pin-hole) 카메라에서는 보통 직선의 형태로 나타나지만, 광각(wide-angle) 카메라에서는 휘어진 곡선의 형태로 나타난다. 따라서 구축할 3차원 환경지도의 거리 범위를 정해 놓고 일정한 간격의 디스패리티(disparity)를 샘플링하여 비교하면서 에피폴 라인 위를 검색한다. 이때 검색은, 각 점에서 일정 크기의 패치를 추출한 뒤, SAD 코스트를 사용하여 SAD 코스트 값이 가장 작게 나오는 샘플링 점(즉, 에지점)을 매칭시킴으로써 이루어진다.Referring to FIG. 4 , the epipole line is usually shown in the form of a straight line in a pin-hole camera, but appears in the form of a curved line in a wide-angle camera. Therefore, the distance range of the 3D environment map to be constructed is determined, and disparity at regular intervals is sampled and compared while searching on the epipole line. In this case, the search is performed by extracting a patch of a certain size from each point and then matching the sampling point (ie, edge point) with the smallest SAD cost value using the SAD cost.

한편 도 5에 도시된 바와 같이, 코스트 볼륨은 복수의 이전 영상 프레임에 대해서 어느 한 에지점의 디스패리티(disparity)의 경향성 및 변화 과정을 보여준다. 즉, SAD 코스트 볼륨을 통해서 이전 영상 프레임들에 대해 다수의 디스패리티 값을 알 수 있으며, 이는 자동적으로 해당 에지점이 이전 영상 프레임들 중, 가령 장애물에 가려져서 안보이게 되어 오차가 크게 발생했을 경우, 그 오차까지 포함되어 계산되는 것을 방지한다.Meanwhile, as shown in FIG. 5 , the cost volume shows a tendency and a change process of disparity of any one edge point with respect to a plurality of previous image frames. In other words, a number of disparity values for previous image frames can be known through the SAD cost volume, and this automatically occurs when the corresponding edge point is invisible due to being obscured by an obstacle among the previous image frames, and when an error occurs, the error to avoid being included in the calculation.

도 6을 참조하면, 실제 뎁스(true depth)가 22.3074 m 인 에지점에 대해서 본 실시예에 따른 방식을 적용하여 샘플링한 결과, 실제 뎁스에 거의 근접한 뎁스값(약 23 m)이 산출됨을 알 수 있다. 도 6의 각 그래프는 각 프레임별 하나의 에지점에 대응하는 SAD 코스트를 나타내는 것이다. 이러한 SAD 코스트를 누적시켜 SAD 코스트 볼륨을 생성하고, SAD 코스트의 최소값이 가장 많은 뎁스를 3차원 환경지도에 적용한다.Referring to FIG. 6 , as a result of sampling an edge point having a true depth of 22.3074 m by applying the method according to the present embodiment, it can be seen that a depth value (about 23 m) that is almost close to the actual depth is calculated. have. Each graph of FIG. 6 represents an SAD cost corresponding to one edge point for each frame. The SAD cost volume is generated by accumulating these SAD costs, and the depth with the largest minimum value of the SAD cost is applied to the 3D environment map.

이와 같이 본 발명의 일 실시예에 따르면, 현재 영상 프레임에 대해서 3차원 환경지도를 실시간으로 구축할 수 있으며, 이전 영상 프레임들과 현재 영상 프레임간의 SAD 코스트 볼륨을 사용하여 최적의 3차원 환경지도 정보를 얻는 효과가 있다. As described above, according to an embodiment of the present invention, a 3D environment map can be constructed for the current image frame in real time, and optimal 3D environment map information can be obtained using the SAD cost volume between previous image frames and the current image frame. has the effect of obtaining

이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.As described above, the present invention has been described with reference to the embodiment shown in the drawings, but this is merely exemplary, and various modifications and equivalent other embodiments are possible therefrom by those of ordinary skill in the art. will understand the point. Therefore, the technical protection scope of the present invention should be defined by the following claims.

110 : 영상 입력부
120 : 제어부
121 : 영상 처리부
122 : 에지 및 에지점 추출부
123 : 에지점 추적부
124 : 뎁스 추정부
110: video input unit
120: control unit
121: image processing unit
122: edge and edge point extraction unit
123: edge point tracking unit
124: depth estimation unit

Claims (9)

3차원 지도 구축에 있어서,
이전 영상 프레임(image frame)의 에지점(edge-point)의 3차원 지도 정보를 현재 영상 프레임으로 전파(propagate)하는 전파기;
기 지정된 개수의 이전 영상 프레임 및 현재 영상 프레임 간의 에지점 뎁스(edge-point depth)에 따른 SAD(Sum of Absolute Differences) 코스트(cost)를 산출하는 SAD 코스트 산출기;
상기 SAD 코스트를 이용하여 SAD 코스트 볼륨(cost volume)을 생성하여 상기 현재 영상 프레임의 에지점에 대응하는 3차원 거리정보인 현재의 3차원 거리정보를 산출하는 거리정보 산출기;
상기 현재 영상 프레임의 상기 에지점에 대응하는 기존의 3차원 거리정보 및 상기 현재의 3차원 거리정보 간에 기 지정된 비율을 적용함으로써 상기 기존의 3차원 거리정보를 보정하여 새로운 3차원 거리정보로 업데이트(update) 하는 업데이트기
를 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
In constructing a 3D map,
a propagator for propagating 3D map information of an edge-point of a previous image frame to a current image frame;
a SAD cost calculator for calculating a sum of absolute differences (SAD) cost according to an edge-point depth between a predetermined number of previous image frames and a current image frame;
a distance information calculator for generating a SAD cost volume using the SAD cost and calculating current 3D distance information, which is 3D distance information corresponding to an edge point of the current image frame;
By applying a predetermined ratio between the existing 3D distance information corresponding to the edge point of the current image frame and the current 3D distance information, the existing 3D distance information is corrected and updated to new 3D distance information ( update)
3D distance information real-time update device comprising a.
제 1항에 있어서,
상기 에지점은,
주기적으로 입력되는 영상 프레임별로 추출되는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
The method of claim 1,
The edge point is
A real-time updating device for 3D distance information, characterized in that it is extracted for each periodically input image frame.
제 1항에 있어서,
상기 SAD 코스트는,
차량에 장착된 카메라의 이동 방향과 이동 거리에 대응하여, 상기 이전 영상 프레임의 에지점 및 상기 현재 영상 프레임의 에지점에 대한 패치(patch)를 비교하여, 상기 패치가 같은 정도를 나타내는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
The method of claim 1,
The SAD cost is
Corresponding to the moving direction and moving distance of the camera mounted on the vehicle, by comparing patches for the edge point of the previous image frame and the edge point of the current image frame, the patch indicates the same degree Real-time update device of 3D distance information
제 1항에 있어서,
상기 SAD 코스트가 최소인 뎁스(depth)를 최적의 뎁스로 추정하고, 추정된 최적의 뎁스를 상기 3차원 지도에 적용하는 뎁스 처리기를 더 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
The method of claim 1,
and a depth processor estimating a depth having the minimum SAD cost as an optimal depth and applying the estimated optimal depth to the 3D map.
제 1항에 있어서,
상기 SAD 코스트 볼륨은,
상기 이전 영상 프레임 및 상기 현재 영상 프레임 중 세미-덴스(semi-dense) 방법의 후보자로 지정되는 에지들의 각 에지점마다 에피폴 라인(epipole line)을 산출하고, 상기 각 에지점의 에피폴 라인을 각기 산출한 후, 상기 에피폴 라인들에 대하여 기 지정된 복수의 뎁스로 샘플링(sampling)하여 상기 현재 영상 프레임으로부터 상기 이전 영상 프레임으로 재투영(re-projection)함으로써 산출되는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
The method of claim 1,
The SAD cost volume is
An epipole line is calculated for each edge point of edges designated as candidates for a semi-dense method among the previous image frame and the current image frame, and the epipole line of each edge point is calculated After each calculation, the epipole lines are sampled at a plurality of predetermined depths and re-projected from the current image frame to the previous image frame. Real-time update device of information.
제 5항에 있어서,
상기 SAD 코스트 산출기는,
상기 재투영된 이전 영상 프레임의 각 에지점과 상기 현재 영상 프레임의 각 에지점의 패치를 비교함으로써 상기 SAD 코스트를 산출하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
6. The method of claim 5,
The SAD cost calculator,
and calculating the SAD cost by comparing each edge point of the re-projected previous image frame with a patch of each edge point of the current image frame.
제 5항에 있어서,
상기 SAD 코스트 볼륨으로부터 상기 현재 영상 프레임의 상기 에지점 간의 뎁스값을 추정하여 3차원 환경지도에 적용하는 뎁스값 추정기를 더 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 장치.
6. The method of claim 5,
and a depth value estimator for estimating a depth value between the edge points of the current image frame from the SAD cost volume and applying it to a 3D environment map.
3차원 지도 구축에 있어서,
이전 영상 프레임(image frame)의 에지점(edge-point)의 3차원 지도정보를 현재 영상 프레임으로 전파하는 전파과정;
기 지정된 개수의 이전 영상 프레임 및 현재 영상 프레임 간의 에지점 뎁스(edge-point depth)에 따른 SAD(Sum of Absolute Differences) 코스트를 산출하는 SAD 코스트 산출과정;
상기 SAD 코스트를 이용하여 SAD 코스트 볼륨(cost volume)을 생성하여 상기 현재 영상 프레임의 에지점에 대응하는 3차원 거리정보인 현재의 3차원 거리정보를 산출하는 3차원 거리정보 산출과정;
상기 현재 영상 프레임의 상기 에지점에 대응하는 기존의 3차원 거리정보 및 상기 현재의 3차원 거리정보 간에 기 지정된 비율을 적용함으로써 상기 기존의 3차원 거리정보를 보정하여 새로운 3차원 거리정보로 업데이트 하는 업데이트과정
을 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 방법.
In constructing a 3D map,
a propagation process of propagating 3D map information of an edge-point of a previous image frame to a current image frame;
a SAD cost calculation process of calculating a sum of absolute differences (SAD) cost according to an edge-point depth between a predetermined number of previous image frames and a current image frame;
a three-dimensional distance information calculation process of generating a SAD cost volume using the SAD cost and calculating current three-dimensional distance information, which is three-dimensional distance information corresponding to an edge point of the current image frame;
By applying a predetermined ratio between the existing 3D distance information corresponding to the edge point of the current image frame and the current 3D distance information, the existing 3D distance information is corrected and updated with new 3D distance information update process
3D distance information real-time update method comprising a.
제 8항에 있어서,
상기 SAD 코스트가 최소인 뎁스를 최적의 뎁스로 추정하고, 추정된 최적의 뎁스를 상기 3차원 지도에 적용하는 뎁스적용과정을 더 포함하는 것을 특징으로 하는 3차원 거리정보의 실시간 업데이트 방법.
9. The method of claim 8,
The method of claim 1, further comprising: a depth application process of estimating a depth having the minimum SAD cost as an optimal depth and applying the estimated optimal depth to the 3D map.
KR1020200067293A 2018-03-28 2020-06-03 Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building KR102275695B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200067293A KR102275695B1 (en) 2018-03-28 2020-06-03 Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180035623A KR102508960B1 (en) 2018-03-28 2018-03-28 Real time 3d map building apparatus and method
KR1020200067293A KR102275695B1 (en) 2018-03-28 2020-06-03 Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180035623A Division KR102508960B1 (en) 2018-03-28 2018-03-28 Real time 3d map building apparatus and method

Publications (2)

Publication Number Publication Date
KR20200068624A KR20200068624A (en) 2020-06-15
KR102275695B1 true KR102275695B1 (en) 2021-07-09

Family

ID=71081775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200067293A KR102275695B1 (en) 2018-03-28 2020-06-03 Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building

Country Status (1)

Country Link
KR (1) KR102275695B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054646A (en) * 2002-07-19 2004-02-19 Sony Corp Image processing device and method for the same
JP2010246166A (en) * 2010-07-21 2010-10-28 Konica Minolta Holdings Inc Device and method for displaying three dimensional information
JP2015148601A (en) * 2014-02-08 2015-08-20 本田技研工業株式会社 System and method for mapping, localization and pose correction
JP2016146655A (en) * 2009-10-14 2016-08-12 トムソン ライセンシングThomson Licensing Filtering and edge encoding
WO2016140090A1 (en) * 2015-03-04 2016-09-09 ソニー株式会社 Image coding device and method
JP2016537903A (en) * 2013-08-21 2016-12-01 ジョーント・インコーポレイテッドJaunt Inc. Connecting and recognizing virtual reality content

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100631082B1 (en) * 2004-10-19 2006-10-02 주식회사 세인시스템 Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same
KR20110064622A (en) * 2009-12-08 2011-06-15 삼성전자주식회사 3d edge extracting method and apparatus using tof camera
KR102094506B1 (en) * 2013-10-14 2020-03-27 삼성전자주식회사 Method for measuring changes of distance between the camera and the object using object tracking , Computer readable storage medium of recording the method and a device measuring changes of distance
KR102232524B1 (en) * 2014-10-27 2021-03-26 삼성전자주식회사 Image generating apparatus and method for generating image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054646A (en) * 2002-07-19 2004-02-19 Sony Corp Image processing device and method for the same
JP2016146655A (en) * 2009-10-14 2016-08-12 トムソン ライセンシングThomson Licensing Filtering and edge encoding
JP2010246166A (en) * 2010-07-21 2010-10-28 Konica Minolta Holdings Inc Device and method for displaying three dimensional information
JP2016537903A (en) * 2013-08-21 2016-12-01 ジョーント・インコーポレイテッドJaunt Inc. Connecting and recognizing virtual reality content
JP2015148601A (en) * 2014-02-08 2015-08-20 本田技研工業株式会社 System and method for mapping, localization and pose correction
WO2016140090A1 (en) * 2015-03-04 2016-09-09 ソニー株式会社 Image coding device and method

Also Published As

Publication number Publication date
KR20200068624A (en) 2020-06-15

Similar Documents

Publication Publication Date Title
Heo et al. EKF-based visual inertial navigation using sliding window nonlinear optimization
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
JP6421510B2 (en) Target detection method and target detection system
JP6557973B2 (en) MAP GENERATION DEVICE, MAP GENERATION METHOD, AND PROGRAM
US9058521B2 (en) Mobile robot and simultaneous localization and map building method thereof
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
WO2016210227A1 (en) Aligning 3d point clouds using loop closures
Chiu et al. Robust vision-aided navigation using sliding-window factor graphs
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
US10552981B2 (en) Depth camera 3D pose estimation using 3D CAD models
CN107167826B (en) Vehicle longitudinal positioning system and method based on variable grid image feature detection in automatic driving
KR101941852B1 (en) Keyframe extraction method for graph-slam and apparatus using thereof
JP2015041382A (en) Object tracking method and object tracking device
KR20120001532A (en) Apparatus for reconizing location using range signal and method thereof
CN114966734A (en) Bidirectional depth vision inertial pose estimation method combined with multi-line laser radar
CN112802096A (en) Device and method for realizing real-time positioning and mapping
JP2017198566A (en) Lane marker recognition device and own vehicle position estimation device
CN112817026A (en) Method, device and equipment for determining pose of moving object and storage medium
KR20190001086A (en) Sliding windows based structure-less localization method using inertial and single optical sensor, recording medium and device for performing the method
GB2578721A (en) Method and system for processing image data utilizing deep neural network
Chiu et al. Precise vision-aided aerial navigation
US20170108338A1 (en) Method for geolocating a carrier based on its environment
Ferreira et al. A real-time mosaicking algorithm using binary features for ROVs
KR102508960B1 (en) Real time 3d map building apparatus and method
CN113302655A (en) Learnable positioning using images

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant