KR102664901B1 - Apparatus for estimating visual odometry and method thereof - Google Patents

Apparatus for estimating visual odometry and method thereof Download PDF

Info

Publication number
KR102664901B1
KR102664901B1 KR1020190154026A KR20190154026A KR102664901B1 KR 102664901 B1 KR102664901 B1 KR 102664901B1 KR 1020190154026 A KR1020190154026 A KR 1020190154026A KR 20190154026 A KR20190154026 A KR 20190154026A KR 102664901 B1 KR102664901 B1 KR 102664901B1
Authority
KR
South Korea
Prior art keywords
roi
image processing
processing unit
feature points
image
Prior art date
Application number
KR1020190154026A
Other languages
Korean (ko)
Other versions
KR20210065381A (en
Inventor
서명환
Original Assignee
현대오토에버 주식회사
Filing date
Publication date
Application filed by 현대오토에버 주식회사 filed Critical 현대오토에버 주식회사
Priority to KR1020190154026A priority Critical patent/KR102664901B1/en
Publication of KR20210065381A publication Critical patent/KR20210065381A/en
Application granted granted Critical
Publication of KR102664901B1 publication Critical patent/KR102664901B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

본 발명은 시각적 주행거리 추정장치 및 그 방법이 개시된다. 본 발명의 시각적 주행거리 추정장치는, 차량의 주행 중 주변환경을 촬영하여 이미지를 획득하는 카메라부; 카메라부로부터 이미지를 입력받아 ROI를 분할하여 특징점을 추출하고 이상점을 제거하는 이미지 처리부; 및 이미지 처리부에서 추출된 특징점을 기반으로 주행거리를 추정하는 주행거리 추정부;를 포함하는 것을 특징으로 한다. The present invention discloses a visual mileage estimation device and method. The visual mileage estimation device of the present invention includes a camera unit that acquires images by photographing the surrounding environment while the vehicle is running; An image processing unit that receives an image from a camera unit, divides the ROI, extracts feature points, and removes outliers; and a driving distance estimation unit that estimates the driving distance based on the feature points extracted from the image processing unit.

Description

시각적 주행거리 추정장치 및 그 방법{APPARATUS FOR ESTIMATING VISUAL ODOMETRY AND METHOD THEREOF}Visual mileage estimation device and method {APPARATUS FOR ESTIMATING VISUAL ODOMETRY AND METHOD THEREOF}

본 발명은 시각적 주행거리 추정장치 및 그 방법에 관한 것으로서, 보다 상세하게는 시각적 주행거리를 추정하기 위해 이미지로부터 특징점을 추출할 때 ROI(Region Of Interest) 분할하여 각 ROI 별로 균일하게 추출하고, 이상점(Outlier) 개수에 따라 ROI 팩터를 동적으로 변경하여 ROI 분할 정도를 조정하여 ROI를 분할하는 시각적 주행거리 추정장치 및 그 방법에 관한 것이다. The present invention relates to a visual driving distance estimation device and method. More specifically, when extracting feature points from an image to estimate the visual driving distance, ROI (Region Of Interest) is divided and extracted uniformly for each ROI. This relates to a visual mileage estimation device and method for dividing ROI by dynamically changing the ROI factor according to the number of points (outliers) and adjusting the degree of ROI division.

일반적으로, 모바일 로봇 등에서 자율 주행을 위한 주행거리를 측정할 때 모바일 로봇에 부착된 엔코더 데이터(encoder data)를 이용하여 주행거리를 측정하였다. 이렇게 모바일 로봇에 부착된 엔코더 데이터를 이용하는 경우, 오로지 모바일 로봇에만 국한되기 때문에 다양한 형태의 로봇에 적용하여 주행거리를 측정하는데 어려움이 존재하였다. In general, when measuring the driving distance for autonomous driving in a mobile robot, etc., the driving distance is measured using encoder data attached to the mobile robot. When using encoder data attached to a mobile robot, it is limited to only mobile robots, so it is difficult to measure the driving distance by applying it to various types of robots.

최근에는 시간적으로 연속되는 영상 이미지를 활용하여 시각적 주행거리를 측정하고 있다. Recently, visual driving distance has been measured using temporally continuous video images.

여기서 시각적 주행거리는 연속되는 2개의 이미지 사이에서의 로봇의 포즈(pose) 변화를 영상처리를 통해 추정하는 것을 의미한다. 이때 시각적 주행거리는 정적인 환경, 즉, 아무것도 움직이지 않는 환경에서의 측정을 기반으로 한다. Here, visual driving distance means estimating the change in pose of the robot between two consecutive images through image processing. At this time, visual odometry is based on measurements in a static environment, that is, an environment in which nothing moves.

이와 같이 시각적 주행거리를 측정한 시각적 관성 거리계(Visual Inertial Odometry) 또는 시각적 주행 거리계는 GPS를 사용하지 않고 카메라 이미지를 분석하여 지형지물을 기반으로 위치와 방향을 결정하는 기술로써, 로봇과 AR 산업에 많이 적용되고 있다 In this way, visual inertial odometry, or visual odometer, which measures visual driving distance, is a technology that analyzes camera images without using GPS to determine location and direction based on terrain features, and is used in the robot and AR industries. It is widely applied

본 발명의 배경기술은 대한민국 등록특허공보 제10-1866660호(2018.06.12. 공고, 동적인 환경에서 배경모델에 기반한 RGB-D 시각 주행 거리 측정 방법 및 장치)에 개시되어 있다. The background technology of the present invention is disclosed in Republic of Korea Patent Publication No. 10-1866660 (announced on June 12, 2018, RGB-D visual odometry measurement method and device based on a background model in a dynamic environment).

이와 같이 시각적 주행거리 측정을 기반으로 한 시각적 주행 거리계는 이상점(Outlier) 제거 성능에 따라 측위 성능에 큰 영향을 미치게 된다. In this way, the visual odometer based on visual odometry has a significant impact on the positioning performance depending on the outlier removal performance.

여기서 이상점을 제거하기 이전에 이미지를 통해 검출된 특징점이 동적 객체(Moving Object)에 몰려 있게 되면 이상점을 제거한 후 남는 특징점의 수가 적어질 뿐만 아니라 제대로 이상점이 제거되지 않을 확률이 높아져 주행거리를 추정하기 위한 칼만필터의 오염도를 증가시켜 측위 성능이 저하되는 문제점이 있었다. Here, if the feature points detected through the image before removing the outliers are concentrated in a moving object, not only will the number of feature points remaining after removing the outliers decrease, but the probability that the outliers will not be properly removed increases, reducing the driving distance. There was a problem in that the positioning performance deteriorated by increasing the contamination level of the Kalman filter for estimation.

또한 동적 객체들이 많이 존재하는 구간을 주행할 경우 특징점이 동적 객체에 몰릴 확률이 높아지기 때문에 이상점 제거 성능이 저하되는 문제점이 있었다. Additionally, when driving in a section where there are many dynamic objects, there is a problem that outlier removal performance deteriorates because the probability that feature points are concentrated in dynamic objects increases.

본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 일 측면에 따른 본 발명의 목적은 시각적 주행거리를 추정하기 위해 이미지로부터 특징점을 추출할 때 ROI 분할하여 각 ROI 별로 균일하게 추출하고, 이상점(Outlier) 개수에 따라 ROI 팩터를 동적으로 변경하여 ROI 분할 정도를 조정하여 ROI를 분할하는 시각적 주행거리 추정장치 및 그 방법을 제공하는 것이다. The present invention was created to improve the problems described above. The purpose of the present invention according to one aspect is to divide the ROI and extract the feature points uniformly for each ROI when extracting feature points from an image to estimate the visual driving distance. It provides a visual mileage estimation device and method that divides the ROI by dynamically changing the ROI factor according to the number of points (outliers) and adjusting the degree of ROI division.

본 발명의 일 측면에 따른 시각적 주행거리 추정장치는, 차량의 주행 중 주변환경을 촬영하여 이미지를 획득하는 카메라부; 카메라부로부터 이미지를 입력받아 ROI(Region Of Interest)를 분할하여 특징점을 추출하고 이상점을 제거하는 이미지 처리부; 및 이미지 처리부에서 추출된 특징점을 기반으로 주행거리를 추정하는 주행거리 추정부;를 포함하는 것을 특징으로 한다. A visual mileage estimation device according to one aspect of the present invention includes a camera unit that acquires images by photographing the surrounding environment while the vehicle is running; An image processing unit that receives an image from a camera unit, divides the ROI (Region of Interest), extracts feature points, and removes outliers; and a driving distance estimation unit that estimates the driving distance based on the feature points extracted from the image processing unit.

본 발명에서 이미지 처리부는, 이미지를 입력받아 설정된 ROI 팩터에 따라 이미지를 분할하는 이미지 분할부; 이미지 분할부에서 분할된 ROI 별로 특징점을 검출하고 메트릭이 강한 특징점을 선별하여 추출하는 특징점 검출부; 및 특징점 검출부에서 추출된 특징점에서 동적객체를 판단하고 이상점을 제거하는 이상점 제거부;를 포함하는 것을 특징으로 한다. In the present invention, the image processing unit includes an image dividing unit that receives an image and divides the image according to a set ROI factor; a feature point detection unit that detects feature points for each ROI divided in the image segmentation section and selects and extracts feature points with strong metrics; and an outlier point removal unit that determines a dynamic object from the feature points extracted from the feature point detection unit and removes the outliers.

본 발명에서 이미지 처리부는, 이상점의 개수에 따라 ROI 팩터를 조정하여 설정하는 ROI 팩터 설정부;를 더 포함하는 것을 특징으로 한다. In the present invention, the image processing unit further includes an ROI factor setting unit that adjusts and sets the ROI factor according to the number of outliers.

본 발명에서 ROI 팩터 설정부는, 이상점이 개수가 많을수록 ROI 팩터를 크게 조정하는 것을 특징으로 한다. In the present invention, the ROI factor setting unit adjusts the ROI factor to a greater extent as the number of outliers increases.

본 발명에서 특징점 검출부는, 코너 기반의 알고리즘을 이용하여 특징점을 검출하는 것을 특징으로 한다. In the present invention, the feature point detection unit detects feature points using a corner-based algorithm.

본 발명에서 특징점 검출부는, 특징점의 명도차이를 이용하여 각 특징점 별 메트릭 정보를 생성하고, 메트릭 정보를 이용하여 우선순위를 설정하며, 각 특징점 간 최소거리를 설정하여 메트릭 정보와 최소거리를 기반으로 필터에서 사용되는 개수만큼 ROI 별로 균등하게 특징점을 선별하여 추출한 후 추출된 특징점을 병합하는 것을 특징으로 한다. In the present invention, the feature point detection unit generates metric information for each feature point using the difference in brightness of the feature points, sets priority using the metric information, sets the minimum distance between each feature point, and generates metric information for each feature point based on the metric information and minimum distance. It is characterized by equally selecting and extracting feature points for each ROI as many as are used in the filter, and then merging the extracted feature points.

본 발명에서 이상점 제거부는, RANSAC 알고리즘을 이용하여 동적객체를 판단하는 것을 특징으로 한다. In the present invention, the outlier removal unit determines dynamic objects using the RANSAC algorithm.

본 발명의 다른 측면에 따른 시각적 주행거리 추정방법은, 이미지 처리부가 카메라부로부터 이미지를 입력받는 단계; 이미지 처리부가 설정된 ROI 팩터를 기반으로 이미지를 분할하는 단계; 이미지 처리부가 분할된 이미지의 ROI 별로 특징점을 검출하여 추출하는 단계; 이미지 처리부가 추출된 특징점에서 이상점을 제거하는 단계; 및 주행거리 추정부가 이상점이 제거된 영상 측정치로부터 특징점을 기반으로 주행거리를 추정하는 단계;를 포함하는 것을 특징으로 한다. A visual mileage estimation method according to another aspect of the present invention includes the steps of an image processing unit receiving an image from a camera unit; A step where the image processing unit divides the image based on the set ROI factor; A step where the image processing unit detects and extracts feature points for each ROI of the divided image; A step where the image processing unit removes outliers from the extracted feature points; and a step of the driving distance estimating unit estimating the driving distance based on feature points from image measurements from which outliers have been removed.

본 발명은 이미지 처리부가 이상점의 개수에 따라 ROI 팩터를 조정하여 설정하는 단계를 더 포함하는 것을 특징으로 한다. The present invention is characterized in that the image processing unit further includes a step of adjusting and setting the ROI factor according to the number of outliers.

본 발명에서 ROI 팩터를 조정할 때, 이미지 처리부가 이상점이 개수가 많을수록 ROI 팩터를 크게 조정하는 것을 특징으로 한다. In the present invention, when adjusting the ROI factor, the image processing unit adjusts the ROI factor to be larger as the number of outliers increases.

본 발명에서 특징점을 검출하여 추출하는 단계는, 이미지 처리부가 특징점을 검출한 후 명도차이를 이용하여 각 특징점 별 메트릭 정보를 생성하는 단계; 이미지 처리부가 메트릭 정보를 이용하여 우선순위를 설정하는 단계; 이미지 처리부가 각 특징점 간 최소거리를 설정하는 단계; 이미지 처리부가 우선순위와 최소거리를 기반으로 필터에서 사용되는 개수만큼 ROI 별로 균등하게 특징점을 선별하여 추출하는 단계; 및 이미지처리부가 ROI 별로 추출된 특징점을 병합하는 단계;를 포함하는 것을 특징을 한다. In the present invention, the step of detecting and extracting feature points includes: an image processing unit detecting feature points and then generating metric information for each feature point using the brightness difference; Setting priorities by an image processing unit using metric information; Setting the minimum distance between each feature point by the image processing unit; A step where the image processing unit equally selects and extracts feature points for each ROI as many as are used in the filter based on priority and minimum distance; and a step of the image processing unit merging the extracted feature points for each ROI.

본 발명에서 특징점을 검출할 때, 이미지 처리부가 코너 기반의 알고리즘을 이용하여 특징점을 검출하는 것을 특징으로 한다. In the present invention, when detecting a feature point, the image processing unit detects the feature point using a corner-based algorithm.

본 발명에서 이상점을 제거하는 단계는, 이미지 처리부가 추출된 특징점에서 동적객체를 판단하고 이상점을 제거하는 것을 특징으로 한다. In the present invention, the step of removing outliers is characterized in that the image processing unit determines the dynamic object from the extracted feature points and removes the outliers.

본 발명에서 이상점을 제거하는 단계는, 이미지 처리부가 RANSAC 알고리즘을 이용하여 동적객체를 판단하는 것을 특징으로 한다. In the present invention, the step of removing outliers is characterized in that the image processing unit determines the dynamic object using the RANSAC algorithm.

본 발명의 일 측면에 따른 시각적 주행거리 추정장치 및 그 방법은 시각적 주행거리를 추정하기 위해 이미지로부터 특징점을 추출할 때 ROI(Region Of Interest) 분할하여 각 ROI 별로 균일하게 추출하고, 이상점(Outlier) 개수에 따라 ROI 팩터를 동적으로 변경하여 ROI 분할 정도를 조정하여 ROI를 분할함으로써, 특정 구간에 특징점이 몰려 검출되는 문제를 해결할 수 있고 이상점 제거 성능과 필터의 안정성을 높일 수 있을 뿐만 아니라, ROI 분할 정도를 동적으로 조정하여 ROI 분할 및 추출된 특징점을 병합하는데 사용되는 시스템의 리소스 줄여 리소스 효율성을 높일 수 있다. When extracting feature points from an image to estimate the visual driving distance, the visual driving distance estimation device and method according to an aspect of the present invention divide ROI (Region Of Interest) and extract it uniformly for each ROI, and outlier points (outliers) are extracted uniformly for each ROI. ) By dynamically changing the ROI factor according to the number and dividing the ROI by adjusting the degree of ROI division, the problem of feature points being detected crowded in a specific section can be solved, and outlier removal performance and filter stability can be improved as well. By dynamically adjusting the degree of ROI division, resource efficiency can be improved by reducing the resources of the system used to divide the ROI and merge the extracted feature points.

도 1은 본 발명의 일 실시예에 따른 시각적 주행거리 추정장치를 나타낸 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 시각적 주행거리 추정방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 시각적 주행거리 추정방법에서 특징점 추출과정을 설명하기 위한 흐름도이다.
1 is a block diagram showing a visual mileage estimation device according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a visual mileage estimation method according to an embodiment of the present invention.
Figure 3 is a flowchart illustrating the feature point extraction process in the visual mileage estimation method according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 시각적 주행거리 추정장치 및 그 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, a visual mileage estimation device and method according to the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 시각적 주행거리 추정장치를 나타낸 블록 구성도이다. 1 is a block diagram showing a visual mileage estimation device according to an embodiment of the present invention.

도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 시각적 주행거리 추정장치는, 카메라부(10), 이미지 처리부(20) 및 주행거리 추정부(30)를 포함할 수 있다. As shown in FIG. 1, the visual driving distance estimation device according to an embodiment of the present invention may include a camera unit 10, an image processing unit 20, and a driving distance estimating unit 30.

카메라부(10)는 차량의 주행 중 주변환경을 촬영한 이미지를 이미지 처리부(20)에 제공할 수 있다. The camera unit 10 may provide images captured of the surrounding environment while the vehicle is driving to the image processing unit 20.

이미지 처리부(20)는 카메라부(10)로부터 이미지를 입력받아 ROI를 분할하여 특징점을 추출하고 이상점을 제거할 수 있다. The image processing unit 20 may receive an image from the camera unit 10, divide the ROI, extract feature points, and remove outliers.

여기서, 이미지 처리부(20)는 이미지 분할부(210), 특징점 검출부(220) 및 이상점 제거부(230)를 비롯하여 ROI 팩터 설정부(240)를 포함할 수 있다. Here, the image processing unit 20 may include an image segmentation unit 210, a feature point detection unit 220, an outlier point removal unit 230, and an ROI factor setting unit 240.

이미지 분할부(210)는 이미지를 입력받아 설정된 ROI 팩터에 따라 이미지를 분할할 수 있다. The image segmentation unit 210 may receive an image and divide the image according to a set ROI factor.

예를 들어, ROI 팩터가 1로 설정된 경우 분할하지 않고, ROI 팩터가 2로 설정된 경우 이미지를 4분할(2x2) 하고, ROI 팩터가 3으로 설정된 경우 이미지를 9분할(3x3) 할 수 있다. 이때 동적 객체가 많은 혼잡한 도로일수록 ROI 팩터를 크게 하여 많이 분할할 수 있다. For example, if the ROI factor is set to 1, it is not divided, if the ROI factor is set to 2, the image can be divided into 4 parts (2x2), and if the ROI factor is set to 3, the image can be divided into 9 parts (3x3). At this time, the more congested the road is with many dynamic objects, the more segmentation can be done by increasing the ROI factor.

특징점 검출부(220)는 이미지 분할부(210)에서 분할된 ROI 별로 특징점을 검출하고 메트릭(metric)이 강한 특징점을 선별하여 추출할 수 있다. The feature point detection unit 220 may detect feature points for each ROI divided by the image segmentation unit 210 and select and extract feature points with a strong metric.

여기서, 특징점 검출부(220)는 FAST(Feature form Accelerated Segment Test), Shi-Tomasi 및 Harris-corner 등과 같은 코너 기반의 알고리즘을 이용하여 특징점을 검출할 수 있다. Here, the feature point detection unit 220 may detect feature points using corner-based algorithms such as FAST (Feature form Accelerated Segment Test), Shi-Tomasi, and Harris-corner.

이때 특징점 검출부(220)는 적용되는 코너 기반의 알고리즘의 문턱(Threshold) 인자값을 조정하여 검출되는 특징점의 개수를 조절할 수 있다. 여기서 문턱을 낮추게 되면 특징점 개수가 많이 검출되어 특징점을 선별할 때 연산량이 증가되는 문제가 발생됨으로 문턱의 최적값을 찾기 위한 튜닝을 진행할 수 있다. At this time, the feature point detection unit 220 can adjust the number of detected feature points by adjusting the threshold factor value of the applied corner-based algorithm. Here, if the threshold is lowered, a large number of feature points are detected and the amount of computation increases when selecting feature points. Therefore, tuning can be performed to find the optimal value of the threshold.

또한, 특징점 검출부(220)는 특징점의 명도차이를 이용하여 각 특징점 별 메트릭 정보를 생성하고, 메트릭 정보를 이용하여 높은 순서대로 우선순위를 설정한다. 또한, 특징점 검출부(220)는 필터에서 사용되는 개수만큼 균등하게 특징점을 추출하기 위해 각 특징점 간 최소거리를 설정할 수 있다. Additionally, the feature point detection unit 220 generates metric information for each feature point using the difference in brightness of the feature points, and sets the priority in descending order using the metric information. Additionally, the feature point detection unit 220 may set a minimum distance between each feature point in order to equally extract feature points as many as the number used in the filter.

이렇게 우선순위가 설정된 메트릭 정보와 최소거리를 기반으로 특징점 검출부(220)는 필터에서 사용되는 개수만큼 ROI 별로 균등하게 특징점을 선별하여 추출한 후 각 ROI 별로 추출된 특징점을 병합한다. Based on the priority-set metric information and minimum distance, the feature point detection unit 220 equally selects and extracts feature points for each ROI as many as are used in the filter, and then merges the feature points extracted for each ROI.

이상점 제거부(230)는 특징점 검출부(220)에서 추출된 특징점에서 동적객체를 판단하고 이상점을 제거할 수 있다. The outlier point removal unit 230 may determine a dynamic object from the feature points extracted by the feature point detection unit 220 and remove the outliers.

여기서, 이상점 제거부(230)는 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 컨센서스가 최대인 즉, 가장 많은 수의 데이터들로부터 지지를 받은 모델을 선택하여 동적객체를 판단하고 이상점을 제거할 수 있다. Here, the outlier removal unit 230 uses the RANSAC (RANdom SAmple Consensus) algorithm to select the model with the maximum consensus, that is, supported by the largest number of data, to determine the dynamic object and remove the outlier. You can.

ROI 팩터 설정부(240)는 이상점의 개수에 따라 ROI 팩터를 조정하여 설정하여 이미지 분할부(210)에서 설정된 ROI 팩터에 따라 이미지를 분할할 수 있도록 한다. The ROI factor setting unit 240 adjusts and sets the ROI factor according to the number of outliers so that the image can be divided according to the ROI factor set in the image segmentation unit 210.

여기서, ROI 팩터 설정부(240)는 이상점이 개수가 많을수록 ROI 팩터를 크게 조정할 수 있다. Here, the ROI factor setting unit 240 can adjust the ROI factor to be larger as the number of outliers increases.

예를 들어, ROI 팩터 설정부(240)는 이상점의 개수가 임계값보다 큰지 작은지 판단하여 임계값보다 크다면 ROI 팩터를 1보다 크게 설정할 수 있다. 또한, 임계값이 50일 경우 이상점 개수가 50 ~ 75이면 일반 주행도로로 판단하여 ROI 팩터를 2로 설정하여 이미지를 4분할(2x2) 할 수 있도록 하며, 이상점 개수가 75 ~ 100 이면 차량이 혼잡한 도로로 판단하여 ROI 팩터를 3으로 설정하여 이미지를 9분할(3x3) 할 수 있도록 한다. 만약 임계값보다 이상점 개수가 적다면 차량이 거의 없는 고속도로 및 일반도로로 판단하여 ROI 팩터를 1로 초기 셋팅할 수 있다. For example, the ROI factor setting unit 240 may determine whether the number of outliers is greater or less than the threshold, and if it is greater than the threshold, set the ROI factor to be greater than 1. In addition, when the threshold is 50 and the number of outliers is 50 to 75, it is judged to be a normal driving road and the ROI factor is set to 2, allowing the image to be divided into 4 (2x2). If the number of outliers is 75 to 100, the vehicle is It is judged to be a congested road and the ROI factor is set to 3 so that the image can be divided into 9 segments (3x3). If the number of outliers is less than the threshold, the ROI factor can be initially set to 1 by determining that it is a highway or general road with few vehicles.

주행거리 추정부(30)는 이미지 처리부(20)에서 이상점이 제거된 영상 측정치로부터 특징점을 기반으로 칼만필터를 적용하여 이미지 사이의 위치와 방향을 결정하여 시각적 주행거리를 추정할 수 있다. The driving distance estimation unit 30 can estimate the visual driving distance by determining the position and direction between images by applying a Kalman filter based on feature points from image measurements from which outliers have been removed in the image processing unit 20.

상술한 바와 같이, 본 발명의 실시예에 의한 시각적 주행거리 추정장치에 따르면, 시각적 주행거리를 추정하기 위해 이미지로부터 특징점을 추출할 때 ROI(Region Of Interest) 분할하여 각 ROI 별로 균일하게 추출하고, 이상점(Outlier) 개수에 따라 ROI 팩터를 동적으로 변경하여 ROI 분할 정도를 조정하여 ROI를 분할함으로써, 특정 구간에 특징점이 몰려 검출되는 문제를 해결할 수 있고 이상점 제거 성능과 필터의 안정성을 높일 수 있을 뿐만 아니라, ROI 분할 정도를 동적으로 조정하여 ROI 분할 및 추출된 특징점을 병합하는데 사용되는 시스템의 리소스 줄여 리소스 효율성을 높일 수 있다. As described above, according to the visual mileage estimation device according to an embodiment of the present invention, when extracting feature points from an image to estimate the visual mileage, ROI (Region Of Interest) is divided and extracted uniformly for each ROI, By dividing the ROI by dynamically changing the ROI factor according to the number of outliers and adjusting the degree of ROI division, the problem of feature points being detected concentrated in a specific section can be solved and the outlier removal performance and filter stability can be improved. In addition, by dynamically adjusting the degree of ROI division, resource efficiency can be improved by reducing the resources of the system used to divide the ROI and merge the extracted feature points.

도 2는 본 발명의 일 실시예에 따른 시각적 주행거리 추정방법을 설명하기 위한 흐름도이고, 도 3은 본 발명의 일 실시예에 따른 시각적 주행거리 추정방법에서 특징점 추출과정을 설명하기 위한 흐름도이다. Figure 2 is a flowchart for explaining a visual mileage estimation method according to an embodiment of the present invention, and Figure 3 is a flowchart for explaining a feature point extraction process in the visual mileage estimation method according to an embodiment of the present invention.

도 2에 도시된 바와 같이 본 발명의 일 실시예에 따른 시각적 주행거리 추정방법에서는 먼저, 이미지 처리부(20)가 카메라부(10)로부터 이미지를 입력받는다(S10). As shown in FIG. 2, in the visual mileage estimation method according to an embodiment of the present invention, first, the image processing unit 20 receives an image from the camera unit 10 (S10).

S10 단계에서 이미지를 입력받은 후 이미지 처리부(20)는 설정된 ROI 팩터를 기반으로 이미지를 분할한다(S20). After receiving the image in step S10, the image processing unit 20 divides the image based on the set ROI factor (S20).

예를 들어, ROI 팩터가 1로 설정된 경우 분할하지 않고, ROI 팩터가 2로 설정된 경우 이미지를 4분할(2x2) 하고, ROI 팩터가 3으로 설정된 경우 이미지를 9분할(3x3) 할 수 있다. 이때 동적 객체가 많은 혼잡한 도로일수록 ROI 팩터를 크게 하여 많이 분할할 수 있다. For example, if the ROI factor is set to 1, it is not divided, if the ROI factor is set to 2, the image can be divided into 4 parts (2x2), and if the ROI factor is set to 3, the image can be divided into 9 parts (3x3). At this time, the more congested the road is with many dynamic objects, the more segmentation can be done by increasing the ROI factor.

S20 단계에서 이미지를 분할 한 후 이미지 처리부(20)는 분할된 이미지의 ROI 별로 특징점을 검출하여 추출한다(S30). After dividing the image in step S20, the image processing unit 20 detects and extracts feature points for each ROI of the divided image (S30).

여기서, 이미지 처리부(20)는 FAST(Feature form Accelerated Segment Test), Shi-Tomasi 및 Harris-corner 등과 같은 코너 기반의 알고리즘을 이용하여 특징점을 검출할 수 있다. 이때 적용되는 코너 기반의 알고리즘의 문턱(Threshold) 인자값을 조정하여 검출되는 특징점의 개수를 조절할 수 있다. 여기서 문턱을 낮추게 되면 특징점 개수가 많이 검출되어 특징점을 선별할 때 연산량이 증가되는 문제가 발생됨으로 문턱의 최적값을 찾기 위한 튜닝을 진행할 수 있다. Here, the image processing unit 20 may detect feature points using corner-based algorithms such as FAST (Feature form Accelerated Segment Test), Shi-Tomasi, and Harris-corner. At this time, the number of detected feature points can be adjusted by adjusting the threshold factor value of the corner-based algorithm applied. Here, if the threshold is lowered, a large number of feature points are detected and the amount of computation increases when selecting feature points. Therefore, tuning can be performed to find the optimal value of the threshold.

이를 보다 구체적으로 설명하면 도 3에 도시된 바와 같이 이미지 처리부(20)는 특징점을 검출한 후 명도차이를 이용하여 각 특징점 별 메트릭(metric) 정보를 생성한다(S300). To explain this in more detail, as shown in FIG. 3, the image processing unit 20 detects a feature point and then uses the brightness difference to generate metric information for each feature point (S300).

S300 단계에서 각 특징점 별 메트릭 정보를 생성한 후 이미지 처리부(20)는 메트릭 정보를 이용하여 높은 순서대로 우선순위를 설정한다(S310). After generating metric information for each feature point in step S300, the image processing unit 20 sets priorities in descending order using the metric information (S310).

또한, 이미지 처리부(20)는 필터에서 사용되는 개수만큼 균등하게 특징점을 추출하기 위해 각 특징점 간 최소거리를 설정한다(S320). Additionally, the image processing unit 20 sets the minimum distance between each feature point to equally extract the number of feature points used in the filter (S320).

S310 단계와 S320단계에서 특징점에 대해 우선순위를 설정하고 각 특징점 간 최소거리를 설정한 후 이미지 처리부(20)는 우선순위가 설정된 메트릭 정보와 최소거리를 기반으로 필터에서 사용되는 개수만큼 ROI 별로 균등하게 특징점을 선별하여 추출한다(S330). After setting priorities for feature points and setting the minimum distance between each feature point in steps S310 and S320, the image processing unit 20 equalizes the number of ROIs used in the filter based on the priority-set metric information and the minimum distance. Feature points are selected and extracted (S330).

S330 단계에서 각 ROI 별 특징점을 추출한 후 이미지 처리부(20)는 각 ROI 별로 추출된 특징점을 병합한다(S340). After extracting the feature points for each ROI in step S330, the image processing unit 20 merges the feature points extracted for each ROI (S340).

이와 같이 특징점을 추출한 후 이미지 처리부(20)는 추출된 특징점에서 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 컨센서스가 최대인 즉, 가장 많은 수의 데이터들로부터 지지를 받은 모델을 선택하여 동적객체를 판단하고 이상점을 제거한다(S40). After extracting the feature points in this way, the image processing unit 20 uses the RANSAC (RANdom SAmple Consensus) algorithm from the extracted feature points to select the model with the maximum consensus, that is, the model supported by the largest number of data to determine the dynamic object. and remove outliers (S40).

한편, S40 단계에서 이상점을 제거한 후 이미지 처리부(20)는 이상점의 개수에 따라 ROI 팩터를 조정하여 설정한다(S50). Meanwhile, after removing the outliers in step S40, the image processing unit 20 adjusts and sets the ROI factor according to the number of outliers (S50).

여기서, 이미지 처리부(20)는 이상점이 개수가 많을수록 ROI 팩터를 크게 조정할 수 있다. Here, the image processing unit 20 can adjust the ROI factor to be larger as the number of outliers increases.

예를 들어, ROI 팩터 설정부(240)는 이상점의 개수가 임계값보다 큰지 작은지 판단하여 임계값보다 크다면 ROI 팩터를 1보다 크게 설정할 수 있다. 또한, 임계값이 50일 경우 이상점 개수가 50 ~ 75이면 일반 주행도로로 판단하여 ROI 팩터를 2로 설정하여 이미지를 4분할(2x2) 할 수 있도록 하며, 이상점 개수가 75 ~ 100 이면 차량이 혼잡한 도로로 판단하여 ROI 팩터를 3으로 설정하여 이미지를 9분할(3x3) 할 수 있도록 한다. 만약 임계값보다 이상점 개수가 적다면 차량이 거의 없는 고속도로 및 일반도로로 판단하여 ROI 팩터를 1로 초기 셋팅할 수 있다. For example, the ROI factor setting unit 240 may determine whether the number of outliers is greater or less than the threshold, and if it is greater than the threshold, set the ROI factor to be greater than 1. In addition, when the threshold is 50 and the number of outliers is 50 to 75, it is judged to be a normal driving road and the ROI factor is set to 2, allowing the image to be divided into 4 (2x2). If the number of outliers is 75 to 100, the vehicle is It is judged to be a congested road and the ROI factor is set to 3 so that the image can be divided into 9 segments (3x3). If the number of outliers is less than the threshold, the ROI factor can be initially set to 1 by determining that it is a highway or general road with few vehicles.

S40 단계에서 이상점이 제거된 영상 측정치로부터 주행거리 추정부(30)는 특징점을 기반으로 칼만필터를 적용하여 이미지 사이의 위치와 방향을 결정하여 시각적 주행거리를 추정한다(S60). From the image measurements from which outliers have been removed in step S40, the driving distance estimation unit 30 applies a Kalman filter based on the feature points to determine the position and direction between images to estimate the visual driving distance (S60).

상술한 바와 같이, 본 발명의 실시예에 의한 시각적 주행거리 추정방법에 따르면, 시각적 주행거리를 추정하기 위해 이미지로부터 특징점을 추출할 때 ROI(Region Of Interest) 분할하여 각 ROI 별로 균일하게 추출하고, 이상점(Outlier) 개수에 따라 ROI 팩터를 동적으로 변경하여 ROI 분할 정도를 조정하여 ROI를 분할함으로써, 특정 구간에 특징점이 몰려 검출되는 문제를 해결할 수 있고 이상점 제거 성능과 필터의 안정성을 높일 수 있을 뿐만 아니라, ROI 분할 정도를 동적으로 조정하여 ROI 분할 및 추출된 특징점을 병합하는데 사용되는 시스템의 리소스 줄여 리소스 효율성을 높일 수 있다. As described above, according to the visual driving distance estimation method according to an embodiment of the present invention, when extracting feature points from an image to estimate the visual driving distance, ROI (Region Of Interest) is divided and extracted uniformly for each ROI, By dividing the ROI by dynamically changing the ROI factor according to the number of outliers and adjusting the degree of ROI division, the problem of feature points being detected concentrated in a specific section can be solved and the outlier removal performance and filter stability can be improved. In addition, by dynamically adjusting the degree of ROI division, resource efficiency can be improved by reducing the resources of the system used to divide the ROI and merge the extracted feature points.

본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Implementations described herein may be implemented, for example, as a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device that includes a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will recognize that various modifications and other equivalent embodiments are possible therefrom. You will understand.

따라서 본 발명의 진정한 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the claims below.

10 : 카메라부 20 : 이미지 처리부
30 : 주행거리 추정부 210 : 이미지 분할부
220 : 특징점 검출부 230 : 이상점 제거부
240 : ROI 팩터 설정부
10: camera unit 20: image processing unit
30: mileage estimation unit 210: image division unit
220: Feature point detection unit 230: Outlier point removal unit
240: ROI factor setting unit

Claims (14)

차량의 주행 중 주변환경을 촬영하여 이미지를 획득하는 카메라부;
상기 카메라부로부터 이미지를 입력받아 ROI(Region Of Interest)를 분할하여 특징점을 추출하고 이상점을 제거하는 이미지 처리부; 및
상기 이미지 처리부에서 추출된 상기 특징점을 기반으로 주행거리를 추정하는 주행거리 추정부;를 포함하되,
상기 이미지 처리부는, ROI 팩터를 조정하여 ROI를 분할하고, ROI 별로 특징점을 검출한 후 특징점의 메트릭 정보를 이용하여 ROI 별로 균등하게 특징점을 선별하여 추출하는 것을 특징으로 하는 시각적 주행거리 추정장치.
A camera unit that acquires images by photographing the surrounding environment while the vehicle is driving;
An image processing unit that receives the image from the camera unit, divides the ROI (Region of Interest), extracts feature points, and removes outliers; and
Includes a driving distance estimation unit that estimates the driving distance based on the feature points extracted from the image processing unit,
The image processing unit divides the ROI by adjusting the ROI factor, detects feature points for each ROI, and then equally selects and extracts feature points for each ROI using metric information of the feature points.
제 1항에 있어서, 상기 이미지 처리부는,
상기 이미지를 입력받아 설정된 ROI 팩터에 따라 상기 이미지를 분할하는 이미지 분할부;
상기 이미지 분할부에서 분할된 상기 ROI 별로 상기 특징점을 검출하고 메트릭이 강한 특징점을 선별하여 추출하는 특징점 검출부; 및
상기 특징점 검출부에서 추출된 상기 특징점에서 동적객체를 판단하고 이상점을 제거하는 이상점 제거부;를 포함하는 것을 특징으로 하는 시각적 주행거리 추정장치.
The method of claim 1, wherein the image processing unit,
an image segmentation unit that receives the image and divides the image according to a set ROI factor;
a feature point detection unit that detects the feature points for each ROI divided by the image division unit and selects and extracts feature points with a strong metric; and
A visual mileage estimation device comprising: an outlier point removal unit that determines a dynamic object from the feature points extracted from the feature point detection unit and removes the outlier points.
제 2항에 있어서, 상기 이미지 처리부는, 상기 이상점의 개수에 따라 상기 ROI 팩터를 조정하여 설정하는 ROI 팩터 설정부;를 더 포함하는 것을 특징으로 하는 시각적 주행거리 추정장치.
The visual mileage estimation device according to claim 2, wherein the image processing unit further includes an ROI factor setting unit that adjusts and sets the ROI factor according to the number of outliers.
제 3항에 있어서, 상기 ROI 팩터 설정부는, 상기 이상점이 개수가 많을수록 상기 ROI 팩터를 크게 조정하는 것을 특징으로 하는 시각적 주행거리 추정장치.
The visual mileage estimation device according to claim 3, wherein the ROI factor setting unit adjusts the ROI factor to be larger as the number of outliers increases.
제 2항에 있어서, 상기 특징점 검출부는, 코너 기반의 알고리즘을 이용하여 상기 특징점을 검출하는 것을 특징으로 하는 시각적 주행거리 추정장치.
The visual mileage estimation device according to claim 2, wherein the feature point detection unit detects the feature point using a corner-based algorithm.
제 2항에 있어서, 상기 특징점 검출부는, 상기 특징점의 명도차이를 이용하여 각 특징점 별 메트릭 정보를 생성하고, 상기 메트릭 정보를 이용하여 우선순위를 설정하며, 각 특징점 간 최소거리를 설정하여 상기 메트릭 정보와 상기 최소거리를 기반으로 필터에서 사용되는 개수만큼 상기 ROI 별로 균등하게 상기 특징점을 선별하여 추출한 후 추출된 상기 특징점을 병합하는 것을 특징으로 하는 시각적 주행거리 추정장치.
The method of claim 2, wherein the feature point detector generates metric information for each feature point using a brightness difference between the feature points, sets a priority using the metric information, and sets a minimum distance between each feature point to determine the metric. A visual mileage estimation device characterized in that, based on information and the minimum distance, the feature points are equally selected and extracted for each ROI as many as used in the filter, and then the extracted feature points are merged.
제 2항에 있어서, 상기 이상점 제거부는, RANSAC 알고리즘을 이용하여 동적객체를 판단하는 것을 특징으로 하는 시각적 주행거리 추정장치.
The visual mileage estimation device according to claim 2, wherein the outlier removal unit determines the dynamic object using the RANSAC algorithm.
이미지 처리부가 카메라부로부터 이미지를 입력받는 단계;
상기 이미지 처리부가 설정된 ROI(Region Of Interest) 팩터를 기반으로 상기 이미지를 분할하는 단계;
상기 이미지 처리부가 분할된 상기 이미지의 ROI 별로 특징점을 검출하여 추출하는 단계;
상기 이미지 처리부가 추출된 상기 특징점에서 이상점을 제거하는 단계; 및
주행거리 추정부가 상기 이상점이 제거된 영상 측정치로부터 상기 특징점을 기반으로 주행거리를 추정하는 단계;를 포함하되,
상기 특징점을 검출하여 추출하는 단계는,
상기 이미지 처리부가 ROI 팩터를 조정하여 분할된 ROI 별로 특징점을 검출한 후 특징점의 메트릭 정보를 이용하여 ROI 별로 균등하게 특징점을 선별하여 추출하는 것을 특징으로 하는 시각적 주행거리 추정방법.
An image processing unit receiving an image from a camera unit;
The image processing unit dividing the image based on a set ROI (Region Of Interest) factor;
The image processing unit detecting and extracting feature points for each ROI of the divided image;
removing outliers from the extracted feature points by the image processing unit; and
Including a step where the driving distance estimator estimates the driving distance based on the feature points from the image measurements from which the outliers have been removed,
The step of detecting and extracting the feature point is,
A visual mileage estimation method wherein the image processing unit adjusts the ROI factor to detect feature points for each divided ROI, and then equally selects and extracts feature points for each ROI using metric information of the feature points.
제 8항에 있어서, 상기 이미지 처리부가 상기 이상점의 개수에 따라 상기 ROI 팩터를 조정하여 설정하는 단계를 더 포함하는 것을 특징으로 하는 시각적 주행거리 추정방법.
The method of claim 8, further comprising the step of the image processing unit adjusting and setting the ROI factor according to the number of outliers.
제 9항에 있어서, 상기 ROI 팩터를 조정할 때, 상기 이미지 처리부가 상기 이상점이 개수가 많을수록 상기 ROI 팩터를 크게 조정하는 것을 특징으로 하는 시각적 주행거리 추정방법.
The method of claim 9, wherein when adjusting the ROI factor, the image processing unit adjusts the ROI factor to be larger as the number of outliers increases.
제 8항에 있어서, 상기 특징점을 검출하여 추출하는 단계는,
상기 이미지 처리부가 상기 특징점을 검출한 후 명도차이를 이용하여 각 특징점 별 메트릭 정보를 생성하는 단계;
상기 이미지 처리부가 상기 메트릭 정보를 이용하여 우선순위를 설정하는 단계;
상기 이미지 처리부가 각 특징점 간 최소거리를 설정하는 단계;
상기 이미지 처리부가 상기 우선순위와 상기 최소거리를 기반으로 필터에서 사용되는 개수만큼 상기 ROI 별로 균등하게 상기 특징점을 선별하여 추출하는 단계; 및
상기 이미지처리부가 상기 ROI 별로 추출된 상기 특징점을 병합하는 단계;를 포함하는 것을 특징으로 하는 시각적 주행거리 추정방법.
The method of claim 8, wherein the step of detecting and extracting the feature point comprises:
After the image processing unit detects the feature point, generating metric information for each feature point using the brightness difference;
setting a priority by the image processing unit using the metric information;
The image processing unit setting a minimum distance between each feature point;
the image processing unit selecting and extracting the feature points equally for each ROI as many as the number used in the filter based on the priority and the minimum distance; and
A visual mileage estimation method comprising: the image processing unit merging the feature points extracted for each ROI.
제 11항에 있어서, 상기 특징점을 검출할 때, 상기 이미지 처리부가 코너 기반의 알고리즘을 이용하여 상기 특징점을 검출하는 것을 특징으로 하는 시각적 주행거리 추정방법.
The method of claim 11, wherein when detecting the feature point, the image processing unit detects the feature point using a corner-based algorithm.
제 8항에 있어서, 상기 이상점을 제거하는 단계는, 상기 이미지 처리부가 추출된 상기 특징점에서 동적객체를 판단하고 상기 이상점을 제거하는 것을 특징으로 하는 시각적 주행거리 추정방법.
The method of claim 8, wherein in the step of removing the outliers, the image processing unit determines a dynamic object from the extracted feature points and removes the outliers.
제 8항에 있어서, 상기 이상점을 제거하는 단계는, 상기 이미지 처리부가 RANSAC 알고리즘을 이용하여 동적객체를 판단하는 것을 특징으로 하는 시각적 주행거리 추정방법. The method of claim 8, wherein in the step of removing the outlier, the image processing unit determines a dynamic object using a RANSAC algorithm.
KR1020190154026A 2019-11-27 Apparatus for estimating visual odometry and method thereof KR102664901B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190154026A KR102664901B1 (en) 2019-11-27 Apparatus for estimating visual odometry and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190154026A KR102664901B1 (en) 2019-11-27 Apparatus for estimating visual odometry and method thereof

Publications (2)

Publication Number Publication Date
KR20210065381A KR20210065381A (en) 2021-06-04
KR102664901B1 true KR102664901B1 (en) 2024-05-16

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180101178A1 (en) * 2016-10-12 2018-04-12 Hyundai Motor Company Autonomous driving control apparatus, vehicle having the same, and method for controlling the same
US20180267172A1 (en) 2017-03-20 2018-09-20 Hyundai Motor Company System and method for recognizing position of vehicle
US20190007674A1 (en) 2011-08-04 2019-01-03 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190007674A1 (en) 2011-08-04 2019-01-03 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
US20180101178A1 (en) * 2016-10-12 2018-04-12 Hyundai Motor Company Autonomous driving control apparatus, vehicle having the same, and method for controlling the same
US20180267172A1 (en) 2017-03-20 2018-09-20 Hyundai Motor Company System and method for recognizing position of vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Xiang, Zhenzhen, et al. (03-08 November 2019). "Vilivo: Virtual lidar-visual odometry for an autonomous vehicle with a multi-camera system." 2019 IEEE/RSJ International Conference on Intelligent Robot*

Similar Documents

Publication Publication Date Title
US9852511B2 (en) Systems and methods for tracking and detecting a target object
US10474921B2 (en) Tracker assisted image capture
US20190311485A1 (en) Method for Evaluating Image Data of a Vehicle Camera
EP2180695B1 (en) Apparatus and method for improving frame rate using motion trajectory
US20060062432A1 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
JP6465982B2 (en) Image processing apparatus, image processing method, and program
US8520084B2 (en) Video stabilization system and method
WO2013132947A1 (en) Distance calculation device and distance calculation method
JP6499047B2 (en) Measuring device, method and program
JP6720694B2 (en) Image processing program, image processing method, and image processing apparatus
US20150294453A1 (en) Image analysis apparatus mounted to vehicle
US10643338B2 (en) Object detection device and object detection method
EP3435352A1 (en) Travel path detection method and travel path detection device
KR20180122382A (en) Mainly a detection method and mainly a detection device
JP5107154B2 (en) Motion estimation device
KR102664901B1 (en) Apparatus for estimating visual odometry and method thereof
JP2014238409A (en) Distance calculation device and distance calculation method
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
KR20210065381A (en) Apparatus for estimating visual odometry and method thereof
JP6388507B2 (en) Image processing device
CN110570680A (en) Method and system for determining position of object using map information
CN116189119A (en) Lane departure early warning method and device
Čisar et al. Kernel sets in compass edge detection
JP7283268B2 (en) Information processing equipment and in-vehicle system
KR20210014970A (en) Apparatus for correcting information of image based distance measuring system and method thereof