KR20210037893A - Vehicle navigation method based on vision sensor - Google Patents

Vehicle navigation method based on vision sensor Download PDF

Info

Publication number
KR20210037893A
KR20210037893A KR1020190120361A KR20190120361A KR20210037893A KR 20210037893 A KR20210037893 A KR 20210037893A KR 1020190120361 A KR1020190120361 A KR 1020190120361A KR 20190120361 A KR20190120361 A KR 20190120361A KR 20210037893 A KR20210037893 A KR 20210037893A
Authority
KR
South Korea
Prior art keywords
image
pair
equation
vision sensor
vehicle
Prior art date
Application number
KR1020190120361A
Other languages
Korean (ko)
Other versions
KR102275168B1 (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020190120361A priority Critical patent/KR102275168B1/en
Publication of KR20210037893A publication Critical patent/KR20210037893A/en
Application granted granted Critical
Publication of KR102275168B1 publication Critical patent/KR102275168B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4023Decimation- or insertion-based scaling, e.g. pixel or line decimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to a vehicle navigation method based on a vision sensor. According to an embodiment of the present invention, the vehicle navigation method based on the vision sensor comprises: a step of acquiring a pair of continuous images with differences in time outside the vehicle; a step of using a modified normalized phase correlation and matching the pair of continuous images; a step of calculating a pixel displacement between the pair of continuous images based on the results of matching; and a step of calculating the latitude and the longitude based on the pixel displacement and renewing the current position of the vehicle. The step of acquiring the continuous images includes: a step of using the vision sensor mounted on the vehicle and acquiring a pair of continuous images; a step of disassembling each of the pair of continuous images into a plurality of quadtree image patches by using the quadtree disassembly method for selecting a fixed boundary area in an image with less distorted substances; and a step of decimating the quadtree image patches for each of the pair of continuous images. The step of calculating the pixel displacement between the pair of continuous images includes a step of calculating a pixel displacement between the decimated image patches of each of the pair of continuous images. The present invention aims to provide a vehicle navigation method based on the vision sensor, which is able to improve the efficiency and accuracy of the image matching process.

Description

비전 센서에 기반한 차량 내비게이션 방법{VEHICLE NAVIGATION METHOD BASED ON VISION SENSOR}Vehicle navigation method based on vision sensor{VEHICLE NAVIGATION METHOD BASED ON VISION SENSOR}

본 발명은 비전 센서에 기반한 차량 내비게이션 방법에 관한 것이다.The present invention relates to a vehicle navigation method based on a vision sensor.

스마트 시티의 개념은 사물 인터넷(IoT)과 함께 정보 통신 기술(ICT)을 사용하여 도시 자산 및 소유물의 지속 가능한 개발 및 관리를 기반으로 한다. 스마트 시티는 개인의 삶의 질을 향상시키기 위한 기술 기반 통합 솔루션을 제공하는 것을 목표로 한다. 스마트 시티의 개발에서 기술 무지, 인프라 부족, 사회 경제적 근대화와 함께 생태 지속 가능성, 공공 서비스 개선을 위한 공공 거버넌스 참여, 사회 및 환경 문제에 대한 솔루션 예측, 집단 정책 및 의사 결정과 같은 수많은 과제를 해결해야한다. 도시의 스마트한 환경에서 보다 쉽고 안전한 삶을 만들기 위해 기술 사용은 교육 기관, 공공 도서관, 보건소와 같은 도시 자산의 관리와 관련된 삶의 다른 모든 측면에서 기본적일 수 있다. 스마트 시티에서 사회 경제적 발전은 각 삶의 모든 분야에 기술을 통합함으로써 자원을 효과적으로 통제하고 효율적으로 사용함으로써 달성된다.The concept of a smart city is based on the sustainable development and management of urban assets and possessions using information and communication technology (ICT) along with the Internet of Things (IoT). Smart City aims to provide technology-based integrated solutions to improve the quality of life of individuals. In the development of smart cities, numerous challenges such as technological ignorance, lack of infrastructure, ecological sustainability with socio-economic modernization, participation in public governance for improving public services, prediction of solutions to social and environmental problems, collective policy and decision-making have to be solved. do. The use of technology to make life easier and safer in urban smart environments can be fundamental in all other aspects of life related to the management of city assets such as educational institutions, public libraries, and health centers. Socio-economic development in smart cities is achieved through effective control and efficient use of resources by integrating technology into all areas of their lives.

디지털 스마트 시티에서 기존 도시 환경의 변화는 현실이 되었으며, 이는 인간의 노력의 용이성과 노력 시간의 단축을 위해 일상 생활 활동을 자동화된 프로세스로 변환하는 것을 목표로 한다. 비전 기반 센서는 일반적으로 도시를 모니터링하는 데 사용되며, 도시는 방대한 양의 다양한 데이터를 수집하여 추가 컴퓨터 비전 처리를 위해 저장한다. In the digital smart city, the change of the existing urban environment has become a reality, which aims to transform daily life activities into automated processes in order to facilitate human effort and shorten the effort time. Vision-based sensors are commonly used to monitor cities, and cities collect vast amounts of different data and store them for further computer vision processing.

한편, 인구가 많은 도시에는 적절한 내비게이션 인프라가 없기 때문에 차량 내비게이션은 도시에서 중요한 문제이며, 특히 도시 환경과 스마트 시티에서 자율 내비게이션을 사용하는 것이 더 적합하다. 자동차 또는 모바일 로봇을 위한 자율 내비게이션 시스템의 주요 임무는 오차가 없는 자체 위치 측정 계산이다. 자체 위치 결정 측정은 모바일 로봇이 관성 기준 프레임에 대한 활성 위치와 방향을 결정하는 능력을 말한다. 위치 측정에 사용되는 가장 일반적인 기술은 GPS(Global Positioning System)를 기반으로 한다. GPS 기반 위치 측정은 위성 신호를 기반으로 하여 경도, 위도 및 고도의 관점에서 지구 표면에서의 물체의 절대 위치와 위치를 계산한다. GPS 기반 위치 측정의 단점 중 하나는 로봇의 운영 영역에 랜드 마크를 설치하는 비용이 많이 든다는 것이다. 마찬가지로, 큰 숲, 산, 터널 및 고층 빌딩과 같은 폐쇄된 환경에서는 GPS 액세스가 가능하지 않거나 거부될 수 있다.On the other hand, vehicle navigation is an important issue in cities, since there is no adequate navigation infrastructure in a city with a large population, and it is more appropriate to use autonomous navigation in urban environments and smart cities in particular. The main task of autonomous navigation systems for automobiles or mobile robots is the error-free self-positioning calculations. Self-positioning measurement refers to the ability of a mobile robot to determine its active position and orientation relative to the inertial frame of reference. The most common technology used for positioning is based on the Global Positioning System (GPS). GPS-based positioning calculates the absolute position and position of an object on the Earth's surface in terms of longitude, latitude and altitude based on satellite signals. One of the drawbacks of GPS-based positioning is the high cost of installing landmarks in the robot's operating area. Likewise, GPS access may not be possible or denied in enclosed environments such as large forests, mountains, tunnels and tall buildings.

GPS 기반 기술의 대안은 관성항법장치(INS: Inertial Navigation System)를 사용하는 것이다. 관성항법장치는 가속도계 및 자이로스코프의 데이터를 사용하여 알려진 시작 위치, 속도 및 방향에 대한 신체의 위치 및 방향을 추적하는 독립적인 탐색 기술이다. 이 시스템에서 온보드 센서 데이터는 위치를 추정하는 데 도움이 된다. 계산의 기준선은 초기 위치이며 추정 위치는 속도, 가속 및 드리프트 매개 변수에 의해 제공된다. 이러한 유형의 기술의 단점은 바퀴의 미끄러짐 또는 고르지 않은 영역으로 인한 누적 오차로 인하여 정확한 위치를 정밀하게 계산하지 못한다는 것이다.An alternative to GPS-based technology is to use an Inertial Navigation System (INS). Inertial navigation is an independent navigation technology that uses data from an accelerometer and gyroscope to track the body's position and orientation relative to a known starting position, velocity, and direction. In this system, on-board sensor data helps to estimate the position. The baseline of the calculation is the initial position and the estimated position is provided by the velocity, acceleration and drift parameters. The disadvantage of this type of technology is that it cannot accurately calculate the exact position due to cumulative errors due to wheel slip or uneven areas.

많은 연구원들이 특히 오프로드 모바일 로봇, 즉, 우주 탐사 임무, 수중 항법 및 탐사 등에서 비전 기반 내비게이션 기법을 성공적으로 사용했다. 영상 주행거리 측정(VO: Visual odometry)은 온보드 카메라를 사용하여 이미지 시퀀스에서 로봇 모션의 증가하는 온라인 근사치이다. 이 아이디어는 환경의 복잡성과 관련하여 위치 정확도 및 견고성 측면에서 개선되었다.Many researchers have successfully used vision-based navigation techniques, especially in off-road mobile robots, such as space missions, underwater navigation and exploration. Visual odometry (VO) is an increasing online approximation of robot motion in an image sequence using an on-board camera. This idea has improved in terms of location accuracy and robustness with respect to the complexity of the environment.

Wong, Deguchi, Ide 및 Murase(2014)에서 저자는 교통 환경에서 차량 위치 측정을 달성하기 위해 동적 시간 왜곡과 함께 SURF 기반 기능을 사용했다. SURF 기반 특징은 특성이 다르지만 각 입력 이미지마다 고유한 특성이 지나치게 많으면 계산 및 정확도 측면에서 시스템이 비효율적이다. 대조적으로, 본 발명에서 제안된 접근법은 그람 다항식 기저 함수를 사용하는 효율적인 이미지 정합을 사용하는데, 이는 입력 이미지로부터 특징의 추출에서 계산 복잡성을 감소시킴으로써 효율적이다.In Wong, Deguchi, Ide, and Murase (2014), the authors used SURF-based features with dynamic time distortion to achieve vehicle position measurements in a traffic environment. SURF-based features have different characteristics, but if there are too many unique features for each input image, the system is inefficient in terms of calculation and accuracy. In contrast, the approach proposed in the present invention uses efficient image matching using a Gram polynomial basis function, which is efficient by reducing computational complexity in the extraction of features from the input image.

Xie, Gu 및 Kamijo (2017)에서 저자는 관성 센서와 함께 스테레오 비전 시스템을 사용하여 교량 또는 폐쇄된 환경에서 특별히 설계된 차선 수준의 위치 측정 방법을 제안했다. 이 방법의 단점은, 실시간 스테레오 비전 시스템은 심도 정보를 결정할 때 정확도가 낮아서 위치 측정이 불량하다는 것이다. 또한 스테레오 비전 기반 시스템은 조명, 대비 등과 같은 이미지의 낮은 수준의 픽셀 세부 정보에 크게 의존하므로 부정확성에 취약하여 깊이 매핑의 결정이 불량하다.In Xie, Gu, and Kamijo (2017), the authors proposed a lane-level positioning method specifically designed in a bridge or enclosed environment using a stereo vision system with an inertial sensor. The downside of this method is that real-time stereo vision systems have poor accuracy when determining depth information, resulting in poor positioning. In addition, since stereo vision-based systems rely heavily on low-level pixel details of an image such as lighting and contrast, they are susceptible to inaccuracies, making depth mapping decisions poor.

Vivacqua, Bertozzi, Cerri, Martins 및 Vassallo (2018)에서 저자는 기존의 주행 거리계 정보와 함께 근거리 시각 차선 마커를 감지하여 레지스트리를 구성하는 방법을 제안했다. 이러한 시스템의 한계 중 하나는 효율적인 위치 측정을 제공하기 위해 환경에 대한 맵에서 기존 정보를 사용하는 것이다. 위에서 설명한 접근 방식과 비교하여 본 발명에서 제안된 기술은 환경에 대한 사전 정보가 필요하지 않으므로 어떤 조건에서도 더 적합하다.In Vivacqua, Bertozzi, Cerri, Martins and Vassallo (2018), the authors proposed a method of constructing a registry by detecting near-vision lane markers along with existing odometer information. One of the limitations of these systems is the use of existing information in a map of the environment to provide efficient location measurements. Compared to the above-described approach, the technique proposed in the present invention is more suitable under any conditions since it does not require prior information about the environment.

이미지 정합은 동일한 영역의 두 이미지를 서로 상관시키고 기하학적으로 정렬하는 프로세스이다. 광범위한 응용 분야로 인해 수년간 이미지 정합은 활발한 연구 분야였다. 고전적인 이미지 기반 정합에서 스펙트럼 도메인 기능은 주파수 변환을 사용하여 신호를 재구성하는 데 사용된다. 데이터의 강도(텍스처링된 영역) 또는 불연속성(가장자리 또는 모서리)이 데이터에 포함되어 있을 때 이러한 시스템의 성능이 저하되어 재구성이 제대로 이루어지지 않는다. Image registration is the process of correlating and geometrically aligning two images of the same area with each other. Due to its wide range of applications, image registration has been an active research field for many years. In classical image-based matching, the spectral domain function is used to reconstruct the signal using frequency transformation. When the intensity of the data (textured area) or discontinuities (edges or edges) are included in the data, the performance of these systems is degraded and reconstruction is not performed properly.

따라서, 비전 센서에 기반한 내비게이션에 있어서, 강도 변화 또는 불연속이 높은 영역에서도 이미지 정합 프로세스의 효율성과 정확성을 향상시켜, 차량의 위치를 효율적이고 정확하게 제공할 수 있는 방법이 요구된다.Therefore, in the navigation based on the vision sensor, there is a need for a method capable of efficiently and accurately providing the position of the vehicle by improving the efficiency and accuracy of the image matching process even in an area with high intensity change or discontinuity.

KRKR 10-109611310-1096113 B1B1

본 발명이 해결하고자 하는 과제는 강도 변화 또는 불연속성이 높은 영역에서도 이미지 정합 프로세스의 효율성과 정확성을 향상시켜, GPS 서비스 거부되는 환경에서도 비전 센서에 기반하여 차량의 위치를 정확하게 제공할 수 있는, 비전 센서에 기반한 차량 내비게이션 방법을 제공하는 것이다.The problem to be solved by the present invention is to improve the efficiency and accuracy of the image matching process even in areas with high intensity changes or discontinuities, and thus, a vision sensor capable of accurately providing the location of a vehicle based on a vision sensor even in an environment where GPS service is denied. It is to provide a vehicle navigation method based on.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은,A vehicle navigation method based on a vision sensor according to an embodiment of the present invention for solving the above problem,

차량 외부의 한 쌍의 시간적으로 차이가 있는 연속 이미지를 획득하는 단계;Acquiring a temporally different continuous image of a pair of outside the vehicle;

수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하는 단계;Matching the pair of consecutive images using the corrected normalized phase correlation;

상기 정합 결과에 기반하여 상기 한 쌍의 연속 이미지 간의 픽셀 변위를 계산하는 단계; 및Calculating a pixel displacement between the pair of consecutive images based on the matching result; And

상기 픽셀 변위에 기반하여 위도 및 경도를 계산하여 차량의 현재 위치를 갱신하는 단계를 포함하고,Computing latitude and longitude based on the pixel displacement to update the current location of the vehicle,

상기 연속 이미지를 획득하는 단계는,The step of obtaining the continuous image,

차량에 장착된 비전 센서를 이용하여 한 쌍의 연속 이미지를 획득하는 단계;Acquiring a pair of continuous images using a vision sensor mounted on the vehicle;

왜곡 성분이 적은 이미지 내부의 고정 경계 영역을 선택하기 위하여 상기 한 쌍의 연속 이미지 각각을 쿼드-트리(quad tree) 분해 방법을 이용하여 복수의 쿼드 트리 이미지 패치들로 분해하는 단계; 및Decomposing each of the pair of consecutive images into a plurality of quad-tree image patches using a quad-tree decomposition method in order to select a fixed boundary area within an image having less distortion; And

상기 한 쌍의 연속 이미지 각각에 대한 쿼드-트리 이미지 패치들을 데시메이션하는 단계를 포함하고,Decimating quad-tree image patches for each of the pair of consecutive images,

상기 한 쌍의 연속 이미지 간의 픽셀 변위를 계산하는 단계는 상기 한 쌍의 연속 이미지 각각의 데시메이션된 이미지 패치들 간의 픽셀 변위를 계산하는 단계를 포함한다.Calculating the pixel displacement between the pair of successive images includes calculating the pixel displacement between decimated image patches of each of the pair of successive images.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 있어서, 상기 각각의 이미지 패치(D)를 데시메이션하는 단계는 수학식 7에 기반하여 스펙트럼 Spg를 획득하는 단계를 포함하고,In the vehicle navigation method based on a vision sensor according to an embodiment of the present invention, the decimating each image patch (D) includes obtaining a spectrum S pg based on Equation 7,

[수학식 7][Equation 7]

Figure pat00001
Figure pat00001

Fx와 Fy는 각각 x 방향과 y 방향에 대한 푸리에 기저 함수를 포함하는 행렬이고, T는 전치(transpose) 연산자를 나타내며,F x and F y are matrices containing Fourier basis functions for the x and y directions, respectively, T denotes the transpose operator,

Dpg는 수학식 5에 기반하여 획득되고,D pg is obtained based on Equation 5,

[수학식 5][Equation 5]

Figure pat00002
Figure pat00002

Gx 및 Gy의 열(column)은 각각 x 방향 및 y 방향에 대한 그람 기저 함수를 포함할 수 있다.The columns of G x and G y may include Gram basis functions for the x and y directions, respectively.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 있어서, 상기 그람 기저 함수(

Figure pat00003
)는, 수학식 6에 의해 주어지고,In the vehicle navigation method based on a vision sensor according to an embodiment of the present invention, the Gram basis function (
Figure pat00003
) Is given by Equation 6,

[수학식 6][Equation 6]

Figure pat00004
,
Figure pat00004
,

상기에서

Figure pat00005
이며,
Figure pat00006
,
Figure pat00007
,
Figure pat00008
이고,
Figure pat00009
이며, n<m이고, 상기 수학식 6에서 x는 [-1,1] 범위 내의 값이며, n은 1 이상인 소정의 정수일 수 있다.From above
Figure pat00005
Is,
Figure pat00006
,
Figure pat00007
,
Figure pat00008
ego,
Figure pat00009
Is, n<m, in Equation 6, x is a value within the range of [-1,1], and n may be a predetermined integer equal to or greater than 1.

또한, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은, 상기 수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하는 단계 이전에,In addition, in the vehicle navigation method based on the vision sensor according to an embodiment of the present invention, before the step of matching the pair of consecutive images using the modified normalized phase correlation,

상기 이미지 패치들에서 특징이 없는 부분에 근사값을 제공하기 위하여, 상기 이미지 패치들(D) 각각을 [수학식 10]에 기반하여 재구성하여 재구성된 이미지 패치의 스펙트럼(S)을 획득하는 단계를 포함할 수 있다.In order to provide an approximation value to a portion of the image patches having no features, each of the image patches (D) is reconstructed based on [Equation 10] to obtain a spectrum (S) of the reconstructed image patch. can do.

[수학식 10][Equation 10]

Figure pat00010
.
Figure pat00010
.

또한, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 있어서, 상기 수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하는 단계는 수학식 12에 기반하여 표면 P(n)을 획득하는 단계를 포함하고,In addition, in the vehicle navigation method based on a vision sensor according to an embodiment of the present invention, the step of matching the pair of consecutive images using the modified normalized phase correlation includes the surface P( and obtaining n),

[수학식 12][Equation 12]

Figure pat00011
Figure pat00011

IFFT는 역 고속 푸리에 변환을 나타내며, M(w) 및 R(w)는 각각 상기 한 쌍의 연속 이미지에 대한 수정된 이미지 패치들의 2D 푸리에 스펙트럼이고,IFFT represents the inverse fast Fourier transform, M(w) and R(w) are 2D Fourier spectra of modified image patches for the pair of consecutive images, respectively,

상기 수정된 이미지 패치들의 2D 푸리에 스펙트럼은, 상기 이미지 패치들의 2D 푸리에 스펙트럼을 차수가 1인 그람 다항식의 직교 보수에 투영함으로써 획득되며,The 2D Fourier spectrum of the modified image patches is obtained by projecting the 2D Fourier spectrum of the image patches onto an orthogonal complement of a Gram polynomial of order 1,

상기 픽셀 변위는 상기 표면 P(n)에서 피크의 위치에 의해 획득될 수 있다.The pixel displacement can be obtained by the position of the peak at the surface P(n).

또한, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은, 상기 차량 외부의 한 쌍의 연속 이미지를 획득하는 단계 이후에,In addition, in the vehicle navigation method based on the vision sensor according to an embodiment of the present invention, after the step of acquiring a pair of continuous images outside the vehicle,

상기 한 쌍의 연속 이미지에 수학식 1을 적용하여 정규화된 이미지(N(x, y))를 획득하는 단계를 더 포함할 수 있다.It may further include the step of obtaining a normalized image (N(x, y)) by applying Equation 1 to the pair of consecutive images.

[수학식 1][Equation 1]

Figure pat00012
Figure pat00012

I(x, y)는 입력 이미지, μI는 I(x, y)의 로컬 평균, σI는 로컬 표준 편차임.I(x, y) is the input image, μI is the local mean of I(x, y), and σI is the local standard deviation.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 의하면, 강도 변화 또는 불연속성이 높은 영역에서도 이미지 정합 프로세스의 효율성과 정확성을 향상시켜, GPS 서비스 거부되는 환경에서도 비전 센서에 기반하여 차량의 위치를 정확하게 제공할 수 있다.According to the vehicle navigation method based on the vision sensor according to an embodiment of the present invention, the efficiency and accuracy of the image matching process are improved even in areas with high intensity change or discontinuity, and the vehicle is based on the vision sensor even in an environment where GPS service is denied. You can provide the location exactly.

도 1은 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 개략적인 흐름도.
도 2는 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 상세 흐름도.
도 3은 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법이 적용될 수 있는 장치의 블록도.
도 4는 지면 레벨ㄹ부터의 카메라 위치 및 높이를 도시한 도면.
도 5는 연속적인 4개의 이미지들에서의 위도 및 경도 계산을 도시한 도면.
도 6(a) 내지 도 6(d)는 레이어 0 상관 피크, 도 6(e) 내지 도 6(h)는 레이어 1 상관 피크, 그리고 도 6(i) 내지 도 6(l)은 레이어 1 서브 이미지 1 상관 피크를 도시한 도면.
도 7(a) 내지 도 6(d)는 레이어 2 상관 피크, 도 7(e) 내지 도 6(h)는 레이어 3 상관 피크를 도시한 도면.
도 8은 왜곡 맵을 도시한 도면.
도 9(a)는 이미지에 표시된 픽셀 이동, 도 9(b)는 수정된 정규화된 위상 상관에 의한 피크 값을 3D 플롯으로 도시한 도면.
도 10(a)는 1200개 이미지들에 대한 테스트 드라이브를 위한 궤적 및 GPS와 VO의 평가, 도 10(b)는 오차 그래프를 도시한 도면.
1 is a schematic flowchart of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention.
2 is a detailed flowchart of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention.
3 is a block diagram of an apparatus to which a vehicle navigation method based on a vision sensor according to an embodiment of the present invention can be applied.
4 is a view showing the camera position and height from the ground level d.
5 shows latitude and longitude calculations in four consecutive images.
6(a) to 6(d) show the layer 0 correlation peak, FIGS. 6(e) to 6(h) show the layer 1 correlation peak, and FIGS. 6(i) to 6(l) show the layer 1 sub Figure 1 shows the correlation peak.
7(a) to 6(d) show layer 2 correlation peaks, and FIGS. 7(e) to 6(h) show layer 3 correlation peaks.
8 is a diagram showing a distortion map.
Fig. 9(a) is a 3D plot showing a pixel shift displayed in an image, and Fig. 9(b) is a 3D plot showing a peak value due to a corrected normalized phase correlation.
FIG. 10(a) is a diagram showing a trajectory for a test drive for 1200 images and an evaluation of GPS and VO, and FIG. 10(b) is a diagram showing an error graph.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예들로부터 더욱 명백해질 것이다.Objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments associated with the accompanying drawings.

이에 앞서 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야 한다.Prior to this, terms or words used in the present specification and claims should not be interpreted in a conventional and dictionary meaning, and the inventor can appropriately define the concept of the term in order to describe his own invention in the best way. It should be interpreted as a meaning and concept consistent with the technical idea of the present invention based on the principles that exist.

본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In adding reference numerals to elements of each drawing in the present specification, it should be noted that, even though they are indicated on different drawings, only the same elements are to have the same number as possible.

또한, "제1", "제2", "일면", "타면" 등의 용어는, 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.In addition, terms such as "first", "second", "one side", and "the other side" are used to distinguish one component from other components, and the component is limited by the terms. It is not.

이하, 본 발명을 설명함에 있어, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지 기술에 대한 상세한 설명은 생략한다.Hereinafter, in describing the present invention, detailed descriptions of related known technologies that may unnecessarily obscure the subject matter of the present invention will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시형태를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명에서는 보정된 센서와 GPS(Global Positioning System)를 사용하지 않고 스마트 시티에서 비용 효율적인 수단 (비전 기반 센서)을 사용하여 차량을 탐색하는지 여부와 방법을 탐색하고자 한다. 차량 위치 파악 및 내비게이션에는 온보드 보정 센서와 안정적인 GPS 링크가 필요하다. 도시 환경에서는 이러한 센서들은, 실내 환경(터널)이나 붐비고 혼잡 한 지역 및 심한 기상 조건에서 제대로 작동하지 않는다. 비전 기반 내비게이션에 사용되는 가장 효과적인 기술은 이미지 정합(image registration)에 따라 다르다. 성공적이고 효과적인 정합의 과제는 다음과 같다. 환경에서 충분한 조명, 움직이는 물체에 대한 정적 장면의 우세, 연속적인 프레임들 간의 명백한 움직임 및 필요한 장면 겹치기를 허용하는 높은 질감 비율. 본 발명에서는 수정된 정규화된 위상 상관을 사용하는 비전 센서를 기반으로 한 차량 내비게이션에 대한 새로운 접근법을 제안한다. 제안된 접근법에서, 텍스처링된 표면과 덜 텍스처링된 표면의 구별은 대응하는 특징의 식별에 기초한다. 이와 관련하여, 그램 다항식 기저 함수(Gram polynomial basis function)는 정합 프로세스(registration process)에서 피크로 인해 생성된 Gibbs 오류 문제를 제거하는 데 사용된다. 마찬가지로 엔트로피 기반 텐서 근사법을 사용하여 강력한 이미지 정합을 위해 이상치를 제거한다. 테스트 드라이브 중에 실시간으로 수행된 실험은 GPS 계산 데이터와 비교하여 추정된 위치 정확도와 관련하여 탁월한 결과를 보여준다.In the present invention, it is intended to explore whether and how to search for a vehicle using a cost-effective means (vision-based sensor) in a smart city without using a calibrated sensor and a global positioning system (GPS). Vehicle positioning and navigation require on-board calibration sensors and a stable GPS link. In urban environments, these sensors do not work well in indoor environments (tunnels) or in crowded and congested areas and severe weather conditions. The most effective technology used for vision-based navigation depends on image registration. The challenges of successful and effective alignment are as follows. Sufficient lighting in the environment, the dominance of the static scene over moving objects, the apparent movement between successive frames, and a high texture ratio that allows for the necessary overlap of the scene. The present invention proposes a new approach to vehicle navigation based on a vision sensor using a modified normalized phase correlation. In the proposed approach, the distinction between textured and less textured surfaces is based on identification of the corresponding features. In this regard, the Gram polynomial basis function is used to eliminate the Gibbs error problem created due to peaks in the registration process. Similarly, an entropy-based tensor approximation is used to remove outliers for strong image matching. Experiments conducted in real time during the test drive show excellent results with respect to the estimated location accuracy compared to GPS calculation data.

본 발명에서 제안된 접근법은 그람 다항식(Gram Polynomial) 기저 함수를 사용하여 강도 변화 또는 불연속성이 높은 영역에서도 이미지 정합 프로세스의 효율성과 정확성을 제공한다.The approach proposed in the present invention uses a Gram polynomial basis function to provide the efficiency and accuracy of the image matching process even in areas with high intensity variations or discontinuities.

본 발명에서는 이미지 정합 기술을 활용하는 비전 기반 센서를 사용하여 GPS 기능이 없거나 GPS 서비스가 거부되는 환경(실내 및 실외 모두)에서 차량 내비게이션 문제를 해결한다. 이 접근법에서, 다른 위치들을 나타내는 데이터 사이의 변환을 추정하고 식별하기 위해 특징들이 추출된다. 차량의 위도 및 경도와 관련하여 차량의 위치를 추정하기 위해 데이터가 추가로 처리된다. 본 발명의 주요 공헌은 다음과 같이 요약할 수 있다.In the present invention, a vision-based sensor utilizing image matching technology is used to solve the vehicle navigation problem in an environment (both indoors and outdoors) where there is no GPS function or GPS service is denied. In this approach, features are extracted to estimate and identify transformations between data representing different locations. The data is further processed to estimate the vehicle's position in relation to the vehicle's latitude and longitude. The main contributions of the present invention can be summarized as follows.

- 비용 효율적인 수단을 사용하여 도시 환경에서 비전 기반 센서를 사용하여 차량을 탐색할 수 있는 자율 주행 시스템을 제공한다.-Providing an autonomous driving system capable of navigating vehicles using vision-based sensors in urban environments using cost-effective means.

- 고속 푸리에 변환(FFT: Fast Fourier Transform)을 기반으로 수정된 정규화된 위상 상관을 사용하여 이미지 정합을 통해 차량 내비게이션 솔루션을 제공한다. 마찬가지로, 본 발명에서 제안된 접근법의 혁신적인 단계는 위상 상관을 통해 이미지 정합을 향상시키기 위해 그람 다항식 기저 함수를 사용하는 것이다.-Provides a vehicle navigation solution through image matching using normalized phase correlation modified based on Fast Fourier Transform (FFT). Likewise, an innovative step in the approach proposed in the present invention is to use a Gram polynomial basis function to improve image matching through phase correlation.

- 서브 픽셀 정합을 고려하여 저해상도 이미지에 사용할 수 있는 시스템을 만들고, 차량 내비게이션의 처리 시간을 줄이고, 비전 기반 내비게이션의 정확한 결과를 제공한다.-Considering sub-pixel matching, it creates a system that can be used for low-resolution images, reduces the processing time of vehicle navigation, and provides accurate results of vision-based navigation.

제안된 수정된 정규화된 위상 상관 기반 접근법Proposed Modified Normalized Phase Correlation Based Approach

머신 비전에 의한 자동 내비게이션을 위한 가장 중요한 단계는 두 개의 연속 장면 사이에서 픽셀 이동을 찾는 것이다. 요즘 대부분의 방법은 상관 방법으로 이미지를 정합한다. 상관 기반 방법은 공간 및 스펙트럼의 두 도메인에서 널리 사용된다. 공간 영역에서 두 개의 연속 이미지는 점, 선, 모서리 및 모서리 사이의 가장자리들에 의해 상관되고, 이것은 잘못된 피크 또는 대응하는 포인트가 발생하는 많은 피크 또는 대응하는 포인트를 초래한다. 또한 블러(blur) 이미지에서 중요한 가장자리, 모서리, 포인트를 찾는 것은 어렵고 문제가 있다.The most important step for automatic navigation by machine vision is to find pixel movement between two consecutive scenes. Most of the methods these days match images with a correlation method. The correlation-based method is widely used in both domains, spatial and spectral. Two successive images in the spatial domain are correlated by points, lines, corners and edges between the corners, which results in false peaks or many peaks or corresponding points where corresponding points occur. Also, finding important edges, corners, and points in a blur image is difficult and problematic.

스펙트럼 도메인 상관은 주파수 도메인에서 이미지의 완전한 처리를 통합하며, 노이즈 데이터의 경우 견고성을 제공하는 위상 상관이 수행된다. 위상 상관 기반 정합은 상관 피크의 위치로부터 서브 픽셀 정확성을 갖는 이미지들 사이의 이동을 허용한다. 또한, 적절한 이상적인 경계가 없는 블러 이미지도 상관될 수 있다. 푸리에 기반 함수를 사용하여 (불연속 또는 그라디언트 없는) 부드러운 특성을 갖는 데이터 또는 신호의 분석을 효율적으로 처리하고 재구성할 수 있다. 일반적으로 이미지 정합 프로세스는 일관성 있고 균일한 이미지에서 상당히 만족스러운 결과를 제공하는 푸리에 기저 함수를 사용하지만 데이터에 높은 엔트로피, 분산, 불규칙 및 불연속성이 포함된 상황에서 푸리에 기저 함수는 원래 신호 또는 데이터의 재구성에서 성능이 저하된다. 따라서, 푸리에 기저는 불연속을 나타내기 위해 많은 푸리에 성분을 필요로 하는 불연속 또는 예리한 모서리를 표현하는데 효율적이지 않다. 푸리에 합이 오버슈트되는 이러한 불연속 지점을 깁스 현상(Gibbs Phenomenon)이라고 한다. The spectral domain correlation incorporates the complete processing of the image in the frequency domain, and in the case of noisy data, phase correlation is performed to provide robustness. The phase correlation based matching allows a shift between images with sub-pixel accuracy from the location of the correlation peak. Also, a blurred image without an appropriate ideal boundary can be correlated. Fourier-based functions can be used to efficiently process and reconstruct the analysis of data or signals with smooth properties (no discontinuities or gradients). In general, the image matching process uses a Fourier basis function that gives fairly satisfactory results in a consistent and uniform image, but in situations where the data contains high entropy, variance, irregularities, and discontinuities, the Fourier basis function is the reconstruction of the original signal or data. Performance is degraded. Thus, the Fourier basis is not efficient for representing discontinuities or sharp edges that require a large number of Fourier components to represent discontinuities. This discontinuity point at which the Fourier sum overshoot is called Gibbs Phenomenon.

도 1은 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 개략적인 흐름도이고, 도 3은 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법이 적용될 수 있는 장치의 블록도이다.1 is a schematic flowchart of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention, and FIG. 3 is a block diagram of an apparatus to which a vehicle navigation method based on a vision sensor according to an embodiment of the present invention can be applied. to be.

도 3을 참조하면, 비전 센서(300)는 카메라와 같이 차량의 외부의 이미지를 획득하기 위한 센서이고, 메모리(304)는 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법을 프로그램 코드 형태로 저장하고 있으며, 제어부(302)는 메모리(304)에 저장된 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법을 실행하고, 비전 센서(300)와 디스플레이(306) 및 메모리(304)를 제어하며, 디스플레이(306)는 제어부(302)에서 출력되는 차량의 위치를 표시한다.3, the vision sensor 300 is a sensor for acquiring an image of the outside of the vehicle, such as a camera, and the memory 304 is a program code for a vehicle navigation method based on a vision sensor according to an embodiment of the present invention. It is stored in the form, and the control unit 302 executes a vehicle navigation method based on a vision sensor according to an embodiment of the present invention stored in the memory 304, and the vision sensor 300, the display 306, and the memory 304 ), and the display 306 displays the position of the vehicle output from the control unit 302.

도 1 및 도 3을 참조하면, 단계 S100에서, 제어부(302)는 비전 센서(300)를 이용하여 차량 외부의 한 쌍의 시간적으로 차이가 있는 연속 이미지를 획득한다.Referring to FIGS. 1 and 3, in step S100, the control unit 302 acquires a continuous image of a pair of outside the vehicle with temporal difference using the vision sensor 300.

단계 S102에서, 제어부(302)는, 수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하고, 단계 S104에서, 제어부(302)는, 상기 정합 결과에 기반하여 상기 한 쌍의 연속 이미지 간의 픽셀 변위를 계산한다.In step S102, the control unit 302 matches the pair of consecutive images using the corrected normalized phase correlation, and in step S104, the control unit 302 matches the pair of consecutive images based on the matching result. Compute the pixel displacement between images.

단계 S106에서, 제어부(302)는, 상기 픽셀 변위에 기반하여 위도 및 경도를 계산하여 차량의 현재 위치를 갱신한다.In step S106, the controller 302 updates the current position of the vehicle by calculating latitude and longitude based on the pixel displacement.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 상세 블록도가 도 2에 나와 있으며, 본 발명에서 이미지 정합은 객체 위치 파악을 위한 전역 위치를 추출하는 데 사용된다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 전체 절차는 다음 단계로 요약할 수 있다.A detailed block diagram of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention is shown in FIG. 2, and image matching in the present invention is used to extract a global position for determining an object position. The entire procedure of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention can be summarized as the following steps.

- 지상 차량에 장착된 비전 센서(카메라)를 사용하여 한 쌍의 연속 이미지를 획득하고 시간 (t-1)에서 촬영한 이미지를 선택한다.-A pair of consecutive images are acquired using a vision sensor (camera) mounted on a ground vehicle, and an image taken at time (t-1) is selected.

- 수정된 정규화된 위상 상관을 사용하여 시간 (t-1)의 이미지와 현재 이미지인 시간 t에서의 이미지를 매칭시킨다.-Match the image at time (t-1) and the image at time t, which is the current image, using the corrected normalized phase correlation.

- 템플릿과 최대 상관점 사이의 픽셀 변위를 추정한다.-Estimate the pixel displacement between the template and the maximum correlation point.

- 픽셀 수준의 이미지 해상도를 통해 미터 단위의 거리를 계산한다.-Calculate the distance in meters through the pixel-level image resolution.

- 거리를 ΔLat 및 ΔLong으로 변환하고 이 값을 사용하여 차량 위치를 업데이트한다.-Convert the distance to ΔLat and ΔLong and use these values to update the vehicle position.

- 각각의 연속 이미지에 대해 상기 과정을 반복한다.-Repeat the above process for each successive image.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 기본 아이디어는 수정된 정규화된 위상 상관을 사용하여 두 개의 연속 이미지의 위치 변화를 찾는 것이다. 위치 변화는 해당 위도 및 경도로 변환된다. The basic idea of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention is to find a position change of two consecutive images using a modified normalized phase correlation. Changes in location are converted to the corresponding latitude and longitude.

단계 S200에서, 제어부(302)는 비전 센서(300)를 이용하여 이미지 I(x, y)의 시퀀스를 캡처하는데, 즉, 차량 외부의 한 쌍의 시간적으로 차이가 있는 연속 이미지(이미지(t-1), 이미지(t))를 획득한다. 여기서 첫 번째 이미지는 방법의 시작점으로 간주된다. 시퀀스의 다음 이미지는 시프트된 이미지로 간주된다.In step S200, the controller 302 captures a sequence of images I(x, y) using the vision sensor 300, that is, a pair of temporally different continuous images outside the vehicle (images (t- 1), an image (t)) is acquired. Here, the first image is considered the starting point of the method. The next image in the sequence is considered a shifted image.

한편, 제어부(302)는 불균일한 조명 또는 쉐이딩 아티팩트를 정정하기 위해, 2개의 이미지를 국부적으로 정규화하여 이미지의 국부 평균 및 분산을 균일화한다. 결과로서 생성된 정규화된 이미지 N(x, y)는 다음 수학식을 사용하여 추출된다.Meanwhile, in order to correct uneven lighting or shading artifacts, the control unit 302 locally normalizes the two images to equalize the local average and variance of the images. The resulting normalized image N(x, y) is extracted using the following equation.

Figure pat00013
Figure pat00013

여기서 I(x, y)는 입력 이미지이고 μI는 I(x, y)의 로컬 평균이고 σI는 로컬 표준 편차이다.Where I(x, y) is the input image, μI is the local mean of I(x, y) and σI is the local standard deviation.

종래의 이미지 캡처 장치의 사용으로 인해, 획득된 이미지는 각 이미지의 경계에서 상이한 레벨의 왜곡을 갖는다. 정규화는 불규칙한 조명을 방지하지만 여전히 왜곡 성분은 기본 프로세스에 부정적인 영향을 미친다. 이 문제를 해결하기 위해 왜곡 성분이 적은 이미지 내부의 고정 경계 영역이 선택된다. 이러한 경계는 쿼드-트리(Quad-Tree) 분해 방법을 사용하여 이미지를 분해하여 생성된다.Due to the use of conventional image capturing devices, the acquired images have different levels of distortion at the boundaries of each image. Normalization prevents irregular lighting, but still the distortion component negatively affects the underlying process. To solve this problem, a fixed boundary area inside the image with less distortion is selected. These boundaries are created by decomposing the image using a quad-tree decomposition method.

도 2를 참조하면, 제어부(302)는, 왜곡 성분이 적은 이미지 내부의 고정 경계 영역을 선택하기 위하여 한 쌍의 연속 이미지 각각을 쿼드-트리(quad tree) 분해 방법을 이용하여 복수의 쿼드 트리 이미지 패치들로 분해한다(단계 S202, 단계 S206). 쿼드 트리 분해 방법을 사용하여 이미지를 각각 4개, 16개 및 64개 블록으로 분할하여 이미지를 동일한 크기의 패치로 분해한다.Referring to FIG. 2, the controller 302 uses a quad-tree decomposition method for a plurality of quad-tree images in order to select a fixed boundary area inside an image with a small distortion component. It is decomposed into patches (step S202, step S206). The image is decomposed into equally sized patches by dividing the image into 4, 16, and 64 blocks, respectively, using a quad-tree decomposition method.

제어부(302)는, 상기 한 쌍의 연속 이미지 각각에 대한 쿼드-트리 이미지 패치들을 데시메이션한다(단계 S204, 단계 S208).The control unit 302 decimates the quad-tree image patches for each of the pair of consecutive images (steps S204 and S208).

깁스 다항식 기반으로 각 패치를 데시메이션하여 깁스(Gibbs) 오류 문제를 제거한다. 데시메이션에 널리 사용되는 방법은 보간, 스무딩, 압축, 향상 및 특징 검출이다. 이미지가 균일하게 이격된 노드를 갖는 이산 값 세트로 표현되는 반면, 이 다항식의 계수는 이미지 픽셀의 선형 변환을 나타낸다. 변환의 경우 계산 요구 사항이 훨씬 광범위하지만 2차원 계수를 사용하여 다항식에서 원하는 행렬을 정확하게 표현할 수 있다. 보간 및 최소 제곱 근사를 사용하여 다항식 계수를 데시메이션하면 계산 비용이 줄어든다.Decimation of each patch based on the Gibbs polynomial eliminates the Gibbs error problem. The methods widely used for decimation are interpolation, smoothing, compression, enhancement, and feature detection. While the image is represented as a set of discrete values with evenly spaced nodes, the coefficients of this polynomial represent a linear transformation of the image pixels. For transforms, the computational requirements are much broader, but you can use two-dimensional coefficients to accurately represent the desired matrix in polynomials. Decimating the polynomial coefficients using interpolation and least squares approximation reduces the computational cost.

벡터의 확장을 계산하려면 주어진 벡터 공간에 대해 정규 직교 기저를 갖는 것이 더 적절하다. 따라서, 비 정규 직교 기저의 경우, 정규 직교 기저를 얻는 것이 필요하며, 이 변환은 그람-슈미트(Gram-Schmidt) 직교화에 의해 제공된다. 그람-슈미트(Gram-Schmidts)의 직교화 프로세스는 재귀 기법으로, 벡터가 정규 직교 벡터로 변환된다. 변환되면, 원래 벡터와 제 1 정규 직교 벡터에 의해 스팬된 공간에 대한 그것의 투영 사이의 차이가 정규화되어 정규 직교 컬렉션에서 벡터가 획득된다.To compute the expansion of a vector, it is more appropriate to have a normal orthogonal basis for a given vector space. Thus, in the case of a non-normal orthogonal basis, it is necessary to obtain a normal orthogonal basis, and this transformation is provided by Gram-Schmidt orthogonalization. Gram-Schmidts' orthogonalization process is a recursive technique in which vectors are transformed into regular orthogonal vectors. Once transformed, the difference between the original vector and its projection to the space spanned by the first normal orthogonal vector is normalized to obtain a vector in the normal orthogonal collection.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 그람 다항식 변환을 제시하고 그람 다항식 변환이 이미지 데시메이션에 사용될 수 있음을 보여준다. 데시메이션은 나머지 단계마다 실행 시간을 줄이는 데 도움이 된다.A vehicle navigation method based on a vision sensor according to an embodiment of the present invention presents a Gram polynomial transformation and shows that the Gram polynomial transformation can be used for image decimation. Decimation helps reduce execution time for each remaining step.

그람 다항식 기저 함수Gram polynomial basis function

더 거칠고 미세한 것까지, 비 강성 정합 기술을 위해 다양한 스케일로 이미지에 데시메이션이 적용된다. 이미지가 비선형적으로 변화하고 더욱이 이미지의 변화는 서로 유사하지 않기 때문에, 강성 정합 방법은 문제를 정확하게 해결할 수 없다. 따라서 이미지의 계층적 세분화를 사용하여 잘라 내기 및 나누기 규칙이 적용되며 정합은 글로벌에서 로컬 방식으로 수행된다. 한편, 그람 다항식 데시메이션은 모든 수준에서 가변 속도로 이미지에 적용된다.Decimation is applied to the image at various scales for a non-rigid matching technique, even coarser and finer. Since the images change non-linearly and the image changes are not similar to each other, the stiffness matching method cannot solve the problem accurately. Thus, using hierarchical segmentation of the image, the cut and divide rules are applied and the registration is done in a global to local way. On the other hand, Gram polynomial decimation is applied to the image at variable speed at all levels.

요약하자면, 최상위 또는 제로 레벨에서 최대 데시메이션 비율을 가지며, 여기서 이미지의 크기는 더 높은 레벨에서 최대(원본 이미지)이다. 쿼드-트리 분해 프로세스가 서브-이미지 계층 내부로 더 진행됨에 따라, 이미지의 크기는 마지막 레벨에 도달하면서 감소되어 데시메이션 비율이 감소된다. 해상도를 낮추는 이미지의 데시메이션을 통해 두 가지 주요 오류 원인이 있다. 첫째, 기저 함수로 인해 데이터의 특징을 기술할 수 없는 깁스(Gibbs) 오류가 발생하고, 두 번째 오류의 원인은 앨리어싱이다. 일반적으로 앨리어싱은 주기적인 기저 함수에 대해서만 고려되지만 다항식 기저 함수에 대해서도 동일한 문제가 존재한다. 이러한 문제는 이미지 데이터에 가우시안 노이즈가 존재하여 더 복잡해진다.In summary, it has a maximum decimation ratio at the top or zero level, where the size of the image is the maximum (original image) at the higher level. As the quad-tree decomposition process proceeds further into the sub-image hierarchy, the size of the image decreases as it reaches the last level, reducing the decimation rate. There are two main sources of error through decimation of images that reduce resolution. First, a Gibbs error that cannot describe the characteristics of the data occurs due to the basis function, and the second cause of the error is aliasing. In general, aliasing is only considered for periodic basis functions, but the same problem exists for polynomial basis functions. This problem is further complicated by the presence of Gaussian noise in the image data.

n개의 데이터 포인트를 갖는 신호 Y를 고려하여, 그 스펙트럼 S를 찾기 위해, 행렬

Figure pat00014
의 열(column)을 형성하는 k개의 이산 정규 직교 기저 함수
Figure pat00015
가 고려된다.Considering the signal Y with n data points, to find its spectrum S, the matrix
Figure pat00014
K discrete normal orthogonal basis functions forming a column of
Figure pat00015
Is considered.

Figure pat00016
Figure pat00016

여기서 T는 전치(transpose) 연산자를 나타낸다. 역변환은 다음과 같다.Here, T stands for the transpose operator. The inverse transformation is as follows.

Figure pat00017
Figure pat00017

기저가 완료되면, 즉, 어떤 세트의 기저 함수 B가 완료되면,

Figure pat00018
는 오류 없는 불연속 신호를 나타낸다. 그러나 수학식 4에 주어진 바와 같이, 깁스 오차는 감소된 세트의 기저 함수에 의해 또는 가중에 의해 신호를 닮아서 정확한 기저와 특히 관련되지는 않는다.When the basis is complete, i.e. when some set of basis functions B are complete,
Figure pat00018
Represents an error-free discontinuous signal. However, as given in Equation 4, the Gibbs error resembles a signal by weight or by a reduced set of basis functions and thus is not particularly relevant to the exact basis.

Figure pat00019
Figure pat00019

여기서 H는 각 스펙트럼 성분에 추가된 가중치 벡터를 나타낸다.Here, H denotes a weight vector added to each spectral component.

2D 이미지 정합에서 이미지 데시메이션을 위한 최상의 기저 함수 세트는 고려되는 이미지의 특성에 따라 다르다. 푸리에 기저는 이미지의 주기적인 구조의 경우에 적합한 반면, 그람 기저는 본질적으로 기하학적인 이미지에 적합하다. 따라서, 2D 푸리에 스펙트럼을 계산할 때, 이미지 패치 D는 다음 수학식에서 주어진 바와 같이 절단된 그람 다항식 Dpg 세트의 직교 상보에 투영된다:The best set of basis functions for image decimation in 2D image registration depends on the characteristics of the image being considered. The Fourier basis is suitable for the case of the periodic structure of the image, while the Gram basis is suitable for an essentially geometric image. Thus, when calculating the 2D Fourier spectrum, the image patch D is projected onto the orthogonal complement of the truncated Gram polynomial D pg set as given in the following equation:

Figure pat00020
Figure pat00020

여기서 Gx 및 Gy의 열은 각각 x 및 y 방향에 대한 그람 기저 함수를 포함한다. 이것은 패치에서 서브 하모닉 성분을 크게 제거하여 결과적으로 연관된 깁스 오류를 줄인다.Where the columns of G x and G y contain Gram basis functions for the x and y directions, respectively. This significantly removes the sub-harmonic component from the patch and consequently reduces the associated cast error.

상기 그람 기저 함수(

Figure pat00021
)는 수학식 6에 의해 주어진다.The Gram basis function (
Figure pat00021
) Is given by Equation 6.

Figure pat00022
Figure pat00022

상기에서

Figure pat00023
이며,
Figure pat00024
,
Figure pat00025
,
Figure pat00026
이고,
Figure pat00027
이며, n<m이고, 상기 그람 기저 함수에 대한 수학식에서 x는 [-1,1] 범위 내의 값이며, n은 1 이상인 소정의 정수이다.From above
Figure pat00023
Is,
Figure pat00024
,
Figure pat00025
,
Figure pat00026
ego,
Figure pat00027
And n<m, in the equation for the Gram basis function, x is a value within the range [-1,1], and n is a predetermined integer equal to or greater than 1.

일반적으로 스펙트럼 Spg는 다음과 같이 계산된다.In general, the spectrum S pg is calculated as follows.

Figure pat00028
Figure pat00028

여기서 Fx와 Fy는 각각 x와 y 방향에 대한 푸리에 기저 함수를 포함하는 행렬이다. 그러나, 그람 다항식 기저 함수에서, 스펙트럼은 Bx 및 By에 의해 주어진 수정된 기저 함수를 사용하여 다음과 같이 계산될 수 있다:Where F x and F y are matrices containing Fourier basis functions for the x and y directions, respectively. However, in the Gram polynomial basis function, the spectrum can be calculated as follows using the modified basis function given by B x and B y:

Figure pat00029
Figure pat00029

신호대 잡음비는 적합성 계산보다 더 좋다.The signal-to-noise ratio is better than the fit calculation.

엔트로피 가중 텐서 다항식 정규화Entropy weighted tensor polynomial regularization

참조 이미지 및 시프트된 이미지의 연속적인 패치들은 수정된 정규화된 위상 상관을 사용하여 정합되는데, 제어부(302)는 참조 이미지 및 시프트된 이미지의 연속적인 패치들을 정합하기 이전에, 상기 이미지 패치들에서 특징이 없는 부분에 근사값을 제공하기 위하여, 엔트로피 가중 텐서 다항식 정규화를 이용하여 상기 이미지 패치들(D) 각각을 재구성한다.Successive patches of the reference image and the shifted image are matched using the corrected normalized phase correlation, and the control unit 302 is characterized in the image patches before matching the successive patches of the reference image and the shifted image. Each of the image patches D is reconstructed using entropy weighted tensor polynomial normalization to provide an approximation to the missing part.

즉, 제어부(302)는 정합 프로세스를 개선하기 위하여 (즉, 특징이 적은 영역이 정합됨) 엔트로피 기반 텐서 근사가 이웃 특징에 가중치를 부여한 후 강력한 정합에 적용한다.That is, in order to improve the matching process (that is, regions with fewer features are matched), the control unit 302 applies an entropy-based tensor approximation to a neighboring feature with a weight and then applies it to strong matching.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에서, 이미지에서 이용 가능한 특징/텍스처/정보는 가중 함수로서 사용된다. 이미지의 일부 영역에서 이용 가능한 특징이 적을 수 있으며, 위상 상관이 상기 이미지를 정확하게 정합하는 데 요구될 것이다. 결과적으로, 엔트로피는 이와 관련하여 특징이 없는 부분에 할당된 근사값을 제공함으로써 그 역할을 한다.In a vehicle navigation method based on a vision sensor according to an embodiment of the present invention, a feature/texture/information available in an image is used as a weighting function. There may be fewer features available in some areas of the image, and phase correlation will be required to accurately match the image. As a result, entropy plays a role in this regard by providing an approximation assigned to a non-characteristic part.

패치들의 좌표들이 탄성 변형에 해당하는 그리드에 있다고 보장할 수 없다. 탄성 변형을 위한 부분 미분 방정식의 솔루션과 일치하는 그리드로 좌표를 정규화하는 것은 전역 다항식 기저 함수들의 텐서 곱에 의해 근사화함으로써 달성될 수 있다. 이러한 텐서 곱 근사에 대한 함수는 원본 이미지 패치 D와 재구성된 이미지 패치

Figure pat00030
의 차이를 나타내는 오차 E에 의해 주어진다.It cannot be guaranteed that the coordinates of the patches are in the grid corresponding to the elastic deformation. Normalizing the coordinates to a grid that matches the solution of the partial differential equation for elastic deformation can be achieved by approximating by the tensor product of the global polynomial basis functions. The function for this tensor product approximation is the original image patch D and the reconstructed image patch
Figure pat00030
Is given by the error E representing the difference in

Figure pat00031
Figure pat00031

여기서 S는 재구성된 패치의 스펙트럼을 나타내고 F는 프로베니우스 놈(Frobenius norm)이다. 상기 수학식은 S의 값에 의존한다. 즉, S의 값이 작을수록 오차 E가 작을 것이다. 목표는 상기 함수를 최소화하는 매트릭스 S의 엔트리 값을 결정하는 것이다. S는 다음과 같이 계산될 수 있다:Where S is the spectrum of the reconstructed patch and F is the Frobenius norm. The above equation depends on the value of S. That is, the smaller the value of S, the smaller the error E will be. The goal is to determine the entry value of matrix S that minimizes the function. S can be calculated as follows:

Figure pat00032
Figure pat00032

고려해야 할 추가적인 문제는 모든 패치가 동일한 정보 내용을 가지고 있지 않다는 것이다. 패치에 포함된 정보에 의해 패치의 좌표를 가중시키는 것이 바람직하다. 즉, 더 높은 정보 내용을 갖는 패치는 최소 제곱 근사 프로세스 동안 더 중요하다. 가중 행렬 W가 주어지면, 가중 텐서 곱 근사에 대한 오차 Ew는 다음과 같이 공식화될 수 있다.An additional issue to consider is that not all patches have the same information content. It is preferable to weight the coordinates of the patch by the information contained in the patch. In other words, patches with higher information content are more important during the least squares approximation process. Given a weighting matrix W, the error E w for the weighted tensor product approximation can be formulated as follows.

Figure pat00033
Figure pat00033

여기서 는 하다마드 곱(Hadamard product) 연산자이다.Here, is the Hadamard product operator.

수정된 정규화된 위상 상관Modified Normalized Phase Correlation

단계 S212에서, 제어부(302)는 수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하고, 상기 정합 결과에 기반하여 상기 한 쌍의 연속 이미지 간의 픽셀 변위를 계산한다.In step S212, the controller 302 matches the pair of consecutive images using the corrected normalized phase correlation, and calculates a pixel displacement between the pair of consecutive images based on the matching result.

위상 상관은 이미지의 이동을 찾는 데 사용된다. 위상 상관에 의해 두 개의 이미지를 정합하기 위해, 먼저 두 이미지의 이산 2D 푸리에 변환이 계산된 다음, 시프트된 이미지의 복소 공액을 취함으로써 크로스-파워 스펙트럼이 계산되며, 이는 추가 정규화를 겪는다. 마지막으로, 역 푸리에 변환은 두 이미지에서 필요한 이동을 얻는 데 사용된다.Phase correlation is used to find the shift in the image. To match two images by phase correlation, first the discrete 2D Fourier transform of the two images is calculated, then the cross-power spectrum is calculated by taking the complex conjugate of the shifted image, which undergoes further normalization. Finally, the inverse Fourier transform is used to obtain the required shift in both images.

수정된 정규화된 위상 상관이 두 개의 연속 이미지에 적용되어 상대 이동을 찾는다. 본 발명의 핵심 아이디어는 푸리에 시프트 이론에 기초하고 있는데, 푸리에 시프트 이론은 두 함수의 공간 영역에서의 이동은 푸리에 스펙트럼 영역에서 선형 위상차로 변환된다는 것을 기술한다. 위상 상관법은 이상적인 단일 피크를 포함하는 위상차를 계산한다. 피크의 위치는 두 개의 연속 이미지 사이의 상대적인 변환을 나타낸다. 위상 상관 방법은 노이즈 및 이미지 결함에 강건하고 쉽게 자동화된다.The corrected normalized phase correlation is applied to two consecutive images to find the relative motion. The core idea of the present invention is based on the Fourier shift theory, which states that the shift of the two functions in the spatial domain is transformed into a linear phase difference in the Fourier spectral domain. The phase correlation method calculates the phase difference including an ideal single peak. The position of the peak represents the relative transformation between two successive images. The phase correlation method is robust to noise and image defects and is easily automated.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에서 수정된 정규화된 위상 상관 방법은 정합을 실행하기 위해 제시된다. 푸리에 기저 함수는 차수가 1인 그람 다항식의 직교 보수에 투영함으로써 수정된다. 이것은 패치 내에서 강도 및 강도 피크의 영향을 제거한다. 수학적으로 정규화된 위상 상관은 다음과 같다:A modified normalized phase correlation method in a vehicle navigation method based on a vision sensor according to an embodiment of the present invention is presented to perform matching. The Fourier basis function is modified by projecting it onto the orthogonal complement of a Gram polynomial of degree 1. This eliminates the influence of intensity and intensity peaks within the patch. The mathematically normalized phase correlation is:

Figure pat00034
Figure pat00034

여기서 IFFT는 역 고속 푸리에 변환을 나타내며, M(w) 및 R(w)는 각각 수정된 템플릿 이미지 및 수정된 참조 이미지의 2D 푸리에 스펙트럼이다. 픽셀 이동, 즉 픽셀 변위는 표면 P(n)에서 피크의 위치에 의해 주어진다.Where IFFT denotes the inverse fast Fourier transform, and M(w) and R(w) are the 2D Fourier spectra of the modified template image and the modified reference image, respectively. Pixel shift, i.e. pixel displacement, is given by the position of the peak at the surface P(n).

마지막으로, 단계 S214에서, 제어부(302)는 상기 픽셀 변위에 기반하여 위도 및 경도를 계산하여 차량의 현재 위치를 갱신한다.Finally, in step S214, the control unit 302 updates the current position of the vehicle by calculating latitude and longitude based on the pixel displacement.

실험 설정 및 결과Experiment setup and results

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법을 통해 보고된 위치와 기록된 GPS 값을 비교하기 위해 차량에는 간단한 디지털 카메라가 장착되어 있다. 카메라의 수평 시야각은 15.5°이며, 획득 한 이미지 크기는 480×640이다. 50% 이상의 중첩을 초래하는 도 5에 제공된 이미지 쌍(즉, 참조 이미지 및 시프트된 이미지)은 실험적 검증의 목적으로 사용된다. 실험 설정 동안, 지상 차량은 최대 속도 30킬로미터/시간(km/h), 즉 8.333미터/초(m/s)로 움직였다. 따라서 총 거리는 200×8.33=1666.6m 또는 일반 도로에서 1.6km이다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 있어서, 이미지에서 이용 가능한 정보는 가중 함수로서 유지된다.The vehicle is equipped with a simple digital camera in order to compare the reported position and the recorded GPS value through the vehicle navigation method based on the vision sensor according to an embodiment of the present invention. The horizontal viewing angle of the camera is 15.5°, and the acquired image size is 480×640. The image pairs provided in FIG. 5 (i.e., reference images and shifted images) resulting in an overlap of 50% or more are used for experimental verification purposes. During the experimental setup, the ground vehicle moved at a maximum speed of 30 kilometers/hour (km/h), or 8.333 meters/second (m/s). Therefore, the total distance is 200×8.33=1666.6m or 1.6km on the general road. In a vehicle navigation method based on a vision sensor according to an embodiment of the present invention, information available in an image is maintained as a weighting function.

차량의 변위 추정Estimation of vehicle displacement

변위 [dx, dy]는 도 4에 도시된 바와 같이 카메라가 지면을 향한 각도로 촬영한 이미지를 사용하여 추정된다. 샘플링 순간 t-1에서, 카메라는 지면을 촬영한다. 유사하게, 다음 샘플링 순간 t에서 다른 이미지가 취해지고, 수정된 정규화된 위상 상관은 수학식 8을 사용하여 계산되고, 변환이 계산된다. 수정된 정규화된 위상 상관에 의해 제공된 피크 값은 참조 이미지와 현재 이미지 사이의 이동을 공식화하는 데 사용된다.The displacement [dx, dy] is estimated using an image captured by the camera at an angle toward the ground as shown in FIG. 4. At the sampling moment t-1, the camera photographs the ground. Similarly, another image is taken at the next sampling instant t, the corrected normalized phase correlation is calculated using Equation 8, and the transform is calculated. The peak value provided by the corrected normalized phase correlation is used to formulate the shift between the reference image and the current image.

픽셀 변위 (Δx, Δy)는 지면을 가리키는 카메라로 촬영한 이미지 시퀀스에서 계산되며, Across 및 Along 거리를 각각 찾는 데 사용된다. 이 거리는 차량의 정확한 위치를 계산하기 위해 위도 및 경도와 같은 측정 단위로 변환된다.Pixel displacement (Δx, Δy) is calculated from a sequence of images taken with a ground-pointing camera and is used to find the Across and Along distances, respectively. This distance is converted into units of measure such as latitude and longitude to calculate the exact location of the vehicle.

픽셀 값에서 위도와 경도 찾기Find latitude and longitude in pixel values

위도와 경도를 찾으려면 보정된 해상도를 찾아야한다. 도 4에서 “높이”는 지면 높이 위(AGL: Altitude above Ground Level)로 정의되며 기호 α는 화각을 도 단위로 나타낸다. 다음 변수들은 수학적으로 계산된다.To find the latitude and longitude, you need to find the corrected resolution. In FIG. 4, “height” is defined as Altitude above Ground Level (AGL), and the symbol α represents the angle of view in degrees. The following variables are calculated mathematically.

Figure pat00035
Figure pat00035

Figure pat00036
Figure pat00036

Figure pat00037
Figure pat00037

여기서 FOV는 시야(field of view)를 나타내고 tan은 각도의 탄젠트이다.Where FOV is the field of view and tan is the tangent of the angle.

x와 y의 움직임이 계산되면, 이들은 횡단 거리(Across distance)와 길이 방향 거리(Along distance)를 각각 찾기 위해 변형될 수 있다. 영향을 주는 구성요소들, 즉 롤에 의해 주어진 x 움직임 및 피치에 의해 주어진 y 움직임을 보상할 필요가 있다. 마찬가지로 측면 거리(side wise distance) 및 길이 방향 거리(along wise distance)는 다음 수학식을 사용하여 계산된다.Once the movements of x and y are calculated, they can be transformed to find the Across and Along distances, respectively. It is necessary to compensate for the influencing components, i.e. the x motion given by the roll and the y motion given by the pitch. Similarly, the side wise distance and the along wise distance are calculated using the following equation.

Figure pat00038
Figure pat00038

Figure pat00039
Figure pat00039

가로 거리 및 세로 거리를 GPS와 비교하려면 위도(Lat) 및 경도(long)로 각각 크기를 조정해야 한다.To compare the horizontal and vertical distances with GPS, you need to resize them in latitude (Lat) and longitude (long) respectively.

이를 위해 먼저 시계 방향 회전 행렬을 사용하여 이동 행렬을 계산한다. 두 번째로, 이 이동 행렬은 Factor를 사용하여 도(degree)로 변환되는데, Factor=(180/π)×지구 반경(6378137 미터)이다. 마지막으로, ΔLat 및 ΔLong은 시드 값(이전 위도/경도)에 누적된다. 첫 번째 샘플의 경우, 시드 값은 궤적 시작점의 위도/경도이다. 시작점은 GPS를 통한 현재 위치에 따라 결정된다. 이동 행렬은 다음과 같이 계산된다.To do this, first, a movement matrix is calculated using a clockwise rotation matrix. Second, this shift matrix is converted to degrees using Factor, where Factor = (180/π) × Earth radius (6378137 meters). Finally, ΔLat and ΔLong are accumulated in the seed value (formerly latitude/longitude). For the first sample, the seed value is the latitude/longitude of the trajectory starting point. The starting point is determined according to the current location via GPS. The shift matrix is calculated as follows.

Figure pat00040
Figure pat00040

Figure pat00041
Figure pat00041

4개의 연속 이미지가 도 5에 도시되어 있으며, 각각의 이미지, 즉, 도 5(b, e, h, k)는 이전의 이미지인 도 5(a, d, g, j)와 정합되어, 도 5(c, f, i, l)에 표시된 쿼드 트리 분해를 통한 픽셀 이동이 획득된다. 도 5(a, d, g, j)의 이미지를 알려진 위치의 초기 지점을 고려하면, 다음 이미지들인, 도 5(b, e, h, k)를 위해, 도 5(a, d, g, j)에 주어진 이미지는 위도 및 경도 거리를 계산하는 데 사용된다. 각 연속 이미지인 도 5(b, e, h k)는 새 이미지의 위도 및 경도 계산에 각각 사용된다. 방향은 도움말 나침반과 함께 향하는 각도를 사용하여 계산되며 거리(위도 및 경도)는 수학식 18 및 19를 사용하여 계산된다.Four consecutive images are shown in Fig. 5, and each image, that is, Fig. 5 (b, e, h, k) is matched with Fig. 5 (a, d, g, j) which is the previous image, Pixel movement is obtained through quad-tree decomposition indicated at 5(c, f, i, l). Considering the initial point of a known position in the image of Fig. 5 (a, d, g, j), for the next images, Fig. 5 (b, e, h, k), Fig. 5 (a, d, g, The images given in j) are used to calculate the latitude and longitude distances. Each successive image, Fig. 5(b, e, hk), is used to calculate the latitude and longitude of the new image, respectively. The direction is calculated using the angle headed with the help compass and the distance (latitude and longitude) is calculated using Equations 18 and 19.

실시간 실험 결과Real-time experiment results

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 주요 목표는 GPS 거부 환경에서 정확한 위치를 제공하는 내비게이션 시스템을 구축하는 것이다. 이를 위해 차량에 480x640 해상도의 카메라를 장착하여 주간 실험과 맑은 날씨 조건에서 실시간 실험을 수행하였다.The main goal of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention is to construct a navigation system that provides an accurate location in a GPS rejection environment. To this end, the vehicle was equipped with a camera with a resolution of 480x640 to perform a daytime experiment and a real-time experiment under clear weather conditions.

자율 내비게이션 시스템에 사용되는 일반적인 관행은 GPS에서 추출된 초기 위치 데이터를 사용하는 것이다. 내비게이션을 시작하기 전에 차량의 초기 포지셔닝을 위해 GPS 데이터가 제공되어 차량의 위치를 결정한다.A common practice used in autonomous navigation systems is to use initial location data extracted from GPS. Before starting navigation, GPS data is provided for initial positioning of the vehicle to determine the vehicle's location.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 여행을 시작한 지점부터 첫 번째 위치만 있으면 되며 GPS 또는 INS 시스템이 없어도 경로를 따라 목적지까지 자율적으로 이동하는 동안 다음 내비게이션 지점을 결정한다. 실제 환경에서는 비전 센서를 통해 캡처된 이미지에 노이즈로 인해 정보가 적을 수 있다. 이러한 낮은 정보 함량은 잘못된 위상 상관을 초래할 수 있다. 이와 관련하여 엔트로피는 중요한 역할을 하며, 정보가 없거나 정보가 제한된 이들 부분들에 근사값이 할당된다. 최소 제곱 텐서 근사 동안, 낮은 정보 특징을 갖는 이미지는 더 많은 정보 특징을 갖는 이미지에 비해, 크게 기여하지 않는다.In the vehicle navigation method based on a vision sensor according to an embodiment of the present invention, only the first location is required from the point where the trip starts, and even without a GPS or INS system, the next navigation point is determined while autonomously moving to the destination along the route. In a real environment, the image captured by the vision sensor may have little information due to noise. This low information content can lead to erroneous phase correlation. In this regard, entropy plays an important role, and approximations are assigned to these parts of which there is no or limited information. During least-squares tensor approximation, images with lower information features do not contribute significantly compared to images with more information features.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 견고성을 실시간으로 평가하기 위해, 실험이 하드웨어에서 실행되는데, 두 이미지 간의 이동을 찾기 위하여 두 이미지가 시스템에 제공된다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에서, 실험 동안, 카메라의 캡처 프레임 레이트는 초당 28 프레임에서 초당 15 프레임으로 감소되어, 프레임 처리를 위한 계산 복잡성을 향상시킨다. 마찬가지로, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 주어진 바와 같이 위도 및 경도를 결정하기 위해 상관 단계을 위해 입력되는 2개의 프레임이 고려된다. 이전 프레임의 처리 후, 새로운 입력 프레임이 추가 처리를 위해 선택된다. 이 과정은 전체 내비게이션 경로의 커버리지까지 계속된다. 각 결과에 대한 계산 시간은 프레임 수에 관계없이 약 900ms가 소요되는데, 카메라에서 데이터를 수집하고, 전처리, 이미지 상관 및 사후 처리를 통해 픽셀 이동을 위치 데이터로 변환한다. 고급 디지털 신호 프로세서(DSP)를 통합함으로써 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 성능을 향상시킬 수 있다.In order to evaluate the robustness of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention in real time, an experiment is performed in hardware, and two images are provided to the system to find movement between the two images. In the vehicle navigation method based on the vision sensor according to an embodiment of the present invention, during the experiment, the capture frame rate of the camera is reduced from 28 frames per second to 15 frames per second, thereby improving the computational complexity for frame processing. Similarly, two frames input for the correlation step are considered to determine latitude and longitude as given in the vehicle navigation method based on a vision sensor according to an embodiment of the present invention. After processing of the previous frame, a new input frame is selected for further processing. This process continues until the coverage of the entire navigation path. The calculation time for each result takes about 900 ms regardless of the number of frames. Data is collected from the camera, and pixel movement is converted into position data through pre-processing, image correlation, and post-processing. By incorporating an advanced digital signal processor (DSP), it is possible to improve the performance of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 GPS 또는 마지막으로 보고된 위치에서 초기 또는 시작 위치를 취한다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 경우, GPS 장치를 사용하여 시작점의 초기 위도 및 경도 값만 제공되며, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 드라이브 동안 각각의 이미지의 위도 및 경도 값을 계산한다. 이미지의 픽셀 이동을 사용하여 커버된 거리가 계산된다. 유사하게, 차량의 방향은 차량이 향하는 방향에 의해 발견되며, 이는 또한 거리를 따라 그리고 거리를 가로 질러 보상하는데 추가로 사용된다.A vehicle navigation method based on a vision sensor according to an embodiment of the present invention takes an initial or a start position from a GPS or a last reported position. In the case of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention, only the initial latitude and longitude values of the starting point are provided using a GPS device, and the vehicle navigation method based on the vision sensor according to an embodiment of the present invention is a drive While calculating the latitude and longitude values of each image. The covered distance is calculated using the pixel shift of the image. Similarly, the direction of the vehicle is found by the direction the vehicle is facing, which is also further used to compensate along and across the distance.

도 6은 2개의 변위된 이미지들, 즉, 서로 다른 수준의 쿼드 트리 분해에서 참조 이미지 (도 6(a, e, i))와 쉬프트된 이미지 (도 6(b, f, j))에 적용된 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 적용 예를 보여준다.6 is applied to two displaced images, i.e., a reference image (Fig. 6(a, e, i)) and a shifted image (Fig. 6(b, f, j)) at different levels of quad-tree decomposition. An example of application of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention is shown.

디스플레이 목적으로 피크는 도 6(c, g, k)의 2D 플롯과 도 6(d, h, l)의 3D 플롯 (3D 플롯에서 X축 및 Y축은 픽셀 위치를 나타내고 Z축은 시프트 변환을 나타낸다)에서 도시되었다. 위상 상관법은 각각 도 6(d, h, l)에 도시된 바와 같이 정합 시점에서 현저한 예리한 피크를 제공한다.For display purposes, the peaks are the 2D plot of Fig. 6(c, g, k) and the 3D plot of Fig. 6(d, h, l) (in the 3D plot, the X-axis and Y-axis represent the pixel position and the Z-axis represents the shift transformation). Was shown in. The phase correlation method provides remarkable sharp peaks at the time of matching, as shown in Fig. 6(d, h, l), respectively.

실험 동안, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 도 7(a, b)와 도 7(e, f)에서와 같이 최소 특징(즉, 낮은 텍스처 패치)으로 이미지를 정합할 수 있다는 것이 관찰되었다. 즉, 레이어 2와 레이어 3은 최소한의 특징으로 상관 피크를 제공한다. 이것은 엔트로피가 추가된 텐서 근사와 함께 사용될 때 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 위상 상관 기술의 특성으로 인해 현저하게 나타난다.During the experiment, the vehicle navigation method based on the vision sensor according to an embodiment of the present invention matches the image with the minimum feature (i.e., low texture patch) as in Figs. 7 (a, b) and 7 (e, f). It has been observed that it can be done. That is, layer 2 and layer 3 provide correlation peaks with minimal features. This appears remarkably due to the nature of the phase correlation technique of the vehicle navigation method based on the vision sensor according to an embodiment of the present invention when used with the tensor approximation added with entropy.

화이트닝(whitening) 형태의 정규화에 의한 신호의 향상은 두 번째 중요한 특성으로, 노이즈, 예를 들어, 균일한 조명 편차, 일반적인 강도의 오프셋 및 교정 오류가 큰 이미지에 대해 위상 상관이 현저하게 강력하다. 이 속성은 또한 위상 상관을 다른 스펙트럼 대역의 이미지 정합에 적합하게 만든다. 쿼드 트리의 각 레벨에서 패치의 해상도는 데시메이션과 일관되게 결합된 Savitzky-Golay 근사를 통해 줄어든다. 반면, 계산 속도가 더 높은 정도의 데시메이션을 사용하여 달성될 수 있기 때문에, 데시메이션 비율은 신중하게 선택되어야 한다. 그러나 이것은 전역 정합이 가능하도록 확률적 패턴에 대해 유지되어야 하는 충분한 국부적인 정보가 필요하다. 개별 패치에 대해 수정된 FFT(Fast Fourier Transform) 기반 정규화된 위상 상관을 통해 각 계층에서 정합이 수행된다. 정규화된 위상 상관을 계산하기 전에 패치는 낮은 정도의 그람 다항식 기저의 직교 성분에 투영된다.The improvement of the signal by normalization in the form of whitening is a second important characteristic, and the phase correlation is remarkably strong for images with large noise, e.g., uniform illumination deviation, general intensity offset, and calibration error. This property also makes the phase correlation suitable for image matching in different spectral bands. At each level of the quad tree, the resolution of the patch is reduced through a Savitzky-Golay approximation that is consistently combined with decimation. On the other hand, since the computational speed can be achieved using a higher degree of decimation, the decimation ratio must be chosen carefully. However, this requires sufficient local information to be maintained for the probabilistic pattern to enable global matching. Matching is performed in each layer through normalized phase correlation based on Fast Fourier Transform (FFT) modified for individual patches. Before calculating the normalized phase correlation, the patch is projected onto the orthogonal component of a low degree of Gram polynomial basis.

두 개의 연속 프레임 간의 정확한 픽셀 이동을 계산하는 경우 자율 내비게이션 시스템은 정확하고 강력하다는 것이 입증되었다. 두 개의 연속 이미지 간의 픽셀 이동은 미터로 스케일링된 다음 위도 경도로 스케일링된다. 결과적으로, 데이터의 주된 주기적인 부분이 제거되어 깁스 오차가 크게 줄어든다.Autonomous navigation systems have proven to be accurate and powerful when calculating the exact pixel movement between two consecutive frames. The pixel shift between two successive images is scaled by meters and then by latitude and longitude. As a result, the main periodic part of the data is removed and the cast error is greatly reduced.

도 8은 거리 맵으로서 공식화된 전체 이동(시프트)을 도시한 것으로, 이는 3D에서 쿼드 트리 층의 각 노드에서 유클리드 거리를 사용하여 이동 통찰력을 제공한다. 도 8에 주어진 왜곡 맵은 두 이미지 간의 실제 이동으로, 두 샘플 간의 차량에 의해 도로를 따른 그리고 도로를 가로 지르는 거리를 결정한다. X축은 횡단 방향의 차량의 움직임을 나타내는 픽셀 인덱스를 나타내고, Y축은 길이 방향의 차량의 움직임을 나타내는 픽셀 인덱스를 나타낸다. Z축은 피크 값의 강도를 나타내지만 Z축의 값이 높을수록 더 정확한 상관 결과를 얻을 수 있다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에서 단일 피크를 찾았는데, 반면에 공간 영역 상관에서는 더 많은 피크를 가지는데, 실제 피크를 찾는 것은 어려운 과정이다.Figure 8 shows the total movement (shift) formulated as a distance map, which provides movement insight using Euclidean distances at each node of the quad tree layer in 3D. The distortion map given in Fig. 8 is the actual movement between two images, which determines the distance along and across the road by the vehicle between the two samples. The X axis represents a pixel index representing the movement of the vehicle in the transverse direction, and the Y axis represents the pixel index representing the movement of the vehicle in the longitudinal direction. The Z-axis represents the intensity of the peak value, but the higher the Z-axis value, the more accurate correlation results can be obtained. In the vehicle navigation method based on a vision sensor according to an exemplary embodiment of the present invention, a single peak is found, whereas in spatial domain correlation, more peaks are found, but finding an actual peak is a difficult process.

도 9a는 픽셀 이동을 도시한 것이고, 도 9b는 거리 맵으로서 공식화된 전체 피크를 도시하며, 이는 3D 플롯에서 각 층 및 그 서브 이미지 레벨에서의 이동에 대한 통찰력을 제공한다.FIG. 9A shows the pixel movement, and FIG. 9B shows the overall peak formulated as a distance map, which provides insight into the movement at the level of each layer and its sub-images in the 3D plot.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 의해 계산된 결과는 도 10a에 도시된 것과 동일한 스케일을 사용하여 GPS와 비교하여 도시된다. 빨간색 선은 GPS 경로를 나타내고 파란색 선은 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에 의한 시각적 거리계 경로를 나타낸다. 획득된 결과는 GPS 결과와 상당히 비슷하다는 것을 알 수 있다. 광범위한 테스트를 통해 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 대체 방법으로서 GPS 거부 환경에서 효율성이 입증되었다. 이러한 적용은 유망한 결과를 제공하기 위해 이미지와 함께 센서 세부 정보(롤, 피치 및 헤딩)와 카메라의 고유 매개 변수만 필요하다. GPS와 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법 사이의 오차도는 도 10b에 도시되어 있으며, 도 10a에 도시된 바와 같이 차량이 따르는 궤도를 고려한다. 시스템이 여정을 시작할 때, 두 가지 유형의 데이터 로그가 있다. 하나는 GPS 장치로부터의 데이터를 사용한 위치 측정이고, 두 번째는 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법을 사용한 위치 추정이다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 GPS에서 첫 번째 위치만 취한 다음 나머지 위치 측정을 자체적으로 실행한다. The result calculated by the vehicle navigation method based on the vision sensor according to an embodiment of the present invention is shown by comparing with GPS using the same scale as shown in FIG. 10A. The red line represents a GPS route, and the blue line represents a visual rangefinder route by a vehicle navigation method based on a vision sensor according to an embodiment of the present invention. It can be seen that the obtained results are quite similar to the GPS results. Through extensive tests, the vehicle navigation method based on the vision sensor according to an embodiment of the present invention has proven its effectiveness in a GPS rejection environment as an alternative method. This application only requires sensor details (roll, pitch, and heading) along with the image and camera-specific parameters to provide promising results. The error diagram between the GPS and the vehicle navigation method based on the vision sensor according to an embodiment of the present invention is illustrated in FIG. 10B, and as illustrated in FIG. 10A, the trajectory that the vehicle follows is considered. When the system begins its journey, there are two types of data logs. One is location measurement using data from a GPS device, and the second is location estimation using a vehicle navigation method based on a vision sensor according to an embodiment of the present invention. In the vehicle navigation method based on a vision sensor according to an embodiment of the present invention, only the first position is taken from the GPS and then the remaining position is measured by itself.

실험 중에 GPS 기반 시스템이 노이즈를 얻을 수 있는 반면, 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 지터없이 정확한 위치 값을 제공한다는 것이 관찰되었다. 실험하는 동안, 오차도에 주어진 GPS와 VO 사이에 최대 9m의 오차가 관찰된다. 이 오차는 기본적으로 테스트 드라이브 중 GPS 위치 점프로 인해 발생한다. 그렇지 않으면 내비게이션 중에 본 발명의 방법으로 부드럽고 정확한 위치가 생성된다. 이것은 GPS와 VO를 결합하여 통합 솔루션을 얻을 수 있음을 보여준다. 경우에 따라 GPS를 사용할 수 없거나 잘못된 결과를 제공하는 경우 VO는 어떤 위치를 사용할 수 없는 동안 시스템을 지원한다.While the GPS-based system can obtain noise during the experiment, it has been observed that the vehicle navigation method based on the vision sensor according to an embodiment of the present invention provides an accurate position value without jitter. During the experiment, an error of up to 9m is observed between the GPS and VO given in the error diagram. This error is basically caused by the GPS position jump during the test drive. Otherwise a smooth and accurate position is created with the method of the present invention during navigation. This shows that GPS and VO can be combined to obtain an integrated solution. In some cases, if GPS is not available or gives erroneous results, the VO supports the system while some location is unavailable.

본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법에서는 고전적인 기술이 스마트 시티에서 적절한 솔루션을 제공하지 못하는 복잡한 도시 환경에서 내비게이션을 위한 비전 기반 센서를 활용하는 방법을 제공한다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 최소 자원을 활용하여 일반적인 고가의 방식에 비해 정확한 결과를 제공한다. 본 발명의 방법은 특징이 없는 상관이라 할 수 있는데, 즉, 다른 특징들을 다루는 다른 많은 방법들과는 달리 시각적 데이터(이미지)만이 사용되고 그 스펙트럼 특성은 이용된다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법은 많은 피크를 나타내는 대신에, 정합할 두 이미지의 실제 움직임을 나타내는 단일 피크를 제공한다. 본 발명의 일 실시예에 의한 비전 센서에 기반한 차량 내비게이션 방법의 흥미로운 측면은 개발을 위해 MATLAB을 사용하는 처리 시간이며, 실행 시간은 이미지 정합을 위해 이미지 당 1초 미만이다. 그람 다항식 기저 함수를 도입하면 깁스 오차 문제가 제거되어 결과가 더욱 향상된다. 유사하게, 엔트로피 기반 텐서 근사화는 강한 이미지 정합, 즉 텍스처가 적은 이미지, 예를 들어 사막 지역도 정합할 수 있다. 제안된 기술은 또한 서브 픽셀 정합을 고려함으로써 효율을 향상시키기 위하여 저해상도 이미지에 사용될 수 있다. 따라서, 서브 픽셀 도메인에서의 정합은 특히 저해상도 이미지에서 더 나은 결과가 나온다는 결론을 내릴 수 있다.In a vehicle navigation method based on a vision sensor according to an embodiment of the present invention, a method of utilizing a vision-based sensor for navigation in a complex urban environment where classical technology cannot provide an appropriate solution in a smart city is provided. A vehicle navigation method based on a vision sensor according to an embodiment of the present invention utilizes minimal resources and provides accurate results compared to a general expensive method. The method of the present invention can be said to be a featureless correlation, that is, unlike many other methods dealing with other features, only visual data (images) are used and its spectral properties are used. The vehicle navigation method based on a vision sensor according to an embodiment of the present invention provides a single peak representing the actual motion of two images to be matched instead of representing many peaks. An interesting aspect of a vehicle navigation method based on a vision sensor according to an embodiment of the present invention is the processing time using MATLAB for development, and the execution time is less than 1 second per image for image matching. The introduction of the Gram polynomial basis function eliminates the Gibbs error problem and further improves the result. Similarly, entropy-based tensor approximation can match strong image matching, i.e., images with less texture, for example desert regions. The proposed technique can also be used for low-resolution images to improve efficiency by taking into account sub-pixel matching. Thus, it can be concluded that matching in the sub-pixel domain yields better results, especially for low-resolution images.

이상 본 발명을 구체적인 실시예를 통하여 상세하게 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.Although the present invention has been described in detail through specific examples, this is for describing the present invention in detail, and the present invention is not limited thereto, and those of ordinary skill in the art within the technical scope of the present invention It would be clear that the transformation or improvement is possible.

본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로, 본 발명의 구체적인 보호 범위는 첨부된 청구범위에 의하여 명확해질 것이다.All simple modifications to changes of the present invention belong to the scope of the present invention, and the specific scope of protection of the present invention will be made clear by the appended claims.

300 : 비전 센서
302 : 제어부
304 : 디스플레이
306 : 메모리
300: vision sensor
302: control unit
304: display
306: memory

Claims (6)

차량 외부의 한 쌍의 시간적으로 차이가 있는 연속 이미지를 획득하는 단계;
수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하는 단계;
상기 정합 결과에 기반하여 상기 한 쌍의 연속 이미지 간의 픽셀 변위를 계산하는 단계; 및
상기 픽셀 변위에 기반하여 위도 및 경도를 계산하여 차량의 현재 위치를 갱신하는 단계를 포함하고,
상기 연속 이미지를 획득하는 단계는,
차량에 장착된 비전 센서를 이용하여 한 쌍의 연속 이미지를 획득하는 단계;
왜곡 성분이 적은 이미지 내부의 고정 경계 영역을 선택하기 위하여 상기 한 쌍의 연속 이미지 각각을 쿼드-트리(quad tree) 분해 방법을 이용하여 복수의 쿼드 트리 이미지 패치들로 분해하는 단계; 및
상기 한 쌍의 연속 이미지 각각에 대한 쿼드-트리 이미지 패치들을 데시메이션하는 단계를 포함하고,
상기 한 쌍의 연속 이미지 간의 픽셀 변위를 계산하는 단계는 상기 한 쌍의 연속 이미지 각각의 데시메이션된 이미지 패치들 간의 픽셀 변위를 계산하는 단계를 포함하는, 비전 센서에 기반한 차량 내비게이션 방법.
Acquiring a temporally different continuous image of a pair of outside the vehicle;
Matching the pair of consecutive images using the corrected normalized phase correlation;
Calculating a pixel displacement between the pair of consecutive images based on the matching result; And
Computing latitude and longitude based on the pixel displacement to update the current location of the vehicle,
The step of obtaining the continuous image,
Acquiring a pair of continuous images using a vision sensor mounted on the vehicle;
Decomposing each of the pair of consecutive images into a plurality of quad-tree image patches using a quad-tree decomposition method in order to select a fixed boundary area within an image having less distortion; And
Decimating quad-tree image patches for each of the pair of consecutive images,
The calculating of the pixel displacement between the pair of consecutive images comprises calculating a pixel displacement between decimated image patches of each of the pair of consecutive images.
청구항 1에 있어서,
상기 각각의 이미지 패치(D)를 데시메이션하는 단계는 수학식 7에 기반하여 스펙트럼 Spg를 획득하는 단계를 포함하고,
[수학식 7]
Figure pat00042

Fx와 Fy는 각각 x 방향과 y 방향에 대한 푸리에 기저 함수를 포함하는 행렬이고, T는 전치(transpose) 연산자를 나타내며,
Dpg는 수학식 5에 기반하여 획득되고,
[수학식 5]
Figure pat00043

Gx 및 Gy의 열(column)은 각각 x 방향 및 y 방향에 대한 그람 기저 함수를 포함하는, 비전 센서에 기반한 차량 내비게이션 방법.
The method according to claim 1,
Decimating each image patch (D) includes obtaining a spectrum S pg based on Equation 7,
[Equation 7]
Figure pat00042

F x and F y are matrices containing Fourier basis functions for the x and y directions, respectively, T denotes the transpose operator,
D pg is obtained based on Equation 5,
[Equation 5]
Figure pat00043

A vehicle navigation method based on a vision sensor, wherein the columns of G x and G y contain Gram basis functions for the x and y directions, respectively.
청구항 2에 있어서,
상기 그람 기저 함수(
Figure pat00044
)는, 수학식 6에 의해 주어지고,
[수학식 6]
Figure pat00045
,
상기에서
Figure pat00046
이며,
Figure pat00047
,
Figure pat00048
,
Figure pat00049
이고,
Figure pat00050
이며, n<m이고, 상기 수학식 6에서 x는 [-1,1] 범위 내의 값이며, n은 1 이상인 소정의 정수인, 비전 센서에 기반한 차량 내비게이션 방법.
The method according to claim 2,
The Gram basis function (
Figure pat00044
) Is given by Equation 6,
[Equation 6]
Figure pat00045
,
From above
Figure pat00046
Is,
Figure pat00047
,
Figure pat00048
,
Figure pat00049
ego,
Figure pat00050
And n<m, in Equation 6, x is a value within the range of [-1,1], and n is a predetermined integer equal to or greater than 1, a vehicle navigation method based on a vision sensor.
청구항 3에 있어서,
상기 수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하는 단계 이전에,
상기 이미지 패치들에서 특징이 없는 부분에 근사값을 제공하기 위하여, 상기 이미지 패치들(D) 각각을 [수학식 10]에 기반하여 재구성하여 재구성된 이미지 패치의 스펙트럼(S)을 획득하는 단계를 포함하는, 비전 센서에 기반한 차량 내비게이션 방법.
[수학식 10]
Figure pat00051
.
The method of claim 3,
Before the step of matching the pair of consecutive images using the modified normalized phase correlation,
In order to provide an approximation value to a portion of the image patches having no features, each of the image patches (D) is reconstructed based on [Equation 10] to obtain a spectrum (S) of the reconstructed image patch. The vehicle navigation method based on the vision sensor.
[Equation 10]
Figure pat00051
.
청구항 4에 있어서,
상기 수정된 정규화된 위상 상관을 이용하여 상기 한 쌍의 연속 이미지를 정합하는 단계는 수학식 12에 기반하여 표면 P(n)을 획득하는 단계를 포함하고,
[수학식 12]
Figure pat00052

IFFT는 역 고속 푸리에 변환을 나타내며, M(w) 및 R(w)는 각각 상기 한 쌍의 연속 이미지에 대한 수정된 이미지 패치들의 2D 푸리에 스펙트럼이고,
상기 수정된 이미지 패치들의 2D 푸리에 스펙트럼은, 상기 이미지 패치들의 2D 푸리에 스펙트럼을 차수가 1인 그람 다항식의 직교 보수에 투영함으로써 획득되며,
상기 픽셀 변위는 상기 표면 P(n)에서 피크의 위치에 의해 획득되는, 비전 센서에 기반한 차량 내비게이션 방법.
The method of claim 4,
The step of matching the pair of consecutive images using the modified normalized phase correlation includes obtaining a surface P(n) based on Equation 12,
[Equation 12]
Figure pat00052

IFFT represents the inverse fast Fourier transform, M(w) and R(w) are 2D Fourier spectra of modified image patches for the pair of consecutive images, respectively,
The 2D Fourier spectrum of the modified image patches is obtained by projecting the 2D Fourier spectrum of the image patches onto an orthogonal complement of a Gram polynomial of order 1,
The pixel displacement is obtained by the position of the peak at the surface P(n).
청구항 1에 있어서,
상기 차량 외부의 한 쌍의 연속 이미지를 획득하는 단계 이후에,
상기 한 쌍의 연속 이미지에 수학식 1을 적용하여 정규화된 이미지(N(x, y))를 획득하는 단계를 더 포함하는, 비전 센서에 기반한 차량 내비게이션 방법.
[수학식 1]
Figure pat00053

I(x, y)는 입력 이미지, μI는 I(x, y)의 로컬 평균, σI는 로컬 표준 편차임.
The method according to claim 1,
After the step of acquiring a pair of consecutive images outside the vehicle,
A vehicle navigation method based on a vision sensor, further comprising the step of obtaining a normalized image (N(x, y)) by applying Equation 1 to the pair of consecutive images.
[Equation 1]
Figure pat00053

I(x, y) is the input image, μI is the local mean of I(x, y), and σI is the local standard deviation.
KR1020190120361A 2019-09-30 2019-09-30 Vehicle navigation method based on vision sensor KR102275168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190120361A KR102275168B1 (en) 2019-09-30 2019-09-30 Vehicle navigation method based on vision sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190120361A KR102275168B1 (en) 2019-09-30 2019-09-30 Vehicle navigation method based on vision sensor

Publications (2)

Publication Number Publication Date
KR20210037893A true KR20210037893A (en) 2021-04-07
KR102275168B1 KR102275168B1 (en) 2021-07-07

Family

ID=75469826

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190120361A KR102275168B1 (en) 2019-09-30 2019-09-30 Vehicle navigation method based on vision sensor

Country Status (1)

Country Link
KR (1) KR102275168B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101096113B1 (en) 2009-05-26 2011-12-30 한국교통연구원 Navigation system having enhanced reliability and method thereof
KR20130054413A (en) * 2010-10-05 2013-05-24 제너럴 인스트루먼트 코포레이션 Method and apparatus for feature based video coding
KR20170003361A (en) * 2015-06-30 2017-01-09 삼성전자주식회사 Method and apparatus for recognizing finger print

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101096113B1 (en) 2009-05-26 2011-12-30 한국교통연구원 Navigation system having enhanced reliability and method thereof
KR20130054413A (en) * 2010-10-05 2013-05-24 제너럴 인스트루먼트 코포레이션 Method and apparatus for feature based video coding
KR20170003361A (en) * 2015-06-30 2017-01-09 삼성전자주식회사 Method and apparatus for recognizing finger print

Also Published As

Publication number Publication date
KR102275168B1 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
US9989969B2 (en) Visual localization within LIDAR maps
Wolcott et al. Visual localization within lidar maps for automated urban driving
US9880010B2 (en) Method of and arrangement for mapping range sensor data on image sensor data
US8422736B2 (en) Method of and apparatus for producing lane information
EP2327055B1 (en) Method of and arrangement for blurring an image
EP1242966B1 (en) Spherical rectification of image pairs
CN107850449A (en) Method and system for generating and using locating reference datum
Wang et al. Automated road sign inventory system based on stereo vision and tracking
Oh et al. Automated bias-compensation of rational polynomial coefficients of high resolution satellite imagery based on topographic maps
CN111261016B (en) Road map construction method and device and electronic equipment
JP2010530997A (en) Method and apparatus for generating road information
CN109871739B (en) Automatic target detection and space positioning method for mobile station based on YOLO-SIOCTL
CN105352509A (en) Unmanned aerial vehicle motion target tracking and positioning method under geographic information space-time constraint
Badshah et al. Vehicle navigation in GPS denied environment for smart cities using vision sensors
US11367213B2 (en) Method and apparatus with location estimation
US20200279395A1 (en) Method and system for enhanced sensing capabilities for vehicles
Dawood et al. Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera
CN114248778B (en) Positioning method and positioning device of mobile equipment
CN115900712A (en) Information source reliability evaluation combined positioning method
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
US20200150280A1 (en) Vehicle localization
KR102275168B1 (en) Vehicle navigation method based on vision sensor
CN115457022A (en) Three-dimensional deformation detection method based on real-scene three-dimensional model front-view image
CN116151320A (en) Visual odometer method and device for resisting dynamic target interference
CN111489398B (en) Imaging equipment calibration method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant