KR20110060600A - Apparatus and method for extracting location and velocity of obstacle - Google Patents

Apparatus and method for extracting location and velocity of obstacle Download PDF

Info

Publication number
KR20110060600A
KR20110060600A KR1020090117223A KR20090117223A KR20110060600A KR 20110060600 A KR20110060600 A KR 20110060600A KR 1020090117223 A KR1020090117223 A KR 1020090117223A KR 20090117223 A KR20090117223 A KR 20090117223A KR 20110060600 A KR20110060600 A KR 20110060600A
Authority
KR
South Korea
Prior art keywords
parallax
velocity
estimating
extracting
integer
Prior art date
Application number
KR1020090117223A
Other languages
Korean (ko)
Other versions
KR101076406B1 (en
Inventor
임영철
이충희
권순
이종훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020090117223A priority Critical patent/KR101076406B1/en
Publication of KR20110060600A publication Critical patent/KR20110060600A/en
Application granted granted Critical
Publication of KR101076406B1 publication Critical patent/KR101076406B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

PURPOSE: An obstacle location and velocity estimator and method are provided to improve the precision of the location and velocity estimation of an object with the application of an EKF. CONSTITUTION: A stereo matching unit(410) extracts a depth map from right and left images(400). An object detection unit(420) extracts an object. An integer parallax estimation unit(430) extracts integer parallax for a detected ROI(Region Of Interest). A precision parallax estimating unit(450) estimates precision parallax on a two-dimensional parabola. By the application of an EKF(Extended Kalman Filter), an EKF unit(480) estimates the location and velocity of the object on three-dimensional coordinates.

Description

장애물체 위치 및 속도 추정 장치 및 방법{Apparatus and Method for Extracting Location and velocity of Obstacle}Apparatus and Method for Extracting Location and velocity of Obstacle}

본 발명은 장애물체의 위치 및 속도를 추정하는 장애물체 위치 및 속도 추정 장치 및 방법에 관한 것이다. 더욱 상세하게는, 스테레오 비전을 이용하여 장애물체의 위치 및 속도를 추정하는 장애물체 위치 및 속도 추정 장치 및 방법에 관한 것이다. The present invention relates to an obstacle body position and speed estimation apparatus and method for estimating the position and speed of the obstacle body. More particularly, the present invention relates to an obstacle position and velocity estimation apparatus and method for estimating the position and velocity of an obstacle using stereo vision.

3차원 공간에서 장애물 위치 결정(Obstacle Localization)은 지능형 차량과 로봇 항법에서 중요한 문제 중 하나이다. 특히, 지능형 차량에서 필수 기능 중 하나인 자동 순항 제어(ACC: Adaptive Cruise Control)와 차선 유지 시스템(LKS: Lane Keeping System)의 구현에서 매우 중요하다. 장애물의 위치를 결정하기 위해서는 카메라, 소나(Sonar), 레이더, 광선 레이더(Lidar)와 같은 다양한 센서들을 이용한다. 최근에는 컴퓨터 성능과 통합 기술(Integration Technology)의 향상으로 데이터 처리 시간이 감소하여, 많은 연구자가 컴퓨터 비전(Computer Vision)을 이용하여 장애물 위치 결정을 수행하고 있다.Obstacle Localization in three-dimensional space is one of the important problems in intelligent vehicle and robot navigation. This is especially important in the implementation of Adaptive Cruise Control (ACC) and Lane Keeping System (LKS), which are one of the essential functions in intelligent vehicles. In order to determine the location of obstacles, various sensors such as cameras, sonar, radar, and ray radar are used. Recently, data processing time has been reduced due to the improvement of computer performance and integration technology, and many researchers are using computer vision to perform obstacle positioning.

컴퓨터 비전은 데이터 처리 시간과 관련된 몇 가지 문제점들이 있지만, 하나 의 센서로부터 많은 정보를 이용할 수 있는 사람의 시각과 유사한 많은 장점들이 있다. 최근 모노 비전(Mono Vision)의 많은 문제점을 극복할 수 있는 스테레오 비전(Stereo Vision)이 연구되어 왔다. Computer vision has some problems with data processing time, but there are many advantages that are similar to human vision, where a lot of information is available from a single sensor. Recently, Stereo Vision (Stereo Vision) has been studied to overcome many problems of Mono Vision.

스테레오 카메라를 이용한 위치 측정에서는 좌우 카메라 모델을 이용하여, 각각에 대하여 역변환을 취하게 되면, 좌우 영상에 촬영된 하나의 점이 전역 좌표계 상에서 하나의 좌표값으로 표현된다. 이 때, 영상에서 표현되는 좌표 값이 화소 단위로 표현되게 때문에 양자화 오차가 발생하며, 양자화 오차가 거리로 환산될 때, 거리가 멀어질수록 오차가 커지게 되어 거리 정밀도가 떨어지게 된다. 이를 극복하기 위하여, 부화소 보간법을 이용한 정밀 시차 추정 방법을 사용하지만, 실제 환경에서는 영상내의 균등 영역에 의하여 스테레오 매칭 오류와 시차 추정 오차가 발생하여, 거리 정확도 및 정밀도가 저하되는 문제점이 있다. In the position measurement using a stereo camera, when the inverse transformation is performed on each of the left and right camera models, one point photographed in the left and right images is represented as one coordinate value on the global coordinate system. In this case, since the coordinate values expressed in the image are expressed in pixel units, a quantization error occurs. When the quantization error is converted into a distance, the error becomes larger as the distance increases and the distance precision decreases. In order to overcome this problem, a precise parallax estimation method using subpixel interpolation is used. However, in a real environment, stereo matching error and parallax estimation error occur due to a uniform region in an image, and thus there is a problem that distance accuracy and precision are degraded.

전술한 문제점을 해결하기 위해 본 발명은, 원거리에서의 거리 정밀도를 향상시킬 수 있으며, 확장형 칼만필터를 적용하여 객체를 추정함으로써, 위치 및 속도 오차를 최소화할 수 있는 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법을 제공하는데 그 목적이 있다. In order to solve the above problems, the present invention can improve the distance accuracy at a long distance, by applying an extended Kalman filter to estimate the object, the position of the obstacle object using a stereo camera that can minimize the position and speed error and It is an object of the present invention to provide a speed estimation apparatus and method.

또한 본 발명은 시차를 부화소 단위로 정밀하게 추정하면 측정할 시차의 범위 및 스테레오 매칭에 필요한 해상도를 줄일 수 있으며, 이는 정수 시차를 추정하는 방법에서 객체의 거리 추정에 필요한 연산 시간 및 비용을 최소화할 수 있는 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법을 제공하는데 다른 목적이 있다.In addition, the present invention can precisely estimate the parallax in sub-pixel units to reduce the range of parallax to be measured and the resolution required for stereo matching, which minimizes the computation time and cost required for estimating the distance of an object in the method of estimating integer parallax. Another object of the present invention is to provide an apparatus and method for estimating obstacle position and velocity using a stereo camera.

전술한 목적을 달성하기 위해 본 발명은, 스테레오 카메라에서 획득된 좌우 영상으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출하고, 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하고, 검출된 관심영역(ROI)에 대하여 정수시차를 추출하고, 상기 정수시차들 중에 실제 객체에 해당(dominant region)하면서 가장 가까운 거리에 있는 영역들(max dominant region) 중에 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하고, 좌우 영상에서 상기 특징점들이 분포된 라인 단위의 벡터인 스트라이퍼들(stripes)을 추출하고, 상기 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성하고, 추정된 정밀시차를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구하고, 추정된 2개의 객체의 중심 화소들과 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻고, 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 추정하여 객체의 위치 및 속도를 최적화하여 추정하는 장애물체 속도 및 위치 추정 방법 및 장치를 제공한다.In order to achieve the above object, the present invention, an object to extract a depth map from the left and right images obtained by the stereo camera using a stereo matching algorithm, and to estimate the distance or speed using the depth map information Extract the integer parallax with respect to the detected region of interest (ROI), and the vertical edge components among the maximum dominant regions that are closest to the real object among the integer parallaxes. Extract only the pixels consisting of the feature points, extract stripers that are vectors in the line unit in which the feature points are distributed in the left and right images, and a normalized cross correlation vector composed of only feature points from the stripers. ), Calculate the center point of the left and right image by reflecting the estimated precision parallax in the right image, Obtain the position of the object in 3D coordinates using the center pixels of the two objects and Inverse Perspective Mapping (IPM), and dynamically estimate the position of the object in 3D coordinates using the Extended Kalman Filter. Provided are an obstacle speed and position estimation method and apparatus for optimizing and estimating a position and speed of a target.

이상에서 설명한 바와 같이 본 발명에 의하면, 원거리에서의 거리 정밀도를 향상시킬 수 있으며, 확장형 칼만필터를 적용하여 객체를 추정함으로써, 위치 및 속도 오차를 최소화할 수 있는 효과가 있다.As described above, according to the present invention, distance accuracy at a far distance can be improved, and an object can be estimated by applying an extended Kalman filter, thereby minimizing position and speed errors.

또한 본 발명은 시차를 부화소 단위로 정밀하게 추정하면 측정할 시차의 범위 및 스테레오 매칭에 필요한 해상도를 줄일 수 있으며, 이는 정수 시차를 추정하는 방법에서 객체의 거리 추정에 필요한 연산 시간 및 비용을 최소화할 수 있는 효과가 있다.In addition, the present invention can precisely estimate the parallax in sub-pixel units to reduce the range of parallax to be measured and the resolution required for stereo matching, which minimizes the computation time and cost required for estimating the distance of an object in the method of estimating integer parallax. It can work.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but between components It will be understood that may be "connected", "coupled" or "connected".

이하에서는 본 발명의 실시예를 설명하는 데 있어서, 영상 내의 임의의 대상이 도로인 것으로 가정한다. 즉, 차량에 탑재된 컴퓨터 비전 시스템이 두 개 이상의 카메라를 이용하여 도로를 촬영하고 촬영된 도로에 대한 이미지에서 장애물을 검출하기 위해 도로의 특징 정보를 추출하는 것을 예를 들어, 본 발명의 실시예를 설명한다. 다만, 이러한 가정은 설명의 편의를 위한 것일 뿐, 본 발명은 영상 내의 임의의 대상으로서 도로뿐만 아니라 인도, 책상, 실내, 운동장 등의 사물이거나 얼굴, 볼, 복부, 다리 등 사람의 신체 일부 등 다양한 형태의 물체일 수 있다.In the following description of an embodiment of the present invention, it is assumed that any object in the image is a road. That is, for example, the computer vision system mounted on a vehicle may photograph a road using two or more cameras and extract feature information of the road to detect an obstacle in an image of the photographed road. Explain. However, these assumptions are merely for convenience of explanation, and the present invention may be any object in the image, as well as roads, objects such as sidewalks, desks, indoors, playgrounds, or various body parts such as faces, cheeks, abdomen, and legs. It may be an object in the form.

도 1은 스테레오 카메라와 3차원 좌표계의 관계도이다.1 is a relationship diagram of a stereo camera and a three-dimensional coordinate system.

도 1에 도시한 바와 같이, 3차원 전역 좌표계에서 하나의 점은 스테레오 비전에서 획득된 좌우 영상에서 하나의 화소로 맵핑된다. 아래 수학식 1과 같이 이러한 카메라 모델을 역으로 변환하면(IPM : Inverse Perspective Mapping), 좌우 영상에서 획득된 하나의 점은 3차원 공간상에서 위치를 구할 수 있다. As shown in FIG. 1, one point in the 3D global coordinate system is mapped to one pixel in the left and right images obtained in the stereo vision. If the camera model is inverted (IPM: Inverse Perspective Mapping) as shown in Equation 1 below, one point obtained from the left and right images can be obtained in a three-dimensional space.

Figure 112009073896983-PAT00001
Figure 112009073896983-PAT00001

수학식 1에서 는 전역 좌표계에서 3차원 좌표 위치를 나타내고, 는 좌, 우 영상에서 획득된 x좌표, 는 좌우영상에서 획득된 y좌표를 나타낸다. 는 스테레오 매칭에서 획득된 시차를 나타낸다. 또한, 는 화소 단위의 초점 길이를 나타내며, b는 두 카메라 간의 거리, 는 카메라와 도로와의 각도를 나타낸다. In Equation 1, 3 denotes a 3D coordinate position in the global coordinate system, x denotes the x coordinate obtained from the left and right images, and y denotes the y coordinate obtained from the left and right images. Denotes a parallax obtained in stereo matching. Also, denotes a focal length in pixels, b denotes a distance between two cameras, and denotes an angle between the camera and the road.

스테레오 매칭은 한 영상의 기준점으로부터 다른 영상의 대응점을 찾는 문제로 복잡성을 줄이기 위하여 에피폴라 라인을 정합함으로써, 2차원 검색을 1차원 검색으로 변환할 수 있다. 에피폴라 라인을 정합하기 위하여, 보정(calibration)과 교정(rectification)등의 전처리 과정이 필요하며, 이 결과로써 카메라의 내부(interisic) 및 외부 파라미터를 추출할 수 있다. Stereo matching is a problem of finding a corresponding point of another image from a reference point of one image, so that the epipolar line is matched to reduce the complexity, thereby converting the two-dimensional search into a one-dimensional search. In order to match the epipolar lines, preprocessing such as calibration and rectification is required, and as a result, the interisic and external parameters of the camera can be extracted.

차량에서와 같이 원거리의 장애물체의 거리를 측정할 때는 , 즉 시차의 변화에 대하여 주요하게 결정되며, 이는 곧, 시차의 오차가 거리의 오차로 변환된다는 것을 의미한다. 가까운 거리에서는 시차의 오차에 대한 거리의 오차가 영향을 적게 받지만, 원거리에서는 시차의 작은 오차에도 거리 오차가 커지게 된다.When measuring the distance of a long obstacle, as in a vehicle, that is, it is mainly determined about the change of parallax, which means that the parallax error is converted into the error of the distance. At close distance, the error of distance with respect to parallax error is less affected, but at long distance, the distance error increases even with small error of parallax.

도 2는 시차와 거리와의 관계 그래프이다.2 is a graph illustrating a relationship between parallax and distance.

수학식 1에서 는 화소의 단위로 표현되기 때문에 양자화 오차가 생기고 이로 인해 원거리에서 거리 오차가 커지게 된다. 이를 해결하기 위하여 기존 발명에서는 NCC(normalized cross correlation)기반의 부화소 시차 추정법을 이용하여, 소수 단위의 부화소 시차를 추정한다. 제한된 영상(인위적으로 생성한 영상)에서 부화소 시차 추정법을 이용하면 스테레오 매칭에서 추정된 화소 단위의 시차보다 정확도(accuracy)를 높일 수 있다. 하지만 실제 영상에서는 균등한 영역(homogeneous region)에서, 매칭 오류와 시차 추정 오차가 발생하게 되어 정확도(accuracy) 및 정밀도(precision)가 저하되는 현상이 발생한다(도 3 참조).In Equation 1, since it is expressed in units of pixels, a quantization error occurs, which causes a large distance error at a long distance. In order to solve this problem, the existing invention estimates the subpixel disparity in decimal units using a subpixel disparity estimation method based on normalized cross correlation (NCC). Using a subpixel parallax estimation method in a limited image (artificially generated image) may increase the accuracy (accuracy) than the pixel-based parallax estimated in stereo matching. However, in a real image, matching errors and parallax estimation errors occur in a homogeneous region, thereby degrading accuracy and precision (see FIG. 3).

본 발명은 매칭 오차와 시차 추정 오차를 최소화할 수 있는 특징점 기반 정밀 시차 추정 방법을 제안하고, 이를 기반으로 확장칼만 필터(EKF)를 적용함으로써, 정밀도를 향상시키고, 객체의 위치 및 속도를 추정할 수 있는 장치 및 방법을 제공한다. The present invention proposes a feature-based precision parallax estimation method that can minimize matching error and parallax estimation error, and by applying the Extended Kalman Filter (EKF), it is possible to improve the precision and estimate the position and velocity of the object. It provides an apparatus and method that can be.

본 발병은 스테레오 카메라를 이용하여 정밀한 시차를 추정하여 장애물체의 위치를 추정할 수 있는 방법과 추정된 시차를 기반으로 확장형 칼만 필터(EKF : extended Kalman filter)를 적용함으로써 정밀한 위치 및 속도를 연속적으로 추정할 수 있는 장치 및 방법을 제공한다. The onset is based on the method of estimating the precise parallax using a stereo camera and estimating the position of the obstacle, and by applying the extended Kalman filter (EKF) based on the estimated parallax, Provided are an apparatus and method for estimating.

도 4는 본 발명의 일실시예에 따른 장애물체 위치 및 속도 추정 장치의 블록도이다.4 is a block diagram of an obstacle position and velocity estimation apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 장애물체 속도 및 위치 추정 장치는 스테레오 매칭부(410) 및 객체 검출부(420), 정수시차 추정부(430), 정밀시차 추정부(450), 객체중심 추정부(460), PMI부(470), 확장칼만 필터부(480)를 포함한다.Obstacle velocity and position estimation apparatus according to an embodiment of the present invention is a stereo matching unit 410 and the object detector 420, integer parallax estimator 430, precision parallax estimator 450, object center estimator ( 460, a PMI unit 470, and an extended knife only filter unit 480.

도 4에 도시하지 않은 제1 영상 촬영 장치와 제2 영상 촬영 장치는 스테레오 비전 시스템에서 거리, 속도 등의 추정에 필요한 좌측 영상과 우측 영상을 각각 촬영한다. 영상 촬영 장치는 예를 들어, 카메라 등이 사용될 수 있다. 제1 영상 촬영 장치와 제2 영상 촬영 장치)에서 얻어진 좌영상과 우영상(400)은 스테레오 매칭부(410)에 입력된다.The first image capturing apparatus and the second image capturing apparatus not shown in FIG. 4 respectively photograph left and right images necessary for estimating distance, speed, etc. in the stereo vision system. As the image photographing apparatus, for example, a camera or the like may be used. The left image and the right image 400 obtained by the first image capturing apparatus and the second image capturing apparatus are input to the stereo matching unit 410.

스테레오 매칭부(410)는 스테레오 카메라에서 획득된 좌우 영상(400)으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출한다.The stereo matching unit 410 extracts a depth map from the left and right images 400 obtained by the stereo camera using a stereo matching algorithm.

객체 검출부(730)는 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출할 수 있다. 객체는 도로상의 장애물체일 수 있다. 이 장애물체는 V-변위(v-disparity), 컬럼 검출(column detection), 아다부스트(adaboost), SVM(support vector machine) 등의 알고리즘을 이용하여 검출될 수 있다.The object detector 730 may extract an object for estimating a distance or a speed using depth map information. The object may be an obstacle on the road. This obstruction can be detected using algorithms such as V-disparity, column detection, adamboost, support vector machine (SVM), and the like.

정수시차 추정부(430)는 검출된 관심영역(ROI :region of interest)에 대하여 정수 시차를 추출한다. 정수 시차를 추출할 때, 관심영역 안에는 객체의 형태 및 배경 성분에 의하여 다양한 시차 값이 존재할 수 있다. 정수시차 추정부(430)는 이러한 시차 값들 중에 가장 주요하면서(dominant), 가장 가까운 거리에 위치한 영역(max dominant region)을 추출한다. The integer parallax estimator 430 extracts an integer parallax with respect to the detected region of interest (ROI). When the integer parallax is extracted, various parallax values may exist in the ROI according to the shape of the object and the background component. The integer parallax estimator 430 extracts the most dominant of these parallax values and the max dominant region located at the closest distance.

도 5는 도 4의 정수시차 추정부에서 가장 가까운 거리의 영역을 추출하는 방법의 흐름도이다.5 is a flowchart illustrating a method of extracting an area of the nearest distance from the integer parallax estimator of FIG. 4.

도면 5에서와 같이, 원영상에서 획득된 관심 영역(ROI) 내에서 가장 주요한 영역(그래프에서 초록색 원형 표시 부분)을 추출한다. 가장 주요한 영역, 즉 객체에 해당되는 영역들 중에서 가장 가까운 영역(그래프에서 붉은색 원형 표시 부분)을 추출한다. 가장 가까운 영역(max dominant region)내에서 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하다. 좌우 영상에서 이러한 특징점들이 분포된 라인 단위의 벡터, 즉 스트라이퍼들(stripes)을 추출하고, 이 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성한다. 정규 유사도(NCC)는 윈도우 내 픽셀의 유사도 정도를 정규화한 값을 나타낸다.As shown in FIG. 5, the most important region (a green circular display portion in the graph) is extracted from the ROI acquired from the original image. The most important region, that is, the region closest to the object (the red circular display portion in the graph) is extracted. Only pixels consisting of vertical edge components in the nearest dominant region are extracted as feature points. In the left and right images, the feature extracts a line-by-line vector, that is, stripers, and generates a normalized cross correlation vector (NCC vector) composed of only feature points from the stripers. Normal similarity (NCC) represents a normalized value of the similarity degree of pixels in a window.

도 6은 특징점 및 객체 중심 추출을 나타낸 도면이다. 6 is a diagram illustrating feature points and object center extraction.

정밀시차 추정부(450)는 생성된 NCC 벡터들의 유사도를 이용하여 이차원 포물선 상에서 부화소 단위의 정밀 시차를 추정한다. The precision parallax estimator 450 estimates the precision parallax of a subpixel unit on a two-dimensional parabola using the similarity of the generated NCC vectors.

예를 들어, 좌영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 우영상에서 대응 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값을 NCC(k1)이라고 하고, 좌영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 우영상의 대응 픽셀에서 우측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값 을 NCC(k1-1)이라고 하고, 좌영상 의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 상기 우영상의 상기 대응 픽셀에서 좌측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 구한 값을 NCC(k1+1)이라고 한다. 이하 수학식 2, 3은 상기 NCC를 구하는 수식을 나타낸다.For example, an NCC value of a window set with a center pixel of a left image as a center pixel and a window set with a corresponding pixel as a center pixel in a right image is referred to as NCC (k1), and the center of an object of a left image as a center pixel. The NCC value of the window set by using the shifted pixel to the right from the corresponding pixel of the right window and the set pixel as the center pixel is NCC (k1-1), and the window set by using the center of the object of the left image as the center pixel. And the NCC value of the window set with the pixel shifted one pixel to the left from the corresponding pixel of the right image as a center pixel is referred to as NCC (k1 + 1). Equations 2 and 3 below represent equations for obtaining the NCC.

Figure 112009073896983-PAT00002
Figure 112009073896983-PAT00002

Figure 112009073896983-PAT00003
Figure 112009073896983-PAT00003

이때 수학식 2와 수학식 3에서 W(x,y)는 윈도우 안의 x,y 좌표에서의 밝기값, Wm(x,y)는 윈도우 안의 전체 픽셀에 대한 휘도의 평균값, W'(x,y)는 x,y 좌표에서의 휘도값을 전체 픽셀에 대한 휘도의 평균값을 뺀 값을 놈(norm) 값으로 나눈 값을 나타낸다. 이 수학식 3에서 연산자 ⓧ는 좌측 영상의 윈도우 안에 있는 각 픽셀의 WL'(x,y) 값과 우측 영상의 윈도우 안에 있는 각 픽셀의 WR'(x,y) 값을 크로스 코릴레이션(cross correlation)하는 연산을 나타낸다. d0는 정수 시차 추정부에서 획득된 가장 가까운 영역(max dominant region)에 해당되는 시차값을 나타낸다. k는 윈도우의 위치를 이동하여 NCC 값을 구하는 경우에 윈도우의 중심 픽셀이 이동한 양을 나타낸다. 상기 예에서는 좌영상을 기준 영상으로 하여 우영상의 윈도우를 이동하는 경우를 예로 하였으나, 상기에서 언급한 바와 같이 구현예에 따라 우영상 을 기준 영상으로 한 경우에는, 좌영상의 윈도우를 이동하는 경우로 구현할 수도 있다.In Equation 2 and Equation 3, W (x, y) is a brightness value at x, y coordinates in a window, and Wm (x, y) is an average value of luminance of all pixels in the window, W '(x, y). ) Represents a value obtained by dividing the luminance value in the x, y coordinates by subtracting the average value of the luminance for all pixels by the norm value. In Equation 3, the operator 크로스 cross-correlates the W L '(x, y) value of each pixel in the window of the left image and the W R ' (x, y) value of each pixel in the window of the right image. Represents a cross correlation operation. d 0 represents a parallax value corresponding to the closest maximum region obtained by the integer parallax estimator. k indicates the amount of shift of the center pixel of the window when the NCC value is obtained by shifting the position of the window. In the above example, the case in which the window of the right image is moved by using the left image as a reference image is taken as an example. However, when the right image is the reference image according to the embodiment as described above, the window of the left image is moved. You can also implement

상기 구하여진 3개의 NCC 값(NCC(k1-1), NCC(k1), NCC(k1+1))을 이용하여 정규 유사도가 최대가 되는 정밀 시차를 추정할 수 있다. 예를 들어, 상기 3개의 NCC 값이 2차 포물선을 형성한다고 가정한다.Using the three obtained NCC values (NCC (k1-1), NCC (k1), NCC (k1 + 1)), the precise parallax at which the normal similarity is maximized can be estimated. For example, assume that the three NCC values form a secondary parabola.

도 7은 3개의 NCC 값이 좌우 대칭형의 2차 포물선을 형성하는 경우 부화소 시차 추정 방법을 도시하고 있다.FIG. 7 illustrates a subpixel parallax estimation method when three NCC values form a left-right symmetric secondary parabola.

좌영상 윈도우의 중심 픽셀과 우영상 윈도우의 중심 픽셀 차이가 k1=dint인 경우 NCC(dint) 값이, 중심 픽셀 차이가 dint+1인 경우 NCC(dint+1) 값이, 중심 픽셀 차이가 dint-1인 경우 NCC(dint-1) 값이 2차 포물선 좌표에 나타난 것을 볼 수 있다. 도 7에서 정규 유사도가 최대가 되는 지점의 시차(dacc)와 좌우 윈도우 중심 픽셀의 시차(dint)와 차이가 남을 알 수 있다. 이는 픽셀을 기초로 한 스테레오 비전 시스템에 있어서 픽셀간 양자화 오차에 기인한다. 정규 유사도(NCC)가 최대가 되는 지점의 부화소 시차(dacc)는 상기 2차 포물선(y=ax2+bx+c)과 3개의 NCC 값을 이용하여 구할 수 있다.If the difference between the center pixel of the center pixel of the left image and the right image window in the window k1 = d int value NCC (int d), the center of the pixel difference d int +1 value NCC (d int +1), the center If the pixel difference is d int -1, it can be seen that the NCC (d int -1) value appears in the quadratic parabolic coordinate. In FIG. 7, it can be seen that there is a difference between the parallax d acc at the point where the normal similarity is maximum and the parallax d int of the left and right window center pixels. This is due to the inter-pixel quantization error in pixel-based stereo vision systems. The subpixel parallax d acc at the point where the normal similarity (NCC) is maximized can be obtained using the second parabola (y = ax 2 + bx + c) and three NCC values.

이때, 스트라이퍼의 개수는 N개를 만들 수 있으며, N개의 평균을 이용하여, 객체의 정밀 시차를 추정한다. At this time, the number of stripers can be made N, and using the average of N, to estimate the precise parallax of the object.

추정된 부화소 시차(dacc), 즉 객체의 정밀시차를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구한다. The center point of the object in the left and right images is obtained by reflecting the estimated subpixel parallax (d acc ), that is, the precise parallax of the object in the right image.

IPM부(470)는 추정된 2개의 객체의 중심 화소들과 앞에서 설명한 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻을 수 있다. The IPM unit 470 may obtain the position of the object in 3D coordinates using the estimated center pixels of the two objects and the inverse perspective mapping (IPM) described above.

확장칼만 필터부(480)는 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 속도 및 위치 추정하여 객체의 위치 및 속도를 최적화하여 추정할 수 있다. The extended Kalman filter unit 480 may estimate the position and velocity of the object by dynamically estimating the speed and the position of the object on the 3D coordinates dynamically using the Extended Kalman filter.

도 8a 내지 도 8b는 정밀 시차와 IPM 기반의 확장칼만 필터를 이용하여 위치 및 속도에 대하여 실제 도로상에서 실험한 결과를 보여준다.8a to 8b show the results of experiments on the actual road for the position and speed using the precision parallax and IPM-based Extended Kalman filter.

도 9는 본 발명의 다른 실시예에 따른 장애물체 속도 및 위치 추정방법의 흐름도이다.9 is a flowchart of a method for estimating obstacle speed and position according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 장애물체 속도 및 위치 추정 방법은 스테레오 카메라에서 획득된 좌우 영상으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출하는 스테레오 매칭단계(910) 및 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하는 객체 검출단계(920), 검출된 관심영역(ROI)에 대하여 정수 시차를 추출하는 정수시차 추정단계(930), 이러한 시 차 값들 중에 가장 주요하면서(dominant), 가장 가까운 거리에 위치한 영역(max dominant region)을 추출하고, 원영상에서 획득된 관심 영역(ROI) 내에서 수직 에지 성분들을 추출하고, 가장 주요하면서, 가장 가까운 영역(max dominant region) 내에서 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하고, 좌우 영상에서 이러한 특징점들이 분포된 라인 단위의 벡터, 즉 스트라이퍼들(stripes)을 추출하고, 이 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성하는 정밀시차 추정단계(950), 추정된 부화소 시차(dacc)를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구하는 객체중심 추정단계(960), 추정된 2개의 객체의 중심 화소들과 앞에서 설명한 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻는 IPM단계(970), 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 속도 및 위치 추정하여 객체의 위치 및 속도를 최적화하여 추정하는 확장칼만 필터단계(980)를 포함한다.Obstacle velocity and position estimation method according to another embodiment of the present invention is a stereo matching step (910) and depth map information for extracting a depth map (Depth map) using a stereo matching algorithm from the left and right images obtained by a stereo camera An object detection step 920 for extracting an object for which distance or velocity is to be estimated, an integer parallax estimating step 930 for extracting integer parallax with respect to the detected ROI, and the most important of these parallax values Extracts the dominant region (max dominant region), extracts the vertical edge components within the region of interest (ROI) obtained from the original image, and most importantly, the maximum dominant region Extract only the pixels consisting of the vertical edge components into the feature points, and in the left and right images, A tri-flops of the (stripes) extraction, the normal degree of similarity consisting of only the feature points from the Stryper (Normalized Cross Correlation), the vector (NCC vector) Fine Time estimate step 950, the estimated sub-pixel difference (d acc) to generate The object center estimation step 960 of calculating the center point of the object of the left and right image reflected on the right image, the position of the object on the three-dimensional coordinates using the estimated center pixels of the two objects and the inverse perspective mapping (IPM) described above. IPM step 970 of obtaining the extended Kalman filter step 980 to estimate the position and velocity of the object by dynamically estimating the position and velocity of the object dynamically using the Extended Kalman Filter. Include.

각 단계들에 대한 자세한 설명은 도 1 내지 도8을 참조하여 설명한 장애물체 속도 및 위치 추정 장치의 각 구성요소들에 대한 설명과 동일하므로 자세한 설명을 생략한다.Detailed description of each step is the same as the description of the respective components of the obstacle velocity and position estimation apparatus described with reference to FIGS.

본 발명의 실시예들에 따른 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법은 원거리에서의 거리 정밀도를 향상시킬 수 있으며, 확장형 칼만필터를 적용하여 객체를 속도 및 위치 추정함으로써, 위치 및 속도 오차를 최 소화할 수 있다. Obstacle object position and speed estimation apparatus and method using a stereo camera according to embodiments of the present invention can improve the distance accuracy at a long distance, by applying the extended Kalman filter to estimate the object and the position, speed and position The error can be minimized.

본 발명의 실시예들에 따른 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법을 이용하여 시차를 부화소 단위로 정밀하게 추정하면 측정할 시차의 범위 및 스테레오 매칭에 필요한 해상도를 줄일 수 있으며, 이는 정수 시차를 추정하는 방법에서 객체의 거리 추정에 필요한 연산 시간 및 비용을 최소화 할 수 있다. By accurately estimating the parallaxes in subpixel units using an apparatus and a method for estimating the obstacle object position and the speed using a stereo camera according to embodiments of the present invention, the range of parallax to be measured and the resolution required for stereo matching can be reduced. This can minimize the computation time and cost required to estimate the distance of an object in the integer parallax estimation method.

본 발명은 지능형 자동차에서 스테레오 비전 시스템을 이용한 사고 경감 시스템, 운전 보조 시스템, 자율 주행 등의 기술로 응용될 수 있다.The present invention can be applied to technologies such as accident reduction system, driving assistance system, autonomous driving using a stereo vision system in an intelligent vehicle.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, each or all of the components may be selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be inherent unless specifically stated otherwise, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms used generally, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

도 1은 스테레오 카메라와 3차원 좌표계의 관계도이다.1 is a relationship diagram of a stereo camera and a three-dimensional coordinate system.

도 2는 시차와 거리와의 관계 그래프이다.2 is a graph illustrating a relationship between parallax and distance.

도 3은 매칭 오류 및 시차 추정 오차를 나타낸 도면이다.3 is a diagram illustrating a matching error and a parallax estimation error.

도 4는 본 발명의 일실시예에 따른 장애물체 속도 및 위치 추정 장치의 블록도이다.4 is a block diagram of the obstacle speed and position estimation apparatus according to an embodiment of the present invention.

도 5는 도 4의 정수시차 추정부의 정수시차 추정 방법의 흐름도이다.5 is a flowchart of an integer parallax estimation method of the integer parallax estimator of FIG. 4.

도 6은 특징점 및 객체 중심 추출을 나타낸 도면이다.6 is a diagram illustrating feature points and object center extraction.

도 7은 3개의 NCC 값이 좌우 대칭형의 2차 포물선을 형성하는 경우 부화소 시차 추정 방법을 도시하고 있다.FIG. 7 illustrates a subpixel parallax estimation method when three NCC values form a left-right symmetric secondary parabola.

도 8a 내지 도 8b는 정밀 시차와 IPM 기반의 확장칼만 필터를 이용하여 위치 및 속도에 대하여 실제 도로상에서 실험한 결과를 보여준다.8a to 8b show the results of experiments on the actual road for the position and speed using the precision parallax and IPM-based Extended Kalman filter.

도 9는 본 발명의 다른 실시예에 따른 장애물체 속도 및 위치 추정방법의 흐름도이다.9 is a flowchart of a method for estimating obstacle speed and position according to another embodiment of the present invention.

Claims (6)

스테레오 카메라에서 획득된 좌우 영상으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출하는 스테레오 매칭단계;A stereo matching step of extracting a depth map from a left and right image obtained by a stereo camera using a stereo matching algorithm; 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하는 객체 검출단계;An object detecting step of extracting an object for estimating a distance or a speed using depth map information; 검출된 관심영역(ROI)에 대하여 정수시차를 추출하는 정수시차 추정단계;An integer parallax estimating step of extracting integer parallax with respect to the detected ROI; 상기 정수시차들 중에 실제 객체에 해당(dominant region)하면서 가장 가까운 거리에 있는 영역들(max dominant region) 중에 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하고, 좌우 영상에서 상기 특징점들이 분포된 라인 단위의 벡터인 스트라이퍼들(stripes)을 추출하고, 상기 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성하는 정밀시차 추정단계;, A line in which only the pixels composed of vertical edge components among the max dominant regions corresponding to a real object among the integer parallaxes are extracted as feature points, and the feature points are distributed in left and right images. A precision parallax estimating step of extracting stripers, which are vectors of units, and generating a normalized cross correlation vector (NCC vector) consisting of only feature points from the stripers; 추정된 정밀시차를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구하는 객체중심 추정단계;An object center estimation step of obtaining a center point of an object in left and right images by reflecting the estimated precision parallax in the right image; 추정된 2개의 객체의 중심 화소들과 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻는 IPM단계; 및 , An IPM step of obtaining the position of the object in three-dimensional coordinates by using the estimated center pixels of the two objects and inverse perspective mapping (IPM); And, 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 속도 및 위치 추정하여 객체의 위치 및 속도를 최적화하여 추정하는 확장칼만 필터단계를 포함하는 장애물체 속도 및 위치 추정방법.An obstacle velocity and position estimation method comprising an extended Kalman filter step of optimizing the position and velocity of an object by dynamically estimating the position and velocity of an object in three-dimensional coordinates using an extended Kalman filter. 제 1 항에 있어서, The method of claim 1, 상기 객체 검출단계에서, V-변위(v-disparity), 컬럼 검출(column detection), 아다부스트(adaboost), SVM(support vector machine) 중 하나의 알고리즘을 이용하여 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하는 것을 특징으로 하는 장애물체 속도 및 위치 추정방법.In the object detection step, the distance or velocity using depth map information using one of the following algorithms: V-disparity, column detection, adabost, and SVM (support vector machine). Obstacle velocity and position estimation method, characterized in that for extracting the object to be estimated. 제 1 항 또는 제 2 항에 있어서, The method according to claim 1 or 2, 상기 정밀시차 추정단계에서, In the precise parallax estimating step, 상기 정수시차들 중에 가장 주요하면서(dominant) 가장 가까운 거리에 위치한 영역(max dominant region)을 추출하고, 원영상에서 획득된 관심 영역(ROI) 내에서 가장 주요하면서 가장 가까운 영역(max dominant region) 내에서 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하는 것을 특징으로 하는 장애물체 속도 및 위치 추정방법. Among the integer parallaxes, a maximum dominant region is extracted, and a maximum dominant region within the ROI obtained from the original image is extracted. A method for estimating obstruction speed and position, comprising extracting only pixels consisting of vertical edge components as feature points in. 스테레오 카메라에서 획득된 좌우 영상으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출하는 스테레오 매칭부;A stereo matching unit which extracts a depth map from a left and right image obtained by a stereo camera using a stereo matching algorithm; 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하는 객체 검출부;An object detector for extracting an object for estimating a distance or a speed using depth map information; 검출된 관심영역(ROI)에 대하여 정수시차를 추출하는 정수시차 추정부;An integer disparity estimator extracting an integer disparity with respect to the detected ROI; 상기 정수시차들 중에 실제 객체에 해당(dominant region)하면서 가장 가까운 거리에 있는 영역들(max dominant region) 중에 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하고, 좌우 영상에서 상기 특징점들이 분포된 라인 단위의 벡터인 스트라이퍼들(stripes)을 추출하고, 상기 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성하는 정밀시차 추정부;, A line in which only the pixels composed of vertical edge components among the max dominant regions corresponding to a real object among the integer parallaxes are extracted as feature points, and the feature points are distributed in left and right images. A precision parallax estimator extracting stripers that are vectors of units, and generating a normalized cross correlation vector (NCC vector) consisting of only feature points from the stripers; 추정된 정밀시차를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구하는 객체중심 추정부;An object center estimating unit for calculating the center point of the object in the left and right images by reflecting the estimated precision parallax in the right image; 추정된 2개의 객체의 중심 화소들과 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻는 IPM부; 및 , An IPM unit which obtains a position of an object in three-dimensional coordinates by using estimated center pixels of the two objects and inverse perspective mapping (IPM); And, 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 속도 및 위치 추정하여 객체의 위치 및 속도를 최적화하여 추정하는 확장칼만 필터부를 포함하는 장애물체 속도 및 위치 추정장치.Obstacle velocity and position estimating apparatus comprising an extended Kalman filter unit for optimizing the position and velocity of the object by dynamically estimating the position and velocity of the object in the three-dimensional coordinates using the extended Kalman filter. 제 4 항에 있어서, The method of claim 4, wherein 상기 객체 검출부에서, V-변위(v-disparity), 컬럼 검출(column detection), 아다부스트(adaboost), SVM(support vector machine) 중 하나의 알고리즘을 이용하여 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하는 것을 특징으로 하는 장애물체 속도 및 위치 추정장치.In the object detection unit, a distance or a speed may be determined using depth map information using one of an algorithm such as V-disparity, column detection, adabost, and SVM (support vector machine). Obstacle velocity and position estimation apparatus, characterized in that for extracting the object to be estimated. 제 4 항 또는 제 5 항에 있어서, The method according to claim 4 or 5, 상기 정밀시차 추정부는 상기 정수시차들 중에 가장 주요하면서(dominant) 가장 가까운 거리에 위치한 영역(max dominant region)을 추출하고, 원영상에서 획득된 관심 영역(ROI) 내에서 가장 주요하면서 가장 가까운 영역(max dominant region) 내에서 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하는 것을 특징으로 하는 장애물체 속도 및 위치 추정장치. The precise parallax estimator extracts a maximum dominant region located at the closest dominant distance among the integer parallaxes, and extracts the most significant and closest region within the ROI obtained from the original image. 2. A obstacle velocity and position estimating apparatus, characterized in that only pixels consisting of vertical edge components are extracted as feature points within a max dominant region.
KR1020090117223A 2009-11-30 2009-11-30 Apparatus and Method for Extracting Location and velocity of Obstacle KR101076406B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090117223A KR101076406B1 (en) 2009-11-30 2009-11-30 Apparatus and Method for Extracting Location and velocity of Obstacle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090117223A KR101076406B1 (en) 2009-11-30 2009-11-30 Apparatus and Method for Extracting Location and velocity of Obstacle

Publications (2)

Publication Number Publication Date
KR20110060600A true KR20110060600A (en) 2011-06-08
KR101076406B1 KR101076406B1 (en) 2011-10-25

Family

ID=44395339

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090117223A KR101076406B1 (en) 2009-11-30 2009-11-30 Apparatus and Method for Extracting Location and velocity of Obstacle

Country Status (1)

Country Link
KR (1) KR101076406B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108480239A (en) * 2018-02-10 2018-09-04 浙江工业大学 Workpiece quick sorting method based on stereoscopic vision and device
CN113379801A (en) * 2021-06-15 2021-09-10 江苏科技大学 High-altitude parabolic monitoring and positioning method based on machine vision
KR20220067382A (en) * 2020-11-17 2022-05-24 조선대학교산학협력단 Smart lighting sysyem and method of operating a smart lighting system
CN116994457A (en) * 2023-09-26 2023-11-03 深圳海星智驾科技有限公司 Detection method and device for vehicle collision prevention, computer equipment and storage medium
KR102618924B1 (en) * 2023-10-18 2023-12-28 한화시스템(주) System and method for detecting object based fmcw radar
CN113379801B (en) * 2021-06-15 2024-04-30 江苏科技大学 High-altitude parabolic monitoring and positioning method based on machine vision

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101276073B1 (en) * 2011-01-27 2013-06-18 팅크웨어(주) System and method for detecting distance between forward vehicle using image in navigation for vehicle
KR101339616B1 (en) 2012-11-27 2013-12-10 재단법인대구경북과학기술원 Object detection and tracking method and device
KR102114346B1 (en) 2013-08-30 2020-05-22 삼성전자주식회사 Method for controlling stereo convergence and stereo image processor adopting the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108480239A (en) * 2018-02-10 2018-09-04 浙江工业大学 Workpiece quick sorting method based on stereoscopic vision and device
CN108480239B (en) * 2018-02-10 2019-10-18 浙江工业大学 Workpiece quick sorting method and device based on stereoscopic vision
KR20220067382A (en) * 2020-11-17 2022-05-24 조선대학교산학협력단 Smart lighting sysyem and method of operating a smart lighting system
CN113379801A (en) * 2021-06-15 2021-09-10 江苏科技大学 High-altitude parabolic monitoring and positioning method based on machine vision
CN113379801B (en) * 2021-06-15 2024-04-30 江苏科技大学 High-altitude parabolic monitoring and positioning method based on machine vision
CN116994457A (en) * 2023-09-26 2023-11-03 深圳海星智驾科技有限公司 Detection method and device for vehicle collision prevention, computer equipment and storage medium
CN116994457B (en) * 2023-09-26 2023-12-29 深圳海星智驾科技有限公司 Detection method and device for vehicle collision prevention, computer equipment and storage medium
KR102618924B1 (en) * 2023-10-18 2023-12-28 한화시스템(주) System and method for detecting object based fmcw radar

Also Published As

Publication number Publication date
KR101076406B1 (en) 2011-10-25

Similar Documents

Publication Publication Date Title
JP7398506B2 (en) Methods and systems for generating and using localization reference data
EP3517997B1 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
US11436743B2 (en) Systems and methods for semi-supervised depth estimation according to an arbitrary camera
KR101076406B1 (en) Apparatus and Method for Extracting Location and velocity of Obstacle
EP2948927B1 (en) A method of detecting structural parts of a scene
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
KR102249769B1 (en) Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same
JP2014138420A (en) Depth sensing method and system for autonomous vehicle
US10872246B2 (en) Vehicle lane detection system
Lui et al. Eye-full tower: A gpu-based variable multibaseline omnidirectional stereovision system with automatic baseline selection for outdoor mobile robot navigation
Konrad et al. Localization in digital maps for road course estimation using grid maps
CN105844692A (en) Binocular stereoscopic vision based 3D reconstruction device, method, system and UAV
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
KR101030317B1 (en) Apparatus for tracking obstacle using stereo vision and method thereof
US11652972B2 (en) Systems and methods for self-supervised depth estimation according to an arbitrary camera
Murmu et al. Relative velocity measurement using low cost single camera-based stereo vision system
Li et al. Automatic parking slot detection based on around view monitor (AVM) systems
EP3566206B1 (en) Visual odometry
KR20220113781A (en) How to measure the topography of your environment
Fei et al. Ossim: An object-based multiview stereo algorithm using ssim index matching cost
Kim et al. High-precision underwater 3d mapping using imaging sonar for navigation of autonomous underwater vehicle
US11532100B2 (en) Method for environmental acquisition, data processing unit
CN111695379B (en) Ground segmentation method and device based on stereoscopic vision, vehicle-mounted equipment and storage medium
CN113269857A (en) Coordinate system relation obtaining method and device
CN110488320A (en) A method of vehicle distances are detected using stereoscopic vision

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141008

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151012

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170918

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 8