KR20110060600A - Apparatus and method for extracting location and velocity of obstacle - Google Patents
Apparatus and method for extracting location and velocity of obstacle Download PDFInfo
- Publication number
- KR20110060600A KR20110060600A KR1020090117223A KR20090117223A KR20110060600A KR 20110060600 A KR20110060600 A KR 20110060600A KR 1020090117223 A KR1020090117223 A KR 1020090117223A KR 20090117223 A KR20090117223 A KR 20090117223A KR 20110060600 A KR20110060600 A KR 20110060600A
- Authority
- KR
- South Korea
- Prior art keywords
- parallax
- velocity
- estimating
- extracting
- integer
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
Description
본 발명은 장애물체의 위치 및 속도를 추정하는 장애물체 위치 및 속도 추정 장치 및 방법에 관한 것이다. 더욱 상세하게는, 스테레오 비전을 이용하여 장애물체의 위치 및 속도를 추정하는 장애물체 위치 및 속도 추정 장치 및 방법에 관한 것이다. The present invention relates to an obstacle body position and speed estimation apparatus and method for estimating the position and speed of the obstacle body. More particularly, the present invention relates to an obstacle position and velocity estimation apparatus and method for estimating the position and velocity of an obstacle using stereo vision.
3차원 공간에서 장애물 위치 결정(Obstacle Localization)은 지능형 차량과 로봇 항법에서 중요한 문제 중 하나이다. 특히, 지능형 차량에서 필수 기능 중 하나인 자동 순항 제어(ACC: Adaptive Cruise Control)와 차선 유지 시스템(LKS: Lane Keeping System)의 구현에서 매우 중요하다. 장애물의 위치를 결정하기 위해서는 카메라, 소나(Sonar), 레이더, 광선 레이더(Lidar)와 같은 다양한 센서들을 이용한다. 최근에는 컴퓨터 성능과 통합 기술(Integration Technology)의 향상으로 데이터 처리 시간이 감소하여, 많은 연구자가 컴퓨터 비전(Computer Vision)을 이용하여 장애물 위치 결정을 수행하고 있다.Obstacle Localization in three-dimensional space is one of the important problems in intelligent vehicle and robot navigation. This is especially important in the implementation of Adaptive Cruise Control (ACC) and Lane Keeping System (LKS), which are one of the essential functions in intelligent vehicles. In order to determine the location of obstacles, various sensors such as cameras, sonar, radar, and ray radar are used. Recently, data processing time has been reduced due to the improvement of computer performance and integration technology, and many researchers are using computer vision to perform obstacle positioning.
컴퓨터 비전은 데이터 처리 시간과 관련된 몇 가지 문제점들이 있지만, 하나 의 센서로부터 많은 정보를 이용할 수 있는 사람의 시각과 유사한 많은 장점들이 있다. 최근 모노 비전(Mono Vision)의 많은 문제점을 극복할 수 있는 스테레오 비전(Stereo Vision)이 연구되어 왔다. Computer vision has some problems with data processing time, but there are many advantages that are similar to human vision, where a lot of information is available from a single sensor. Recently, Stereo Vision (Stereo Vision) has been studied to overcome many problems of Mono Vision.
스테레오 카메라를 이용한 위치 측정에서는 좌우 카메라 모델을 이용하여, 각각에 대하여 역변환을 취하게 되면, 좌우 영상에 촬영된 하나의 점이 전역 좌표계 상에서 하나의 좌표값으로 표현된다. 이 때, 영상에서 표현되는 좌표 값이 화소 단위로 표현되게 때문에 양자화 오차가 발생하며, 양자화 오차가 거리로 환산될 때, 거리가 멀어질수록 오차가 커지게 되어 거리 정밀도가 떨어지게 된다. 이를 극복하기 위하여, 부화소 보간법을 이용한 정밀 시차 추정 방법을 사용하지만, 실제 환경에서는 영상내의 균등 영역에 의하여 스테레오 매칭 오류와 시차 추정 오차가 발생하여, 거리 정확도 및 정밀도가 저하되는 문제점이 있다. In the position measurement using a stereo camera, when the inverse transformation is performed on each of the left and right camera models, one point photographed in the left and right images is represented as one coordinate value on the global coordinate system. In this case, since the coordinate values expressed in the image are expressed in pixel units, a quantization error occurs. When the quantization error is converted into a distance, the error becomes larger as the distance increases and the distance precision decreases. In order to overcome this problem, a precise parallax estimation method using subpixel interpolation is used. However, in a real environment, stereo matching error and parallax estimation error occur due to a uniform region in an image, and thus there is a problem that distance accuracy and precision are degraded.
전술한 문제점을 해결하기 위해 본 발명은, 원거리에서의 거리 정밀도를 향상시킬 수 있으며, 확장형 칼만필터를 적용하여 객체를 추정함으로써, 위치 및 속도 오차를 최소화할 수 있는 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법을 제공하는데 그 목적이 있다. In order to solve the above problems, the present invention can improve the distance accuracy at a long distance, by applying an extended Kalman filter to estimate the object, the position of the obstacle object using a stereo camera that can minimize the position and speed error and It is an object of the present invention to provide a speed estimation apparatus and method.
또한 본 발명은 시차를 부화소 단위로 정밀하게 추정하면 측정할 시차의 범위 및 스테레오 매칭에 필요한 해상도를 줄일 수 있으며, 이는 정수 시차를 추정하는 방법에서 객체의 거리 추정에 필요한 연산 시간 및 비용을 최소화할 수 있는 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법을 제공하는데 다른 목적이 있다.In addition, the present invention can precisely estimate the parallax in sub-pixel units to reduce the range of parallax to be measured and the resolution required for stereo matching, which minimizes the computation time and cost required for estimating the distance of an object in the method of estimating integer parallax. Another object of the present invention is to provide an apparatus and method for estimating obstacle position and velocity using a stereo camera.
전술한 목적을 달성하기 위해 본 발명은, 스테레오 카메라에서 획득된 좌우 영상으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출하고, 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하고, 검출된 관심영역(ROI)에 대하여 정수시차를 추출하고, 상기 정수시차들 중에 실제 객체에 해당(dominant region)하면서 가장 가까운 거리에 있는 영역들(max dominant region) 중에 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하고, 좌우 영상에서 상기 특징점들이 분포된 라인 단위의 벡터인 스트라이퍼들(stripes)을 추출하고, 상기 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성하고, 추정된 정밀시차를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구하고, 추정된 2개의 객체의 중심 화소들과 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻고, 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 추정하여 객체의 위치 및 속도를 최적화하여 추정하는 장애물체 속도 및 위치 추정 방법 및 장치를 제공한다.In order to achieve the above object, the present invention, an object to extract a depth map from the left and right images obtained by the stereo camera using a stereo matching algorithm, and to estimate the distance or speed using the depth map information Extract the integer parallax with respect to the detected region of interest (ROI), and the vertical edge components among the maximum dominant regions that are closest to the real object among the integer parallaxes. Extract only the pixels consisting of the feature points, extract stripers that are vectors in the line unit in which the feature points are distributed in the left and right images, and a normalized cross correlation vector composed of only feature points from the stripers. ), Calculate the center point of the left and right image by reflecting the estimated precision parallax in the right image, Obtain the position of the object in 3D coordinates using the center pixels of the two objects and Inverse Perspective Mapping (IPM), and dynamically estimate the position of the object in 3D coordinates using the Extended Kalman Filter. Provided are an obstacle speed and position estimation method and apparatus for optimizing and estimating a position and speed of a target.
이상에서 설명한 바와 같이 본 발명에 의하면, 원거리에서의 거리 정밀도를 향상시킬 수 있으며, 확장형 칼만필터를 적용하여 객체를 추정함으로써, 위치 및 속도 오차를 최소화할 수 있는 효과가 있다.As described above, according to the present invention, distance accuracy at a far distance can be improved, and an object can be estimated by applying an extended Kalman filter, thereby minimizing position and speed errors.
또한 본 발명은 시차를 부화소 단위로 정밀하게 추정하면 측정할 시차의 범위 및 스테레오 매칭에 필요한 해상도를 줄일 수 있으며, 이는 정수 시차를 추정하는 방법에서 객체의 거리 추정에 필요한 연산 시간 및 비용을 최소화할 수 있는 효과가 있다.In addition, the present invention can precisely estimate the parallax in sub-pixel units to reduce the range of parallax to be measured and the resolution required for stereo matching, which minimizes the computation time and cost required for estimating the distance of an object in the method of estimating integer parallax. It can work.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but between components It will be understood that may be "connected", "coupled" or "connected".
이하에서는 본 발명의 실시예를 설명하는 데 있어서, 영상 내의 임의의 대상이 도로인 것으로 가정한다. 즉, 차량에 탑재된 컴퓨터 비전 시스템이 두 개 이상의 카메라를 이용하여 도로를 촬영하고 촬영된 도로에 대한 이미지에서 장애물을 검출하기 위해 도로의 특징 정보를 추출하는 것을 예를 들어, 본 발명의 실시예를 설명한다. 다만, 이러한 가정은 설명의 편의를 위한 것일 뿐, 본 발명은 영상 내의 임의의 대상으로서 도로뿐만 아니라 인도, 책상, 실내, 운동장 등의 사물이거나 얼굴, 볼, 복부, 다리 등 사람의 신체 일부 등 다양한 형태의 물체일 수 있다.In the following description of an embodiment of the present invention, it is assumed that any object in the image is a road. That is, for example, the computer vision system mounted on a vehicle may photograph a road using two or more cameras and extract feature information of the road to detect an obstacle in an image of the photographed road. Explain. However, these assumptions are merely for convenience of explanation, and the present invention may be any object in the image, as well as roads, objects such as sidewalks, desks, indoors, playgrounds, or various body parts such as faces, cheeks, abdomen, and legs. It may be an object in the form.
도 1은 스테레오 카메라와 3차원 좌표계의 관계도이다.1 is a relationship diagram of a stereo camera and a three-dimensional coordinate system.
도 1에 도시한 바와 같이, 3차원 전역 좌표계에서 하나의 점은 스테레오 비전에서 획득된 좌우 영상에서 하나의 화소로 맵핑된다. 아래 수학식 1과 같이 이러한 카메라 모델을 역으로 변환하면(IPM : Inverse Perspective Mapping), 좌우 영상에서 획득된 하나의 점은 3차원 공간상에서 위치를 구할 수 있다. As shown in FIG. 1, one point in the 3D global coordinate system is mapped to one pixel in the left and right images obtained in the stereo vision. If the camera model is inverted (IPM: Inverse Perspective Mapping) as shown in
수학식 1에서 는 전역 좌표계에서 3차원 좌표 위치를 나타내고, 는 좌, 우 영상에서 획득된 x좌표, 는 좌우영상에서 획득된 y좌표를 나타낸다. 는 스테레오 매칭에서 획득된 시차를 나타낸다. 또한, 는 화소 단위의 초점 길이를 나타내며, b는 두 카메라 간의 거리, 는 카메라와 도로와의 각도를 나타낸다. In
스테레오 매칭은 한 영상의 기준점으로부터 다른 영상의 대응점을 찾는 문제로 복잡성을 줄이기 위하여 에피폴라 라인을 정합함으로써, 2차원 검색을 1차원 검색으로 변환할 수 있다. 에피폴라 라인을 정합하기 위하여, 보정(calibration)과 교정(rectification)등의 전처리 과정이 필요하며, 이 결과로써 카메라의 내부(interisic) 및 외부 파라미터를 추출할 수 있다. Stereo matching is a problem of finding a corresponding point of another image from a reference point of one image, so that the epipolar line is matched to reduce the complexity, thereby converting the two-dimensional search into a one-dimensional search. In order to match the epipolar lines, preprocessing such as calibration and rectification is required, and as a result, the interisic and external parameters of the camera can be extracted.
차량에서와 같이 원거리의 장애물체의 거리를 측정할 때는 , 즉 시차의 변화에 대하여 주요하게 결정되며, 이는 곧, 시차의 오차가 거리의 오차로 변환된다는 것을 의미한다. 가까운 거리에서는 시차의 오차에 대한 거리의 오차가 영향을 적게 받지만, 원거리에서는 시차의 작은 오차에도 거리 오차가 커지게 된다.When measuring the distance of a long obstacle, as in a vehicle, that is, it is mainly determined about the change of parallax, which means that the parallax error is converted into the error of the distance. At close distance, the error of distance with respect to parallax error is less affected, but at long distance, the distance error increases even with small error of parallax.
도 2는 시차와 거리와의 관계 그래프이다.2 is a graph illustrating a relationship between parallax and distance.
수학식 1에서 는 화소의 단위로 표현되기 때문에 양자화 오차가 생기고 이로 인해 원거리에서 거리 오차가 커지게 된다. 이를 해결하기 위하여 기존 발명에서는 NCC(normalized cross correlation)기반의 부화소 시차 추정법을 이용하여, 소수 단위의 부화소 시차를 추정한다. 제한된 영상(인위적으로 생성한 영상)에서 부화소 시차 추정법을 이용하면 스테레오 매칭에서 추정된 화소 단위의 시차보다 정확도(accuracy)를 높일 수 있다. 하지만 실제 영상에서는 균등한 영역(homogeneous region)에서, 매칭 오류와 시차 추정 오차가 발생하게 되어 정확도(accuracy) 및 정밀도(precision)가 저하되는 현상이 발생한다(도 3 참조).In
본 발명은 매칭 오차와 시차 추정 오차를 최소화할 수 있는 특징점 기반 정밀 시차 추정 방법을 제안하고, 이를 기반으로 확장칼만 필터(EKF)를 적용함으로써, 정밀도를 향상시키고, 객체의 위치 및 속도를 추정할 수 있는 장치 및 방법을 제공한다. The present invention proposes a feature-based precision parallax estimation method that can minimize matching error and parallax estimation error, and by applying the Extended Kalman Filter (EKF), it is possible to improve the precision and estimate the position and velocity of the object. It provides an apparatus and method that can be.
본 발병은 스테레오 카메라를 이용하여 정밀한 시차를 추정하여 장애물체의 위치를 추정할 수 있는 방법과 추정된 시차를 기반으로 확장형 칼만 필터(EKF : extended Kalman filter)를 적용함으로써 정밀한 위치 및 속도를 연속적으로 추정할 수 있는 장치 및 방법을 제공한다. The onset is based on the method of estimating the precise parallax using a stereo camera and estimating the position of the obstacle, and by applying the extended Kalman filter (EKF) based on the estimated parallax, Provided are an apparatus and method for estimating.
도 4는 본 발명의 일실시예에 따른 장애물체 위치 및 속도 추정 장치의 블록도이다.4 is a block diagram of an obstacle position and velocity estimation apparatus according to an embodiment of the present invention.
본 발명의 일실시예에 따른 장애물체 속도 및 위치 추정 장치는 스테레오 매칭부(410) 및 객체 검출부(420), 정수시차 추정부(430), 정밀시차 추정부(450), 객체중심 추정부(460), PMI부(470), 확장칼만 필터부(480)를 포함한다.Obstacle velocity and position estimation apparatus according to an embodiment of the present invention is a
도 4에 도시하지 않은 제1 영상 촬영 장치와 제2 영상 촬영 장치는 스테레오 비전 시스템에서 거리, 속도 등의 추정에 필요한 좌측 영상과 우측 영상을 각각 촬영한다. 영상 촬영 장치는 예를 들어, 카메라 등이 사용될 수 있다. 제1 영상 촬영 장치와 제2 영상 촬영 장치)에서 얻어진 좌영상과 우영상(400)은 스테레오 매칭부(410)에 입력된다.The first image capturing apparatus and the second image capturing apparatus not shown in FIG. 4 respectively photograph left and right images necessary for estimating distance, speed, etc. in the stereo vision system. As the image photographing apparatus, for example, a camera or the like may be used. The left image and the
스테레오 매칭부(410)는 스테레오 카메라에서 획득된 좌우 영상(400)으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출한다.The
객체 검출부(730)는 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출할 수 있다. 객체는 도로상의 장애물체일 수 있다. 이 장애물체는 V-변위(v-disparity), 컬럼 검출(column detection), 아다부스트(adaboost), SVM(support vector machine) 등의 알고리즘을 이용하여 검출될 수 있다.The object detector 730 may extract an object for estimating a distance or a speed using depth map information. The object may be an obstacle on the road. This obstruction can be detected using algorithms such as V-disparity, column detection, adamboost, support vector machine (SVM), and the like.
정수시차 추정부(430)는 검출된 관심영역(ROI :region of interest)에 대하여 정수 시차를 추출한다. 정수 시차를 추출할 때, 관심영역 안에는 객체의 형태 및 배경 성분에 의하여 다양한 시차 값이 존재할 수 있다. 정수시차 추정부(430)는 이러한 시차 값들 중에 가장 주요하면서(dominant), 가장 가까운 거리에 위치한 영역(max dominant region)을 추출한다. The
도 5는 도 4의 정수시차 추정부에서 가장 가까운 거리의 영역을 추출하는 방법의 흐름도이다.5 is a flowchart illustrating a method of extracting an area of the nearest distance from the integer parallax estimator of FIG. 4.
도면 5에서와 같이, 원영상에서 획득된 관심 영역(ROI) 내에서 가장 주요한 영역(그래프에서 초록색 원형 표시 부분)을 추출한다. 가장 주요한 영역, 즉 객체에 해당되는 영역들 중에서 가장 가까운 영역(그래프에서 붉은색 원형 표시 부분)을 추출한다. 가장 가까운 영역(max dominant region)내에서 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하다. 좌우 영상에서 이러한 특징점들이 분포된 라인 단위의 벡터, 즉 스트라이퍼들(stripes)을 추출하고, 이 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성한다. 정규 유사도(NCC)는 윈도우 내 픽셀의 유사도 정도를 정규화한 값을 나타낸다.As shown in FIG. 5, the most important region (a green circular display portion in the graph) is extracted from the ROI acquired from the original image. The most important region, that is, the region closest to the object (the red circular display portion in the graph) is extracted. Only pixels consisting of vertical edge components in the nearest dominant region are extracted as feature points. In the left and right images, the feature extracts a line-by-line vector, that is, stripers, and generates a normalized cross correlation vector (NCC vector) composed of only feature points from the stripers. Normal similarity (NCC) represents a normalized value of the similarity degree of pixels in a window.
도 6은 특징점 및 객체 중심 추출을 나타낸 도면이다. 6 is a diagram illustrating feature points and object center extraction.
정밀시차 추정부(450)는 생성된 NCC 벡터들의 유사도를 이용하여 이차원 포물선 상에서 부화소 단위의 정밀 시차를 추정한다. The
예를 들어, 좌영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 우영상에서 대응 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값을 NCC(k1)이라고 하고, 좌영상의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 우영상의 대응 픽셀에서 우측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 값 을 NCC(k1-1)이라고 하고, 좌영상 의 객체의 중심을 중심 픽셀로 하여 설정된 윈도우와 상기 우영상의 상기 대응 픽셀에서 좌측으로 한 픽셀 이동한 픽셀을 중심 픽셀로 하여 설정된 윈도우의 NCC 구한 값을 NCC(k1+1)이라고 한다. 이하 수학식 2, 3은 상기 NCC를 구하는 수식을 나타낸다.For example, an NCC value of a window set with a center pixel of a left image as a center pixel and a window set with a corresponding pixel as a center pixel in a right image is referred to as NCC (k1), and the center of an object of a left image as a center pixel. The NCC value of the window set by using the shifted pixel to the right from the corresponding pixel of the right window and the set pixel as the center pixel is NCC (k1-1), and the window set by using the center of the object of the left image as the center pixel. And the NCC value of the window set with the pixel shifted one pixel to the left from the corresponding pixel of the right image as a center pixel is referred to as NCC (k1 + 1).
이때 수학식 2와 수학식 3에서 W(x,y)는 윈도우 안의 x,y 좌표에서의 밝기값, Wm(x,y)는 윈도우 안의 전체 픽셀에 대한 휘도의 평균값, W'(x,y)는 x,y 좌표에서의 휘도값을 전체 픽셀에 대한 휘도의 평균값을 뺀 값을 놈(norm) 값으로 나눈 값을 나타낸다. 이 수학식 3에서 연산자 ⓧ는 좌측 영상의 윈도우 안에 있는 각 픽셀의 WL'(x,y) 값과 우측 영상의 윈도우 안에 있는 각 픽셀의 WR'(x,y) 값을 크로스 코릴레이션(cross correlation)하는 연산을 나타낸다. d0는 정수 시차 추정부에서 획득된 가장 가까운 영역(max dominant region)에 해당되는 시차값을 나타낸다. k는 윈도우의 위치를 이동하여 NCC 값을 구하는 경우에 윈도우의 중심 픽셀이 이동한 양을 나타낸다. 상기 예에서는 좌영상을 기준 영상으로 하여 우영상의 윈도우를 이동하는 경우를 예로 하였으나, 상기에서 언급한 바와 같이 구현예에 따라 우영상 을 기준 영상으로 한 경우에는, 좌영상의 윈도우를 이동하는 경우로 구현할 수도 있다.In
상기 구하여진 3개의 NCC 값(NCC(k1-1), NCC(k1), NCC(k1+1))을 이용하여 정규 유사도가 최대가 되는 정밀 시차를 추정할 수 있다. 예를 들어, 상기 3개의 NCC 값이 2차 포물선을 형성한다고 가정한다.Using the three obtained NCC values (NCC (k1-1), NCC (k1), NCC (k1 + 1)), the precise parallax at which the normal similarity is maximized can be estimated. For example, assume that the three NCC values form a secondary parabola.
도 7은 3개의 NCC 값이 좌우 대칭형의 2차 포물선을 형성하는 경우 부화소 시차 추정 방법을 도시하고 있다.FIG. 7 illustrates a subpixel parallax estimation method when three NCC values form a left-right symmetric secondary parabola.
좌영상 윈도우의 중심 픽셀과 우영상 윈도우의 중심 픽셀 차이가 k1=dint인 경우 NCC(dint) 값이, 중심 픽셀 차이가 dint+1인 경우 NCC(dint+1) 값이, 중심 픽셀 차이가 dint-1인 경우 NCC(dint-1) 값이 2차 포물선 좌표에 나타난 것을 볼 수 있다. 도 7에서 정규 유사도가 최대가 되는 지점의 시차(dacc)와 좌우 윈도우 중심 픽셀의 시차(dint)와 차이가 남을 알 수 있다. 이는 픽셀을 기초로 한 스테레오 비전 시스템에 있어서 픽셀간 양자화 오차에 기인한다. 정규 유사도(NCC)가 최대가 되는 지점의 부화소 시차(dacc)는 상기 2차 포물선(y=ax2+bx+c)과 3개의 NCC 값을 이용하여 구할 수 있다.If the difference between the center pixel of the center pixel of the left image and the right image window in the window k1 = d int value NCC (int d), the center of the pixel difference d int +1 value NCC (d int +1), the center If the pixel difference is d int -1, it can be seen that the NCC (d int -1) value appears in the quadratic parabolic coordinate. In FIG. 7, it can be seen that there is a difference between the parallax d acc at the point where the normal similarity is maximum and the parallax d int of the left and right window center pixels. This is due to the inter-pixel quantization error in pixel-based stereo vision systems. The subpixel parallax d acc at the point where the normal similarity (NCC) is maximized can be obtained using the second parabola (y = ax 2 + bx + c) and three NCC values.
이때, 스트라이퍼의 개수는 N개를 만들 수 있으며, N개의 평균을 이용하여, 객체의 정밀 시차를 추정한다. At this time, the number of stripers can be made N, and using the average of N, to estimate the precise parallax of the object.
추정된 부화소 시차(dacc), 즉 객체의 정밀시차를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구한다. The center point of the object in the left and right images is obtained by reflecting the estimated subpixel parallax (d acc ), that is, the precise parallax of the object in the right image.
IPM부(470)는 추정된 2개의 객체의 중심 화소들과 앞에서 설명한 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻을 수 있다. The
확장칼만 필터부(480)는 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 속도 및 위치 추정하여 객체의 위치 및 속도를 최적화하여 추정할 수 있다. The extended
도 8a 내지 도 8b는 정밀 시차와 IPM 기반의 확장칼만 필터를 이용하여 위치 및 속도에 대하여 실제 도로상에서 실험한 결과를 보여준다.8a to 8b show the results of experiments on the actual road for the position and speed using the precision parallax and IPM-based Extended Kalman filter.
도 9는 본 발명의 다른 실시예에 따른 장애물체 속도 및 위치 추정방법의 흐름도이다.9 is a flowchart of a method for estimating obstacle speed and position according to another embodiment of the present invention.
본 발명의 다른 실시예에 따른 장애물체 속도 및 위치 추정 방법은 스테레오 카메라에서 획득된 좌우 영상으로부터 스테레오 매칭 알고리즘을 이용하여 깊이맵(Depth map)을 추출하는 스테레오 매칭단계(910) 및 깊이맵 정보를 이용하여 거리나 속도 등을 추정하고자 하는 객체를 추출하는 객체 검출단계(920), 검출된 관심영역(ROI)에 대하여 정수 시차를 추출하는 정수시차 추정단계(930), 이러한 시 차 값들 중에 가장 주요하면서(dominant), 가장 가까운 거리에 위치한 영역(max dominant region)을 추출하고, 원영상에서 획득된 관심 영역(ROI) 내에서 수직 에지 성분들을 추출하고, 가장 주요하면서, 가장 가까운 영역(max dominant region) 내에서 수직 에지 성분들로 구성된 화소들만을 특징점으로 추출하고, 좌우 영상에서 이러한 특징점들이 분포된 라인 단위의 벡터, 즉 스트라이퍼들(stripes)을 추출하고, 이 스트라이퍼들로부터 특징점들로만 구성된 정규 유사도(Normalized Cross Correlation) 벡터(NCC vector)를 생성하는 정밀시차 추정단계(950), 추정된 부화소 시차(dacc)를 우영상에 반영하여, 좌우 영상의 객체의 중심점을 구하는 객체중심 추정단계(960), 추정된 2개의 객체의 중심 화소들과 앞에서 설명한 IPM(Inverse Perspective Mapping)을 이용하여 3차원 좌표 상의 객체의 위치를 얻는 IPM단계(970), 3차원 좌표상의 객체의 위치를 확장칼만 필터를 이용하여 동적(dynamic)으로 속도 및 위치 추정하여 객체의 위치 및 속도를 최적화하여 추정하는 확장칼만 필터단계(980)를 포함한다.Obstacle velocity and position estimation method according to another embodiment of the present invention is a stereo matching step (910) and depth map information for extracting a depth map (Depth map) using a stereo matching algorithm from the left and right images obtained by a stereo camera An object detection step 920 for extracting an object for which distance or velocity is to be estimated, an integer parallax estimating step 930 for extracting integer parallax with respect to the detected ROI, and the most important of these parallax values Extracts the dominant region (max dominant region), extracts the vertical edge components within the region of interest (ROI) obtained from the original image, and most importantly, the maximum dominant region Extract only the pixels consisting of the vertical edge components into the feature points, and in the left and right images, A tri-flops of the (stripes) extraction, the normal degree of similarity consisting of only the feature points from the Stryper (Normalized Cross Correlation), the vector (NCC vector) Fine Time estimate step 950, the estimated sub-pixel difference (d acc) to generate The object center estimation step 960 of calculating the center point of the object of the left and right image reflected on the right image, the position of the object on the three-dimensional coordinates using the estimated center pixels of the two objects and the inverse perspective mapping (IPM) described above.
각 단계들에 대한 자세한 설명은 도 1 내지 도8을 참조하여 설명한 장애물체 속도 및 위치 추정 장치의 각 구성요소들에 대한 설명과 동일하므로 자세한 설명을 생략한다.Detailed description of each step is the same as the description of the respective components of the obstacle velocity and position estimation apparatus described with reference to FIGS.
본 발명의 실시예들에 따른 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법은 원거리에서의 거리 정밀도를 향상시킬 수 있으며, 확장형 칼만필터를 적용하여 객체를 속도 및 위치 추정함으로써, 위치 및 속도 오차를 최 소화할 수 있다. Obstacle object position and speed estimation apparatus and method using a stereo camera according to embodiments of the present invention can improve the distance accuracy at a long distance, by applying the extended Kalman filter to estimate the object and the position, speed and position The error can be minimized.
본 발명의 실시예들에 따른 스테레오 카메라를 이용한 장애 물체 위치 및 속도 추정 장치 및 방법을 이용하여 시차를 부화소 단위로 정밀하게 추정하면 측정할 시차의 범위 및 스테레오 매칭에 필요한 해상도를 줄일 수 있으며, 이는 정수 시차를 추정하는 방법에서 객체의 거리 추정에 필요한 연산 시간 및 비용을 최소화 할 수 있다. By accurately estimating the parallaxes in subpixel units using an apparatus and a method for estimating the obstacle object position and the speed using a stereo camera according to embodiments of the present invention, the range of parallax to be measured and the resolution required for stereo matching can be reduced. This can minimize the computation time and cost required to estimate the distance of an object in the integer parallax estimation method.
본 발명은 지능형 자동차에서 스테레오 비전 시스템을 이용한 사고 경감 시스템, 운전 보조 시스템, 자율 주행 등의 기술로 응용될 수 있다.The present invention can be applied to technologies such as accident reduction system, driving assistance system, autonomous driving using a stereo vision system in an intelligent vehicle.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, each or all of the components may be selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be inherent unless specifically stated otherwise, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms used generally, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
도 1은 스테레오 카메라와 3차원 좌표계의 관계도이다.1 is a relationship diagram of a stereo camera and a three-dimensional coordinate system.
도 2는 시차와 거리와의 관계 그래프이다.2 is a graph illustrating a relationship between parallax and distance.
도 3은 매칭 오류 및 시차 추정 오차를 나타낸 도면이다.3 is a diagram illustrating a matching error and a parallax estimation error.
도 4는 본 발명의 일실시예에 따른 장애물체 속도 및 위치 추정 장치의 블록도이다.4 is a block diagram of the obstacle speed and position estimation apparatus according to an embodiment of the present invention.
도 5는 도 4의 정수시차 추정부의 정수시차 추정 방법의 흐름도이다.5 is a flowchart of an integer parallax estimation method of the integer parallax estimator of FIG. 4.
도 6은 특징점 및 객체 중심 추출을 나타낸 도면이다.6 is a diagram illustrating feature points and object center extraction.
도 7은 3개의 NCC 값이 좌우 대칭형의 2차 포물선을 형성하는 경우 부화소 시차 추정 방법을 도시하고 있다.FIG. 7 illustrates a subpixel parallax estimation method when three NCC values form a left-right symmetric secondary parabola.
도 8a 내지 도 8b는 정밀 시차와 IPM 기반의 확장칼만 필터를 이용하여 위치 및 속도에 대하여 실제 도로상에서 실험한 결과를 보여준다.8a to 8b show the results of experiments on the actual road for the position and speed using the precision parallax and IPM-based Extended Kalman filter.
도 9는 본 발명의 다른 실시예에 따른 장애물체 속도 및 위치 추정방법의 흐름도이다.9 is a flowchart of a method for estimating obstacle speed and position according to another embodiment of the present invention.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090117223A KR101076406B1 (en) | 2009-11-30 | 2009-11-30 | Apparatus and Method for Extracting Location and velocity of Obstacle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090117223A KR101076406B1 (en) | 2009-11-30 | 2009-11-30 | Apparatus and Method for Extracting Location and velocity of Obstacle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110060600A true KR20110060600A (en) | 2011-06-08 |
KR101076406B1 KR101076406B1 (en) | 2011-10-25 |
Family
ID=44395339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090117223A KR101076406B1 (en) | 2009-11-30 | 2009-11-30 | Apparatus and Method for Extracting Location and velocity of Obstacle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101076406B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108480239A (en) * | 2018-02-10 | 2018-09-04 | 浙江工业大学 | Workpiece quick sorting method based on stereoscopic vision and device |
CN113379801A (en) * | 2021-06-15 | 2021-09-10 | 江苏科技大学 | High-altitude parabolic monitoring and positioning method based on machine vision |
KR20220067382A (en) * | 2020-11-17 | 2022-05-24 | 조선대학교산학협력단 | Smart lighting sysyem and method of operating a smart lighting system |
CN116994457A (en) * | 2023-09-26 | 2023-11-03 | 深圳海星智驾科技有限公司 | Detection method and device for vehicle collision prevention, computer equipment and storage medium |
KR102618924B1 (en) * | 2023-10-18 | 2023-12-28 | 한화시스템(주) | System and method for detecting object based fmcw radar |
CN113379801B (en) * | 2021-06-15 | 2024-04-30 | 江苏科技大学 | High-altitude parabolic monitoring and positioning method based on machine vision |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101276073B1 (en) * | 2011-01-27 | 2013-06-18 | 팅크웨어(주) | System and method for detecting distance between forward vehicle using image in navigation for vehicle |
KR101339616B1 (en) | 2012-11-27 | 2013-12-10 | 재단법인대구경북과학기술원 | Object detection and tracking method and device |
KR102114346B1 (en) | 2013-08-30 | 2020-05-22 | 삼성전자주식회사 | Method for controlling stereo convergence and stereo image processor adopting the same |
-
2009
- 2009-11-30 KR KR1020090117223A patent/KR101076406B1/en active IP Right Grant
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108480239A (en) * | 2018-02-10 | 2018-09-04 | 浙江工业大学 | Workpiece quick sorting method based on stereoscopic vision and device |
CN108480239B (en) * | 2018-02-10 | 2019-10-18 | 浙江工业大学 | Workpiece quick sorting method and device based on stereoscopic vision |
KR20220067382A (en) * | 2020-11-17 | 2022-05-24 | 조선대학교산학협력단 | Smart lighting sysyem and method of operating a smart lighting system |
CN113379801A (en) * | 2021-06-15 | 2021-09-10 | 江苏科技大学 | High-altitude parabolic monitoring and positioning method based on machine vision |
CN113379801B (en) * | 2021-06-15 | 2024-04-30 | 江苏科技大学 | High-altitude parabolic monitoring and positioning method based on machine vision |
CN116994457A (en) * | 2023-09-26 | 2023-11-03 | 深圳海星智驾科技有限公司 | Detection method and device for vehicle collision prevention, computer equipment and storage medium |
CN116994457B (en) * | 2023-09-26 | 2023-12-29 | 深圳海星智驾科技有限公司 | Detection method and device for vehicle collision prevention, computer equipment and storage medium |
KR102618924B1 (en) * | 2023-10-18 | 2023-12-28 | 한화시스템(주) | System and method for detecting object based fmcw radar |
Also Published As
Publication number | Publication date |
---|---|
KR101076406B1 (en) | 2011-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7398506B2 (en) | Methods and systems for generating and using localization reference data | |
EP3517997B1 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
US11436743B2 (en) | Systems and methods for semi-supervised depth estimation according to an arbitrary camera | |
KR101076406B1 (en) | Apparatus and Method for Extracting Location and velocity of Obstacle | |
EP2948927B1 (en) | A method of detecting structural parts of a scene | |
US8199977B2 (en) | System and method for extraction of features from a 3-D point cloud | |
KR102249769B1 (en) | Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same | |
JP2014138420A (en) | Depth sensing method and system for autonomous vehicle | |
US10872246B2 (en) | Vehicle lane detection system | |
Lui et al. | Eye-full tower: A gpu-based variable multibaseline omnidirectional stereovision system with automatic baseline selection for outdoor mobile robot navigation | |
Konrad et al. | Localization in digital maps for road course estimation using grid maps | |
CN105844692A (en) | Binocular stereoscopic vision based 3D reconstruction device, method, system and UAV | |
US20230138487A1 (en) | An Environment Model Using Cross-Sensor Feature Point Referencing | |
KR101030317B1 (en) | Apparatus for tracking obstacle using stereo vision and method thereof | |
US11652972B2 (en) | Systems and methods for self-supervised depth estimation according to an arbitrary camera | |
Murmu et al. | Relative velocity measurement using low cost single camera-based stereo vision system | |
Li et al. | Automatic parking slot detection based on around view monitor (AVM) systems | |
EP3566206B1 (en) | Visual odometry | |
KR20220113781A (en) | How to measure the topography of your environment | |
Fei et al. | Ossim: An object-based multiview stereo algorithm using ssim index matching cost | |
Kim et al. | High-precision underwater 3d mapping using imaging sonar for navigation of autonomous underwater vehicle | |
US11532100B2 (en) | Method for environmental acquisition, data processing unit | |
CN111695379B (en) | Ground segmentation method and device based on stereoscopic vision, vehicle-mounted equipment and storage medium | |
CN113269857A (en) | Coordinate system relation obtaining method and device | |
CN110488320A (en) | A method of vehicle distances are detected using stereoscopic vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141008 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151012 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160928 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170918 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20180918 Year of fee payment: 8 |