KR101212127B1 - Method and apparatus for detecting obstacle - Google Patents

Method and apparatus for detecting obstacle Download PDF

Info

Publication number
KR101212127B1
KR101212127B1 KR1020100106129A KR20100106129A KR101212127B1 KR 101212127 B1 KR101212127 B1 KR 101212127B1 KR 1020100106129 A KR1020100106129 A KR 1020100106129A KR 20100106129 A KR20100106129 A KR 20100106129A KR 101212127 B1 KR101212127 B1 KR 101212127B1
Authority
KR
South Korea
Prior art keywords
bird
obstacle object
obstacle
eye view
parallax map
Prior art date
Application number
KR1020100106129A
Other languages
Korean (ko)
Other versions
KR20120044693A (en
Inventor
이충희
임영철
권순
김종환
이종훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020100106129A priority Critical patent/KR101212127B1/en
Publication of KR20120044693A publication Critical patent/KR20120044693A/en
Application granted granted Critical
Publication of KR101212127B1 publication Critical patent/KR101212127B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

장애 물체 검출 장치는 시차맵(depth map)과 카메라 정보를 기초로, 장애 물체의 위치를 계산하고, 장애 물체의 위치를 평면 상에 표시하여 장애 물체에 대한 조감도를 생성하는 조감도 매핑부, 조감도에 대하여 행 별로 그룹핑하는 그룹핑부, 및 조감도에 대하여 각 그룹 별로 시차맵 히스토그램을 생성하고, 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출하며, 피크와 밸리를 이용하여 각 그룹별로 장애 물체의 영역을 검출하는 클러스터링부를 포함한다.Obstacle object detection device based on the parallax map (depth map) and the camera information, calculates the position of the obstacle object, the bird's eye view mapping unit for generating a bird's eye view of the obstacle object by displaying the position of the obstacle object on the plane Grouping unit for grouping row by row, and generating disparity map histogram for each group for bird's eye view, detecting peak and valley on histogram, and area of obstacle object for each group using peak and valley It includes a clustering unit for detecting.

Description

장애 물체 검출 장치 및 방법{METHOD AND APPARATUS FOR DETECTING OBSTACLE}Obstacle object detection device and method {METHOD AND APPARATUS FOR DETECTING OBSTACLE}

본 발명은 장애 물체 검출 장치 및 방법에 관한 것이다.The present invention relates to an obstacle object detection apparatus and method.

시차맵(depth map)을 이용하여 장애물을 검출하는 방법에는 V-변위맵(V-disparity map)을 이용하는 방법과 컬럼 검출(Column detection)을 이용하는 방법이 있다.Obstacles are detected using a parallax map, and there are a method using a V-disparity map and a method using column detection.

도 1은 기존의 스테레오 비전을 이용한 장애 물체 검출 결과를 시차맵 상으로 나타낸 도면이다.1 is a diagram illustrating a result of detecting an obstacle object using a conventional stereo vision on a parallax map.

도 1을 참조하면, 시차 맵의 해상도나 인접 장애 물체와의 근접 정도 등에 따라, 복수의 장애 물체들이 하나의 장애 물체로 검출되는 경우가 발생할 수 있다. 도 1에서 검출되는 장애 물체 영역은 두 개이다. 그러나 제 1 장애 물체 영역(110)에는 두 개의 장애 물체들(112, 114)이 존재하고, 제 2 장애 물체 영역(120)에는 세 개의 장애 물체들(122, 124, 126)이 존재한다. 두 개의 장애 물체들(112, 114)과 세 개의 장애 물체들(122, 124, 126)은 각각 근거리에 위치하는 장애 물체이므로, 각각 하나의 장애 물체로 검출된다. 따라서 정밀하게 장애 물체를 검출할 필요가 있다.Referring to FIG. 1, a plurality of obstacle objects may be detected as one obstacle object, depending on the resolution of the parallax map or the proximity of the adjacent obstacle object. There are two obstacle object areas detected in FIG. 1. However, two obstacle objects 112 and 114 exist in the first obstacle object area 110, and three obstacle objects 122, 124 and 126 exist in the second obstacle object area 120. Since the two obstacle objects 112 and 114 and the three obstacle objects 122, 124 and 126 are obstacle objects located at close distances, respectively, they are detected as one obstacle object. Therefore, it is necessary to accurately detect the obstacles.

개시된 기술이 이루고자 하는 기술적 과제는 장애 물체에 대한 조감도를 생성하고, 조감도 상에서 그룹핑과 클러스터링을 수행하고 역조감도 매핑을 수행함으로써 장애 물체를 정밀하게 검출할 수 있게 하는 장애 물체 검출 장치 및 방법을 제공하는 데 있다.Disclosure of Invention The technical problem to be solved by the disclosed technology is to provide an obstacle object detection apparatus and method for precisely detecting an obstacle object by generating a bird's eye view on the obstacle, performing grouping and clustering on the bird's eye view, and performing an inverse bird's eye mapping. There is.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제 1 측면은 시차맵(depth map)과 카메라 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 조감도 매핑부, 상기 조감도에 대하여 행 별로 그룹핑하는 그룹핑부, 및 상기 조감도에 대하여 상기 각 그룹 별로 시차맵 히스토그램을 생성하고, 상기 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출하며, 상기 피크와 밸리를 이용하여 상기 각 그룹별로 장애 물체의 영역을 검출하는 클러스터링부를 포함하는 장애 물체 검출 장치를 제공하는 데 있다.In order to achieve the above technical problem, a first aspect of the disclosed technology calculates a position of an obstacle object based on a depth map and camera information, and displays the position of the obstacle object on a plane to display the object. A bird's eye view mapping unit for generating a bird's eye view, a grouping unit for grouping the bird's eye view by row, and a parallax map histogram for each group with respect to the bird's eye view, and detect peaks and valleys on the histogram The present invention provides a obstacle object detecting apparatus including a clustering unit for detecting an area of an obstacle object for each group by using the peak and valley.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제 2 측면은 시차맵(depth map)과 카메라 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 조감도 매핑부, 상기 조감도에 대하여 상기 시차맵의 전방 거리에 따라 일정 간격으로 그룹핑을 수행하는 그룹핑부, 상기 조감도에 대하여 상기 각 그룹별로 클러스터링을 수행하여 상기 각 그룹 별로 장애 물체 영역을 검출하는 클러스터링부, 및 상기 클러스터링부에 의해 검출된 장애 물체의 영역에 대하여 역조감도 매핑을 수행하여 상기 장애 물체의 영역을 시차맵으로 표현하는 역조감도 매핑부를 포함하는 장애 물체 검출 장치를 제공하는 데 있다.In order to achieve the above technical problem, a second aspect of the disclosed technology calculates a position of an obstacle object based on a difference map and camera information, and displays the position of the obstacle object on a plane to display it on the obstacle object. A bird's eye view mapping unit for generating a bird's eye view, a grouping unit for grouping the bird's eye view at a predetermined interval according to the front distance of the disparity map, and performing clustering on the bird's eye view for each group of obstacle object areas for each group It provides a obstacle object detection apparatus comprising a clustering unit for detecting a; and an inverse bird's-eye mapping unit for performing an inverse bird's-eye mapping on the area of the obstacle object detected by the clustering unit to represent the area of the obstacle object as a parallax map. There is.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제 3 측면은 시차맵(depth map)과 카메라 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 단계, 상기 조감도에 대하여 행 별로 그룹핑하는 단계, 및 상기 조감도에 대하여 상기 각 그룹 별로 시차맵 히스토그램을 생성하고, 상기 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출하며, 상기 피크와 밸리를 이용하여 상기 각 그룹별로 장애 물체의 영역을 검출하는 단계를 포함하는 장애 물체 검출 방법을 제공하는 데 있다.The third aspect of the disclosed technology to achieve the above technical problem is to calculate the position of the obstacle object based on the difference map and camera information, and to display the position of the obstacle object on the plane to the obstacle object Generating a bird's-eye view, grouping row by row for the bird's-eye view, and generating a disparity map histogram for each group for the bird's-eye view, detecting peaks and valleys on the histogram, and The present invention provides a method for detecting an obstacle object, the method including detecting an area of an obstacle object for each group using a peak and a valley.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제 4 측면은 시차맵(depth map)과 카메라 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 단계, 상기 조감도에 대하여 상기 시차맵의 전방 거리에 따라 일정 간격으로 그룹핑을 수행하는 단계, 상기 조감도에 대하여 상기 각 그룹별로 클러스터링을 수행하여 상기 각 그룹 별로 장애 물체 영역을 검출하는 단계, 및 상기 클러스터링부에 의해 검출된 장애 물체의 영역에 대하여 역조감도 매핑을 수행하여 상기 장애 물체의 영역을 시차맵으로 표현하는 단계를 포함하는 장애 물체 검출 방법을 제공하는 데 있다.In order to achieve the above technical problem, a fourth aspect of the disclosed technology calculates a position of an obstacle object based on a difference map and camera information, and displays the position of the obstacle object on a plane to display it on the obstacle object. Generating a bird's eye view for the bird's eye view, grouping the bird's eye bird's eye view at a predetermined interval according to the distance of the disparity map, and performing clustering on the bird's eye view to detect the obstacle object region for each group. And performing a reverse bird's-eye mapping on the area of the obstacle object detected by the clustering unit to represent the area of the obstacle object as a parallax map.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technique may have the following effects. It is to be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, as it is not meant to imply that a particular embodiment should include all of the following effects or only the following effects.

일 실시예에 따른 장애 물체 검출 장치는, 시차맵의 해상도나 인접 장애 물체와의 근접 정도와 같은 이유로 정확한 장애 물체의 검출이 힘든 상황에서도, 장애 물체에 대한 조감도를 생성하고, 조감도 상에서 그룹핑과 클러스터링을 수행하고 역조감도 매핑을 수행함으로써 장애 물체를 정밀하게 검출할 수 있게 하는 효과가 있다. 그리고 일 실시예에 따른 장애 물체 검출 장치는, 지능형 자동차나 로봇과 같은 이동 객체뿐만 아니라, 공장이나 가정 등의 다양한 일상 공간에서도 적용될 수 있다.The obstacle detecting apparatus according to an embodiment generates a bird's eye view of the obstacle object even in a situation where it is difficult to accurately detect the obstacle object due to the resolution of the parallax map or the proximity of the adjacent obstacle object, and grouping and clustering on the bird's eye view By performing the method and performing the reverse bird's eye mapping, it is possible to accurately detect the obstacle. In addition, the obstacle detecting apparatus according to an embodiment may be applied not only to moving objects such as intelligent cars or robots, but also to various everyday spaces such as factories and homes.

도 1은 기존의 스테레오 비전을 이용한 장애 물체 검출 결과를 시차맵 상으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 장애 물체 검출 장치의 구성을 나타내는 블록도이다.
도 3은 도 2의 장애물체 검출 장치가 장애 물체를 검출하는 일 예를 설명하기 위한 도면이다.
1 is a diagram illustrating a result of detecting an obstacle object using a conventional stereo vision on a parallax map.
2 is a block diagram showing the configuration of an obstacle detecting apparatus according to an embodiment of the present invention.
FIG. 3 is a diagram for describing an example in which the obstacle detecting apparatus of FIG. 2 detects an obstacle object.

개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments may be variously modified and may have various forms, and thus the scope of the disclosed technology should be understood to include equivalents capable of realizing the technical idea.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "include" or "have" refer to features, numbers, steps, operations, components, parts, or parts thereof described. It is to be understood that the combination is intended to be present, but not to exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.

각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the disclosed technology belongs, unless otherwise defined. Terms defined in commonly used dictionaries should be interpreted to be consistent with meaning in the context of the relevant art and can not be construed as having ideal or overly formal meaning unless expressly defined in the present application.

도 2는 본 발명의 일 실시예에 따른 장애물체 검출 장치의 구성을 나타내는 블록도이다. 도 2를 참조하면, 장애물체 검출 장치(200)는 조감도 매핑부(210), 그룹핑부(220), 클러스터링부(230), 역조감도 매핑부(240), 양자화 에러 제거부(250) 및 필터링부(260)를 포함한다.2 is a block diagram showing the configuration of an obstacle detecting device according to an embodiment of the present invention. Referring to FIG. 2, the obstacle detecting apparatus 200 includes a bird's eye view mapping unit 210, a grouping unit 220, a clustering unit 230, an inverse bird's-eye view mapping unit 240, a quantization error removing unit 250, and filtering. The unit 260 is included.

조감도 매핑부(210)는 시차맵(depth map)과 카메라 정보에 기초하여 조감도를 생성한다. 시차맵은 좌 영상과 우 영상에 대하여 스테레오 매칭을 한 결과 생성될 수 있다. 카메라 정보는 좌 영상과 우 영상을 생성하는 카메라 간의 이격 거리, 카메라들이 지면을 바라보는 각도에 대한 정보를 포함할 수 있다. 조감도 매핑부(210)는 시차맵과 카메라 정보를 기초로 장애 물체의 위치를 계산하고 장애 물체의 위치를 평면상에 표시하여, 조감도를 생성할 수 있다. 여기에서 조감도는 특성상 장애 물체의 높이는 표시하지 않으며, 수평 위치와 전방 위치(즉, 거리)를 표시할 수 있다.The bird's eye view mapping unit 210 generates a bird's eye view based on a parallax map and camera information. The parallax map may be generated as a result of stereo matching on the left image and the right image. The camera information may include information about a separation distance between the cameras generating the left image and the right image, and angles at which the cameras view the ground. The bird's eye view mapping unit 210 may generate a bird's eye view by calculating a position of the obstacle object based on the parallax map and the camera information and displaying the position of the obstacle object on a plane. Here, the bird's eye view does not display the height of the obstacle object in nature, and may display a horizontal position and a front position (ie, distance).

그룹핑부(220)는 조감도에 대하여 행 별로 그룹핑을 수행한다. 그룹핑부(220)는 전방 거리에 대하여 일정한 간격을 가진 행에 대하여 그룹핑을 수행할 수 있다. 여기에서, 그룹핑 간격은 장애 물체의 분리 성능에 따라 변경될 수 있다. 예를 들어, 그룹핑 행 간격이 좁을수록 장애 물체의 분리 성능은 좋아지고 속도가 느려질 수 있다. 그리고 그룹핑 행 간격이 넓어질수록 속도는 빨라지고 장애 물체의 분리 성능은 나빠질 수 있다. 이를 통해, 조감도 매핑 후, 시차맵의 오차로 인한 노이즈를 제거할 수 있으며, 속도를 향상시킬 수 있다.The grouping unit 220 performs grouping on a row-by-row basis for the bird's eye view. The grouping unit 220 may perform grouping on rows having a predetermined interval with respect to the front distance. Here, the grouping interval may be changed according to the separation performance of the obstacle. For example, the narrower the grouping row spacing, the better the separation performance of the obstacle and the slower it may be. As the grouping row spacing becomes wider, the speed may be faster and the separation performance of the obstacle may be worse. Through this, after the bird's eye view mapping, it is possible to remove the noise due to the error of the parallax map, it is possible to improve the speed.

클러스터링부(230)는 조감도에 대하여 각 그룹별로 클러스터링을 수행한다. 클러스터링부(230)는 그룹별로 시차맵 히스토그램을 생성하고, 각 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출한다. 클러스터링부(230)는 검출된 피크와 밸리에 기초하여 조감도 상에서 그룹별로 장애 물체의 영역을 검출한다.The clustering unit 230 performs clustering for each group with respect to the bird's eye view. The clustering unit 230 generates a disparity map histogram for each group, and detects a peak and a valley on each histogram. The clustering unit 230 detects the area of the obstacle object for each group on the bird's eye view based on the detected peak and valley.

역조감도 매핑부(240)는 클러스터링부(230)에 의해 검출된 장애 물체의 영역을 역조감도 매핑하여 시차맵 상으로 표현한다. 그런데 양자화로 인하여 역조감도 매핑시 장애 물체 영역이 직선이나 점선의 형태로 나타날 수 있다.The inverse bird's-eye view mapping unit 240 maps the region of the obstacle object detected by the clustering unit 230 to the inverse bird's-eye view and represents the disparity map. However, due to quantization, the obstacle object region may appear as a straight line or a dotted line when mapping the reverse bird's-eye view.

양자화 에러 제거부(250)는 역조감도 매핑된 값을 기준으로 제한된 수평 위치 내에서 행별로 스캔하여 유사한 값을 가지는 화소 위치를 검출한다. 즉, 장애 물체가 평면이고 평면 내에서 유사한 시차값을 가진다면, 장애 물체의 대부분의 시차값은 역조감도 매핑된 값과 유사한 값을 가진다. 이를 통해 양자화 에러 제거부(250)는 역조감도 매핑 시에 발생되는 양자화 에러를 제거한다.The quantization error remover 250 scans rows by row within a limited horizontal position based on the inverse bird-eye mapped value to detect pixel positions having similar values. That is, if the obstacle object is a plane and has similar parallax values in the plane, most parallax values of the obstacle object have values similar to the reverse bird's eye mapped values. Through this, the quantization error remover 250 removes the quantization error generated at the inverse bird's eye mapping.

필터링부(260)는 노이즈 제거 또는 크기 제한 필터링을 수행하여 원하는 장애 물체만을 검출한다.
The filtering unit 260 detects only a desired obstacle object by performing noise removing or size limit filtering.

도 3은 도 2의 장애물체 검출 장치가 장애 물체를 검출하는 일 예를 설명하기 위한 도면이다.FIG. 3 is a diagram for describing an example in which the obstacle detecting apparatus of FIG. 2 detects an obstacle object.

도 3의 (a)를 참조하면, 시차 맵 상에는 제 1 장애 물체 영역(310)과 제 2 장애물체 영역2(320)로 구성된 2개의 장애물체 영역이 있으며, 제 1 장애 물체 영역(310)에는 두 개의 장애 물체들(312, 314)이 있고, 제 2 장애 물체 영역(320)에는 세 개의 장애 물체들(322, 324, 326)이 있다.Referring to (a) of FIG. 3, there are two obstacle regions composed of the first obstacle object region 310 and the second obstacle region 2 320 on the parallax map, and the first obstacle object region 310 is located in the parallax map. There are two obstacles 312 and 314, and there are three obstacles 322, 324 and 326 in the second obstacle object area 320.

조감도 매핑부(210)는 카메라 정보와 시차 맵에 기초하여 조감도 매핑을 수행하여, 도 3의 (b)에 나타난 것과 같이 수평 위치(X) 및 전방 거리(Y) 별로 5개의 장애물체를 파악한다.The bird's eye view mapping unit 210 performs bird's-eye view mapping based on the camera information and the parallax map, and identifies five obstacles for each horizontal position X and the front distance Y, as shown in FIG. .

그룹핑부(220)는 도 3의 (c)에 나타난 것과 같이, 전방 거리(Y) 일정 간격의 행에 대하여 그룹핑을 수행한다. 여기에서, 그룹핑 행 간격은 장애물체의 분리 성능에 따라 변경될 수 있다. 예를 들어, 그룹핑 행 간격이 좁을수록 장애 물체의 분리 성능은 좋아지고 속도가 느려질 수 있다. 그리고 그룹핑 행 간격이 넓어질수록 속도는 빨라지고 장애 물체의 분리 성능은 나빠질 수 있다.As shown in (c) of FIG. 3, the grouping unit 220 performs grouping on rows of a predetermined distance in front of the distance Y. Here, the grouping row spacing may be changed according to the separation performance of the obstacle. For example, the narrower the grouping row spacing, the better the separation performance of the obstacle and the slower it may be. As the grouping row spacing becomes wider, the speed may be faster and the separation performance of the obstacle may be worse.

클러스터링부(230)는 그룹별로 시차맵 히스토그램을 생성하고, 각 히스토그램 상에서 피크와 밸리를 검출한다. 클러스터링부(230)는 도 3의 (d)에 나타난 것과 같이 피크와 밸리를 이용하여 조감도 상에서 그룹별로 장애 물체의 영역을 검출한다.The clustering unit 230 generates a disparity map histogram for each group, and detects peaks and valleys on each histogram. The clustering unit 230 detects regions of the obstacle object for each group on the bird's eye view using peaks and valleys as shown in FIG.

역조감도 매핑부(240)는 클러스터링부(230)에 의해 검출된 장애 물체의 영역을 역조감도 매핑하여 도 3의 (e)에 나타난 것과 같이 시차맵 상으로 표현한다.The inverse bird's-eye view mapping unit 240 maps the region of the obstacle object detected by the clustering unit 230 to inverse bird's-eye view and expresses the image on the parallax map as shown in FIG.

양자화 에러 제거부(250)는 도 3의 (f)에 나타난 것과 같이 역조감도 매핑된 값을 기준으로 제한된 수평 위치 내에서 행별로 스캔하여 유사한 값을 가지는 화소 위치를 검출한다. 즉, 장애 물체가 평면이고 평면 내에서 유사한 시차값을 가진다면, 장애 물체의 대부분의 시차값은 역조감도 매핑된 값과 유사한 값을 가진다.As illustrated in (f) of FIG. 3, the quantization error remover 250 detects pixel positions having similar values by scanning rows by row within a limited horizontal position based on the inverse bird-eye mapped value. That is, if the obstacle object is a plane and has similar parallax values in the plane, most parallax values of the obstacle object have values similar to the reverse bird's eye mapped values.

필터링부(260)는 노이즈 제거 또는 크기 제한 필터링을 수행하여 도 3의 (g)에 나타난 것과 같이 원하는 장애 물체만을 검출한다.The filtering unit 260 detects only a desired obstacle object as shown in FIG. 3G by performing noise removing or size limit filtering.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

Claims (12)

시차맵(depth map)과 상기 시차맵 작성을 위한 좌영상과 우영상을 생성하는 카메라에 관한 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 조감도 매핑부;
상기 조감도에 대하여 행 별로 그룹핑하는 그룹핑부; 및
상기 조감도에 대하여 상기 각 그룹 별로 시차맵 히스토그램을 생성하고, 상기 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출하며, 상기 피크와 밸리를 이용하여 상기 각 그룹별로 장애 물체의 영역을 검출하는 클러스터링부를 포함하는 장애 물체 검출 장치.
On the basis of a parallax map and information about a camera generating a left image and a right image for creating the parallax map, a position of the obstacle object is calculated, and the position of the obstacle object is displayed on a plane to prevent the obstacle. A bird's eye view mapping unit for generating a bird's eye view of the object;
A grouping unit to group the bird's eye by row; And
Clustering for generating a disparity map histogram for each of the groups for the bird's eye view, detecting peaks and valleys on the histogram, and detecting an area of an obstacle object for each group using the peaks and valleys Obstacle object detection device comprising a.
제 1 항에 있어서, 상기 그룹핑부는
상기 시차맵의 전방 거리에 따라 일정 간격으로 그룹핑을 수행하는 장애 물체 검출 장치.
The method of claim 1, wherein the grouping unit
Obstacle object detecting apparatus for performing grouping at regular intervals in accordance with the front distance of the parallax map.
제 2 항에 있어서,
상기 클러스터링부에 의해 검출된 장애 물체의 영역에 대하여 역조감도 매핑을 수행하여 상기 장애 물체의 영역을 시차맵으로 표현하는 역조감도 매핑부를 더 포함하는 장애 물체 검출 장치.
The method of claim 2,
And an inverse bird's-eye mapping unit configured to perform inverse bird's-eye mapping on the area of the obstacle object detected by the clustering unit to represent the area of the obstacle object as a parallax map.
제 3 항에 있어서,
상기 역 조감도 매핑되어 표현되는 상기 장애 물체 영역의 수평 위치 내에서 행 별로 스캔하여 미리 설정된 범위 내의 값을 가지는 화소 위치를 검출하는 양자화 에러 제거부를 더 포함하는 장애 물체 검출 장치.
The method of claim 3, wherein
And a quantization error canceling unit configured to scan pixel by row in a horizontal position of the obstacle object region represented by the inverse bird's eye view and detect a pixel position having a value within a preset range.
시차맵(depth map)과 상기 시차맵 작성을 위한 좌영상과 우영상을 생성하는 카메라에 관한 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 조감도 매핑부;
상기 조감도에 대하여 상기 시차맵의 전방 거리에 따라 일정 간격으로 그룹핑을 수행하는 그룹핑부;
상기 조감도에 대하여 상기 각 그룹 별로 시차맵 히스토그램을 생성하고, 상기 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출하며, 상기 피크와 밸리를 이용하여 상기 각 그룹별로 장애 물체의 영역을 검출하는 클러스터링부; 및
상기 클러스터링부에 의해 검출된 장애 물체의 영역에 대하여 역조감도 매핑을 수행하여 상기 장애 물체의 영역을 시차맵으로 표현하는 역조감도 매핑부를 포함하는 장애 물체 검출 장치.
On the basis of a parallax map and information about a camera generating a left image and a right image for creating the parallax map, a position of the obstacle object is calculated, and the position of the obstacle object is displayed on a plane to prevent the obstacle. A bird's eye view mapping unit for generating a bird's eye view of the object;
A grouping unit that performs grouping at a predetermined interval with respect to the bird's eye view according to the distance of the disparity map;
Clustering for generating a disparity map histogram for each of the groups for the bird's eye view, detecting peaks and valleys on the histogram, and detecting an area of an obstacle object for each group using the peaks and valleys part; And
And an inverse bird's-eye mapping unit configured to perform inverse bird's-eye mapping on the area of the obstacle object detected by the clustering unit to represent the area of the obstacle object as a parallax map.
삭제delete 제 5 항에 있어서,
상기 역조감도 매핑되어 표현되는 상기 장애 물체 영역의 수평 위치 내에서 행 별로 스캔하여 미리 설정된 범위 내의 값을 가지는 화소 위치를 검출하는 양자화 에러 제거부를 더 포함하는 장애 물체 검출 장치.
The method of claim 5, wherein
And a quantization error canceling unit configured to detect pixel positions having a value within a preset range by scanning row by row within a horizontal position of the obstacle object region mapped to the inverse bird's eye view.
시차맵(depth map)과 상기 시차맵 작성을 위한 좌영상과 우영상을 생성하는 카메라에 관한 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 단계;
상기 조감도에 대하여 행 별로 그룹핑하는 단계; 및
상기 조감도에 대하여 상기 각 그룹 별로 시차맵 히스토그램을 생성하고, 상기 히스토그램 상에서 피크(peak)와 밸리(valley)를 검출하며, 상기 피크와 밸리를 이용하여 상기 각 그룹별로 장애 물체의 영역을 검출하는 단계를 포함하는 장애 물체 검출 방법.
On the basis of a parallax map and information about a camera generating a left image and a right image for creating the parallax map, a position of the obstacle object is calculated, and the position of the obstacle object is displayed on a plane to prevent the obstacle. Generating a bird's eye view of the object;
Grouping row by row for the bird's eye view; And
Generating a disparity map histogram for each group with respect to the bird's eye view, detecting a peak and a valley on the histogram, and detecting an area of an obstacle object for each group using the peak and the valley Obstacle object detection method comprising a.
제 8 항에 있어서, 상기 그룹핑하는 단계는
상기 시차맵의 전방 거리에 따라 일정 간격으로 그룹핑을 수행하는 장애 물체 검출 방법.
The method of claim 8, wherein the grouping step
The obstacle object detection method for performing grouping at regular intervals in accordance with the front distance of the parallax map.
제 9 항에 있어서,
상기 검출된 장애 물체의 영역에 대하여 역조감도 매핑을 수행하여 상기 장애 물체의 영역을 시차맵으로 표현하는 단계를 더 포함하는 장애 물체 검출 방법.
The method of claim 9,
And performing an inverse bird's-eye mapping on the detected obstacle object area to represent the area of the obstacle object as a parallax map.
제 10 항에 있어서,
상기 역조감도 매핑되어 표현되는 상기 장애 물체 영역의 수평 위치 내에서 행 별로 스캔하여 미리 설정된 범위 내의 값을 가지는 화소 위치를 검출하는 단계를 더 포함하는 장애 물체 검출 방법.
11. The method of claim 10,
And detecting a pixel position having a value within a preset range by scanning row by row within a horizontal position of the obstacle object region represented by the reverse bird's-eye view.
시차맵(depth map)과 상기 시차맵 작성을 위한 좌영상과 우영상을 생성하는 카메라에 관한 정보를 기초로, 장애 물체의 위치를 계산하고, 상기 장애 물체의 위치를 평면 상에 표시하여 상기 장애 물체에 대한 조감도를 생성하는 단계;
상기 조감도에 대하여 상기 시차맵의 전방 거리에 따라 일정 간격으로 그룹핑을 수행하는 단계;
상기 조감도에 대하여 상기 각 그룹 별로 시차맵 히스토그램을 생성하고, 상기 히스토그램 상에서 피크와 밸리를 검출하며, 상기 피크와 밸리를 이용하여 상기 각 그룹별로 장애 물체의 영역을 검출하는 클러스터링을 수행하는 단계; 및
상기 클러스터링을 수행하는 단계에 의해 검출된 장애 물체의 영역에 대하여 역조감도 매핑을 수행하여 상기 장애 물체의 영역을 시차맵으로 표현하는 단계를 포함하는 장애 물체 검출 방법.
On the basis of a parallax map and information about a camera generating a left image and a right image for creating the parallax map, a position of the obstacle object is calculated, and the position of the obstacle object is displayed on a plane to prevent the obstacle. Generating a bird's eye view of the object;
Performing grouping at a predetermined interval with respect to the bird's eye view according to the front distance of the parallax map;
Generating a parallax map histogram for each of the groups with respect to the bird's eye view, detecting peaks and valleys on the histogram, and performing clustering for detecting an area of an obstacle object for each group using the peaks and valleys; And
And performing an inverse bird's-eye mapping on the area of the obstacle object detected by the clustering to represent the area of the obstacle object as a parallax map.
KR1020100106129A 2010-10-28 2010-10-28 Method and apparatus for detecting obstacle KR101212127B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100106129A KR101212127B1 (en) 2010-10-28 2010-10-28 Method and apparatus for detecting obstacle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100106129A KR101212127B1 (en) 2010-10-28 2010-10-28 Method and apparatus for detecting obstacle

Publications (2)

Publication Number Publication Date
KR20120044693A KR20120044693A (en) 2012-05-08
KR101212127B1 true KR101212127B1 (en) 2012-12-13

Family

ID=46264415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100106129A KR101212127B1 (en) 2010-10-28 2010-10-28 Method and apparatus for detecting obstacle

Country Status (1)

Country Link
KR (1) KR101212127B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11899099B2 (en) * 2018-11-30 2024-02-13 Qualcomm Incorporated Early fusion of camera and radar frames

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196359A (en) 2004-01-05 2005-07-21 Honda Motor Co Ltd Moving object detection apparatus, moving object detection method and moving object detection program
JP2010181919A (en) 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196359A (en) 2004-01-05 2005-07-21 Honda Motor Co Ltd Moving object detection apparatus, moving object detection method and moving object detection program
JP2010181919A (en) 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이충희 외3인, "스테레오 비전 기반의 도로특징정보 추출 및 장애 물체검출", 전자공학회 논문지 제46권SC편제6호, (2009.11)*

Also Published As

Publication number Publication date
KR20120044693A (en) 2012-05-08

Similar Documents

Publication Publication Date Title
JP6531846B2 (en) Method and apparatus for detecting movable area of road surface
JP6179639B2 (en) Road boundary detection method and detection apparatus
US8867790B2 (en) Object detection device, object detection method, and program
EP3082066B1 (en) Road surface gradient detection device
US8923560B2 (en) Exterior environment recognition device
CN103390269B (en) Continuous lane segmentation object detecting method and device
JP6156400B2 (en) Traveling road surface detection device and traveling road surface detection method
JP2013109760A (en) Target detection method and target detection system
KR101285106B1 (en) Obstacle detection method using image data fusion and apparatus
US20130002861A1 (en) Camera distance measurement device
KR101621370B1 (en) Method and Apparatus for detecting lane of road
JP6340781B2 (en) Parallax direction continuous object detection method and apparatus based on parallax diagram
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
WO2011039977A1 (en) Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
JP6119409B2 (en) Object area dividing method and object area dividing apparatus
CN104537627B (en) A kind of post-processing approach of depth image
KR101208647B1 (en) Method and apparatus for detecting obstacle on road
KR101212127B1 (en) Method and apparatus for detecting obstacle
KR101289386B1 (en) Obstacle detection and division method using stereo vision and apparatus for performing the same
KR101435611B1 (en) Occlusion removal method for three dimensional integral image
JP5950193B2 (en) Disparity value calculation device, disparity value calculation system including the same, moving surface area recognition system, disparity value calculation method, and disparity value calculation program
JP2016081108A (en) Object detection device
JP2014211694A (en) Image processing apparatus, distance measurement apparatus, and image processing program
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
KR101278636B1 (en) Object detection method for converting 2-dimensional image to stereoscopic image

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151118

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170918

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180918

Year of fee payment: 7