KR101437228B1 - Obstacle detection device and method using boundary weighting - Google Patents

Obstacle detection device and method using boundary weighting Download PDF

Info

Publication number
KR101437228B1
KR101437228B1 KR1020120128284A KR20120128284A KR101437228B1 KR 101437228 B1 KR101437228 B1 KR 101437228B1 KR 1020120128284 A KR1020120128284 A KR 1020120128284A KR 20120128284 A KR20120128284 A KR 20120128284A KR 101437228 B1 KR101437228 B1 KR 101437228B1
Authority
KR
South Korea
Prior art keywords
obstacle
weight
region
stereoscopic image
initial
Prior art date
Application number
KR1020120128284A
Other languages
Korean (ko)
Other versions
KR20140061101A (en
Inventor
이충희
임영철
김종환
박지호
김남혁
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020120128284A priority Critical patent/KR101437228B1/en
Publication of KR20140061101A publication Critical patent/KR20140061101A/en
Application granted granted Critical
Publication of KR101437228B1 publication Critical patent/KR101437228B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

시차맵의 검출결과에 외곽선 가중치 기반 세그멘테이션 기법을 적용하여 정밀하게 장애물체를 검출하는 장치 및 방법이 개시된다. 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치는, 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 초기 지정부와, 상기 객체의 외곽선과 연관하여 가중치를 계산하는 가중치 계산부, 및 상기 초기 영역에 대한 세그멘테이션(segmentation) 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 영역 추출부를 포함할 수 있다.An apparatus and method for precisely detecting an obstacle by applying an outline weight-based segmentation technique to detection results of a parallax map are disclosed. An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image includes an initial specification unit that specifies an initial area including at least an object in a stereoscopic image, a weight calculation unit that calculates a weight in association with an outline of the object, And an area extracting unit for extracting an obstacle area occupied by the object from the initial area by applying the weight to the segment area.

Description

입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법{OBSTACLE DETECTION DEVICE AND METHOD USING BOUNDARY WEIGHTING}[0001] OBSTACLE DETECTION DEVICE AND METHOD USING BOUNDARY WEIGHTING [0002]

본 발명의 실시예는 외곽선 가중치 기반 정밀한 장애물체 검출할 수 있는 기술에 관한 것이다.An embodiment of the present invention relates to a technique capable of detecting a precise obstacle based on an outline weight.

영상기반의 장애물체 검출은, 지능형 자동차, 로봇, 의료 산업 등 다양한 분야에 있어서 상당히 중요한 기술로 부상하고 있다. 최근에는, 장애물체 검출의 성능을 향상시키기 위하여, 스테레오 비전을 이용한 방법을 많이 사용하고 있다. 이러한 방법은 시차맵을 사용하여, 장애물체와 배경과의 분리도를 향상시킬 수 있어, 장애물체를 강건하게 검출 할 수 있다.Image-based detection of obstacle objects is emerging as an important technology in various fields such as intelligent automobile, robot, and medical industry. Recently, in order to improve the performance of detecting an obstacle, a method using stereo vision is widely used. This method can improve the degree of separation between the obstacle and the background using the parallax map, so that the obstacle can be robustly detected.

그러나 시차맵 또한 그 특성상 여러 가지 문제점, 예컨대 시차맵의 해상도 저하, 노이즈 증가 등으로 인하여 시차맵 만을 사용하여 장애물체를 검출할 경우, 정밀한 장애물체의 검출은 어렵게 될 수 있다.However, when the obstacle is detected using only the parallax map due to various characteristics of the parallax map, for example, resolution degradation of the parallax map, noise increase, etc., it may be difficult to accurately detect the obstacle.

예를 들어, 시차맵 만을 이용하여 장애물체를 검출할 때에는, 입력 그레이 영상을 이용하여 3차원 정보인 시차맵을 생성하고, 이 시차맵을 이용하여 장애물체를 검출 함에 따라, 원거리나 크기 작은 장애물체가 배경으로 취급되어 검출되지 않는 등의 문제점을 내재하고 있다.For example, when an obstacle is detected using only the parallax map, a parallax map, which is three-dimensional information, is generated by using the input gray image, and an obstacle is detected using the parallax map, The object is handled as a background and is not detected.

즉, 종래 시차맵 만을 이용한 장애물체의 검출법은, 장애물체가 배경과 근접할 경우 시차맵의 한계성으로 인하여 장애물체와 배경이 함께 검출되는 오류가 있다.That is, in the detection method of an obstacle using only the conventional parallax map, when the obstacle is close to the background, there is an error that the obstacle and the background are detected together due to the limitation of the parallax map.

또한, 원거리의 장애물체의 경우, 시차맵의 해상도, 노이즈 등으로 인하여 다수의 장애물체가 하나의 장애물체로 검출 될 수도 있다.Further, in the case of a distant obstacle, a plurality of obstacles may be detected as one obstacle due to the resolution, noise, and the like of the parallax map.

따라서 시차맵 이외의 검출 정보를 활용하여 장애물체를 정밀하게 검출하는 모델이 절실히 요구된다.Therefore, there is a desperate need for a model that precisely detects obstacle objects using detection information other than the parallax map.

본 발명의 실시예는 시차맵의 검출결과에 외곽선 가중치 기반 세그멘테이션 기법을 적용하여 정밀하게 장애물체를 검출하는 것을 목적으로 한다.An embodiment of the present invention aims to precisely detect an obstacle by applying an outline weight-based segmentation technique to detection results of a parallax map.

본 발명의 실시예에 따른, 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치는, 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 초기 지정부와, 상기 객체의 외곽선과 연관하여 가중치를 계산하는 가중치 계산부, 및 상기 초기 영역에 대한 세그멘테이션(segmentation) 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 영역 추출부를 포함할 수 있다.An apparatus for detecting an obstacle region based on an outline weight in a stereoscopic image according to an exemplary embodiment of the present invention includes an initial specification unit that specifies an initial region including at least an object in a stereoscopic image, And a region extracting unit for extracting an obstacle region occupied by the object from the initial region by applying the weight to the initial region in a segmentation process of the initial region.

본 발명의 실시예에 따른, 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법은, 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 단계, 상기 객체의 외곽선과 연관하여 가중치를 계산하는 단계, 및 상기 초기 영역에 대한 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 단계를 포함할 수 있다.The method of detecting an obstacle area based on an outline weight in a stereoscopic image according to an embodiment of the present invention includes the steps of specifying an initial area including at least an object in a stereoscopic image, calculating a weight in association with an outline of the object, And extracting an obstacle region occupied by the object from the initial region by applying the weight to the initial region in the segmentation process.

본 발명에 의해서는 시차맵을 이용하여 일차적으로 검출된 장애물체 영역별로 밝기기반의 세그멘테이션 기법을 적용하여 검출 성능을 향상시킬 수 있다.According to the present invention, detection performance can be improved by applying a brightness-based segmentation technique to each obstacle object region detected primarily by using a parallax map.

또한, 본 발명에 따르면, 각 화소에서 수직 외각 성분(에지)까지의 거리를 가중치로 사용함으로써, 세그멘테이션의 성능을 향상 시킬 수 있다.Further, according to the present invention, by using the distance from each pixel to the vertical outer component (edge) as a weight, the performance of segmentation can be improved.

또한, 본 발명에 의해서는, 지능형 자동차, 로봇, 보안, 의료 분야 등 다양한 분야의 장애물체 검출 및 세그멘테이션에 사용, 적용할 수 있다.Further, according to the present invention, the present invention can be applied to detection and segmentation of obstacles in various fields such as intelligent automobiles, robots, security, and medical fields.

도 1은 본 발명에 따른 외곽선 가중치 기반 장애물 영역 검출 장치의 구성을 예시한 도면이다.
도 2는 본 발명의 외곽선 가중치 기반 장애물 영역 검출 장치의 초기 영역 지정과 가중치 계산의 실행과정을 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 외곽선 가중치 기반 장애물 영역 검출 방법의 흐름도이다.
1 is a diagram illustrating a configuration of an outline-weighted obstacle region detecting apparatus according to the present invention.
2 is a diagram illustrating an initial region designation and an execution process of weight calculation of the outline-weighted obstacle region detecting apparatus according to the present invention.
3 is a flowchart of an outline weight based obstacle area detection method according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 일실시예에 따른, 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법에 대해 상세히 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, an apparatus and method for detecting an obstacle region based on an outline weight in a stereoscopic image according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 본 발명에 따른 외곽선 가중치 기반 장애물 영역 검출 장치의 구성을 예시한 도면이다. 1 is a diagram illustrating a configuration of an outline-weighted obstacle region detecting apparatus according to the present invention.

장애물 영역 검출 장치(100)는 인간의 두 눈으로 실제 공간에 존재하는 장애물을 인식하는 것과 동일한 효과를 얻기 위해 입체영상을 이용할 수 있다. 상기 입체영상은 두 개의 카메라 렌즈를 통해 같은 장면의 두 영상을 촬영하고, 상기 두 영상을 정합하여 생성할 수 있다. 상기 입체영상은, 예컨대 각 화소가 0부터 255까지 범위의 밝기값 정보를 전달하여 장애물 영역을 명암 차이로 구분할 수 있는 흑백영상이 될 수 있다.The obstacle region detecting apparatus 100 can use a stereoscopic image to obtain the same effect as recognizing an obstacle existing in a real space with two eyes of a human being. The stereoscopic image can be obtained by shooting two images of the same scene through two camera lenses, and matching the two images. The stereoscopic image may be a black-and-white image, for example, in which each pixel transmits brightness value information ranging from 0 to 255 so that the obstacle region can be classified into a contrast difference.

본 발명의 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치(100)는 초기 지정부(110), 가중치 계산부(120), 및 영역 추출부(130)를 포함하여 구성할 수 있다.The apparatus 100 for detecting an obstacle region based on an outline weight in a stereoscopic image according to the present invention may include an initial determination unit 110, a weight calculation unit 120, and a region extraction unit 130.

초기 지정부(110)는 상기 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정할 수 있다. 즉, 초기 지정부(110)는 객체가 점유한 입체영상의 일부를 상기 초기 영역으로 결정하는 역할을 한다.The initial designation unit 110 may designate an initial region by including at least an object in the stereoscopic image. That is, the initial designation unit 110 determines a part of the stereoscopic image occupied by the object as the initial region.

초기 영역의 지정 일례로서, 상기 입체영상이 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것일 경우, 초기 지정부(110)는 상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여 상기 초기 영역을 지정할 수 있다.As an example of designating the initial region, when the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object, the initial designation unit 110 uses the parallax map of the plurality of images, The initial region can be designated by separating the background.

예컨대, 초기 지정부(110)는 두 개의 카메라로부터 획득된 두 영상을 정합하는 과정에서 시차맵을 생성할 수 있다. 상기 시차맵은 상기 두 영상에 동일하게 존재하는 객체의 한 지점에 대한 시차를 계산하여 상기 객체의 거리정보를 화소의 밝기값으로 나타낸 영상을 의미할 수 있다. 상기 시차맵에서 객체가 없는 영역은, 거리가 멀수록 밝기값이 일정한 비율로 감소하고, 반면 객체가 있는 영역은, 상기 객체로 인해 밝기값이 증가할 수 있다. 상기와 같은 현상을 이용하여, 초기 지정부(110)는 객체가 존재하는 초기 영역을 검출할 수 있다.For example, the initial designation unit 110 may generate a parallax map in the process of matching two images obtained from two cameras. The parallax map may be an image that expresses the distance information of the object as a brightness value of the pixel by calculating a parallax with respect to one point of the object that exists in the two images. In the parallax map, as the distance increases, the brightness value decreases at a constant rate, whereas in the area where the object exists, the brightness value may increase due to the object. Using the above-described phenomenon, the initial designation unit 110 can detect an initial region in which an object exists.

가중치 계산부(120)는 상기 객체의 외곽선과 연관하여 가중치를 계산할 수 있다. 가중치는 객체의 외곽 성분을 고려하여, 지정된 초기 영역 내 임의 영역에서의 객체의 점유 확률을 수치로 보상한 것일 수 있다.The weight calculation unit 120 may calculate a weight in association with the outline of the object. The weight may be a value obtained by compensating an occupancy probability of an object in an arbitrary area within a designated initial area by numerical values, taking into consideration the outer component of the object.

가중치 계산에 있어서, 가중치 계산부(120)는 상기 초기 영역에 존재하는 객체의 수직 외곽 성분을 검출하여, 상기 수직 외곽 성분을 기준으로 외부영역을 배경으로, 내부 영역을 장애물 영역으로 인식할 수 있다. 상기 수직 외곽 성분은 상기 초기 영역에서 밝기값이 높은 화소와 밝기값이 낮은 화소의 경계부분으로서, 가중치 계산부(120)는 밝기값이 낮은 화소에서 높은 화소로, 또는 그 반대로 변하는 지점에 해당하는 화소를 표시할 수 있다. 또한, 가중치 계산부(120)는 상기 초기 영역에서 같은 열의 화소에 대해 상하에 해당하는 화소값을 분석하여 수직 방향의 수직 외곽 성분을 구할 수 있다.In calculating the weight, the weight calculation unit 120 may detect the vertical outer component of the object existing in the initial region, recognize the outer region as the background and the inner region as the obstacle region based on the vertical outer component . The vertical contour component is a boundary portion between a pixel having a high brightness value and a pixel having a low brightness value in the initial region, and the weight calculating section 120 calculates a weight value of a pixel having a brightness value corresponding to a pixel changing from a pixel having a low brightness value to a pixel having a high brightness value Pixels can be displayed. In addition, the weight calculation unit 120 may calculate the vertical outline components in the vertical direction by analyzing the pixel values corresponding to the pixels in the same column in the initial region.

또한, 가중치 계산부(120)는 상기 수직 외곽 성분에 대해 거리 변환(distance transform)을 수행하여, 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산할 수 있다. 상기 거리 변환은 상기 초기 영역의 모든 픽셀 값에 대해 임의의 한 픽셀에서 가장 가까운 수직 외곽 성분까지의 거리를 상기 픽셀의 밝기값으로 변경하는 연산을 의미할 수 있다. 상기 초기 영역에서 찾아진 수직 외곽 성분과 각 픽셀과의 거리 중 가장 최소값을, 가중치 계산부(120)는 상기 픽셀의 밝기값으로 결정할 수 있다.In addition, the weight calculation unit 120 may perform a distance transform on the vertical outer component, express the distance as a brightness value, and calculate the weight by converting the brightness value. The distance conversion may mean an operation of changing the distance from any one pixel to the closest vertical outer component to the brightness value of the pixel with respect to all pixel values of the initial region. The weight calculation unit 120 may determine the minimum value among the vertical contour component found in the initial region and the distance between each pixel as the brightness value of the pixel.

영역 추출부(130)는 상기 초기 영역에 대해 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출한다. 즉, 영역 추출부(130)는 상기 거리 변환을 통해 변환된 초기 영역의 거리 정보를 가중치로 설정하여 상기 객체를 장애물 영역으로서, 정밀하게 검출하기 위해 세그멘테이션을 처리하는 역할을 한다.The region extracting unit 130 extracts an obstacle region occupied by the object from the initial region by applying the weight to the initial region in the segmentation process. That is, the region extracting unit 130 processes the segmentation to precisely detect the object as an obstacle region by setting the distance information of the initial region transformed through the distance transformation as a weight value.

상기 세그멘테이션은, 상기 초기 영역에서도 장애물이 아닌 영역이 여전히 존재하기 때문에 복수의 영역으로 나누어, 관심 대상이 되는 영역을 추출하는 것으로 정의될 수 있다. 상기 세그멘테이션의 일례로, 영역 추출부(130)는 상기 각 영역에 해당하는 화소의 밝기값을 동질의 특성을 갖게 하고 인접한 다른 영역에 해당하는 화소의 밝기값을 서로 상이한 특성을 갖도록 분리할 수 있다.The segmentation may be defined as extracting a region of interest by dividing the region into a plurality of regions because an area other than an obstacle still exists in the initial region. In one example of the segmentation, the region extracting unit 130 may divide the brightness values of the pixels corresponding to the respective regions so as to have homogeneous characteristics, and to have different brightness values of the pixels corresponding to the adjacent regions .

또한, 영역 추출부(130)는, 상기 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기 히스토그램을 생성하여 히스토그램의 피크(peak)와 밸리(valley)를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리할 수 있다. 즉, 영역 추출부(130)는 상기 초기 영역에서 화소의 밝기값의 레벨(level)을 지정하여 각 레벨의 화소 개수가 얼마나 되는지 한눈에 파악할 수 있는 히스토그램을 생성하여 픽셀의 개수가 인접한 레벨보다 많은 상기 피크 부분과 인접한 레벨보다 적은 상기 밸리 부분을 찾아서 세그멘테이션 처리를 할 수 있다.In addition, the region extracting unit 130 may generate a brightness histogram of pixels in the initial region as the segmentation, and process the brightness histogram-based segmentation to detect peaks and valleys of the histogram. That is, the region extracting unit 130 generates a histogram that can grasp the number of pixels of each level at a glance by designating the level of the brightness value of the pixel in the initial region, so that the number of pixels is larger than the adjacent level It is possible to search for the valley portion smaller than the level adjacent to the peak portion and perform segmentation processing.

상기 밝기 히스토그램 기반 세그멘테이션을 연산하기 위해, 영역 추출부(130)는 페어와이즈 포텐셜(pairwise potential) 함수를 정의하여 상기 가중치를 가중치 파라메터로서 포함할 수 있다. 여기서, 상기 페어와이즈 포텐셜 함수는 상기 세그멘테이션의 결과로 분리된 두 영역간의 상호관련성을 고려하여 정의된 함수를 의미할 수 있고, 영역 추출부(130)는 서로 다른 두 화소의 밝기값이 유사할수록 거리가 가깝고 동일한 영역에 포함될 확률이 높다는 사실을 기반으로 상기 가중치 파라메터를 적용할 수 있다.In order to calculate the brightness histogram-based segmentation, the region extracting unit 130 may define a pairwise potential function and include the weight as a weighting parameter. Here, the fairness potential function may mean a function defined in consideration of mutual correlation between two regions separated as a result of the segmentation, and the region extracting unit 130 may extract a distance And the probability of being included in the same area is high, the weight parameter can be applied.

본 발명에 의해서는 시차맵을 이용하여 일차적으로 검출된 장애물체 영역별로 밝기기반의 세그멘테이션 기법을 적용하여 검출 성능을 향상시킬 수 있다.According to the present invention, detection performance can be improved by applying a brightness-based segmentation technique to each obstacle object region detected primarily by using a parallax map.

또한, 본 발명에 따르면, 각 화소에서 수직 외각 성분(에지)까지의 거리를 가중치로 사용함으로써, 세그멘테이션의 성능을 향상 시킬 수 있다.Further, according to the present invention, by using the distance from each pixel to the vertical outer component (edge) as a weight, the performance of segmentation can be improved.

또한, 본 발명에 의해서는, 지능형 자동차, 로봇, 보안, 의료 분야 등 다양한 분야의 장애물체 검출 및 세그멘테이션에 사용, 적용할 수 있다.Further, according to the present invention, the present invention can be applied to detection and segmentation of obstacles in various fields such as intelligent automobiles, robots, security, and medical fields.

도 2는 본 발명의 외곽선 가중치 기반 장애물 영역 검출 장치의 초기 영역 지정과 가중치 계산의 실행과정을 예시한 도면이다.2 is a diagram illustrating an initial region designation and an execution process of weight calculation of the outline-weighted obstacle region detecting apparatus according to the present invention.

본 발명에 따른 장애물 영역 검출 장치(100)는 두 개의 카메라로부터 획득된 두 영상에서 동일한 객체의 지점을 찾아 상기 두 지점의 시차를 계산하여 시차맵(210)을 생성한다.The obstacle area detecting apparatus 100 according to the present invention finds a point of the same object in two images obtained from two cameras and calculates a parallax of the two points to generate a parallax map 210. [

상기 두 영상이 상기 카메라의 위치에 따라, 좌 영상과 우 영상이 되는 경우, 장애물 영역 검출 장치(100)는 상기 좌 영상을 기준으로 하여 상기 좌 영상의 각 화소별로 상기 우 영상의 대응하는 화소를 찾고, 상기 대응되는 두 화소의 정합비용을 계산하여 최소의 비용을 가지는 화소에서의 시차를 계산할 수 있다. 또한, 장애물 영역 검출 장치(100)는 상기 시차 정보를 밝기값으로 상기 시차맵의 각 화소에 할당하여 거리정보를 나타낼 수 있다.When the two images are left and right according to the position of the camera, the obstacle region detecting apparatus 100 detects a corresponding pixel of the right image for each pixel of the left image on the basis of the left image And calculating the matching cost of the corresponding two pixels to calculate the parallax in the pixel having the minimum cost. In addition, the obstacle area detecting apparatus 100 may display distance information by assigning the parallax information to each pixel of the parallax map as a brightness value.

상기 시차맵을 생성함으로써, 장애물 영역 검출 장치(100)는 정합된 입체영상의 모든 화소를 순차적으로 탐색하면서 초기 영역(220)을 지정할 수 있다.By generating the parallax map, the obstacle region detecting apparatus 100 can designate the initial region 220 while sequentially searching all the pixels of the matched stereoscopic image.

상기 시차맵을 이용하여 초기 영역(220)을 지정하는 방법은, 예컨대 u/v-시차맵, 컬럼 검출 등 다양한 방법이 있을 수 있으며, 본 명세서는 그 각각에 대한 설명은 생략한다.The method of designating the initial region 220 using the parallax map may be various methods such as u / v-parallax map, column detection, etc., and a description thereof will be omitted herein.

다음으로, 장애물 영역 검출 장치(100)는 지정된 초기 영역(220)에서 객체(장애물체)의 수직 외곽 성분(외곽선, 수직 에지)을 검출한다(230). 예컨대, 차량과 같은 인공적인 장애물체의 수직 외곽 성분은 장애물체와 배경 또는 장애물체 간의 분리에 있어서 중요한 정보일 수 있다. 상기 수직 외곽 성분을 검출하기 위하여, 장애물 영역 검출 장치(100)는 소벨(sobel), 캐니(canny) 에지 검출 방법 등을 활용할 수 있다. 이들 수직 외곽 성분을 검출하는 방법 역시, 본 명세서 상에서는 그 구체적인 설명을 생략한다.Next, the obstacle area detecting apparatus 100 detects a vertical outer component (outline, vertical edge) of the object (obstacle) in the designated initial area 220 (230). For example, the vertical contour component of an artifact obstructed object, such as a vehicle, can be important information in the separation between the obstructed object and the background or obstructed object. In order to detect the vertical contour component, the obstacle region detecting apparatus 100 may utilize a sobel, canny edge detection method, or the like. A method of detecting these vertical outer components is also omitted in the present specification.

또한, 장애물 영역 검출 장치(100)는 수직 외곽 성분을 기반으로 거리변환을 수행할 수 있다(240). 거리변환은 많이 알려진 바와 같이 각 화소에서 수직 외곽 성분인 에지까지의 거리를 밝기값으로 나타낼 수 있다. 즉, 장애물 영역 검출 장치(100)는 표현된 밝기값을 통해, 특정 화소가 주변 에지에서 멀리 있는지, 가까이 있는지 알 수 있다. 이 정보는 향후 Conditional Random Filed(CRF) 기반 세그멘테이션시 중요한 정보로 사용될 수 있다.In addition, the obstacle area detecting apparatus 100 may perform distance conversion based on the vertical outer component (240). Distance transformation can be expressed as a brightness value of the distance from each pixel to the edge, which is a vertical outer component, as is well known. That is, the obstacle area detecting apparatus 100 can know, through the represented brightness value, whether or not a specific pixel is far or near the peripheral edge. This information can be used as important information in future Conditional Random Filed (CRF) based segmentation.

다음으로, 장애물 영역 검출 장치(100)는 지정된 초기 영역 별로 초기 세그멘테이션 결과를 얻기 위하여 밝기 히스토그램기반 세그멘테이션을 수행할 수 있다. 즉, 장애물 영역 검출 장치(100)는 지정된 초기 영역 별로 화소의 밝기(intensity) 히스토그램을 생성한 후, 히스토그램의 피크와 밸리를 검출한다.Next, the obstacle region detecting apparatus 100 may perform brightness histogram-based segmentation to obtain an initial segmentation result for each designated initial region. That is, the obstacle area detecting apparatus 100 generates an intensity histogram of a pixel for each designated initial region, and then detects a peak and a valley of the histogram.

다음으로, 장애물 영역 검출 장치(100)는 검출된 피크와 밸리를 기준으로 히스토그램을 나눌 수 있어, 대략적인 세그멘테이션을 가능하게 한다. 이 대략적인 세그멘테이션 결과를 이용하여 더욱 정밀하게 세그멘테이션하기 위하여, 장애물 영역 검출 장치(100)는 CRF기반의 세그멘테이션 기법을 적용할 수 있다.Next, the obstacle region detecting apparatus 100 can divide the histogram based on the detected peak and valley, thereby enabling rough segmentation. In order to more precisely segmentation using this approximate segmentation result, the obstacle area detecting apparatus 100 can apply a CRF-based segmentation technique.

일반적으로 CRF 기반 세그멘테이션은 수학식 1로 표현될 수 있다.Generally, the CRF-based segmentation can be expressed by Equation (1).

Figure 112012093301856-pat00001
Figure 112012093301856-pat00001

여기서, 세그멘테이션 하고자 하는 영상의 화소수를 n, 세그멘테이션 라벨의 개수를 c라고 가정하면, S={1, … , n}는 각 화소의 인덱스(index)를 나타내고,

Figure 112012093301856-pat00002
는 라벨(label)을 나타낸다. 또한, xi는 i번째 위치에서의 라벨
Figure 112012093301856-pat00003
중의 어느 하나의 값을 나타낼 수 있다.
Figure 112012093301856-pat00004
는 영상의 밝기 값들을 나타내는데, yi는 i번째 위치에서 화소의 밝기값을 나타낸다. Z는 파티션(partition) 함수, Ni는 i번째 화소의 주변값들(neighbours)을 나타내며,
Figure 112012093301856-pat00005
Figure 112012093301856-pat00006
는 CRF의 유너리 포텐셜(unary potential)과 페어와이즈 포텐셜(pariwise potential)을 각각 나타낸다. 유너리 포텐셜은, 수학식 2의 가우시안 라이크후드(gaussian likelihood)로 정의할 수 있다.Assuming that the number of pixels of an image to be segmented is n, and the number of segmentation labels is c, S = {1, ..., , n} denotes an index of each pixel,
Figure 112012093301856-pat00002
Indicates a label. Also, x i is the label at the ith position
Figure 112012093301856-pat00003
Can be expressed.
Figure 112012093301856-pat00004
Represents the brightness values of the image, and y i represents the brightness value of the pixel at the i-th position. Z represents a partition function, N i represents peripheral values (neighbors) of an i-th pixel,
Figure 112012093301856-pat00005
Wow
Figure 112012093301856-pat00006
Represents the unary potential and the pariwise potential of the CRF, respectively. The universe potential can be defined as a Gaussian likelihood of Equation (2).

Figure 112012093301856-pat00007
Figure 112012093301856-pat00007

여기서

Figure 112012093301856-pat00008
Figure 112012093301856-pat00009
는 i번째 위치에서 라벨 x의 밝기값 평균과 표준편차이다.here
Figure 112012093301856-pat00008
Wow
Figure 112012093301856-pat00009
Is the mean value and standard deviation of the brightness value of label x at the i-th position.

페어와이즈 포텐셜의 경우, 본 발명에서는 세그멘테이션 성능을 향상시키기 위하여 새로운 함수를 제안한다. 에지 정보는 세그멘테이션시 중요한 정보이며, 특히 차량과 같은 인공물의 경우 수직 외곽 성분은 인접한 차량 또는 배경과 분리할 수 있는 좋은 근거가 될 수 있다.In the case of the fair-wise potential, the present invention proposes a new function to improve the segmentation performance. Edge information is important information for segmentation, and in the case of artifacts such as vehicles, vertical contour elements can be a good basis for separating from adjacent vehicles or backgrounds.

따라서 본 발명의 장애물 영역 검출 장치(100)는 수직 외곽 성분인 에지 정보를 우선 모델(prior modle) 결합시켜 성능을 개선시킨, 수학식 3과 같은 새로운 페어와이즈 포텐셜 함수를 제안한다.Therefore, the obstacle area detecting apparatus 100 of the present invention proposes a new pairwise potential function as shown in Equation (3), which improves the performance by priorly combining the edge information, which is a vertical outer edge component.

Figure 112012093301856-pat00010
Figure 112012093301856-pat00010

여기서, Wij는 가중치 파라메터, Di(또는 Dj)는 거리변환의 정규화된 값이며, di(또는 dj)는 화소의 거리변환 값이다.

Figure 112012093301856-pat00011
는 클로네커(Kronecker) 델타함수이며, θ는 모델 파라메터이다. 또한,
Figure 112012093301856-pat00012
는 i번째 화소 주변값들(neighbours)의 밝기 표준편차를 나타내며,
Figure 112012093301856-pat00013
는 i와 j의 유클리디언(Euclidean) 거리값의 역수값이다.Here, W ij is a weight parameter, D i (or D j ) is a normalized value of the distance transformation, and d i (or d j ) is a distance conversion value of the pixel.
Figure 112012093301856-pat00011
Is the Kronecker delta function, and [theta] is the model parameter. Also,
Figure 112012093301856-pat00012
Represents the brightness standard deviation of the i-th pixel peripheral values (neighbors)
Figure 112012093301856-pat00013
Is the reciprocal of the Euclidean distance value of i and j.

상기 수학식 3의 우변의 첫 번째 부분은 일반화된 포트 모델(Potts model) 형태로서, 본 발명에서는 거리변환을 가중치로 사용하였다. 일반적으로, 수직 외곽 성분(에지)가 없는 영역에서는 현재의 픽셀이 이웃과 유사한 라벨을 가질 확률이 높고, 에지 부근에서는 그렇지 않을 확률이 높다. 즉, 에지에서 멀어질수록 그 픽셀 이웃화소의 라벨 정보가 중요하고, 에지에 가까울수록 라벨의 정보 보다는 그 라벨과 관계되어 있는 라벨의 전체적인 데이터 정보가 중요하다.The first part of the right side of Equation (3) is a generalized form of a potts model. In the present invention, the distance transformation is used as a weight. In general, there is a high probability that the current pixel will have a label similar to the neighbor in the area without the vertical outline component (edge), and the probability that it will not be near the edge is high. That is, as the distance from the edge increases, the label information of the pixel adjacent to the pixel is important, and the closer to the edge, the more important is the overall data information of the label related to the label rather than the information of the label.

따라서 본 발명의 장애물 영역 검출 장치(100)는 각 화소와 에지 간의 거리에 따라 가중치를 달리한다. 즉, 장애물 영역 검출 장치(100)는 에지에서 먼 화소에 대해 가중치를 높게 하여 주변 라벨 정보의 비중을 높이고, 반면 에지 부근의 화소에 대해 가중치를 낮게 하여 상대적으로 데이터의 비중을 높임으로써 성능을 향상시킬 수 있다.Therefore, the obstacle region detecting apparatus 100 of the present invention changes the weights according to the distance between each pixel and the edge. That is, the obstacle area detecting apparatus 100 increases the weight of the peripheral label information by increasing the weight for pixels far from the edge, while improving the performance by relatively weighting the data by reducing the weight for the pixels near the edge .

거리변환 값은, 정규화를 통해 그 값을 0에서 1이 되도록 하며, 두 화소의 평균값을 사용할 수 있다.The distance conversion value is normalized so that the value is 0 to 1, and the average value of the two pixels can be used.

상기 수학식 3의 우변의 두 번째 항목은, 두 라벨 간의 상호관련성을 고려할 때, 관련된 데이터를 사용하는 것으로써, 장애물 영역 검출 장치(100)는 두 화소의 밝기 차이값, 공간적인 거리정보를 이용할 수 있다. 즉, 장애물 영역 검출 장치(100)는 두 화소의 밝기값이 유사할수록, 또한 공간적인 거리가 가까울수록 두 화소가 동일한 라벨을 가질 확률을 높일 수 있다.The second item on the right side of Equation (3) uses related data when considering the correlation between the two labels, so that the obstacle region detecting apparatus 100 uses the brightness difference value and the spatial distance information of the two pixels . That is, the obstacle area detecting apparatus 100 can increase the probability that the two pixels have the same label as the brightness values of the two pixels are similar, and the closer the spatial distance is, the more the two pixels can have the same label.

도 3은 본 발명의 일 실시예에 따른 외곽선 가중치 기반 장애물 영역 검출 방법의 흐름도이다.3 is a flowchart of an outline weight based obstacle area detection method according to an embodiment of the present invention.

본 발명의 장애물 영역 검출 방법은, 앞서 설명한 장애물 영역 검출 장치(100)에 의해 구현될 수 있다.The obstacle region detecting method of the present invention can be implemented by the obstacle region detecting apparatus 100 described above.

우선, 장애물 영역 검출 장치(100)는 두 개의 카메라로부터 획득된 두 영상을 정합하는 과정에서 시차맵을 생성한다(310). 상기 시차맵은 상기 두 영상에 동일하게 존재하는 객체의 한 지점에 대한 시차를 계산하여 상기 객체의 거리정보를 화소의 밝기값으로 나타낸 영상을 의미할 수 있다. 상기 시차맵에서 객체가 없는 영역은, 거리가 멀수록 밝기값이 일정한 비율로 감소하고, 반면 객체가 있는 영역은, 상기 객체로 인해 밝기값이 증가할 수 있다.First, the obstacle region detecting apparatus 100 generates a parallax map in a process of matching two images obtained from two cameras (310). The parallax map may be an image that expresses the distance information of the object as a brightness value of the pixel by calculating a parallax with respect to one point of the object that exists in the two images. In the parallax map, as the distance increases, the brightness value decreases at a constant rate, whereas in the area where the object exists, the brightness value may increase due to the object.

또한, 장애물 영역 검출 장치(100)는 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정한다(320). 본 단계(320)는 객체가 점유한 입체영상의 일부를 초기 영역으로 결정하는 과정이다. 예컨대, 장애물 영역 검출 장치(100)는 상기 입체영상이 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것일 경우, 상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여 상기 초기 영역을 지정할 수 있다.In addition, the obstacle region detecting apparatus 100 designates an initial region by including at least an object in the stereoscopic image (320). In this step 320, a part of the stereoscopic image occupied by the object is determined as an initial region. For example, when the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object, the obstacle region detecting apparatus 100 separates the object and the background using the parallax map of the plurality of images The initial region can be designated.

다음으로, 장애물 영역 검출 장치(100)는 상기 초기 영역에 존재하는 객체의 수직 외곽 성분을 검출한다(330). 본 단계(330)는 수직 외곽 성분을 검출 함으로써, 상기 수직 외곽 성분을 기준으로 외부영역을 배경으로, 내부 영역을 장애물 영역으로 인식할 수 있게 하는 과정이다.Next, the obstacle area detecting apparatus 100 detects the vertical contour component of the object existing in the initial region (330). In this step 330, a vertical outer component is detected to allow the outer region to be recognized based on the vertical outer component and the inner region to be recognized as an obstacle region.

상기 수직 외곽 성분은 상기 초기 영역에서 밝기값이 높은 화소와 밝기값이 낮은 화소의 경계부분으로서, 장애물 영역 검출 장치(100)는 밝기값이 낮은 화소에서 높은 화소로, 또는 그 반대로 변하는 지점에 해당하는 화소를 표시할 수 있다. 수직 외관 성분의 연산에 있어서, 장애물 영역 검출 장치(100)는 상기 초기 영역에서 같은 열의 화소에 대해 상하에 해당하는 화소값을 분석하여 수직 방향의 수직 외곽 성분을 구할 수도 있다.The vertical perimeter component is a boundary portion between a pixel having a high brightness value and a pixel having a low brightness value in the initial region, and the obstacle region detecting apparatus 100 corresponds to a point changing from a pixel having a low brightness value to a pixel having a high brightness value, Can be displayed. In the calculation of the vertical appearance component, the obstacle area detecting apparatus 100 may analyze the pixel values corresponding to the pixels in the same row in the initial region to obtain the vertical outer component in the vertical direction.

또한, 장애물 영역 검출 장치(100)는 상기 수직 외곽 성분에 대해 거리 변환을 수행한다(340). 본 단계(340)는 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산하는 과정이다. 상기 거리 변환은 상기 초기 영역의 모든 픽셀 값에 대해 임의의 한 픽셀에서 가장 가까운 수직 외곽 성분까지의 거리를 상기 픽셀의 밝기값으로 변경하는 연산을 의미할 수 있다. 상기 초기 영역에서 찾아진 수직 외곽 성분과 각 픽셀과의 거리 중 가장 최소값을, 장애물 영역 검출 장치(100)는 상기 픽셀의 밝기값으로 결정할 수 있다.In addition, the obstacle area detecting apparatus 100 performs distance conversion on the vertical outer component (340). In this step 340, the distance is expressed as a brightness value, and the weight value is calculated by converting the brightness value. The distance conversion may mean an operation of changing the distance from any one pixel to the closest vertical outer component to the brightness value of the pixel with respect to all pixel values of the initial region. The obstacle region detecting apparatus 100 may determine the minimum value among the vertical contour component found in the initial region and the distance between each pixel as the brightness value of the pixel.

계속해서, 장애물 영역 검출 장치(100)는 상기 객체의 외곽선과 연관하여 가중치를 계산한다(350). 가중치는 객체의 외곽 성분을 고려하여, 지정된 초기 영역 내 임의 영역에서의 객체의 점유 확률을 수치로 보상한 것일 수 있다.Subsequently, the obstacle region detecting apparatus 100 calculates a weight in association with the outline of the object (350). The weight may be a value obtained by compensating an occupancy probability of an object in an arbitrary area within a designated initial area by numerical values, taking into consideration the outer component of the object.

또한, 장애물 영역 검출 장치(100)는 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기 히스토그램을 생성하여 히스토그램의 피크(peak)와 밸리(valley)를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리할 수 있다(360). 본 단계(360)에서 장애물 영역 검출 장치(100)는 상기 초기 영역에서 화소의 밝기값의 레벨(level)을 지정하여 각 레벨의 화소 개수가 얼마나 되는지 한눈에 파악할 수 있는 히스토그램을 생성하여 픽셀의 개수가 인접한 레벨보다 많은 상기 피크 부분과 인접한 레벨보다 적은 상기 밸리 부분을 찾아서 세그멘테이션 처리를 할 수 있다.In addition, the obstacle region detecting apparatus 100 may process segmentation based on brightness histograms, which generate a brightness histogram of pixels in the initial region and detect peaks and valleys of the histogram as a segmentation (360) . In step 360, the obstacle area detecting apparatus 100 designates a level of a brightness value of the pixel in the initial area, generates a histogram that can grasp the number of pixels of each level at a glance, Can be segmented by finding the valley portion that is less than the level adjacent to the peak portion that is greater than the adjacent level.

상기 밝기 히스토그램 기반 세그멘테이션을 연산하기 위해, 장애물 영역 검출 장치(100)는 페어와이즈 포텐셜(pairwise potential) 함수를 정의하여 상기 가중치를 가중치 파라메터로서 포함할 수 있다. 여기서, 상기 페어와이즈 포텐셜 함수는 상기 세그멘테이션의 결과로 분리된 두 영역간의 상호관련성을 고려하여 정의된 함수를 의미할 수 있고, 장애물 영역 검출 장치(100)는 서로 다른 두 화소의 밝기값이 유사할수록 거리가 가깝고 동일한 영역에 포함될 확률이 높다는 사실을 기반으로 상기 가중치 파라메터를 적용할 수 있다.In order to calculate the brightness histogram-based segmentation, the obstacle region detecting apparatus 100 may define a pairwise potential function and include the weight as a weight parameter. Here, the fairness potential function may mean a function defined in consideration of mutual correlation between two regions separated as a result of the segmentation, and the obstacle region detecting apparatus 100 may be configured such that the brightness values of two different pixels are similar to each other It is possible to apply the weight parameter based on the fact that the distance is close and the probability of being included in the same area is high.

또한, 장애물 영역 검출 장치(100)는 상기 초기 영역에 대해 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출한다(370). 본 단계(370)은 상기 거리 변환을 통해 변환된 초기 영역의 거리 정보를 가중치로 설정하여 상기 객체를 장애물 영역으로서, 정밀하게 검출하기 위해 세그멘테이션을 처리하는 과정일 수 있다.In addition, the obstacle area detecting apparatus 100 extracts an obstacle area occupied by the object from the initial area by applying the weight to the initial area in the segmentation process (370). The step 370 may be a process of processing the segmentation to precisely detect the object as an obstacle area by setting the distance information of the initial region converted through the distance conversion as a weight value.

상기 세그멘테이션은, 상기 초기 영역에서도 장애물이 아닌 영역이 여전히 존재하기 때문에 복수의 영역으로 나누어, 관심 대상이 되는 영역을 추출하는 것으로 정의될 수 있다. 상기 세그멘테이션의 일례로, 영역 추출부(130)는 상기 각 영역에 해당하는 화소의 밝기값을 동질의 특성을 갖게 하고 인접한 다른 영역에 해당하는 화소의 밝기값을 서로 상이한 특성을 갖도록 분리할 수 있다.The segmentation may be defined as extracting a region of interest by dividing the region into a plurality of regions because an area other than an obstacle still exists in the initial region. In one example of the segmentation, the region extracting unit 130 may divide the brightness values of the pixels corresponding to the respective regions so as to have homogeneous characteristics, and to have different brightness values of the pixels corresponding to the adjacent regions .

본 발명에 의해서는 시차맵을 이용하여 일차적으로 검출된 장애물체 영역별로 밝기기반의 세그멘테이션 기법을 적용하여 검출 성능을 향상시킬 수 있다.According to the present invention, detection performance can be improved by applying a brightness-based segmentation technique to each obstacle object region detected primarily by using a parallax map.

또한, 본 발명에 따르면, 각 화소에서 수직 외각 성분(에지)까지의 거리를 가중치로 사용함으로써, 세그멘테이션의 성능을 향상 시킬 수 있다.Further, according to the present invention, by using the distance from each pixel to the vertical outer component (edge) as a weight, the performance of segmentation can be improved.

또한, 본 발명에 의해서는, 지능형 자동차, 로봇, 보안, 의료 분야 등 다양한 분야의 장애물체 검출 및 세그멘테이션에 사용, 적용할 수 있다.Further, according to the present invention, the present invention can be applied to detection and segmentation of obstacles in various fields such as intelligent automobiles, robots, security, and medical fields.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

100 : 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치
110 : 초기 지정부 120 : 가중치 계산부
130 : 영역 추출부
100: Obstacle area detection device based on contour weighting in stereoscopic image
110: initial determination unit 120: weight calculation unit
130:

Claims (12)

입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 초기 지정부;
상기 객체에 대한 수직 외곽 성분을 검출하고, 상기 수직 외곽 성분과 각 화소와의 거리를 가중치로 계산하는 가중치 계산부; 및
상기 초기 영역에 대한 세그멘테이션(segmentation) 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 영역 추출부
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.
An initial specifying unit that specifies an initial region by including at least an object in a stereoscopic image;
A weight calculation unit for detecting vertical perimeter components of the object and calculating distances between the vertical perimeter components and each pixel as weights; And
An area extracting unit for extracting an obstacle area occupied by the object from the initial area by applying the weight to the initial area during segmentation processing of the initial area,
Wherein the obstacle region detection unit detects the obstacle region based on the weight of the obstacle.
제1항에 있어서,
상기 장애물 영역 검출 장치는,
복수의 화소 간의 밝기 차이값, 및 상기 복수의 화소 간의 공간적인 거리를 이용하여, 상기 복수의 화소가 갖는 라벨을 결정하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.
The method according to claim 1,
Wherein the obstacle area detecting device comprises:
Determining a label of the plurality of pixels by using a brightness difference value between the plurality of pixels and a spatial distance between the plurality of pixels
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
제1항에 있어서,
상기 가중치 계산부는,
상기 수직 외곽 성분에 대해 거리변환(distance transform)을 수행하여, 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.
The method according to claim 1,
The weight calculation unit may calculate,
A distance transform is performed on the vertical outer component, the distance is expressed as a brightness value, and the weight is calculated by converting the brightness value
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
제1항에 있어서,
상기 영역 추출부는,
상기 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기(intensity) 히스토그램을 생성하여 히스토그램의 피크와 밸리를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.
The method according to claim 1,
The region extracting unit may extract,
As the segmentation, a brightness histogram-based segmentation is generated that generates a brightness histogram of a pixel in the initial region and detects peaks and valleys of the histogram
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
제4항에 있어서,
상기 영역 추출부는,
상기 밝기 히스토그램 기반 세그멘테이션을 연산하는, 페어와이즈 포텐셜(pairwise potential) 함수에, 상기 가중치를 가중치 파라메터로서 포함하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.
5. The method of claim 4,
The region extracting unit may extract,
The brightness histogram-based segmentation is computed by adding a weighting function to a pairwise potential function that computes the brightness histogram-
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
제1항에 있어서,
상기 입체영상은, 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것이고,
상기 초기 지정부는,
상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여, 상기 초기 영역을 지정하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.
The method according to claim 1,
Wherein the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object,
Wherein,
The object and the background are separated using the parallax map of the plurality of images, and the initial region is specified
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 단계;
상기 객체에 대한 수직 외곽 성분을 검출하는 단계;
상기 수직 외곽 성분과 각 화소와의 거리를 가중치로 계산하는 단계; 및
상기 초기 영역에 대한 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.
Specifying an initial region by including at least an object in a stereoscopic image;
Detecting vertical perimeter components for the object;
Calculating a distance between the vertical contour component and each pixel as a weight value; And
Extracting an obstacle region occupied by the object from the initial region by applying the weight to the initial region in the segmentation process;
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
제7항에 있어서,
복수의 화소 간의 밝기 차이값 및 상기 복수의 화소 간의 공간적인 거리를 이용하여, 상기 복수의 화소가 갖는 라벨을 결정하는 단계
를 더 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.
8. The method of claim 7,
Determining a label of the plurality of pixels using a brightness difference value between the plurality of pixels and a spatial distance between the plurality of pixels;
And detecting the obstacle region based on the weight of the obstacle.
제7항에 있어서,
상기 계산하는 단계는,
상기 수직 외곽 성분에 대해 거리변환을 수행하여, 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.
8. The method of claim 7,
Wherein the calculating step comprises:
Performing distance conversion on the vertical outer component, expressing the distance as a brightness value, and calculating the weight by converting the brightness value
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
제7항에 있어서,
상기 영역을 추출하는 단계는,
상기 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기 히스토그램을 생성하여 히스토그램의 피크와 밸리를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.
8. The method of claim 7,
The step of extracting the region comprises:
Processing the brightness histogram-based segmentation to generate peak histograms and valleys of the histogram as the segmentation,
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
제10항에 있어서,
상기 밝기 히스토그램 기반 세그멘테이션을 처리하는 단계는,
상기 밝기 히스토그램 기반 세그멘테이션을 연산하는, 페어와이즈 포텐셜 함수에, 상기 가중치를 가중치 파라메터로서 포함하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.
11. The method of claim 10,
Processing the brightness histogram-based segmentation comprises:
Computing a brightness histogram-based segmentation, including a weighted potential function as a weighted potential function
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
제7항에 있어서,
상기 입체영상은, 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것이고,
상기 초기 영역을 지정하는 단계는,
상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여, 상기 초기 영역을 지정하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.
8. The method of claim 7,
Wherein the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object,
Wherein the step of specifying the initial region comprises:
Separating the object and the background using the parallax map of the plurality of images, and designating the initial region
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
KR1020120128284A 2012-11-13 2012-11-13 Obstacle detection device and method using boundary weighting KR101437228B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120128284A KR101437228B1 (en) 2012-11-13 2012-11-13 Obstacle detection device and method using boundary weighting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120128284A KR101437228B1 (en) 2012-11-13 2012-11-13 Obstacle detection device and method using boundary weighting

Publications (2)

Publication Number Publication Date
KR20140061101A KR20140061101A (en) 2014-05-21
KR101437228B1 true KR101437228B1 (en) 2014-09-02

Family

ID=50890239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120128284A KR101437228B1 (en) 2012-11-13 2012-11-13 Obstacle detection device and method using boundary weighting

Country Status (1)

Country Link
KR (1) KR101437228B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200080970A (en) * 2018-12-27 2020-07-07 포항공과대학교 산학협력단 Semantic segmentation method of 3D reconstructed model using incremental fusion of 2D semantic predictions

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101721655B1 (en) * 2015-12-28 2017-03-30 재단법인대구경북과학기술원 System and method for object detection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196359A (en) 2004-01-05 2005-07-21 Honda Motor Co Ltd Moving object detection apparatus, moving object detection method and moving object detection program
KR20110073924A (en) * 2009-12-24 2011-06-30 중앙대학교 산학협력단 Apparatus and method for detecting pedestrian using edge projections

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196359A (en) 2004-01-05 2005-07-21 Honda Motor Co Ltd Moving object detection apparatus, moving object detection method and moving object detection program
KR20110073924A (en) * 2009-12-24 2011-06-30 중앙대학교 산학협력단 Apparatus and method for detecting pedestrian using edge projections

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200080970A (en) * 2018-12-27 2020-07-07 포항공과대학교 산학협력단 Semantic segmentation method of 3D reconstructed model using incremental fusion of 2D semantic predictions
KR102169243B1 (en) * 2018-12-27 2020-10-23 포항공과대학교 산학협력단 Semantic segmentation method of 3D reconstructed model using incremental fusion of 2D semantic predictions

Also Published As

Publication number Publication date
KR20140061101A (en) 2014-05-21

Similar Documents

Publication Publication Date Title
EP3338248B1 (en) Systems and methods for object tracking
Wu et al. Lane-mark extraction for automobiles under complex conditions
US7729512B2 (en) Stereo image processing to detect moving objects
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
KR101455835B1 (en) Lane Recognition and Tracking System Using Images, And Method For Recognition And Tracking Lane Using The Same
US9443137B2 (en) Apparatus and method for detecting body parts
WO2017048383A1 (en) Systems and methods for non-obstacle area detection
KR20200060194A (en) Method of predicting depth values of lines, method of outputting 3d lines and apparatus thereof
CN107944403B (en) Method and device for detecting pedestrian attribute in image
US9280703B2 (en) Apparatus and method for tracking hand
US10013618B2 (en) Method and apparatus for detecting side of object using ground boundary information of obstacle
US20130329945A1 (en) Self-adaptive image-based obstacle detection method
KR102359083B1 (en) Device for detecting moving object and method thereof
CN112825192A (en) Object identification system and method based on machine learning
WO2016059643A1 (en) System and method for pedestrian detection
CN117058646A (en) Complex road target detection method based on multi-mode fusion aerial view
KR20170137273A (en) Apparatus and Method for Pedestrian Detection using Deformable Part Model
KR101437228B1 (en) Obstacle detection device and method using boundary weighting
JP2014048702A (en) Image recognition device, image recognition method, and image recognition program
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program
CN106446832B (en) Video-based pedestrian real-time detection method
KR101931220B1 (en) Apparatus and Method for Body Components Detection
KR20220073444A (en) Method and apparatus for tracking object and terminal for performing the method
US11475233B2 (en) Image processing device and image processing method
KR101847175B1 (en) Method for object recognition and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170628

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190701

Year of fee payment: 6