KR101437228B1 - Obstacle detection device and method using boundary weighting - Google Patents
Obstacle detection device and method using boundary weighting Download PDFInfo
- Publication number
- KR101437228B1 KR101437228B1 KR1020120128284A KR20120128284A KR101437228B1 KR 101437228 B1 KR101437228 B1 KR 101437228B1 KR 1020120128284 A KR1020120128284 A KR 1020120128284A KR 20120128284 A KR20120128284 A KR 20120128284A KR 101437228 B1 KR101437228 B1 KR 101437228B1
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- weight
- region
- stereoscopic image
- initial
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
시차맵의 검출결과에 외곽선 가중치 기반 세그멘테이션 기법을 적용하여 정밀하게 장애물체를 검출하는 장치 및 방법이 개시된다. 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치는, 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 초기 지정부와, 상기 객체의 외곽선과 연관하여 가중치를 계산하는 가중치 계산부, 및 상기 초기 영역에 대한 세그멘테이션(segmentation) 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 영역 추출부를 포함할 수 있다.An apparatus and method for precisely detecting an obstacle by applying an outline weight-based segmentation technique to detection results of a parallax map are disclosed. An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image includes an initial specification unit that specifies an initial area including at least an object in a stereoscopic image, a weight calculation unit that calculates a weight in association with an outline of the object, And an area extracting unit for extracting an obstacle area occupied by the object from the initial area by applying the weight to the segment area.
Description
본 발명의 실시예는 외곽선 가중치 기반 정밀한 장애물체 검출할 수 있는 기술에 관한 것이다.An embodiment of the present invention relates to a technique capable of detecting a precise obstacle based on an outline weight.
영상기반의 장애물체 검출은, 지능형 자동차, 로봇, 의료 산업 등 다양한 분야에 있어서 상당히 중요한 기술로 부상하고 있다. 최근에는, 장애물체 검출의 성능을 향상시키기 위하여, 스테레오 비전을 이용한 방법을 많이 사용하고 있다. 이러한 방법은 시차맵을 사용하여, 장애물체와 배경과의 분리도를 향상시킬 수 있어, 장애물체를 강건하게 검출 할 수 있다.Image-based detection of obstacle objects is emerging as an important technology in various fields such as intelligent automobile, robot, and medical industry. Recently, in order to improve the performance of detecting an obstacle, a method using stereo vision is widely used. This method can improve the degree of separation between the obstacle and the background using the parallax map, so that the obstacle can be robustly detected.
그러나 시차맵 또한 그 특성상 여러 가지 문제점, 예컨대 시차맵의 해상도 저하, 노이즈 증가 등으로 인하여 시차맵 만을 사용하여 장애물체를 검출할 경우, 정밀한 장애물체의 검출은 어렵게 될 수 있다.However, when the obstacle is detected using only the parallax map due to various characteristics of the parallax map, for example, resolution degradation of the parallax map, noise increase, etc., it may be difficult to accurately detect the obstacle.
예를 들어, 시차맵 만을 이용하여 장애물체를 검출할 때에는, 입력 그레이 영상을 이용하여 3차원 정보인 시차맵을 생성하고, 이 시차맵을 이용하여 장애물체를 검출 함에 따라, 원거리나 크기 작은 장애물체가 배경으로 취급되어 검출되지 않는 등의 문제점을 내재하고 있다.For example, when an obstacle is detected using only the parallax map, a parallax map, which is three-dimensional information, is generated by using the input gray image, and an obstacle is detected using the parallax map, The object is handled as a background and is not detected.
즉, 종래 시차맵 만을 이용한 장애물체의 검출법은, 장애물체가 배경과 근접할 경우 시차맵의 한계성으로 인하여 장애물체와 배경이 함께 검출되는 오류가 있다.That is, in the detection method of an obstacle using only the conventional parallax map, when the obstacle is close to the background, there is an error that the obstacle and the background are detected together due to the limitation of the parallax map.
또한, 원거리의 장애물체의 경우, 시차맵의 해상도, 노이즈 등으로 인하여 다수의 장애물체가 하나의 장애물체로 검출 될 수도 있다.Further, in the case of a distant obstacle, a plurality of obstacles may be detected as one obstacle due to the resolution, noise, and the like of the parallax map.
따라서 시차맵 이외의 검출 정보를 활용하여 장애물체를 정밀하게 검출하는 모델이 절실히 요구된다.Therefore, there is a desperate need for a model that precisely detects obstacle objects using detection information other than the parallax map.
본 발명의 실시예는 시차맵의 검출결과에 외곽선 가중치 기반 세그멘테이션 기법을 적용하여 정밀하게 장애물체를 검출하는 것을 목적으로 한다.An embodiment of the present invention aims to precisely detect an obstacle by applying an outline weight-based segmentation technique to detection results of a parallax map.
본 발명의 실시예에 따른, 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치는, 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 초기 지정부와, 상기 객체의 외곽선과 연관하여 가중치를 계산하는 가중치 계산부, 및 상기 초기 영역에 대한 세그멘테이션(segmentation) 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 영역 추출부를 포함할 수 있다.An apparatus for detecting an obstacle region based on an outline weight in a stereoscopic image according to an exemplary embodiment of the present invention includes an initial specification unit that specifies an initial region including at least an object in a stereoscopic image, And a region extracting unit for extracting an obstacle region occupied by the object from the initial region by applying the weight to the initial region in a segmentation process of the initial region.
본 발명의 실시예에 따른, 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법은, 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정하는 단계, 상기 객체의 외곽선과 연관하여 가중치를 계산하는 단계, 및 상기 초기 영역에 대한 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 단계를 포함할 수 있다.The method of detecting an obstacle area based on an outline weight in a stereoscopic image according to an embodiment of the present invention includes the steps of specifying an initial area including at least an object in a stereoscopic image, calculating a weight in association with an outline of the object, And extracting an obstacle region occupied by the object from the initial region by applying the weight to the initial region in the segmentation process.
본 발명에 의해서는 시차맵을 이용하여 일차적으로 검출된 장애물체 영역별로 밝기기반의 세그멘테이션 기법을 적용하여 검출 성능을 향상시킬 수 있다.According to the present invention, detection performance can be improved by applying a brightness-based segmentation technique to each obstacle object region detected primarily by using a parallax map.
또한, 본 발명에 따르면, 각 화소에서 수직 외각 성분(에지)까지의 거리를 가중치로 사용함으로써, 세그멘테이션의 성능을 향상 시킬 수 있다.Further, according to the present invention, by using the distance from each pixel to the vertical outer component (edge) as a weight, the performance of segmentation can be improved.
또한, 본 발명에 의해서는, 지능형 자동차, 로봇, 보안, 의료 분야 등 다양한 분야의 장애물체 검출 및 세그멘테이션에 사용, 적용할 수 있다.Further, according to the present invention, the present invention can be applied to detection and segmentation of obstacles in various fields such as intelligent automobiles, robots, security, and medical fields.
도 1은 본 발명에 따른 외곽선 가중치 기반 장애물 영역 검출 장치의 구성을 예시한 도면이다.
도 2는 본 발명의 외곽선 가중치 기반 장애물 영역 검출 장치의 초기 영역 지정과 가중치 계산의 실행과정을 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 외곽선 가중치 기반 장애물 영역 검출 방법의 흐름도이다.1 is a diagram illustrating a configuration of an outline-weighted obstacle region detecting apparatus according to the present invention.
2 is a diagram illustrating an initial region designation and an execution process of weight calculation of the outline-weighted obstacle region detecting apparatus according to the present invention.
3 is a flowchart of an outline weight based obstacle area detection method according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 일실시예에 따른, 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치 및 방법에 대해 상세히 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, an apparatus and method for detecting an obstacle region based on an outline weight in a stereoscopic image according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.
도 1은 본 발명에 따른 외곽선 가중치 기반 장애물 영역 검출 장치의 구성을 예시한 도면이다. 1 is a diagram illustrating a configuration of an outline-weighted obstacle region detecting apparatus according to the present invention.
장애물 영역 검출 장치(100)는 인간의 두 눈으로 실제 공간에 존재하는 장애물을 인식하는 것과 동일한 효과를 얻기 위해 입체영상을 이용할 수 있다. 상기 입체영상은 두 개의 카메라 렌즈를 통해 같은 장면의 두 영상을 촬영하고, 상기 두 영상을 정합하여 생성할 수 있다. 상기 입체영상은, 예컨대 각 화소가 0부터 255까지 범위의 밝기값 정보를 전달하여 장애물 영역을 명암 차이로 구분할 수 있는 흑백영상이 될 수 있다.The obstacle
본 발명의 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치(100)는 초기 지정부(110), 가중치 계산부(120), 및 영역 추출부(130)를 포함하여 구성할 수 있다.The
초기 지정부(110)는 상기 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정할 수 있다. 즉, 초기 지정부(110)는 객체가 점유한 입체영상의 일부를 상기 초기 영역으로 결정하는 역할을 한다.The
초기 영역의 지정 일례로서, 상기 입체영상이 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것일 경우, 초기 지정부(110)는 상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여 상기 초기 영역을 지정할 수 있다.As an example of designating the initial region, when the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object, the
예컨대, 초기 지정부(110)는 두 개의 카메라로부터 획득된 두 영상을 정합하는 과정에서 시차맵을 생성할 수 있다. 상기 시차맵은 상기 두 영상에 동일하게 존재하는 객체의 한 지점에 대한 시차를 계산하여 상기 객체의 거리정보를 화소의 밝기값으로 나타낸 영상을 의미할 수 있다. 상기 시차맵에서 객체가 없는 영역은, 거리가 멀수록 밝기값이 일정한 비율로 감소하고, 반면 객체가 있는 영역은, 상기 객체로 인해 밝기값이 증가할 수 있다. 상기와 같은 현상을 이용하여, 초기 지정부(110)는 객체가 존재하는 초기 영역을 검출할 수 있다.For example, the
가중치 계산부(120)는 상기 객체의 외곽선과 연관하여 가중치를 계산할 수 있다. 가중치는 객체의 외곽 성분을 고려하여, 지정된 초기 영역 내 임의 영역에서의 객체의 점유 확률을 수치로 보상한 것일 수 있다.The
가중치 계산에 있어서, 가중치 계산부(120)는 상기 초기 영역에 존재하는 객체의 수직 외곽 성분을 검출하여, 상기 수직 외곽 성분을 기준으로 외부영역을 배경으로, 내부 영역을 장애물 영역으로 인식할 수 있다. 상기 수직 외곽 성분은 상기 초기 영역에서 밝기값이 높은 화소와 밝기값이 낮은 화소의 경계부분으로서, 가중치 계산부(120)는 밝기값이 낮은 화소에서 높은 화소로, 또는 그 반대로 변하는 지점에 해당하는 화소를 표시할 수 있다. 또한, 가중치 계산부(120)는 상기 초기 영역에서 같은 열의 화소에 대해 상하에 해당하는 화소값을 분석하여 수직 방향의 수직 외곽 성분을 구할 수 있다.In calculating the weight, the
또한, 가중치 계산부(120)는 상기 수직 외곽 성분에 대해 거리 변환(distance transform)을 수행하여, 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산할 수 있다. 상기 거리 변환은 상기 초기 영역의 모든 픽셀 값에 대해 임의의 한 픽셀에서 가장 가까운 수직 외곽 성분까지의 거리를 상기 픽셀의 밝기값으로 변경하는 연산을 의미할 수 있다. 상기 초기 영역에서 찾아진 수직 외곽 성분과 각 픽셀과의 거리 중 가장 최소값을, 가중치 계산부(120)는 상기 픽셀의 밝기값으로 결정할 수 있다.In addition, the
영역 추출부(130)는 상기 초기 영역에 대해 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출한다. 즉, 영역 추출부(130)는 상기 거리 변환을 통해 변환된 초기 영역의 거리 정보를 가중치로 설정하여 상기 객체를 장애물 영역으로서, 정밀하게 검출하기 위해 세그멘테이션을 처리하는 역할을 한다.The
상기 세그멘테이션은, 상기 초기 영역에서도 장애물이 아닌 영역이 여전히 존재하기 때문에 복수의 영역으로 나누어, 관심 대상이 되는 영역을 추출하는 것으로 정의될 수 있다. 상기 세그멘테이션의 일례로, 영역 추출부(130)는 상기 각 영역에 해당하는 화소의 밝기값을 동질의 특성을 갖게 하고 인접한 다른 영역에 해당하는 화소의 밝기값을 서로 상이한 특성을 갖도록 분리할 수 있다.The segmentation may be defined as extracting a region of interest by dividing the region into a plurality of regions because an area other than an obstacle still exists in the initial region. In one example of the segmentation, the
또한, 영역 추출부(130)는, 상기 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기 히스토그램을 생성하여 히스토그램의 피크(peak)와 밸리(valley)를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리할 수 있다. 즉, 영역 추출부(130)는 상기 초기 영역에서 화소의 밝기값의 레벨(level)을 지정하여 각 레벨의 화소 개수가 얼마나 되는지 한눈에 파악할 수 있는 히스토그램을 생성하여 픽셀의 개수가 인접한 레벨보다 많은 상기 피크 부분과 인접한 레벨보다 적은 상기 밸리 부분을 찾아서 세그멘테이션 처리를 할 수 있다.In addition, the
상기 밝기 히스토그램 기반 세그멘테이션을 연산하기 위해, 영역 추출부(130)는 페어와이즈 포텐셜(pairwise potential) 함수를 정의하여 상기 가중치를 가중치 파라메터로서 포함할 수 있다. 여기서, 상기 페어와이즈 포텐셜 함수는 상기 세그멘테이션의 결과로 분리된 두 영역간의 상호관련성을 고려하여 정의된 함수를 의미할 수 있고, 영역 추출부(130)는 서로 다른 두 화소의 밝기값이 유사할수록 거리가 가깝고 동일한 영역에 포함될 확률이 높다는 사실을 기반으로 상기 가중치 파라메터를 적용할 수 있다.In order to calculate the brightness histogram-based segmentation, the
본 발명에 의해서는 시차맵을 이용하여 일차적으로 검출된 장애물체 영역별로 밝기기반의 세그멘테이션 기법을 적용하여 검출 성능을 향상시킬 수 있다.According to the present invention, detection performance can be improved by applying a brightness-based segmentation technique to each obstacle object region detected primarily by using a parallax map.
또한, 본 발명에 따르면, 각 화소에서 수직 외각 성분(에지)까지의 거리를 가중치로 사용함으로써, 세그멘테이션의 성능을 향상 시킬 수 있다.Further, according to the present invention, by using the distance from each pixel to the vertical outer component (edge) as a weight, the performance of segmentation can be improved.
또한, 본 발명에 의해서는, 지능형 자동차, 로봇, 보안, 의료 분야 등 다양한 분야의 장애물체 검출 및 세그멘테이션에 사용, 적용할 수 있다.Further, according to the present invention, the present invention can be applied to detection and segmentation of obstacles in various fields such as intelligent automobiles, robots, security, and medical fields.
도 2는 본 발명의 외곽선 가중치 기반 장애물 영역 검출 장치의 초기 영역 지정과 가중치 계산의 실행과정을 예시한 도면이다.2 is a diagram illustrating an initial region designation and an execution process of weight calculation of the outline-weighted obstacle region detecting apparatus according to the present invention.
본 발명에 따른 장애물 영역 검출 장치(100)는 두 개의 카메라로부터 획득된 두 영상에서 동일한 객체의 지점을 찾아 상기 두 지점의 시차를 계산하여 시차맵(210)을 생성한다.The obstacle
상기 두 영상이 상기 카메라의 위치에 따라, 좌 영상과 우 영상이 되는 경우, 장애물 영역 검출 장치(100)는 상기 좌 영상을 기준으로 하여 상기 좌 영상의 각 화소별로 상기 우 영상의 대응하는 화소를 찾고, 상기 대응되는 두 화소의 정합비용을 계산하여 최소의 비용을 가지는 화소에서의 시차를 계산할 수 있다. 또한, 장애물 영역 검출 장치(100)는 상기 시차 정보를 밝기값으로 상기 시차맵의 각 화소에 할당하여 거리정보를 나타낼 수 있다.When the two images are left and right according to the position of the camera, the obstacle
상기 시차맵을 생성함으로써, 장애물 영역 검출 장치(100)는 정합된 입체영상의 모든 화소를 순차적으로 탐색하면서 초기 영역(220)을 지정할 수 있다.By generating the parallax map, the obstacle
상기 시차맵을 이용하여 초기 영역(220)을 지정하는 방법은, 예컨대 u/v-시차맵, 컬럼 검출 등 다양한 방법이 있을 수 있으며, 본 명세서는 그 각각에 대한 설명은 생략한다.The method of designating the
다음으로, 장애물 영역 검출 장치(100)는 지정된 초기 영역(220)에서 객체(장애물체)의 수직 외곽 성분(외곽선, 수직 에지)을 검출한다(230). 예컨대, 차량과 같은 인공적인 장애물체의 수직 외곽 성분은 장애물체와 배경 또는 장애물체 간의 분리에 있어서 중요한 정보일 수 있다. 상기 수직 외곽 성분을 검출하기 위하여, 장애물 영역 검출 장치(100)는 소벨(sobel), 캐니(canny) 에지 검출 방법 등을 활용할 수 있다. 이들 수직 외곽 성분을 검출하는 방법 역시, 본 명세서 상에서는 그 구체적인 설명을 생략한다.Next, the obstacle
또한, 장애물 영역 검출 장치(100)는 수직 외곽 성분을 기반으로 거리변환을 수행할 수 있다(240). 거리변환은 많이 알려진 바와 같이 각 화소에서 수직 외곽 성분인 에지까지의 거리를 밝기값으로 나타낼 수 있다. 즉, 장애물 영역 검출 장치(100)는 표현된 밝기값을 통해, 특정 화소가 주변 에지에서 멀리 있는지, 가까이 있는지 알 수 있다. 이 정보는 향후 Conditional Random Filed(CRF) 기반 세그멘테이션시 중요한 정보로 사용될 수 있다.In addition, the obstacle
다음으로, 장애물 영역 검출 장치(100)는 지정된 초기 영역 별로 초기 세그멘테이션 결과를 얻기 위하여 밝기 히스토그램기반 세그멘테이션을 수행할 수 있다. 즉, 장애물 영역 검출 장치(100)는 지정된 초기 영역 별로 화소의 밝기(intensity) 히스토그램을 생성한 후, 히스토그램의 피크와 밸리를 검출한다.Next, the obstacle
다음으로, 장애물 영역 검출 장치(100)는 검출된 피크와 밸리를 기준으로 히스토그램을 나눌 수 있어, 대략적인 세그멘테이션을 가능하게 한다. 이 대략적인 세그멘테이션 결과를 이용하여 더욱 정밀하게 세그멘테이션하기 위하여, 장애물 영역 검출 장치(100)는 CRF기반의 세그멘테이션 기법을 적용할 수 있다.Next, the obstacle
일반적으로 CRF 기반 세그멘테이션은 수학식 1로 표현될 수 있다.Generally, the CRF-based segmentation can be expressed by Equation (1).
여기서, 세그멘테이션 하고자 하는 영상의 화소수를 n, 세그멘테이션 라벨의 개수를 c라고 가정하면, S={1, … , n}는 각 화소의 인덱스(index)를 나타내고, 는 라벨(label)을 나타낸다. 또한, xi는 i번째 위치에서의 라벨 중의 어느 하나의 값을 나타낼 수 있다. 는 영상의 밝기 값들을 나타내는데, yi는 i번째 위치에서 화소의 밝기값을 나타낸다. Z는 파티션(partition) 함수, Ni는 i번째 화소의 주변값들(neighbours)을 나타내며, 와 는 CRF의 유너리 포텐셜(unary potential)과 페어와이즈 포텐셜(pariwise potential)을 각각 나타낸다. 유너리 포텐셜은, 수학식 2의 가우시안 라이크후드(gaussian likelihood)로 정의할 수 있다.Assuming that the number of pixels of an image to be segmented is n, and the number of segmentation labels is c, S = {1, ..., , n} denotes an index of each pixel, Indicates a label. Also, x i is the label at the ith position Can be expressed. Represents the brightness values of the image, and y i represents the brightness value of the pixel at the i-th position. Z represents a partition function, N i represents peripheral values (neighbors) of an i-th pixel, Wow Represents the unary potential and the pariwise potential of the CRF, respectively. The universe potential can be defined as a Gaussian likelihood of Equation (2).
여기서 와 는 i번째 위치에서 라벨 x의 밝기값 평균과 표준편차이다.here Wow Is the mean value and standard deviation of the brightness value of label x at the i-th position.
페어와이즈 포텐셜의 경우, 본 발명에서는 세그멘테이션 성능을 향상시키기 위하여 새로운 함수를 제안한다. 에지 정보는 세그멘테이션시 중요한 정보이며, 특히 차량과 같은 인공물의 경우 수직 외곽 성분은 인접한 차량 또는 배경과 분리할 수 있는 좋은 근거가 될 수 있다.In the case of the fair-wise potential, the present invention proposes a new function to improve the segmentation performance. Edge information is important information for segmentation, and in the case of artifacts such as vehicles, vertical contour elements can be a good basis for separating from adjacent vehicles or backgrounds.
따라서 본 발명의 장애물 영역 검출 장치(100)는 수직 외곽 성분인 에지 정보를 우선 모델(prior modle) 결합시켜 성능을 개선시킨, 수학식 3과 같은 새로운 페어와이즈 포텐셜 함수를 제안한다.Therefore, the obstacle
여기서, Wij는 가중치 파라메터, Di(또는 Dj)는 거리변환의 정규화된 값이며, di(또는 dj)는 화소의 거리변환 값이다. 는 클로네커(Kronecker) 델타함수이며, θ는 모델 파라메터이다. 또한, 는 i번째 화소 주변값들(neighbours)의 밝기 표준편차를 나타내며, 는 i와 j의 유클리디언(Euclidean) 거리값의 역수값이다.Here, W ij is a weight parameter, D i (or D j ) is a normalized value of the distance transformation, and d i (or d j ) is a distance conversion value of the pixel. Is the Kronecker delta function, and [theta] is the model parameter. Also, Represents the brightness standard deviation of the i-th pixel peripheral values (neighbors) Is the reciprocal of the Euclidean distance value of i and j.
상기 수학식 3의 우변의 첫 번째 부분은 일반화된 포트 모델(Potts model) 형태로서, 본 발명에서는 거리변환을 가중치로 사용하였다. 일반적으로, 수직 외곽 성분(에지)가 없는 영역에서는 현재의 픽셀이 이웃과 유사한 라벨을 가질 확률이 높고, 에지 부근에서는 그렇지 않을 확률이 높다. 즉, 에지에서 멀어질수록 그 픽셀 이웃화소의 라벨 정보가 중요하고, 에지에 가까울수록 라벨의 정보 보다는 그 라벨과 관계되어 있는 라벨의 전체적인 데이터 정보가 중요하다.The first part of the right side of Equation (3) is a generalized form of a potts model. In the present invention, the distance transformation is used as a weight. In general, there is a high probability that the current pixel will have a label similar to the neighbor in the area without the vertical outline component (edge), and the probability that it will not be near the edge is high. That is, as the distance from the edge increases, the label information of the pixel adjacent to the pixel is important, and the closer to the edge, the more important is the overall data information of the label related to the label rather than the information of the label.
따라서 본 발명의 장애물 영역 검출 장치(100)는 각 화소와 에지 간의 거리에 따라 가중치를 달리한다. 즉, 장애물 영역 검출 장치(100)는 에지에서 먼 화소에 대해 가중치를 높게 하여 주변 라벨 정보의 비중을 높이고, 반면 에지 부근의 화소에 대해 가중치를 낮게 하여 상대적으로 데이터의 비중을 높임으로써 성능을 향상시킬 수 있다.Therefore, the obstacle
거리변환 값은, 정규화를 통해 그 값을 0에서 1이 되도록 하며, 두 화소의 평균값을 사용할 수 있다.The distance conversion value is normalized so that the value is 0 to 1, and the average value of the two pixels can be used.
상기 수학식 3의 우변의 두 번째 항목은, 두 라벨 간의 상호관련성을 고려할 때, 관련된 데이터를 사용하는 것으로써, 장애물 영역 검출 장치(100)는 두 화소의 밝기 차이값, 공간적인 거리정보를 이용할 수 있다. 즉, 장애물 영역 검출 장치(100)는 두 화소의 밝기값이 유사할수록, 또한 공간적인 거리가 가까울수록 두 화소가 동일한 라벨을 가질 확률을 높일 수 있다.The second item on the right side of Equation (3) uses related data when considering the correlation between the two labels, so that the obstacle
도 3은 본 발명의 일 실시예에 따른 외곽선 가중치 기반 장애물 영역 검출 방법의 흐름도이다.3 is a flowchart of an outline weight based obstacle area detection method according to an embodiment of the present invention.
본 발명의 장애물 영역 검출 방법은, 앞서 설명한 장애물 영역 검출 장치(100)에 의해 구현될 수 있다.The obstacle region detecting method of the present invention can be implemented by the obstacle
우선, 장애물 영역 검출 장치(100)는 두 개의 카메라로부터 획득된 두 영상을 정합하는 과정에서 시차맵을 생성한다(310). 상기 시차맵은 상기 두 영상에 동일하게 존재하는 객체의 한 지점에 대한 시차를 계산하여 상기 객체의 거리정보를 화소의 밝기값으로 나타낸 영상을 의미할 수 있다. 상기 시차맵에서 객체가 없는 영역은, 거리가 멀수록 밝기값이 일정한 비율로 감소하고, 반면 객체가 있는 영역은, 상기 객체로 인해 밝기값이 증가할 수 있다.First, the obstacle
또한, 장애물 영역 검출 장치(100)는 입체영상 내 객체를 적어도 포함하여 초기 영역을 지정한다(320). 본 단계(320)는 객체가 점유한 입체영상의 일부를 초기 영역으로 결정하는 과정이다. 예컨대, 장애물 영역 검출 장치(100)는 상기 입체영상이 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것일 경우, 상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여 상기 초기 영역을 지정할 수 있다.In addition, the obstacle
다음으로, 장애물 영역 검출 장치(100)는 상기 초기 영역에 존재하는 객체의 수직 외곽 성분을 검출한다(330). 본 단계(330)는 수직 외곽 성분을 검출 함으로써, 상기 수직 외곽 성분을 기준으로 외부영역을 배경으로, 내부 영역을 장애물 영역으로 인식할 수 있게 하는 과정이다.Next, the obstacle
상기 수직 외곽 성분은 상기 초기 영역에서 밝기값이 높은 화소와 밝기값이 낮은 화소의 경계부분으로서, 장애물 영역 검출 장치(100)는 밝기값이 낮은 화소에서 높은 화소로, 또는 그 반대로 변하는 지점에 해당하는 화소를 표시할 수 있다. 수직 외관 성분의 연산에 있어서, 장애물 영역 검출 장치(100)는 상기 초기 영역에서 같은 열의 화소에 대해 상하에 해당하는 화소값을 분석하여 수직 방향의 수직 외곽 성분을 구할 수도 있다.The vertical perimeter component is a boundary portion between a pixel having a high brightness value and a pixel having a low brightness value in the initial region, and the obstacle
또한, 장애물 영역 검출 장치(100)는 상기 수직 외곽 성분에 대해 거리 변환을 수행한다(340). 본 단계(340)는 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산하는 과정이다. 상기 거리 변환은 상기 초기 영역의 모든 픽셀 값에 대해 임의의 한 픽셀에서 가장 가까운 수직 외곽 성분까지의 거리를 상기 픽셀의 밝기값으로 변경하는 연산을 의미할 수 있다. 상기 초기 영역에서 찾아진 수직 외곽 성분과 각 픽셀과의 거리 중 가장 최소값을, 장애물 영역 검출 장치(100)는 상기 픽셀의 밝기값으로 결정할 수 있다.In addition, the obstacle
계속해서, 장애물 영역 검출 장치(100)는 상기 객체의 외곽선과 연관하여 가중치를 계산한다(350). 가중치는 객체의 외곽 성분을 고려하여, 지정된 초기 영역 내 임의 영역에서의 객체의 점유 확률을 수치로 보상한 것일 수 있다.Subsequently, the obstacle
또한, 장애물 영역 검출 장치(100)는 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기 히스토그램을 생성하여 히스토그램의 피크(peak)와 밸리(valley)를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리할 수 있다(360). 본 단계(360)에서 장애물 영역 검출 장치(100)는 상기 초기 영역에서 화소의 밝기값의 레벨(level)을 지정하여 각 레벨의 화소 개수가 얼마나 되는지 한눈에 파악할 수 있는 히스토그램을 생성하여 픽셀의 개수가 인접한 레벨보다 많은 상기 피크 부분과 인접한 레벨보다 적은 상기 밸리 부분을 찾아서 세그멘테이션 처리를 할 수 있다.In addition, the obstacle
상기 밝기 히스토그램 기반 세그멘테이션을 연산하기 위해, 장애물 영역 검출 장치(100)는 페어와이즈 포텐셜(pairwise potential) 함수를 정의하여 상기 가중치를 가중치 파라메터로서 포함할 수 있다. 여기서, 상기 페어와이즈 포텐셜 함수는 상기 세그멘테이션의 결과로 분리된 두 영역간의 상호관련성을 고려하여 정의된 함수를 의미할 수 있고, 장애물 영역 검출 장치(100)는 서로 다른 두 화소의 밝기값이 유사할수록 거리가 가깝고 동일한 영역에 포함될 확률이 높다는 사실을 기반으로 상기 가중치 파라메터를 적용할 수 있다.In order to calculate the brightness histogram-based segmentation, the obstacle
또한, 장애물 영역 검출 장치(100)는 상기 초기 영역에 대해 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출한다(370). 본 단계(370)은 상기 거리 변환을 통해 변환된 초기 영역의 거리 정보를 가중치로 설정하여 상기 객체를 장애물 영역으로서, 정밀하게 검출하기 위해 세그멘테이션을 처리하는 과정일 수 있다.In addition, the obstacle
상기 세그멘테이션은, 상기 초기 영역에서도 장애물이 아닌 영역이 여전히 존재하기 때문에 복수의 영역으로 나누어, 관심 대상이 되는 영역을 추출하는 것으로 정의될 수 있다. 상기 세그멘테이션의 일례로, 영역 추출부(130)는 상기 각 영역에 해당하는 화소의 밝기값을 동질의 특성을 갖게 하고 인접한 다른 영역에 해당하는 화소의 밝기값을 서로 상이한 특성을 갖도록 분리할 수 있다.The segmentation may be defined as extracting a region of interest by dividing the region into a plurality of regions because an area other than an obstacle still exists in the initial region. In one example of the segmentation, the
본 발명에 의해서는 시차맵을 이용하여 일차적으로 검출된 장애물체 영역별로 밝기기반의 세그멘테이션 기법을 적용하여 검출 성능을 향상시킬 수 있다.According to the present invention, detection performance can be improved by applying a brightness-based segmentation technique to each obstacle object region detected primarily by using a parallax map.
또한, 본 발명에 따르면, 각 화소에서 수직 외각 성분(에지)까지의 거리를 가중치로 사용함으로써, 세그멘테이션의 성능을 향상 시킬 수 있다.Further, according to the present invention, by using the distance from each pixel to the vertical outer component (edge) as a weight, the performance of segmentation can be improved.
또한, 본 발명에 의해서는, 지능형 자동차, 로봇, 보안, 의료 분야 등 다양한 분야의 장애물체 검출 및 세그멘테이션에 사용, 적용할 수 있다.Further, according to the present invention, the present invention can be applied to detection and segmentation of obstacles in various fields such as intelligent automobiles, robots, security, and medical fields.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
100 : 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치
110 : 초기 지정부 120 : 가중치 계산부
130 : 영역 추출부100: Obstacle area detection device based on contour weighting in stereoscopic image
110: initial determination unit 120: weight calculation unit
130:
Claims (12)
상기 객체에 대한 수직 외곽 성분을 검출하고, 상기 수직 외곽 성분과 각 화소와의 거리를 가중치로 계산하는 가중치 계산부; 및
상기 초기 영역에 대한 세그멘테이션(segmentation) 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 영역 추출부
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.An initial specifying unit that specifies an initial region by including at least an object in a stereoscopic image;
A weight calculation unit for detecting vertical perimeter components of the object and calculating distances between the vertical perimeter components and each pixel as weights; And
An area extracting unit for extracting an obstacle area occupied by the object from the initial area by applying the weight to the initial area during segmentation processing of the initial area,
Wherein the obstacle region detection unit detects the obstacle region based on the weight of the obstacle.
상기 장애물 영역 검출 장치는,
복수의 화소 간의 밝기 차이값, 및 상기 복수의 화소 간의 공간적인 거리를 이용하여, 상기 복수의 화소가 갖는 라벨을 결정하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.The method according to claim 1,
Wherein the obstacle area detecting device comprises:
Determining a label of the plurality of pixels by using a brightness difference value between the plurality of pixels and a spatial distance between the plurality of pixels
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
상기 가중치 계산부는,
상기 수직 외곽 성분에 대해 거리변환(distance transform)을 수행하여, 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.The method according to claim 1,
The weight calculation unit may calculate,
A distance transform is performed on the vertical outer component, the distance is expressed as a brightness value, and the weight is calculated by converting the brightness value
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
상기 영역 추출부는,
상기 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기(intensity) 히스토그램을 생성하여 히스토그램의 피크와 밸리를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.The method according to claim 1,
The region extracting unit may extract,
As the segmentation, a brightness histogram-based segmentation is generated that generates a brightness histogram of a pixel in the initial region and detects peaks and valleys of the histogram
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
상기 영역 추출부는,
상기 밝기 히스토그램 기반 세그멘테이션을 연산하는, 페어와이즈 포텐셜(pairwise potential) 함수에, 상기 가중치를 가중치 파라메터로서 포함하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.5. The method of claim 4,
The region extracting unit may extract,
The brightness histogram-based segmentation is computed by adding a weighting function to a pairwise potential function that computes the brightness histogram-
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
상기 입체영상은, 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것이고,
상기 초기 지정부는,
상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여, 상기 초기 영역을 지정하는
입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 장치.The method according to claim 1,
Wherein the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object,
Wherein,
The object and the background are separated using the parallax map of the plurality of images, and the initial region is specified
An apparatus for detecting an obstacle area based on an outline weight in a stereoscopic image.
상기 객체에 대한 수직 외곽 성분을 검출하는 단계;
상기 수직 외곽 성분과 각 화소와의 거리를 가중치로 계산하는 단계; 및
상기 초기 영역에 대한 세그멘테이션 처리시, 상기 가중치를 적용하여, 상기 초기 영역으로부터 상기 객체가 점유하는 장애물 영역을 추출하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.Specifying an initial region by including at least an object in a stereoscopic image;
Detecting vertical perimeter components for the object;
Calculating a distance between the vertical contour component and each pixel as a weight value; And
Extracting an obstacle region occupied by the object from the initial region by applying the weight to the initial region in the segmentation process;
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
복수의 화소 간의 밝기 차이값 및 상기 복수의 화소 간의 공간적인 거리를 이용하여, 상기 복수의 화소가 갖는 라벨을 결정하는 단계
를 더 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.8. The method of claim 7,
Determining a label of the plurality of pixels using a brightness difference value between the plurality of pixels and a spatial distance between the plurality of pixels;
And detecting the obstacle region based on the weight of the obstacle.
상기 계산하는 단계는,
상기 수직 외곽 성분에 대해 거리변환을 수행하여, 상기 거리를 밝기값으로 나타내고, 상기 밝기값을 환산하여 상기 가중치를 계산하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.8. The method of claim 7,
Wherein the calculating step comprises:
Performing distance conversion on the vertical outer component, expressing the distance as a brightness value, and calculating the weight by converting the brightness value
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
상기 영역을 추출하는 단계는,
상기 세그멘테이션으로서, 상기 초기 영역으로 화소의 밝기 히스토그램을 생성하여 히스토그램의 피크와 밸리를 검출하는 밝기 히스토그램 기반 세그멘테이션을 처리하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.8. The method of claim 7,
The step of extracting the region comprises:
Processing the brightness histogram-based segmentation to generate peak histograms and valleys of the histogram as the segmentation,
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
상기 밝기 히스토그램 기반 세그멘테이션을 처리하는 단계는,
상기 밝기 히스토그램 기반 세그멘테이션을 연산하는, 페어와이즈 포텐셜 함수에, 상기 가중치를 가중치 파라메터로서 포함하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.11. The method of claim 10,
Processing the brightness histogram-based segmentation comprises:
Computing a brightness histogram-based segmentation, including a weighted potential function as a weighted potential function
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
상기 입체영상은, 상기 객체에 대해 서로 다른 위치에서 촬영된 복수의 영상을 정합한 것이고,
상기 초기 영역을 지정하는 단계는,
상기 복수의 영상의 시차맵을 이용하여 상기 객체와 배경을 분리하여, 상기 초기 영역을 지정하는 단계
를 포함하는 입체영상에서의 외곽선 가중치 기반 장애물 영역 검출 방법.8. The method of claim 7,
Wherein the stereoscopic image is obtained by matching a plurality of images photographed at different positions with respect to the object,
Wherein the step of specifying the initial region comprises:
Separating the object and the background using the parallax map of the plurality of images, and designating the initial region
And detecting the obstacle region based on the weight of the obstacle in the stereoscopic image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120128284A KR101437228B1 (en) | 2012-11-13 | 2012-11-13 | Obstacle detection device and method using boundary weighting |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120128284A KR101437228B1 (en) | 2012-11-13 | 2012-11-13 | Obstacle detection device and method using boundary weighting |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140061101A KR20140061101A (en) | 2014-05-21 |
KR101437228B1 true KR101437228B1 (en) | 2014-09-02 |
Family
ID=50890239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120128284A KR101437228B1 (en) | 2012-11-13 | 2012-11-13 | Obstacle detection device and method using boundary weighting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101437228B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200080970A (en) * | 2018-12-27 | 2020-07-07 | 포항공과대학교 산학협력단 | Semantic segmentation method of 3D reconstructed model using incremental fusion of 2D semantic predictions |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101721655B1 (en) * | 2015-12-28 | 2017-03-30 | 재단법인대구경북과학기술원 | System and method for object detection |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196359A (en) | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | Moving object detection apparatus, moving object detection method and moving object detection program |
KR20110073924A (en) * | 2009-12-24 | 2011-06-30 | 중앙대학교 산학협력단 | Apparatus and method for detecting pedestrian using edge projections |
-
2012
- 2012-11-13 KR KR1020120128284A patent/KR101437228B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196359A (en) | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | Moving object detection apparatus, moving object detection method and moving object detection program |
KR20110073924A (en) * | 2009-12-24 | 2011-06-30 | 중앙대학교 산학협력단 | Apparatus and method for detecting pedestrian using edge projections |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200080970A (en) * | 2018-12-27 | 2020-07-07 | 포항공과대학교 산학협력단 | Semantic segmentation method of 3D reconstructed model using incremental fusion of 2D semantic predictions |
KR102169243B1 (en) * | 2018-12-27 | 2020-10-23 | 포항공과대학교 산학협력단 | Semantic segmentation method of 3D reconstructed model using incremental fusion of 2D semantic predictions |
Also Published As
Publication number | Publication date |
---|---|
KR20140061101A (en) | 2014-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3338248B1 (en) | Systems and methods for object tracking | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
US7729512B2 (en) | Stereo image processing to detect moving objects | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
KR101455835B1 (en) | Lane Recognition and Tracking System Using Images, And Method For Recognition And Tracking Lane Using The Same | |
US9443137B2 (en) | Apparatus and method for detecting body parts | |
WO2017048383A1 (en) | Systems and methods for non-obstacle area detection | |
KR20200060194A (en) | Method of predicting depth values of lines, method of outputting 3d lines and apparatus thereof | |
CN107944403B (en) | Method and device for detecting pedestrian attribute in image | |
US9280703B2 (en) | Apparatus and method for tracking hand | |
US10013618B2 (en) | Method and apparatus for detecting side of object using ground boundary information of obstacle | |
US20130329945A1 (en) | Self-adaptive image-based obstacle detection method | |
KR102359083B1 (en) | Device for detecting moving object and method thereof | |
CN112825192A (en) | Object identification system and method based on machine learning | |
WO2016059643A1 (en) | System and method for pedestrian detection | |
CN117058646A (en) | Complex road target detection method based on multi-mode fusion aerial view | |
KR20170137273A (en) | Apparatus and Method for Pedestrian Detection using Deformable Part Model | |
KR101437228B1 (en) | Obstacle detection device and method using boundary weighting | |
JP2014048702A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2013069045A (en) | Image recognition device, image recognition method, and image recognition program | |
CN106446832B (en) | Video-based pedestrian real-time detection method | |
KR101931220B1 (en) | Apparatus and Method for Body Components Detection | |
KR20220073444A (en) | Method and apparatus for tracking object and terminal for performing the method | |
US11475233B2 (en) | Image processing device and image processing method | |
KR101847175B1 (en) | Method for object recognition and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170628 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190701 Year of fee payment: 6 |