KR101428403B1 - Apparatus and method for detecting obstacle in front - Google Patents

Apparatus and method for detecting obstacle in front Download PDF

Info

Publication number
KR101428403B1
KR101428403B1 KR1020130084067A KR20130084067A KR101428403B1 KR 101428403 B1 KR101428403 B1 KR 101428403B1 KR 1020130084067 A KR1020130084067 A KR 1020130084067A KR 20130084067 A KR20130084067 A KR 20130084067A KR 101428403 B1 KR101428403 B1 KR 101428403B1
Authority
KR
South Korea
Prior art keywords
image
obstacle
road surface
depth
depth map
Prior art date
Application number
KR1020130084067A
Other languages
Korean (ko)
Inventor
김재광
최은진
이강훈
이완재
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020130084067A priority Critical patent/KR101428403B1/en
Application granted granted Critical
Publication of KR101428403B1 publication Critical patent/KR101428403B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

The present invention relates to an apparatus and a method for detecting a front obstacle. The apparatus according to the present invention includes: a view converting unit which performed view conversion of a front image and a road surface image which is extracted from the front image based on front depth information which is obtained from a camera or a sensor; a line detecting unit which detects a line component from the view-converted image; an image analyzing unit which separates the background area and road surface area of the front image based on the line component and detects an obstacle by analyzing the road surface area; and an obstacle processing unit which maps the detected obstacle on the front image.

Description

전방 장애물 검출 장치 및 방법{Apparatus and method for detecting obstacle in front}[0001] Apparatus and method for detecting obstacles in front [0002]

본 발명은 전방 장애물 검출 장치 및 방법에 관한 것으로, 3차원 정보를 활용하여 전방의 장애물을 검출하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an apparatus and method for detecting a front obstacle, and a technology for detecting an obstacle ahead using three-dimensional information.

차량의 장애물 검출 시스템은 카메라 또는 센서 등을 이용하여 전방의 장애물, 예를 들어, 다른 차량 또는 보행자 등을 검출한다. 이때, 카메라 또는 센서는 전방 영상 전체에 대하여 장애물이 존재하는지 검사하기 때문에 처리 시간이 많이 소요되고, 배경영역에 대해서도 장애물을 검출하기 때문에 불필요한 처리를 수행하고, 배경영역에서도 장애물을 검출하는 등의 오류가 발생할 수 있다.The obstacle detection system of the vehicle detects an obstacle ahead, for example, another vehicle or a pedestrian by using a camera or a sensor. In this case, since the camera or the sensor checks whether an obstacle exists in the entire forward image, it takes a long time to process, and unnecessary processing is performed because the obstacle is detected in the background area, and an error May occur.

또한, 카메라 또는 센서의 데이터를 이용하여 장애물을 검출하는 경우 날씨 또는 조도나 주변환경에 따라 그 결과가 크게 좌우되는 문제가 있다.In addition, when an obstacle is detected using data of a camera or a sensor, there is a problem that the result is largely determined depending on the weather or the illuminance or the surrounding environment.

본 발명의 목적은, ToF(Time of Flight) 기반의 카메라 또는 센서로부터 획득한 3차원 정보를 활용하여 노면영역을 검출하고, 검출된 노면영역에 대하여 전방의 장애물을 검출하도록 하는 전방 장애물 검출 장치 및 방법을 제공함에 있다. SUMMARY OF THE INVENTION An object of the present invention is to provide a forward obstacle detection device that detects a road surface region using three-dimensional information obtained from a camera or sensor based on a time of flight (ToF) and detects an obstacle ahead of the detected road surface region, Method.

본 발명의 다른 목적은, 운전자가 전방의 상황을 정확히 파악하기 어려운 상황에서도 장애물 검출이 가능하도록 한 전방 장애물 검출 장치 및 방법을 제공함에 있다.It is another object of the present invention to provide an apparatus and method for detecting a front obstacle that enables an obstacle to be detected even in a situation where it is difficult for a driver to accurately grasp a situation ahead.

상기의 목적을 달성하기 위한 본 발명에 따른 전방 장애물 검출 장치는, 카메라 또는 센서로부터 취득된 전방 깊이 정보에 근거하여 전방 영상, 및 상기 전방 영상으로부터 추출된 노면 영역의 영상을 뷰 변환하는 뷰 변환부, 뷰 변환된 영상으로부터 선 성분을 검출하는 선 검출부, 선 성분을 기준으로 상기 전방 영상의 배경영역 및 노면영역을 분리하고 상기 노면영역을 분석하여 장애물을 검출하는 영상 분석부, 및 검출된 장애물을 상기 전방 영상에 맵핑하는 장애물 처리부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a front obstacle detecting apparatus comprising a view conversion unit for performing a view conversion of a forward image and an image of a road surface area extracted from the forward image based on front depth information acquired from a camera or a sensor, An image analyzing unit for analyzing the road surface area to separate obstacles from the background area and the road surface area of the forward image based on the line component, And an obstacle processing unit for mapping the forward image.

상기 뷰 변환부는, 상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 상기 전방 영상을 v 좌표를 기준으로 한 v-뎁스 플레인(depth plane)에 투영하여 v-뎁스 맵으로 변환하는 v-뎁스 맵 변환부를 포함하는 것을 특징으로 한다.The view transformation unit transforms the forward image into a v-depth map by projecting the forward image on a v-depth plane based on the v-coordinate using the u and v coordinate information and the depth information on the forward image, And a depth map converting unit.

상기 뷰 변환부는, 상기 v-뎁스 맵을 v-디스패리티 맵(disparity map)으로 변환하는 v-디스패리티 맵 변환부를 더 포함하는 것을 특징으로 한다.The view conversion unit may further include a v-disparity map conversion unit that converts the v-depth map into a v-disparity map.

상기 선 검출부는, 상기 v-디스패리티 맵으로부터 선 성분을 검출하는 것을 특징으로 한다.And the line detection unit detects line components from the v-disparity map.

상기 뷰 변환부는, 상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 상기 전방 영상으로부터 검출된 노면영역의 영상을 u 좌표를 기준으로 한 u-뎁스 플레인에 투영하여 상기 노면영역의 영상을 u-뎁스 맵으로 변환하는 u-뎁스 맵 변환부를 더 포함하는 것을 특징으로 한다.Wherein the view transformation unit projects the image of the road surface region detected from the forward image on the u-depth plane using the u coordinate and the depth information using the u and v coordinate information and the depth information of the forward image, And a u-depth map converting unit for converting the u-depth map into a u-depth map.

상기 영상 분석부는, 상기 u-뎁스 맵 상의 영상을 분석하여 상기 노면 영역에 대한 가려짐 영역을 검출하는 것을 특징으로 한다.The image analyzing unit analyzes an image on the u-depth map and detects a shaded area for the road surface area.

상기 영상 분석부는, 상기 노면 영역에서 검출된 가려짐 영역을 장애물로 검출하는 것을 특징으로 한다.The image analyzing unit detects the obstructed area detected in the road surface area as an obstacle.

상기 카메라 또는 센서는, ToF(Time of Flight) 기반으로 동작하는 것을 특징으로 한다.The camera or sensor operates on a Time of Flight (ToF) basis.

또한, 본 발명에 따른 전방 장애물 검출 장치는, 상기 검출된 장애물이 맵핑된 상기 전방 영상을 출력하는 출력부를 더 포함하는 것을 특징으로 한다.In addition, the front obstacle detecting apparatus according to the present invention may further include an output unit for outputting the front image to which the detected obstacle is mapped.

한편, 상기의 목적을 달성하기 위한 본 발명에 따른 전방 장애물 검출 방법은, ToF(Time of Flight) 기반의 카메라 또는 센서로부터 취득된 전방 깊이 정보에 근거하여 전방 영상을 상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 v-뎁스 맵(depth map)으로 변환하는 단계, 상기 v-뎁스 맵을 v-디스패리티 맵(disparity map)으로 변환하는 단계, 상기 v-디스패리티 맵으로부터 선 성분을 검출하는 단계, 상기 검출된 선 성분을 기준으로 상기 전방 영상의 배경영역 및 노면영역을 분리하여 상기 전방 영상으로부터 노면영역의 영상을 검출하는 단계, 상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 상기 검출된 노면영역의 영상을 u-뎁스 맵으로 변환하는 단계, 상기 u-뎁스 맵에 투영된 상기 노면영역의 영상에 대한 가려짐 영역을 분석하여 장애물을 검출하는 단계, 및 상기 검출된 장애물을 상기 전방 영상에 맵핑하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of detecting a front obstacle, the method including detecting a forward image based on front depth information acquired from a camera or sensor based on a time of flight (ToF) Converting a v-depth map into a v-disparity map, converting the v-depth map from a v-disparity map to a v-depth map using coordinate information and depth information, Detecting the image of the road surface region from the front image by separating the background region and the road surface region of the forward image on the basis of the detected line component, detecting u and v coordinate information and depth Depth map by analyzing an area of the road surface area projected on the u-depth map and analyzing the obstacle area of the road surface area, Detecting water, and mapping the detected obstacle to the forward image.

본 발명에 따르면, ToF(Time of Flight) 기반의 카메라 또는 센서로부터 획득한 3차원 정보(u, v 좌표 및 depth)를 활용하여 장애물을 검출함으로써, 운전자가 전방의 상황을 정확히 파악하기 어려운 상황에서도 장애물 검출이 용이한 이점이 있다.According to the present invention, it is possible to detect an obstacle by utilizing three-dimensional information (u, v coordinates and depth) acquired from a camera or sensor based on a time of flight (ToF) There is an advantage that obstacle detection is easy.

또한, 본 발명은 3차원 정보를 활용하여 전방 영상으로부터 노면영역을 검출하고, 검출된 노면영역의 영상으로부터 장애물을 검출함으로써 보다 면밀하게 장애물을 검출할 수 있는 이점이 있다. In addition, the present invention is advantageous in that obstacle can be more closely detected by detecting a road surface area from a front image using three-dimensional information and detecting an obstacle from an image of the detected road surface area.

도 1은 본 발명에 따른 전방 장애물 검출 장치의 구성을 도시한 블록도이다.
도 2는 본 발명에 따른 도 1의 뷰 변환부에 대한 세부 구성을 도시한 블록도이다.
도 3a 내지 도 3g는 본 발명에 따른 전방 장애물 검출 장치의 동작 설명에 참조되는 예시도이다.
도 4는 본 발명에 따른 전방 장애물 검출 방법에 대한 동작 흐름을 도시한 순서도이다.
1 is a block diagram showing the configuration of a front obstacle detecting apparatus according to the present invention.
FIG. 2 is a block diagram showing a detailed configuration of the view conversion unit of FIG. 1 according to the present invention.
3A to 3G are views for explaining the operation of the front obstacle detecting device according to the present invention.
4 is a flowchart illustrating an operation flow for a front obstacle detection method according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하도록 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 전방 장애물 검출 장치의 구성을 도시한 블록도이다. 도 1을 참조하면, 본 발명에 따른 전방 장애물 검출 장치는 신호 처리부, 카메라, 센서, 출력부, 저장부, 뷰 변환부, 선 검출부, 영상 분석부 및 장애물 처리부를 포함한다. 여기서, 신호 처리부는 전방 장애물 검출 장치의 각 부 간에 전달되는 신호를 처리한다.1 is a block diagram showing the configuration of a front obstacle detecting apparatus according to the present invention. Referring to FIG. 1, a front obstacle detection apparatus according to the present invention includes a signal processing unit, a camera, a sensor, an output unit, a storage unit, a view conversion unit, a line detection unit, an image analysis unit, and an obstacle processing unit. Here, the signal processing unit processes signals transmitted between respective parts of the front obstacle detecting device.

카메라는 둘 이상의 카메라를 구비한 스테레오 카메라일 수 있으며, 스테레오 카메라는 각 카메라에 의해 촬영된 영상의 시차를 이용하여 전방 영상의 깊이(depth) 정보를 파악할 수 있다. 또한, 카메라는 TOF 기반의 depth 카메라일 수 있다.The camera may be a stereo camera having two or more cameras, and the stereo camera may obtain depth information of the forward image using the parallax of the image captured by each camera. In addition, the camera may be a TOF-based depth camera.

센서는 ToF 기반의 광센서일 수 있으며, 여기서 광센서는 적외선, 초음파를 이용한 센서일 수 있다. 이때, 센서는 전방으로 광신호를 송출하고, 전방에서 반사되어 수신되는 광신호의 위상차를 계산하여 거리를 산출함으로써, 전방 영상에 대한 depth 정보를 파악할 수 있다.The sensor may be a ToF-based optical sensor, wherein the optical sensor may be an infrared, ultrasonic sensor. At this time, the sensor transmits the optical signal forward, calculates the phase difference of the optical signal reflected from the front, calculates the distance, and can grasp the depth information of the forward image.

카메라 및 센서 중 적어도 하나는 파악된 전방의 depth 정보를 신호 처리부로 출력하여, 이때 출력된 전방의 depth 정보는 전방 영상의 뷰 변환을 위해 뷰 변환부로 전달되게 된다.At least one of the camera and the sensor outputs the depth information of the captured front to the signal processing unit, and the depth information of the output front is transmitted to the view conversion unit for the view conversion of the forward image.

출력부는 차량의 인스트루먼트 패널(instrument panel) 상에 구비된 모니터 또는 내비게이션(navigation)의 화면과 같은 디스플레이 수단을 포함할 수 있으며, 스피커 또는 부저와 같은 음성 출력수단을 포함할 수 있다.The output unit may include display means such as a monitor or a screen of a navigation provided on an instrument panel of the vehicle, and may include voice output means such as a speaker or a buzzer.

이때, 출력부는 전방 장애물 검출 장치의 장애물 검출 결과를 디스플레이 수단 및 음성 출력수단 등을 통해 출력할 수 있으며, 전방의 장애물이 검출된 경우 장애물 정보 및 경보신호를 출력할 수도 있다.At this time, the output unit may output the obstacle detection result of the front obstacle detecting device through the display unit and the sound output unit, or may output the obstacle information and the alarm signal when the obstacle is detected in the front.

저장부는 전방 장애물 검출 장치의 동작에 필요한 설정값 등이 저장될 수 있으며, 카메라 또는 센서에 의해 파악된 정보가 저장될 수 있다. 또한, 저장부는 정방 장애물 검출 장치의 각 부의 처리 결과가 저장될 수 있다. 일 예로서, 저장부는 차량 전방에서 취득된 전방 영상 및 전방 영상에 대한 v-뎁스 맵, v-디스패리티 맵 및 u-뎁스 맵 등이 저장될 수 있으며, 각 영상의 분석 결과가 저장될 수 있다.The storage unit may store set values and the like required for the operation of the front obstacle detecting device, and information captured by the camera or the sensor may be stored. Further, the storage unit may store the processing results of the respective parts of the tetragonal obstacle detection device. For example, the storage unit may store a v-depth map, a v-disparity map, and an u-depth map for a forward image and a forward image acquired in front of the vehicle, and an analysis result of each image may be stored .

뷰 변환부는 카메라 또는 센서로부터 취득된 전방 깊이 정보에 근거하여 전방 영상 및 전방 영상으로부터 추출된 노면 영역의 영상을 뷰 변환한다.The view conversion unit converts view images of the road surface region extracted from the forward image and the forward image based on the front depth information acquired from the camera or the sensor.

이때, 뷰 변환부는 도 2에 도시된 바와 같이, v-뎁스 맵 변환부, v-디스패리티 맵 변환부 및 u-뎁스 맵 변환부를 포함할 수 있다. At this time, the view transform unit may include a v-depth map transform unit, a v-disparity map transform unit, and a u-depth map transform unit, as shown in FIG.

여기서, v-뎁스 맵 변환부는 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 전방 영상을 v-뎁스 플레인(depth plane)에 투영하여 v-뎁스 맵으로 변환할 수 있다. 또한, v-디스패리티 맵은 앞서 변환된 v-뎁스 맵을 v-디스패리티 맵(disparity map)으로 변환한다.Here, the v-depth map conversion unit may convert the forward image into a v-depth map by projecting the forward image on a depth plane using u and v coordinate information and depth information on the forward image. In addition, the v-disparity map converts the previously transformed v-depth map into a v-disparity map.

여기서, 선 검출부는 v-디스패리티 맵으로부터 선 성분을 검출한다. 선 검출부에 의해 검출된 선 성분에 대한 정보는 영상 분석부에 제공되어 전방 영상으로부터 노면영역을 검출하는데 이용될 수 있다.Here, the line detection unit detects a line component from the v-disparity map. The information on the line component detected by the line detection unit may be provided to the image analysis unit and used to detect the road surface area from the forward image.

다시 말해, 영상 분석부는 선 검출부에 의해 검출된 선 성분의 정보를 이용하여 전방 영상을 배경영역과 노면영역으로 분리하고, 이때 노면영역의 영상을 검출하여 뷰 변환부에 제공한다. 여기서, 영상 분석부는 검출된 선 성분을 영상 내 위치를 고려하여 전방 영상에 맵핑하고, 전방 영상에 맵핑된 선 성분의 아래쪽 영역을 노면영역으로 결정한다. 따라서, 전방 영상에 맵핑된 선 성분의 위쪽 영역은 배경영역으로 결정되게 된다.In other words, the image analyzing unit separates the front image into the background area and the road surface area using the information of the line component detected by the line detecting unit, and detects the image of the road surface area at this time, and provides the image to the view conversion unit. Here, the image analyzing unit maps the detected line component to the forward image considering the position in the image, and determines the area below the line component mapped to the forward image as the road surface area. Therefore, the upper area of the line component mapped to the forward image is determined as the background area.

한편, 뷰 변환부는 u-뎁스 맵 변환부를 더 포함할 수 있다. 여기서, u-뎁스 맵 변환부는 영상 분석부에 의해 전방 영상으로부터 검출된 노면영역의 영상을 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 u-뎁스 플레인에 투영함으로써 노면영역의 영상을 u-뎁스 맵으로 변환할 수 있다.The view transform unit may further include a u-depth map transform unit. Here, the u-depth map transform unit transforms the image of the road surface region detected from the forward image by the image analysis unit to the u-depth plane using the u and v coordinate information and the depth information of the forward image, can be converted into a u-depth map.

또한, 영상 분석부는 u-뎁스 맵 상의 영상을 분석하여 상기 노면 영역에 대한 가려짐 영역을 검출한다. 이때, 영상 분석부는 u-뎁스 맵에 투영된 노면영역의 영상에서 가려짐 영역을 분석하여 장애물을 검출할 수 있다. 일 예로서, 노면 영역에 사람이 위치한 경우, 사람에 의해 노면이 가려질 수 있다. 따라서 영상 분석부는 노면영역의 영상에서 가려짐 영역에 장애물이 위치한 것으로 판단할 수 있다.Also, the image analyzing unit analyzes the image on the u-depth map, and detects the obstructed area for the road surface area. At this time, the image analyzing unit can detect the obstacle by analyzing the obstructed area in the image of the road surface area projected on the u-depth map. As an example, if a person is located on the road surface area, the road surface may be covered by the person. Accordingly, the image analyzing unit can determine that an obstacle is located in the obstructed area in the image of the road surface area.

장애물 처리부는 영상 분석부의 분석 결과 노면영역의 영상에서 장애물이 검출된 것으로 확인되면, 검출된 장애물을 전방 영상에 맵핑하여 출력부를 통해 출력되도록 할 수 있다. 이때, 장애물 처리부는 노면영역에서 검출된 가려짐 영역을 전방 영상에 맵핑할 수 있다.The obstacle processing unit may map the detected obstacle to the forward image and output it through the output unit, if it is confirmed that the obstacle is detected in the image of the road surface area as a result of analysis by the image analysis unit. At this time, the obstacle processing unit can map the obstructed area detected in the road surface area to the forward image.

도 3a 내지 도 3g는 본 발명에 따른 전방 장애물 검출 장치의 동작 설명에 참조되는 예시도이다. 먼저, 도 3a는 스테레오 카메라를 통해 획득한 전방 영상의 위상차를 이용하여 3차원 정보를 획득하는 동작을 나타낸 것이며, 이때 전방 영상에 대한 u, v 좌표 및 depth 정보를 획득할 수 있다.3A to 3G are views for explaining the operation of the front obstacle detecting device according to the present invention. 3A shows an operation of acquiring three-dimensional information using a phase difference of a front image obtained through a stereo camera, and u and v coordinates and depth information of a forward image can be obtained at this time.

도 3b는 도 3a에서 획득한 3차원 정보를 이용하여 전방 영상을 v-뎁스 맵으로 변환한 실시예를 나타낸 것이다. 도 3b에 도시된 바와 같이, 전방 장애물 검출 장치는 도 3a에서 획득한 전방 영상에 대한 u, v 좌표 및 depth 정보를 활용하여 v-뎁스 맵을 생성하고, 이때 v-뎁스 맵의 v-뎁스 플레이트에 전방 영상을 투영함으로써, 전방 영상에 대응하는 v-뎁스 맵을 생성할 수 있다.FIG. 3B shows an embodiment in which a forward image is converted into a v-depth map using the three-dimensional information obtained in FIG. 3A. As shown in FIG. 3B, the front obstacle detecting apparatus generates a v-depth map using the u, v coordinates and depth information of the forward image acquired in FIG. 3A, and the v-depth map of the v- The v-depth map corresponding to the forward image can be generated.

도 3c는 도 3b에서 생성된 v-뎁스 맵을 v-디스패리티 맵으로 변환한 실시예를 나타낸 것이다. 도 3c에 도시된 바와 같이, 전방 장애물 검출 장치는 v-뎁스 맵을 v-디스패리티 맵으로 변환한다. 이때, 전방 장애물 검출 장치는 영상 변환 알고리즘을 이용하여 v-뎁스 맵을 v-디스패리티 맵으로 변환할 수 있다. 여기서, v-뎁스 맵을 v-디스패리티 맵으로 변환하는 기술은 영상 변환 분야에서 일반적으로 이용되는 기술로서, 이에 대한 구체적인 설명은 생략하도록 한다.FIG. 3C shows an embodiment in which the v-depth map generated in FIG. 3B is converted into a v-disparity map. As shown in Fig. 3C, the front obstacle detecting device converts the v-depth map into the v-disparity map. At this time, the front obstacle detection apparatus can convert the v-depth map into the v-disparity map using the image conversion algorithm. Here, the technique of converting the v-depth map into the v-disparity map is a technique generally used in the field of image conversion, and a detailed description thereof will be omitted.

v-디스패리티 맵은 선 성분을 가질 수 있다. 따라서, 전방 장애물 검출 장치는 v-디스패리티 맵으로부터 선 성분을 검출하여 노면영역을 검출하는데 적용할 수 있다.The v-disparity map may have line components. Therefore, the front obstacle detecting apparatus can be applied to detecting the line component from the v-disparity map and detecting the road surface area.

도 3d는 전방 영상을 배경영역과 노면영역으로 분리한 실시예를 나타낸 것이다. 도 3d에 도시된 바와 같이, 전방 장애물 검출 장치는 도 3c에서 검출된 선 성분을 전방 영상에 맵핑하여, 위쪽의 배경영역과, 아래쪽의 노면영역을 분리한다. 여기서, 전방 장애물 검출 장치는 전방 영상에 맵핑된 선 성분을 기분으로 아래쪽 영역을 검출함으로써 노면영역의 영상을 획득할 수 있다.FIG. 3D shows an embodiment in which a front image is divided into a background area and a road surface area. As shown in FIG. 3D, the front obstacle detecting apparatus maps the line component detected in FIG. 3C to the forward image, and separates the upper background region and the lower road surface region. Here, the front obstacle detecting apparatus can acquire the image of the road surface region by detecting the lower region based on the line component mapped to the forward image.

도 3e는 전방 영상을 u-뎁스 맵으로 변환한 실시예를 나타낸 것이다. 도 3e에 도시된 바와 같이, 전방 장애물 검출 장치는 도 3a에서 획득한 전방 영상에 대한 u, v 좌표 및 depth 정보를 활용하여 u-뎁스 맵을 생성한다. 구체적으로, 전방 장애물 검출 장치는 전방 영상으로부터 검출된 노면영역의 영상에 대한 3차원 좌표를 활용하여 u-뎁스 맵을 생성할 수 있다. 이때, 전방 장애물 검출 장치는 u-뎁스 맵의 u-뎁스 플레이트에 노면영역의 영상을 투영함으로써, 노면영역의 영상에 대응하는 u-뎁스 맵을 생성할 수 있다.FIG. 3E shows an embodiment in which a forward image is converted into an u-depth map. As shown in FIG. 3E, the front obstacle detecting apparatus generates the u-depth map using u, v coordinates and depth information of the forward image acquired in FIG. 3A. Specifically, the front obstacle detection apparatus can generate the u-depth map by utilizing the three-dimensional coordinates of the image of the road surface area detected from the forward image. At this time, the front obstacle detection device can generate an u-depth map corresponding to the image of the road surface area by projecting the image of the road surface area to the u-depth plate of the u-depth map.

도 3f는 u-뎁스 맵의 영상으로부터 장애물 영역을 검출한 실시예를 나타낸 것이다. 도 3f에 도시된 바와 같이, 전방 장애물 검출 장치는 u-뎁스 맵에 투영된 노면영역의 영상을 분석하여 장애물 등에 의한 가려짐 영역을 검출한다. 이때, 전방 장애물 검출 장치는 u-뎁스 맵에 투영된 노면영역의 영상에서 원거리부터 라인(line)별 스캐닝을 통해 가려짐 영역을 확인하고, 이때 확인된 가려짐 영역을 장애물 영역으로 결정한다.FIG. 3F shows an embodiment in which an obstacle region is detected from an image of a u-depth map. As shown in FIG. 3F, the front obstacle detecting apparatus analyzes the image of the road surface region projected on the u-depth map, and detects the obstructed area by the obstacle or the like. At this time, the front obstacle detecting apparatus identifies the obstructed area through the scanning of the line from the long distance in the image of the road surface area projected on the u-depth map, and determines the obstructed area as the obstructed area.

도 3g는 장애물 영역을 전방 영상에 맵핑한 실시예를 나타낸 것이다. 도 3g에 도시된 바와 같이, 전방 장애물 검출 장치는 도 3f에서 검출된 장애물 영역의 영상 내 위치를 고려하여 전방 영상(원본 영상)에 맵핑함으로써, 전방 영상을 통해 장애물 영역의 위치를 확인할 수 있도록 한다.FIG. 3G shows an embodiment in which the obstacle region is mapped to the forward image. As shown in FIG. 3G, the front obstacle detecting device maps the forward obstacle region (original image) in consideration of the position of the obstacle region detected in FIG. 3F, thereby allowing the position of the obstacle region to be confirmed through the forward image .

이와 같이, 본 발명에 따른 전방 장애물 검출 장치는 전방 영상에 대한 3차원 정보를 활용하여 장애물을 검출하고 이를 원본 영상에 맵핑하여 출력함으로써, 사용자가 전방의 상황을 파악하기 어려운 상황에서도 원본 영상에 맵핑된 장애물 영역을 통해 장애물의 위치를 파악하는 것이 가능하게 된다.In this way, the front obstacle detecting apparatus according to the present invention detects obstacles by using three-dimensional information on the forward image, maps the obstacles to the original image, and outputs the obstacles, so that even when the user can not grasp the forward situation, It becomes possible to grasp the position of the obstacle through the obstacle area.

상기와 같이 구성되는 본 발명에 따른 전방 장애물 검출 장치의 동작 흐름을 보다 상세히 설명하면 다음과 같다.The operation flow of the front obstacle detecting apparatus according to the present invention will now be described in detail.

도 4는 본 발명에 따른 전방 장애물 검출 방법에 대한 동작 흐름을 도시한 순서도이다. 도 4를 참조하면, 전방 장애물 검출 장치는 전방 영상을 획득하고(S100), 카메라 또는 센서 등을 이용하여 전방 깊이정보를 추출한다(S110). 4 is a flowchart illustrating an operation flow for a front obstacle detection method according to the present invention. Referring to FIG. 4, the front obstacle detection apparatus acquires a forward image (S100), and extracts forward depth information using a camera or a sensor (S110).

전방 장애물 검출 장치는 전방 영상의 u, v 좌표와, 'S110' 과정에서 추출된 전방 깊이정보를 이용하여 'S110' 과정에서 획득한 전방 영상을 v-뎁스 맵으로 변환하고(S120), 'S120' 과정의 v-뎁스 맵을 다시 v-디스패리티 맵으로 변환한다(S130). 여기서, 전방 장애물 검출 장치는 'S130' 과정의 v-디스패리티 맵으로부터 선 정보를 검출할 수 있으며(S140), 'S140' 과정에서 추출된 선 정보를 'S100' 과정에서 획득한 전방 영상에 맵핑하여 선 정보를 기준으로 노면영역 및 배경영역을 분리한다(S150).The front obstacle detecting apparatus converts the forward image acquired in the process 'S110' into the v-depth map using the u and v coordinates of the forward image and the forward depth information extracted in the process 'S110' (S120) Depth map is converted into a v-disparity map (S130). Here, the front obstacle detection apparatus can detect the line information from the v-disparity map in step S130 (S140), map the line information extracted in step S140 to the forward image acquired in step S100 The road surface area and the background area are separated based on the line information (S150).

또한, 전방 장애물 검출 장치는 'S150' 과정의 노면영역의 영상에 대한 3차원 정보를 이용하여 u-뎁스 맵을 생성하고(S160), 'S160' 과정에서 생성된 u-뎁스 맵에 노면영역의 영상을 투영하여(S170), 분석한다(S180). 여기서, 전방 장애물 검출 장치는 'S180' 과정의 분석 결과로부터 노면영역의 가려짐 영역을 검출하고, 검출된 가려짐 영역을 장애물 영역으로 검출한다(S190).In addition, the front obstacle detecting apparatus generates the u-depth map using the three-dimensional information of the image of the road surface region in step S150 (S160), and adds the u-depth map to the u-depth map generated in step S160 The image is projected (S170) and analyzed (S180). Here, the front obstacle detecting apparatus detects the obstructed area of the road surface area from the analysis result of step S180 and detects the obstructed area as the obstacle area (S190).

마지막으로, 전방 장애물 검출 장치는 'S190' 과정에서 검출된 장애물 영역을 원본 영상에 맵핑하고(S200), 장애물 영역이 맵핑된 영상을 출력한다(S210).Finally, the front obstacle detecting device maps the obstacle area detected in the process 'S190' to the original image (S200), and outputs an image in which the obstacle area is mapped (S210).

이상과 같이 본 발명에 의한 전방 장애물 검출 장치 및 방법은 예시된 도면을 참조로 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명은 한정되지 않고, 기술사상이 보호되는 범위 이내에서 응용될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, .

110: 신호 처리부 120: 카메라
125: 센서 130: 출력부
140: 저장부 150: 뷰 변환부
151: v-뎁스 맵 변환부 153: v-디스패리티 맵 변환부
155: u-뎁스 맵 변환부 160: 선 검출부
170: 영상 분석부 180: 장애물 처리부
110: signal processing unit 120: camera
125: sensor 130:
140: storage unit 150: view conversion unit
151: v-depth map conversion unit 153: v-disparity map conversion unit
155: u-depth map conversion unit 160:
170: Image analysis unit 180: Obstacle processing unit

Claims (10)

카메라 또는 센서로부터 취득된 전방 깊이 정보에 근거하여 전방 영상, 및 상기 전방 영상으로부터 추출된 노면 영역의 영상을 뷰 변환하는 뷰 변환부;
뷰 변환된 영상으로부터 선 성분을 검출하는 선 검출부;
선 성분을 기준으로 상기 전방 영상의 배경영역 및 노면영역을 분리하고 상기 노면영역을 분석하여 장애물을 검출하는 영상 분석부; 및
검출된 장애물을 상기 전방 영상에 맵핑하는 장애물 처리부를 포함하는 것을 특징으로 하는 전방 장애물 검출 장치.
A view conversion unit for performing a view conversion of a forward image and an image of a road surface area extracted from the forward image based on the depth information acquired from a camera or a sensor;
A line detector for detecting a line component from the view-converted image;
An image analyzer for separating a background region and a road surface region of the forward image based on a line component and analyzing the road surface region to detect an obstacle; And
And an obstacle processing unit for mapping the detected obstacle to the forward image.
청구항 1에 있어서,
상기 뷰 변환부는,
상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 상기 전방 영상을 v 좌표를 기준으로 한 v-뎁스 플레인(depth plane)에 투영하여 v-뎁스 맵으로 변환하는 v-뎁스 맵 변환부를 포함하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method according to claim 1,
The view converter may further include:
A v-depth map transforming unit for transforming the forward image into a v-depth map by projecting the forward image onto a v-depth plane based on the v-coordinate using u and v coordinate information and depth information of the forward image, Wherein the front obstacle detecting device comprises:
청구항 2에 있어서,
상기 뷰 변환부는,
상기 v-뎁스 맵을 v-디스패리티 맵(disparity map)으로 변환하는 v-디스패리티 맵 변환부를 더 포함하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method of claim 2,
The view converter may further include:
And a v-disparity map converting unit for converting the v-depth map into a v-disparity map.
청구항 3에 있어서,
상기 선 검출부는,
상기 v-디스패리티 맵으로부터 선 성분을 검출하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method of claim 3,
Wherein the line detecting unit comprises:
And detects a line component from the v-disparity map.
청구항 1에 있어서,
상기 뷰 변환부는,
상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 상기 전방 영상으로부터 검출된 노면영역의 영상을 u 좌표를 기준으로 한 u-뎁스 플레인에 투영하여 상기 노면영역의 영상을 u-뎁스 맵으로 변환하는 u-뎁스 맵 변환부를 더 포함하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method according to claim 1,
The view converter may further include:
The image of the road surface region detected from the forward image is projected onto the u-depth plane using the u coordinate and the depth information using the u and v coordinate information and the depth information of the forward image, And a u-depth map converting unit for converting the u-depth map into a u-depth map.
청구항 5에 있어서,
상기 영상 분석부는,
상기 u-뎁스 맵 상의 영상을 분석하여 상기 노면 영역에 대한 가려짐 영역을 검출하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method of claim 5,
Wherein the image analyzing unit comprises:
Wherein the obstacle detecting unit detects an obstacle area for the road surface area by analyzing the image on the u-depth map.
청구항 6에 있어서,
상기 영상 분석부는,
상기 노면 영역에서 검출된 가려짐 영역을 장애물로 검출하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method of claim 6,
Wherein the image analyzing unit comprises:
And detects the obstacle area detected in the road surface area as an obstacle.
청구항 1에 있어서,
상기 카메라 또는 센서는,
ToF(Time of Flight) 기반으로 동작하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method according to claim 1,
The camera or sensor may comprise:
And a time-of-flight (ToF) basis.
청구항 1에 있어서,
상기 검출된 장애물이 맵핑된 상기 전방 영상 또는 상기 검출된 장애물의 정보를 출력하는 출력부를 더 포함하는 것을 특징으로 하는 전방 장애물 검출 장치.
The method according to claim 1,
And an output unit for outputting the information of the front image or the detected obstacle to which the detected obstacle is mapped.
ToF(Time of Flight) 기반의 카메라 또는 센서로부터 취득된 전방 깊이 정보에 근거하여 전방 영상을 상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 v-뎁스 맵(depth map)으로 변환하는 단계;
상기 v-뎁스 맵을 v-디스패리티 맵(disparity map)으로 변환하는 단계;
상기 v-디스패리티 맵으로부터 선 성분을 검출하는 단계;
상기 검출된 선 성분을 기준으로 상기 전방 영상의 배경영역 및 노면영역을 분리하여 상기 전방 영상으로부터 노면영역의 영상을 검출하는 단계;
상기 전방 영상에 대한 u, v 좌표정보 및 깊이 정보를 이용하여 상기 검출된 노면영역의 영상을 u-뎁스 맵으로 변환하는 단계;
상기 u-뎁스 맵에 투영된 상기 노면영역의 영상에 대한 가려짐 영역을 분석하여 장애물을 검출하는 단계; 및
상기 검출된 장애물을 상기 전방 영상에 맵핑하는 단계를 포함하는 것을 특징으로 하는 전방 장애물 검출 방법.
Based on the front depth information acquired from a camera or sensor based on a ToF (Time of Flight), the front image is converted into a v-depth map using the u and v coordinate information and the depth information of the front image step;
Converting the v-depth map into a v-disparity map;
Detecting a line component from the v-disparity map;
Detecting an image of a road surface region from the forward image by separating a background region and a road surface region of the forward image based on the detected line component;
Converting the detected image of the road surface region into u-depth map using u, v coordinate information and depth information of the forward image;
Analyzing an obstructed area of the image of the road surface region projected on the u-depth map to detect an obstacle; And
And mapping the detected obstacle to the forward image.
KR1020130084067A 2013-07-17 2013-07-17 Apparatus and method for detecting obstacle in front KR101428403B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130084067A KR101428403B1 (en) 2013-07-17 2013-07-17 Apparatus and method for detecting obstacle in front

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130084067A KR101428403B1 (en) 2013-07-17 2013-07-17 Apparatus and method for detecting obstacle in front

Publications (1)

Publication Number Publication Date
KR101428403B1 true KR101428403B1 (en) 2014-08-07

Family

ID=51749958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130084067A KR101428403B1 (en) 2013-07-17 2013-07-17 Apparatus and method for detecting obstacle in front

Country Status (1)

Country Link
KR (1) KR101428403B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016047890A1 (en) * 2014-09-26 2016-03-31 숭실대학교산학협력단 Walking assistance method and system, and recording medium for performing same
CN106503653A (en) * 2016-10-21 2017-03-15 深圳地平线机器人科技有限公司 Area marking method, device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501956A (en) 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. Navigation navigation display method and apparatus using head-up display
JP2008527542A (en) 2005-01-06 2008-07-24 シュルマン,アラン Navigation and inspection system
JP2009085651A (en) 2007-09-28 2009-04-23 Hitachi Ltd Image processing system
JP2009530669A (en) 2006-03-16 2009-08-27 ブルベーカー,カーチス,エム. System and method for generating revenue by displaying highly relevant advertisements on moving objects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501956A (en) 2004-06-03 2008-01-24 メイキング バーチャル ソリッド,エル.エル.シー. Navigation navigation display method and apparatus using head-up display
JP2008527542A (en) 2005-01-06 2008-07-24 シュルマン,アラン Navigation and inspection system
JP2009530669A (en) 2006-03-16 2009-08-27 ブルベーカー,カーチス,エム. System and method for generating revenue by displaying highly relevant advertisements on moving objects
JP2009085651A (en) 2007-09-28 2009-04-23 Hitachi Ltd Image processing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016047890A1 (en) * 2014-09-26 2016-03-31 숭실대학교산학협력단 Walking assistance method and system, and recording medium for performing same
CN106503653A (en) * 2016-10-21 2017-03-15 深圳地平线机器人科技有限公司 Area marking method, device and electronic equipment
CN106503653B (en) * 2016-10-21 2020-10-13 深圳地平线机器人科技有限公司 Region labeling method and device and electronic equipment

Similar Documents

Publication Publication Date Title
KR102027771B1 (en) Obstacle detecting apparatus and method for adaptation to vehicle velocity
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
WO2017158958A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
KR101439052B1 (en) Apparatus and method for detecting obstacle
JP5353455B2 (en) Perimeter monitoring device
JP6981377B2 (en) Vehicle display control device, vehicle display control method, and control program
KR20150051735A (en) Parking Guide System and the Method
KR20210115026A (en) Vehicle intelligent driving control method and device, electronic device and storage medium
KR20140137577A (en) Apparatus and method for providing vehicle of circumference environment information
EP2720193A2 (en) Method and system for detecting uneven road surface
KR20210063224A (en) System and method for joint image and lidar annotation and calibration
KR20140055353A (en) Apparatus and method for position tracking of peripheral vehicle
KR20060021922A (en) Two camera based obstacle detection method and device
JP3961584B2 (en) Lane marking detector
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
KR101491305B1 (en) Apparatus and method for detecting obstacle
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
KR101428403B1 (en) Apparatus and method for detecting obstacle in front
KR20130015326A (en) Camera system and method for recognition distance using the same
JP2018073275A (en) Image recognition device
KR101558586B1 (en) Device and method for display image around a vehicle
JP2005156199A (en) Vehicle detection method and vehicle detector

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180730

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190729

Year of fee payment: 6