KR20160063039A - Method of Road Recognition using 3D Data - Google Patents
Method of Road Recognition using 3D Data Download PDFInfo
- Publication number
- KR20160063039A KR20160063039A KR1020140166515A KR20140166515A KR20160063039A KR 20160063039 A KR20160063039 A KR 20160063039A KR 1020140166515 A KR1020140166515 A KR 1020140166515A KR 20140166515 A KR20140166515 A KR 20140166515A KR 20160063039 A KR20160063039 A KR 20160063039A
- Authority
- KR
- South Korea
- Prior art keywords
- boundary
- disparity map
- map
- road
- disparity
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
Abstract
Description
본 발명은 3차원 데이터를 이용한 도로 인식 방법에 관한 것으로, 보다 구체적으로 3차원 디스패리티 맵(Disparity Map)을 이용하여 도로의 경계를 검출하는 방법에 관한 것이다.More particularly, the present invention relates to a method of detecting a boundary of a road using a 3D disparity map.
차량 등의 운송 수단은 입체 카메라를 이용하여 주변을 촬영하고, 촬영된 영상을 기반으로 도로의 경계면, 주변 장애물 등을 인식할 수 있다.A transportation means such as a vehicle can photograph a periphery using a three-dimensional camera, and can recognize a boundary surface of a road, a peripheral obstacle, and the like based on the photographed image.
종래의 도로 인식 기술은 스테레오 카메라의 디스패리티 맵을 종/횡 방향으로 나누어 누적시키는 u 변위, v 변위를 각각 생성하여 지면 영역을 판별하였다. 이러한 종래 기술은 u 변위, v 변위를 각각 생성하기 위해 클러스터링, 회귀 분석과 같은 복잡한 방식이 이용되고, 모델링에 RANSAC 나 Hough 변환 같은 연산 시간이 오래 걸리는 방식을 이용하여, 실시간 정보 제공에 어려움이 있다.In the conventional road recognition technology, the u-displacement and the v-displacement, which divide and accumulate the disparity map of the stereo camera in longitudinal and lateral directions, respectively, are discriminated to discriminate the ground area. This conventional technique has difficulties in providing real-time information by using a complicated method such as clustering and regression analysis to generate u displacement and v displacement, respectively, and using a long computation time such as RANSAC or Hough transformation for modeling .
이러한 종래의 문제점들을 해결하기 위한 본 발명의 목적은 별도의 V 변위 생성 없이, 3차원 영상 데이터 중 U 디스패리티 맵을 생성 가공하여 정확한 도로 정보를 사용자에게 제공함에 있다.An object of the present invention to solve such conventional problems is to generate a U disparity map of three-dimensional image data without generating a separate V displacement to provide accurate road information to a user.
이러한 목적들을 달성하기 위하여 본 발명에 따른 도로 인식 방법은 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 단계, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계 및 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계를 포함할 수 있다.To achieve these and other advantages and in accordance with the purpose of the present invention, as embodied and broadly described herein, there is provided a road recognition method comprising: generating a 3D disparity map for an image acquired through a stereo camera; generating a U disparity map in the 3D disparity map; Processing the U disparity map to simplify and processing the U disparity map, detecting a boundary candidate based on the 3D disparity map in the U disparity map, and filtering the detected boundary candidate to determine a boundary of the road can do.
다양한 실시 예에 따르면, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계는 상기 U 디스패리티 맵에 거리 가중치를 부여하는 단계 및 상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 단계를 포함할 수 있다. 상기 거리 가중치는 객체와의 거리가 멀수록 커지는 것을 특징으로 할 수 있다. 상기 문턱치는 미리 설정된 도로 영역의 표준 편차 정보를 기반으로 결정될 수 있다. 상기 문턱치에 의한 이진화 처리를 하는 단계는 U 디스패리티 값이 상기 문턱치 보다 낮은 점의 값을 0으로 설정하는 단계를 포함할 수 있다.According to various embodiments, processing and simplifying the U disparity map may include applying a distance weight to the U disparity map and binarizing the U disparity map with a threshold . And the distance weight increases as the distance from the object increases. The threshold value may be determined based on standard deviation information of a road area set in advance. The step of performing the binarization by the threshold may include setting a value of a point having a U disparity value lower than the threshold to zero.
다양한 실시 예에 따르면, 상기 경계 후보를 검출하는 단계는 지정된 열에서 경계에 해당하는 픽셀의 디스패리티 값을 찾는 단계 및 상기 디스패리티 값을 갖는 상기 3차원 디스패리티 맵에서의 위치를 결정하는 단계를 포함할 수 있다.According to various embodiments, the step of detecting the boundary candidate may comprise the steps of finding a disparity value of a pixel corresponding to a boundary in a designated column and determining a position in the 3D disparity map having the disparity value .
다양한 실시 예에 따르면, 상기 도로의 경계를 결정하는 단계는 상기 경계 후보로 검출된 점들을 연결하여 피크를 검출하는 단계, 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계를 포함할 수 있다. 상기 피크를 검출하는 단계는 상기 경계 후보로 검출된 점들을 제1 방향으로 연결하여 피크를 검출하는 단계 및 상기 경계 후보로 검출된 점들을 상기 제1 방향과 반대되는 제2 방향으로 연결하여 피크를 검출하는 단계를 포함할 수 있다. 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계는 상기 검출된 피크의 너비가 지정된 범위 미만인 경우, 상기 검출된 피크를 제거하는 단계를 포함할 수 있다.According to various embodiments, the step of determining the boundary of the road includes detecting peaks by connecting the detected points with the boundary candidate, and determining the boundary of the road based on the detected peak width can do. The detecting of the peak may include detecting a peak by connecting the points detected by the boundary candidate in a first direction and connecting the points detected by the boundary candidate in a second direction opposite to the first direction, And a step of detecting. The step of determining the boundaries of the road based on the detected peak width may include removing the detected peak when the width of the detected peak is less than a specified range.
본 발명에 따른 운송 수단은 스테레오 카메라, 상기 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 3차원 맵 생성부, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 U맵 생성부, 상기 U 디스패리티 맵을 가공하여 단순화하는 U맵 가공부, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 경계 검출부, 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 필터링부를 포함할 수 있다.The transportation means according to the present invention includes a stereo camera, a three-dimensional map generator for generating a three-dimensional disparity map for an image acquired through the stereo camera, a U map for generating a U disparity map in the three- A U-map processing unit for processing the U-disparity map to simplify the U-disparity map, a boundary detector for detecting a boundary candidate based on the 3D disparity map in the U-disparity map, And a filtering unit for determining the boundary of the image.
이와 같이, 본 발명에 따른 도로 인식 방법은 별도의 V 변위 생성을 위한 처리를 수행하지 않아 실시간으로 정확한 도로 인식 정보를 사용자에게 제공할 수 있다. As described above, the road recognition method according to the present invention does not perform a process for generating another V displacement, and can provide accurate road recognition information to a user in real time.
또한, 본 발명에 따른 도로 인식 방법은 양방향 필터링을 통해 불필요한 피크를 검출하여, 정확한 도로 경계를 결정할 수 있다.In addition, the road recognition method according to the present invention can detect unnecessary peaks through bidirectional filtering to determine accurate road boundaries.
도 1은 본 발명의 도로 인식 시스템의 구성도이다.
도 2는 다양한 실시 예에 따른 U맵 가공부의 구성을 나타내는 블록도 이다.
도 3은 다양한 실시 예에 따른 도로 인식 과정을 설명하는 순서도이다.
도 4는 다양한 실시 예에 따른 학습 기반 문턱치 적용에 관한 예시도 이다.
도 5는 다양한 실시 예에 따른 도로 경계 후보 검출을 설명하는 예시도이다.
도 6은 다양한 실시 예에 따른 필터링 부에서 수행되는 에러 제거 필터링 예시도이다.
도 7은 다양한 실시 예에 따른 실제 영상에 필터링 과정을 적용한 예시도이다.
도 8은 다양한 실시 예에 따른 경계 검출 예시도이다.1 is a configuration diagram of a road recognition system according to the present invention.
2 is a block diagram showing a configuration of a U-map processing unit according to various embodiments.
3 is a flowchart illustrating a road recognition process according to various embodiments.
Figure 4 is an exemplary diagram of applying a learning-based threshold according to various embodiments.
5 is an exemplary diagram illustrating road boundary candidate detection in accordance with various embodiments.
6 is an illustration of an example of error cancellation filtering performed in a filtering unit according to various embodiments.
FIG. 7 is a diagram illustrating an example of applying a filtering process to an actual image according to various embodiments.
8 is a diagram illustrating boundary detection according to various embodiments.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 다만, 실시예들을 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있고, 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 가급적 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the exemplary embodiments of the present invention, descriptions of techniques which are well known in the art and are not directly related to the present invention will be omitted. This is to omit the unnecessary description so as to convey the key of the present invention more clearly without fading.
도 1은 본 발명의 도로 인식 시스템의 구성도이다. 도로 인식 시스템 100은 차량과 같은 운송 수단에 장착될 수 있다. 도로 인식 시스템 100을 통해 처리된 정보는 운전자에게 전달되거나, 사용자 운행 보조 프로그램에 이용될 수 있고, 무인 운행 시스템에 이용될 수 있다.1 is a configuration diagram of a road recognition system according to the present invention. The
도 1을 참조하면, 도로 인식 시스템 100은 스테레오 카메라 110, 3차원 맵 생성부 120, U맵 생성부 130, U맵 가공부 140, 경계 검출부 150, 필터링부 160 및 출력부 170을 포함할 수 있다.1, the
스테레오 카메라 110은 지정된 간격을 두고 2개의 촬영용 렌즈를 배치하여 이미지 또는 영상을 촬영할 수 있다. 스테레오 카메라 110은 2개의 촬영용 렌즈를 통해 피사체를 동시에 촬영하고, 2개의 화상을 동시에 얻을 수 있다. The
3차원 맵 생성부 120은 스테레오 카메라 110를 통해 촬영된 영상 정보를 분석하여 3차원 맵을 생성할 수 있다. 3차원 맵 생성부 120은 각각의 렌즈를 통해 촬영된 영상은 비교를 통해 객체, 객체의 크기, 객체와의 거리 등을 분석할 수 있다. 예를 들어, 스테레오 카메라 110에 포함된 각각의 렌즈를 통해 촬영된 스테레오 이미지는 x축과 y축으로 표현될 수 있는 2차원 이미지 일수 있다. 3차원 맵 생성부 120은 동시간에 각각의 렌즈에서 촬영된 이미지를 비교하고, 상기 렌즈 사이의 거리를 반영하여 x축, y축 및 z축으로 표현될 수 있는 3차원 이미지를 생성할 수 있다.The three-dimensional
다양한 실시 예에 따르면, 3차원 맵 생성부 120은 촬영용 렌즈들의 위치, 렌즈 사이의 거리 및 설치 각도에 의해 발생하는 차이에 따른 3차원 디스패리티 맵을 생성할 수 있다.According to various embodiments, the three-
U맵 생성부 130은 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성할 수 있다. U 디스패리티 맵은 3차원 이미지 중 x축 및 z축의 값을 이용하여 같은 가로축에 위치하는 거리 값들의 히스토그램을 쌓음으로 획득될 수 있다.The U
종래의 도로 인식 기술은 스테레오 카메라의 디스패리티 맵을 종/횡 방향으로 나누어 누적시키는 u 변위, v 변위를 각각 생성하여 지면 영역을 판별하였다. 이러한 종래 기술은 u 변위, v 변위를 각각 생성하기 위해 클러스터링, 회귀 분석과 같은 복잡한 방식이 이용되고, 모델링에 RANSAC 나 Hough 변환 같은 연산 시간이 오래 걸리는 방식을 이용하여, 실시간 시스템 제공에 어려움이 있다.In the conventional road recognition technology, the u-displacement and the v-displacement, which divide and accumulate the disparity map of the stereo camera in longitudinal and lateral directions, respectively, are discriminated to discriminate the ground area. This conventional technique has difficulties in providing a real-time system by using a complicated method such as clustering and regression analysis to generate u displacement and v displacement, respectively, and employing a long computation time such as RANSAC or Hough transformation for modeling .
반면, 본 발명에 의한 도로 인식 기술은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 도로 인식 정보를 제공할 수 있다.On the other hand, the road recognition technology according to the present invention does not use a separate V disparity map and does not use a complicated algorithm such as RANSAC or Hough transformation used for straight line detection, and thus can maintain a high data processing speed. The processed data can be delivered to the driving support system in real time, and can provide road awareness information to the user.
U맵 가공부 140는 생성된 U 디스패리티 맵을 가공하여, 가중치 적용 및 이진화 처리를 할 수 있다. U맵 가공부 140은 U 디스패리티 값에 따른 가중치를 곱해서 단순 픽셀 수뿐만 아니라, 실제 거리 정보를 활용하여 데이터의 신뢰성을 높일 수 있다. 또한, U맵 가공부 140는 학습 기반의 문턱치(threshold)를 이용하여 이진화 작업을 수행할 수 있다. U맵 가공부 140의 동작에 관한 정보는 도 2 및 도 4를 통해 제공될 수 있다.The U
경계 검출부 150은 가공된 U 디스패리티 맵에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 3차원 디스패리트 맵을 참조할 수 있다. 경계 검출부 150의 동작에 관한 상세정보는 도 5를 통해 제공될 수 있다.The
필터링부 160은 경계 후보로 검출된 점들에 의해 발생하는 피크 중 일부를 필터링을 통해 제거할 수 있다. 필터링부 160은 경계 후보로 검출된 점들을 연결하는 과정에서 지정된 너비 이하의 피크를 제거하여 사용자에게 실질적으로 의미를 줄 수 있는 도로의 경계를 검출하도록 할 수 있다. 필터링부 160의 동작에 관한 상세정보는 도 6 및 도 7을 통해 제공될 수 있다.The
출력부 170은 필터링된 경계값을 반영한 이미지 또는 범위 값을 출력할 수 있다. 출력부 170은 필터링된 경계값을 반영한 이미지를 화면에 표시하거나 운전 지원 시스템에 제공하여 이용(협로 인식, 전방 차량 추종 및 충돌 회피 등)하도록 할 수 있다.The
도 2는 다양한 실시 예에 따른 U맵 가공부의 구성을 나타내는 블록도 이다.2 is a block diagram showing a configuration of a U-map processing unit according to various embodiments.
도 2를 참조하면, U맵 가공부 140은 가중치 계산부 210 및 문턱치 적용부 220을 포함할 수 있다.Referring to FIG. 2, the U
가중치 계산부 210은 U맵 생성부 130에서 제공 받은 U 디스패리티 값에 거리 가중치를 반영할 수 있다. 가중치 계산부 210은 U 디스패리티 값에 거리에 따른 가중치(먼 거리일수록 높은 가중치)를 곱해서 단순 픽셀 수뿐 아니라 실제 거리 정보를 활용할 수 있다. 거리 가중치는 하기의 수학식 1에 의해 반영될 수 있다. The
[수학식 1][Equation 1]
: U 디스패리티 값 : U disparity value
: 거리 가중치
: Distance Weight
문턱치 적용부 220은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다. 문턱치 적용부 220은 도로에 해당하는 영역의 디스패리티 분포에 관한 표준 편차 정보를 저장할 수 있다. 상기 표준 편차 정보는 일반적인 도로 지형에 대한 높이 정보를 기반으로 설정될 수 있다.The threshold
문턱치 적용부 220은 상기 표준 편차 정보에 따라 지정된 범위 이하의 U 디스패리티 값을 제거하기 위한 문턱치를 결정할 수 있다. 예를 들어, 문턱치 적용부 220은 전체 U 디스패리티 점들 중 상기 표준 편차 정보에 따라 60% 이하 범위의 점들을 제거하기 위한 문턱치를 결정할 수 있다. 문턱치 적용부 220은 일정 높이 미만의 값들은 0으로 만들고, 상기 높이 이상의 값들만 출력되도록 할 수 있다. 도 5를 통해, 문턱치 적용부 220의 동작에 관한 정보가 제공될 수 있다.The threshold
도 3은 다양한 실시 예에 따른 도로 인식 과정을 설명하는 순서도이다.3 is a flowchart illustrating a road recognition process according to various embodiments.
도 3을 참조하면, 동작 310에서, 3차원 맵 생성부 120은 촬영용 렌즈들의 위치, 렌즈 사이의 거리 및 설치 각도에 의해 발생하는 차이에 따른 3차원 디스패리티 맵을 생성할 수 있다.Referring to FIG. 3, in
동작 320에서, U맵 생성부 130은 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성할 수 있다. U맵 생성부 130은 3차원 이미지 중 x축 및 z축의 값을 이용하여 같은 가로축에 위치하는 거리 값들의 히스토그램을 쌓음으로 획득될 수 있다.In
동작 330에서, U맵 가공부 140은 생성된 U 디스패리티 맵을 가공하여, 가중치 적용 및 이진화 처리를 할 수 있다. U맵 가공부 140은 U맵 생성부 130에서 제공 받은 U 디스패리티 값에 거리 가중치를 반영할 수 있다. 또한, U맵 가공부 140은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다.In
동작 340에서, 경계 검출부 150은 가공된 U 디스패리티 맵에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 3차원 디스패리트 맵을 참조할 수 있다.In
동작 350에서, 필터링부 160은 경계 후보로 검출된 점들 중 일부를 필터링을 통해 제거할 수 있다. 필터링부 160은 경계 후보로 검출된 점들을 연결하는 과정에서 지정된 너비 이하의 피크를 제거하여 사용자에게 실질적으로 의미를 줄 수 있는 도로의 경계를 검출하도록 할 수 있다.In
동작 360에서, 출력부 170은 필터링된 경계값을 반영한 이미지를 화면에 표시하거나 운전 지원 시스템에 제공하여 이용(협로 인식, 전방 차량 추종 및 충돌 회피 등)하도록 할 수 있다.In
도 4는 다양한 실시 예에 따른 학습 기반 문턱치 적용에 관한 예시도 이다. Figure 4 is an exemplary diagram of applying a learning-based threshold according to various embodiments.
도 4를 참조하면, 문턱치 적용부 220은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다. Referring to FIG. 4, the threshold
제1 이미지 410은 문턱치 적용 이전의 U 디스패리티 분포를 나타낸다. 제1 이미지 410은 실제 도로의 경계가 되는 부분 이외에도 이미지 중/하단에 단순히 도로의 통상적인 높이차도 반영되어 있다. The first image 410 represents the U disparity distribution before applying the threshold. The first image 410 reflects merely the normal height difference of the road in the middle / lower part of the image in addition to the part that becomes the boundary of the actual road.
문턱치 적용부 220은 도로에 해당하는 영역의 디스패리티 분포에 관한 표준 편차 정보를 저장할 수 있다. 상기 표준 편차 정보는 일반적인 도로 지형에 대한 높이 정보를 기반으로 설정될 수 있다.The threshold
문턱치 적용부 220은 상기 표준 편차 정보에 따라 지정된 범위 이하의 U 디스패리티 값을 제거하기 위한 문턱치를 결정할 수 있다. 예를 들어, 문턱치 적용부 220은 제1 이미지 410의 전체 U 디스패리티 점들 중 상기 표준 편차 정보에 따라 60% 이하 범위의 점들을 제거하여 제2 이미지 420을 얻을 수 있다.The threshold
제2 이미지 420은 문턱치 적용에 따라 이미지 중/하단의 U 디스패리티 분포가 모두 0으로 처리되어 도로의 실제 경계를 판단하기 용이한 상태로 변환될 수 있다.The
도 5는 다양한 실시 예에 따른 도로 경계 후보 검출을 설명하는 예시도이다.5 is an exemplary diagram illustrating road boundary candidate detection in accordance with various embodiments.
도 5를 참조하면, 경계 검출부 150은 이진화된 U 디스패리티 맵 420에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 입력 영상인 3차원 디스패리티 맵 510을 참조할 수 있다. Referring to FIG. 5, the
경계 검출부 150은 이진화된 U 디스패리티 맵 420의 특정 열에서 경계에 해당하는 픽셀의 디스패리티 값(행 번호)을 찾을 수 있다. 경계 검출부 150은 3차원 디스패리티 맵 510에서 상기 디스패리티 값을 가지는 위치를 아래에서 위로 스캔하여 찾을 수 있다. 경계 검출부 150은 매칭되는 점의 위치 정보를 저장할 수 있다. The
예를 들어, 경계 검출부 150은 이진화된 U 디스패리티 맵 420에서 경계가 되는 점 411의 위치를 3차원 디스패리티 맵 520을 참조하여 찾을 수 있다. 경계 검출부 150은 경계가 되는 점 411의 디스패리티 값(행 번호)을 확인하고, 3차원 디스패리티 맵 510을 아래에서 위로 스캔하여 매칭되는 점 511을 찾을 수 있다. 경계 검출부 150은 상기 점 511의 위치를 실제 영상에서 매칭하여 점 521로 결정하고 결과를 저장할 수 있다.For example, the
본 발명에 의한 도로 인식 기술은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 제공될 수 있다.The road recognition technology according to the present invention does not use a separate V disparity map and does not use a complicated algorithm such as RANSAC or Hough transformation used for straight line detection, thereby enabling a fast data processing speed to be maintained. The processed data can be delivered to the driving support system in real time and can be provided to the user.
도 6은 다양한 실시 예에 따른 필터링부에서 수행되는 에러 제거 필터링 예시도이다.6 is an illustration of an example of error cancellation filtering performed in a filtering unit according to various embodiments.
도 6을 참조하면, 필터링부 160은 경계 후보로 검출된 점들을 연결할 때 에러가 발생하는 부분을 필터링을 통해 제거할 수 있다. 필터링부 160은 양 방향으로 피크를 검출하고, 하기 [수학식 2]를 통해 너비를 계산하여 일정 너비 미만의 피크를 제거할 수 있다.Referring to FIG. 6, the
[수학식 2]&Quot; (2) "
도 6에서, 필터링부 160은 필터링 이전의 경계 610에서, 제1 방향(예: 좌에서 우 방향)으로 검출된 점들을 연결할 수 있다. 이를 통해, 필터링부 160은 제1 피크 601 및 제3 피크 603을 검출할 수 있다. 필터링부 160은 제2 방향(예: 우에서 좌 방향)으로 검출된 점들을 연결하여 제2 피크 602를 검출할 수 있다.In FIG. 6, the
필터링부 160은 피크가 검출된 경계 620에서, 각각의 피크에 대한 너비를 결정할 수 있다. 필터링부 160은 검출된 피크의 폭이 상기 수학식에 의해 결정된 폭 보다 작은 피크를 제거할 수 있다.
예를 들어, 제1 피크 601, 제2 피크 602 및 제3 피크 603이 검출된 경우, 필터링부 160은 지정된 폭보다 큰 폭을 가지고 있는 제1 피크 601을 유지하고, 상기 지정된 폭 미만의 제2 피크 602 및 제3 피크 603를 제거하여 경계 630을 얻을 수 있다. 다양한 실시 예에서, 필터링부 160은 경계 630의 결과를 부드럽게 하여 연속된 경계로 인식될 수 있도록 박스 필터링 작업을 추가로 수행할 수 있다.For example, when the
도 7은 다양한 실시 예에 따른 실제 영상에 필터링 과정을 적용한 예시도이다.FIG. 7 is a diagram illustrating an example of applying a filtering process to an actual image according to various embodiments.
도 7을 참조하면, 필터링부 160은 1차 미분을 통해 피크를 검출할 수 있다. 필터링부 160은 제1 방향(예: 좌에서 우 방향)으로 검출된 점들을 연결하여 피크를 검출할 수 있고, 제2 방향(예: 우에서 좌 방향)으로 검출된 점들을 연결하여 피크를 검출할 수 있다. 이를 통해, 필터링 전의 경계 710이 결정될 수 있다.Referring to FIG. 7, the
필터링부 160은 검출된 피크 각각의 너비를 결정할 수 있다. 필터링부 160은 검출된 피크 중 지정된 너비 미만의 피크 721을 제거할 수 있다. 지정된 너비 이상의 피크 722는 제거되지 않고 도로 경계로 검출될 수 있다. 필터링부 160은 경계 730을 출력할 수 있다.The
도 8은 다양한 실시 예에 따른 경계 검출 예시도이다.8 is a diagram illustrating boundary detection according to various embodiments.
도 8을 참조하면, 도로 인식 시스템 100은 스테레오 카메라 110을 통해 획득한 각각의 이미지들에서 도로와 주변 사물 사이의 경계 801을 검출할 수 있다.Referring to FIG. 8, the
도로 인식 시스템 100은 U 디스패리티 맵을 생성하여 가공하고, 3차원 디스패리트 맵을 참조하여 경계가 되는 점들의 위치를 결정할 수 있다.The
도로 인식 시스템 100은 필터링 과정을 거쳐, 유의미한 피크들만을 검출하고 불필요한 피크를 제거하여 사용자가 실질적으로 이용할 수 있는 경계 801을 결정할 수 있다.The
도로 인식 시스템 100은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 제공될 수 있다.The
본 명세서와 도면에서는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 상기에 기재된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. Although the present invention has been described in connection with what is presently considered to be preferred embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, The present invention is not limited thereto. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments described above.
100: 도로 인식 시스템
110: 스테레오 카메라
120: 3차원 맵 생성부
130: U맵 생성부
140: U맵 가공부
150: 경계 검출부
160: 필터링부
170: 출력부100: Road recognition system 110: Stereo camera
120: three-dimensional map generating unit 130: U map generating unit
140: U map processing unit 150:
160: Filtering unit 170: Output unit
Claims (10)
상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계;
상기 U 디스패리티 맵을 가공하여 단순화하는 단계;
상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계; 및
상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계;를 포함하는 도로 인식 방법.Generating a 3D disparity map for an image acquired through a stereo camera;
Generating a U disparity map in the 3D disparity map;
Processing and simplifying the U disparity map;
Detecting a boundary candidate based on the 3D disparity map in the U disparity map; And
And determining the boundaries of the road by filtering the detected boundary candidates.
상기 U 디스패리티 맵에 거리 가중치를 부여하는 단계; 및
상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 단계;를 포함하는 도로 인식 방법.2. The method of claim 1, wherein processing and simplifying the U disparity map comprises:
Assigning a distance weight to the U disparity map; And
And binarizing the U disparity map with a threshold value.
객체와의 거리가 멀수록 커지는 것을 특징으로 하는 도로 인식 방법.3. The method of claim 2, wherein the distance weight
And the distance between the object and the object increases.
미리 설정된 도로 영역의 표준 편차 정보를 기반으로 결정되는 것을 특징으로 하는 도로 인식 방법.3. The method of claim 2,
Wherein the road information is determined based on standard deviation information of a predetermined road area.
U 디스패리티 값이 상기 문턱치 보다 낮은 점의 값을 0으로 설정하는 단계;를 포함하는 도로 인식 방법.3. The method of claim 2, wherein the step of binarizing comprises:
And setting a value of a point whose U disparity value is lower than the threshold to zero.
지정된 열에서 경계에 해당하는 픽셀의 디스패리티 값을 찾는 단계; 및
상기 디스패리티 값을 갖는 상기 3차원 디스패리티 맵에서의 위치를 결정하는 단계;를 포함하는 도로 인식 방법.2. The method of claim 1, wherein detecting the boundary candidate comprises:
Finding a disparity value of a pixel corresponding to the boundary in the designated column; And
And determining a position in the 3D disparity map having the disparity value.
상기 경계 후보로 검출된 점들을 연결하여 피크를 검출하는 단계;
상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계;를 포함하는 도로 인식 방법.2. The method of claim 1, wherein determining the boundary of the road comprises:
Detecting peaks by connecting points detected by the boundary candidate;
And determining a boundary of the road based on the detected peak width.
상기 경계 후보로 검출된 점들을 제1 방향으로 연결하여 피크를 검출하는 단계; 및
상기 경계 후보로 검출된 점들을 상기 제1 방향과 반대되는 제2 방향으로 연결하여 피크를 검출하는 단계;를 포함하는 도로 인식 방법.8. The method of claim 7, wherein detecting the peak comprises:
Detecting a peak by connecting points detected by the boundary candidate in a first direction; And
And detecting peaks by connecting the points detected by the boundary candidates in a second direction opposite to the first direction.
상기 검출된 피크의 너비가 지정된 범위 미만인 경우, 상기 검출된 피크를 제거하는 단계;를 포함하는 도로 결정 방법.8. The method of claim 7, wherein determining the boundary of the road based on the detected peak width comprises:
And removing the detected peak when the width of the detected peak is less than a specified range.
상기 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 3차원 맵 생성부;
상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 U맵 생성부;
상기 U 디스패리티 맵을 가공하여 단순화하는 U맵 가공부;
상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 경계 검출부; 및
상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 필터링부;를 포함하는 운송 수단.
Stereo camera;
A three-dimensional map generator for generating a three-dimensional disparity map of an image acquired through the stereo camera;
A U map generator for generating a U disparity map in the 3D disparity map;
A U map processing unit for processing and simplifying the U disparity map;
A boundary detector for detecting a boundary candidate based on the 3D disparity map in the U disparity map; And
And a filtering unit for filtering the detected boundary candidates to determine a boundary of the road.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140166515A KR102188164B1 (en) | 2014-11-26 | 2014-11-26 | Method of Road Recognition using 3D Data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140166515A KR102188164B1 (en) | 2014-11-26 | 2014-11-26 | Method of Road Recognition using 3D Data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160063039A true KR20160063039A (en) | 2016-06-03 |
KR102188164B1 KR102188164B1 (en) | 2020-12-07 |
Family
ID=56192311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140166515A KR102188164B1 (en) | 2014-11-26 | 2014-11-26 | Method of Road Recognition using 3D Data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102188164B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013618B2 (en) | 2016-06-09 | 2018-07-03 | Hyundai Motor Company | Method and apparatus for detecting side of object using ground boundary information of obstacle |
US10529085B2 (en) * | 2018-03-30 | 2020-01-07 | Samsung Electronics Co., Ltd. | Hardware disparity evaluation for stereo matching |
CN112036227A (en) * | 2020-06-10 | 2020-12-04 | 北京中科慧眼科技有限公司 | Method and device for detecting road surface travelable area and automatic driving system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120044699A (en) * | 2010-10-28 | 2012-05-08 | 재단법인대구경북과학기술원 | Method and apparatus for detecting obstacle on road |
JP2014067407A (en) * | 2012-09-24 | 2014-04-17 | Ricoh Co Ltd | Method and device for detecting travelable region on road surface |
KR101452628B1 (en) * | 2013-04-16 | 2014-10-23 | 한양대학교 산학협력단 | Method for detecting critical area for pedestrian protection system and apparatus therefor |
-
2014
- 2014-11-26 KR KR1020140166515A patent/KR102188164B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120044699A (en) * | 2010-10-28 | 2012-05-08 | 재단법인대구경북과학기술원 | Method and apparatus for detecting obstacle on road |
JP2014067407A (en) * | 2012-09-24 | 2014-04-17 | Ricoh Co Ltd | Method and device for detecting travelable region on road surface |
KR101452628B1 (en) * | 2013-04-16 | 2014-10-23 | 한양대학교 산학협력단 | Method for detecting critical area for pedestrian protection system and apparatus therefor |
Non-Patent Citations (1)
Title |
---|
Free Space Estimation for Autonomous Navigation, The 5th International Conference on Computer Vision Systems(ICVS 2007) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013618B2 (en) | 2016-06-09 | 2018-07-03 | Hyundai Motor Company | Method and apparatus for detecting side of object using ground boundary information of obstacle |
US10529085B2 (en) * | 2018-03-30 | 2020-01-07 | Samsung Electronics Co., Ltd. | Hardware disparity evaluation for stereo matching |
CN112036227A (en) * | 2020-06-10 | 2020-12-04 | 北京中科慧眼科技有限公司 | Method and device for detecting road surface travelable area and automatic driving system |
CN112036227B (en) * | 2020-06-10 | 2024-01-16 | 北京中科慧眼科技有限公司 | Road surface drivable area detection method, device and automatic driving system |
Also Published As
Publication number | Publication date |
---|---|
KR102188164B1 (en) | 2020-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102109941B1 (en) | Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera | |
CN107272021B (en) | Object detection using radar and visually defined image detection areas | |
EP2728546B1 (en) | Method and system for detecting object on a road | |
JP6670071B2 (en) | Vehicle image recognition system and corresponding method | |
EP3057063B1 (en) | Object detection device and vehicle using same | |
JP5926228B2 (en) | Depth detection method and system for autonomous vehicles | |
WO2017158958A1 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, and program | |
WO2017138245A1 (en) | Image processing device, object recognition device, device control system, and image processing method and program | |
JP6574611B2 (en) | Sensor system for obtaining distance information based on stereoscopic images | |
JPH07129898A (en) | Obstacle detecting device | |
JP6597792B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
JP6516012B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
JP6547841B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
JPH11351862A (en) | Foregoing vehicle detecting method and equipment | |
JP3961584B2 (en) | Lane marking detector | |
Yiruo et al. | Complex ground plane detection based on v-disparity map in off-road environment | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
JP6543935B2 (en) | PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM | |
JP2023029441A (en) | Measuring device, measuring system, and vehicle | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
KR102188164B1 (en) | Method of Road Recognition using 3D Data | |
CN110197104B (en) | Distance measurement method and device based on vehicle | |
Romdhane et al. | A generic obstacle detection method for collision avoidance | |
JP2005156199A (en) | Vehicle detection method and vehicle detector | |
JP5587852B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |