KR20160063039A - Method of Road Recognition using 3D Data - Google Patents

Method of Road Recognition using 3D Data Download PDF

Info

Publication number
KR20160063039A
KR20160063039A KR1020140166515A KR20140166515A KR20160063039A KR 20160063039 A KR20160063039 A KR 20160063039A KR 1020140166515 A KR1020140166515 A KR 1020140166515A KR 20140166515 A KR20140166515 A KR 20140166515A KR 20160063039 A KR20160063039 A KR 20160063039A
Authority
KR
South Korea
Prior art keywords
boundary
disparity map
map
road
disparity
Prior art date
Application number
KR1020140166515A
Other languages
Korean (ko)
Other versions
KR102188164B1 (en
Inventor
이재홍
윤성원
이동하
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140166515A priority Critical patent/KR102188164B1/en
Publication of KR20160063039A publication Critical patent/KR20160063039A/en
Application granted granted Critical
Publication of KR102188164B1 publication Critical patent/KR102188164B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection

Abstract

The present invention relates to a road recognition method which comprises the following steps of: generating a 3D disparity map with respect to an image obtained through a stereoscopic camera; generating a U disparity map in the 3D disparity map; processing and simplifying the U disparity map; detecting a boundary candidate based on the 3D disparity map in the U disparity map; and filtering the detected boundary candidate to determine a boundary of a road. Therefore, the road recognition method does not perform an additional process of generating V displacement to provide accurate road recognition information to a user in real time.

Description

3차원 데이터를 이용한 도로 인식 방법{Method of Road Recognition using 3D Data}Field of the Invention [0001] The present invention relates to a road recognition method using 3D data,

본 발명은 3차원 데이터를 이용한 도로 인식 방법에 관한 것으로, 보다 구체적으로 3차원 디스패리티 맵(Disparity Map)을 이용하여 도로의 경계를 검출하는 방법에 관한 것이다.More particularly, the present invention relates to a method of detecting a boundary of a road using a 3D disparity map.

차량 등의 운송 수단은 입체 카메라를 이용하여 주변을 촬영하고, 촬영된 영상을 기반으로 도로의 경계면, 주변 장애물 등을 인식할 수 있다.A transportation means such as a vehicle can photograph a periphery using a three-dimensional camera, and can recognize a boundary surface of a road, a peripheral obstacle, and the like based on the photographed image.

종래의 도로 인식 기술은 스테레오 카메라의 디스패리티 맵을 종/횡 방향으로 나누어 누적시키는 u 변위, v 변위를 각각 생성하여 지면 영역을 판별하였다. 이러한 종래 기술은 u 변위, v 변위를 각각 생성하기 위해 클러스터링, 회귀 분석과 같은 복잡한 방식이 이용되고, 모델링에 RANSAC 나 Hough 변환 같은 연산 시간이 오래 걸리는 방식을 이용하여, 실시간 정보 제공에 어려움이 있다.In the conventional road recognition technology, the u-displacement and the v-displacement, which divide and accumulate the disparity map of the stereo camera in longitudinal and lateral directions, respectively, are discriminated to discriminate the ground area. This conventional technique has difficulties in providing real-time information by using a complicated method such as clustering and regression analysis to generate u displacement and v displacement, respectively, and using a long computation time such as RANSAC or Hough transformation for modeling .

이러한 종래의 문제점들을 해결하기 위한 본 발명의 목적은 별도의 V 변위 생성 없이, 3차원 영상 데이터 중 U 디스패리티 맵을 생성 가공하여 정확한 도로 정보를 사용자에게 제공함에 있다.An object of the present invention to solve such conventional problems is to generate a U disparity map of three-dimensional image data without generating a separate V displacement to provide accurate road information to a user.

이러한 목적들을 달성하기 위하여 본 발명에 따른 도로 인식 방법은 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 단계, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계 및 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계를 포함할 수 있다.To achieve these and other advantages and in accordance with the purpose of the present invention, as embodied and broadly described herein, there is provided a road recognition method comprising: generating a 3D disparity map for an image acquired through a stereo camera; generating a U disparity map in the 3D disparity map; Processing the U disparity map to simplify and processing the U disparity map, detecting a boundary candidate based on the 3D disparity map in the U disparity map, and filtering the detected boundary candidate to determine a boundary of the road can do.

다양한 실시 예에 따르면, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계는 상기 U 디스패리티 맵에 거리 가중치를 부여하는 단계 및 상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 단계를 포함할 수 있다. 상기 거리 가중치는 객체와의 거리가 멀수록 커지는 것을 특징으로 할 수 있다. 상기 문턱치는 미리 설정된 도로 영역의 표준 편차 정보를 기반으로 결정될 수 있다. 상기 문턱치에 의한 이진화 처리를 하는 단계는 U 디스패리티 값이 상기 문턱치 보다 낮은 점의 값을 0으로 설정하는 단계를 포함할 수 있다.According to various embodiments, processing and simplifying the U disparity map may include applying a distance weight to the U disparity map and binarizing the U disparity map with a threshold . And the distance weight increases as the distance from the object increases. The threshold value may be determined based on standard deviation information of a road area set in advance. The step of performing the binarization by the threshold may include setting a value of a point having a U disparity value lower than the threshold to zero.

다양한 실시 예에 따르면, 상기 경계 후보를 검출하는 단계는 지정된 열에서 경계에 해당하는 픽셀의 디스패리티 값을 찾는 단계 및 상기 디스패리티 값을 갖는 상기 3차원 디스패리티 맵에서의 위치를 결정하는 단계를 포함할 수 있다.According to various embodiments, the step of detecting the boundary candidate may comprise the steps of finding a disparity value of a pixel corresponding to a boundary in a designated column and determining a position in the 3D disparity map having the disparity value .

다양한 실시 예에 따르면, 상기 도로의 경계를 결정하는 단계는 상기 경계 후보로 검출된 점들을 연결하여 피크를 검출하는 단계, 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계를 포함할 수 있다. 상기 피크를 검출하는 단계는 상기 경계 후보로 검출된 점들을 제1 방향으로 연결하여 피크를 검출하는 단계 및 상기 경계 후보로 검출된 점들을 상기 제1 방향과 반대되는 제2 방향으로 연결하여 피크를 검출하는 단계를 포함할 수 있다. 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계는 상기 검출된 피크의 너비가 지정된 범위 미만인 경우, 상기 검출된 피크를 제거하는 단계를 포함할 수 있다.According to various embodiments, the step of determining the boundary of the road includes detecting peaks by connecting the detected points with the boundary candidate, and determining the boundary of the road based on the detected peak width can do. The detecting of the peak may include detecting a peak by connecting the points detected by the boundary candidate in a first direction and connecting the points detected by the boundary candidate in a second direction opposite to the first direction, And a step of detecting. The step of determining the boundaries of the road based on the detected peak width may include removing the detected peak when the width of the detected peak is less than a specified range.

본 발명에 따른 운송 수단은 스테레오 카메라, 상기 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 3차원 맵 생성부, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 U맵 생성부, 상기 U 디스패리티 맵을 가공하여 단순화하는 U맵 가공부, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 경계 검출부, 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 필터링부를 포함할 수 있다.The transportation means according to the present invention includes a stereo camera, a three-dimensional map generator for generating a three-dimensional disparity map for an image acquired through the stereo camera, a U map for generating a U disparity map in the three- A U-map processing unit for processing the U-disparity map to simplify the U-disparity map, a boundary detector for detecting a boundary candidate based on the 3D disparity map in the U-disparity map, And a filtering unit for determining the boundary of the image.

이와 같이, 본 발명에 따른 도로 인식 방법은 별도의 V 변위 생성을 위한 처리를 수행하지 않아 실시간으로 정확한 도로 인식 정보를 사용자에게 제공할 수 있다. As described above, the road recognition method according to the present invention does not perform a process for generating another V displacement, and can provide accurate road recognition information to a user in real time.

또한, 본 발명에 따른 도로 인식 방법은 양방향 필터링을 통해 불필요한 피크를 검출하여, 정확한 도로 경계를 결정할 수 있다.In addition, the road recognition method according to the present invention can detect unnecessary peaks through bidirectional filtering to determine accurate road boundaries.

도 1은 본 발명의 도로 인식 시스템의 구성도이다.
도 2는 다양한 실시 예에 따른 U맵 가공부의 구성을 나타내는 블록도 이다.
도 3은 다양한 실시 예에 따른 도로 인식 과정을 설명하는 순서도이다.
도 4는 다양한 실시 예에 따른 학습 기반 문턱치 적용에 관한 예시도 이다.
도 5는 다양한 실시 예에 따른 도로 경계 후보 검출을 설명하는 예시도이다.
도 6은 다양한 실시 예에 따른 필터링 부에서 수행되는 에러 제거 필터링 예시도이다.
도 7은 다양한 실시 예에 따른 실제 영상에 필터링 과정을 적용한 예시도이다.
도 8은 다양한 실시 예에 따른 경계 검출 예시도이다.
1 is a configuration diagram of a road recognition system according to the present invention.
2 is a block diagram showing a configuration of a U-map processing unit according to various embodiments.
3 is a flowchart illustrating a road recognition process according to various embodiments.
Figure 4 is an exemplary diagram of applying a learning-based threshold according to various embodiments.
5 is an exemplary diagram illustrating road boundary candidate detection in accordance with various embodiments.
6 is an illustration of an example of error cancellation filtering performed in a filtering unit according to various embodiments.
FIG. 7 is a diagram illustrating an example of applying a filtering process to an actual image according to various embodiments.
8 is a diagram illustrating boundary detection according to various embodiments.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 다만, 실시예들을 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있고, 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 가급적 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the exemplary embodiments of the present invention, descriptions of techniques which are well known in the art and are not directly related to the present invention will be omitted. This is to omit the unnecessary description so as to convey the key of the present invention more clearly without fading.

도 1은 본 발명의 도로 인식 시스템의 구성도이다. 도로 인식 시스템 100은 차량과 같은 운송 수단에 장착될 수 있다. 도로 인식 시스템 100을 통해 처리된 정보는 운전자에게 전달되거나, 사용자 운행 보조 프로그램에 이용될 수 있고, 무인 운행 시스템에 이용될 수 있다.1 is a configuration diagram of a road recognition system according to the present invention. The road recognition system 100 may be mounted on a vehicle such as a vehicle. The information processed through the road recognition system 100 may be transmitted to the driver, used for the user's operation assistance program, and used for the unmanned operation system.

도 1을 참조하면, 도로 인식 시스템 100은 스테레오 카메라 110, 3차원 맵 생성부 120, U맵 생성부 130, U맵 가공부 140, 경계 검출부 150, 필터링부 160 및 출력부 170을 포함할 수 있다.1, the road recognition system 100 may include a stereo camera 110, a 3D map generator 120, a U map generator 130, a U map processor 140, a boundary detector 150, a filtering unit 160, and an output unit 170 .

스테레오 카메라 110은 지정된 간격을 두고 2개의 촬영용 렌즈를 배치하여 이미지 또는 영상을 촬영할 수 있다. 스테레오 카메라 110은 2개의 촬영용 렌즈를 통해 피사체를 동시에 촬영하고, 2개의 화상을 동시에 얻을 수 있다. The stereo camera 110 can photograph two or more photographing lenses at specified intervals to take an image or an image. The stereo camera 110 can simultaneously photograph an object through two photographing lenses and obtain two images at the same time.

3차원 맵 생성부 120은 스테레오 카메라 110를 통해 촬영된 영상 정보를 분석하여 3차원 맵을 생성할 수 있다. 3차원 맵 생성부 120은 각각의 렌즈를 통해 촬영된 영상은 비교를 통해 객체, 객체의 크기, 객체와의 거리 등을 분석할 수 있다. 예를 들어, 스테레오 카메라 110에 포함된 각각의 렌즈를 통해 촬영된 스테레오 이미지는 x축과 y축으로 표현될 수 있는 2차원 이미지 일수 있다. 3차원 맵 생성부 120은 동시간에 각각의 렌즈에서 촬영된 이미지를 비교하고, 상기 렌즈 사이의 거리를 반영하여 x축, y축 및 z축으로 표현될 수 있는 3차원 이미지를 생성할 수 있다.The three-dimensional map generating unit 120 may generate the three-dimensional map by analyzing the image information photographed through the stereo camera 110. The three-dimensional map generation unit 120 can analyze an object photographed through each lens, a size of the object, a distance to the object, and the like through comparison. For example, a stereo image taken through each lens included in the stereo camera 110 may be a two-dimensional image that can be represented by x and y axes. The three-dimensional map generating unit 120 may compare the images photographed by the respective lenses at the same time, and may generate a three-dimensional image that can be represented by x-axis, y-axis, and z-axis reflecting the distance between the lenses .

다양한 실시 예에 따르면, 3차원 맵 생성부 120은 촬영용 렌즈들의 위치, 렌즈 사이의 거리 및 설치 각도에 의해 발생하는 차이에 따른 3차원 디스패리티 맵을 생성할 수 있다.According to various embodiments, the three-dimensional map generator 120 may generate a three-dimensional disparity map according to the difference caused by the position of the photographing lenses, the distance between the lenses, and the installation angle.

U맵 생성부 130은 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성할 수 있다. U 디스패리티 맵은 3차원 이미지 중 x축 및 z축의 값을 이용하여 같은 가로축에 위치하는 거리 값들의 히스토그램을 쌓음으로 획득될 수 있다.The U map generating unit 130 may generate a U disparity map in the 3D disparity map. The U disparity map can be obtained by accumulating histograms of distance values located on the same horizontal axis by using values of x axis and z axis among three-dimensional images.

종래의 도로 인식 기술은 스테레오 카메라의 디스패리티 맵을 종/횡 방향으로 나누어 누적시키는 u 변위, v 변위를 각각 생성하여 지면 영역을 판별하였다. 이러한 종래 기술은 u 변위, v 변위를 각각 생성하기 위해 클러스터링, 회귀 분석과 같은 복잡한 방식이 이용되고, 모델링에 RANSAC 나 Hough 변환 같은 연산 시간이 오래 걸리는 방식을 이용하여, 실시간 시스템 제공에 어려움이 있다.In the conventional road recognition technology, the u-displacement and the v-displacement, which divide and accumulate the disparity map of the stereo camera in longitudinal and lateral directions, respectively, are discriminated to discriminate the ground area. This conventional technique has difficulties in providing a real-time system by using a complicated method such as clustering and regression analysis to generate u displacement and v displacement, respectively, and employing a long computation time such as RANSAC or Hough transformation for modeling .

반면, 본 발명에 의한 도로 인식 기술은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 도로 인식 정보를 제공할 수 있다.On the other hand, the road recognition technology according to the present invention does not use a separate V disparity map and does not use a complicated algorithm such as RANSAC or Hough transformation used for straight line detection, and thus can maintain a high data processing speed. The processed data can be delivered to the driving support system in real time, and can provide road awareness information to the user.

U맵 가공부 140는 생성된 U 디스패리티 맵을 가공하여, 가중치 적용 및 이진화 처리를 할 수 있다. U맵 가공부 140은 U 디스패리티 값에 따른 가중치를 곱해서 단순 픽셀 수뿐만 아니라, 실제 거리 정보를 활용하여 데이터의 신뢰성을 높일 수 있다. 또한, U맵 가공부 140는 학습 기반의 문턱치(threshold)를 이용하여 이진화 작업을 수행할 수 있다. U맵 가공부 140의 동작에 관한 정보는 도 2 및 도 4를 통해 제공될 수 있다.The U map processing unit 140 may process the generated U disparity map, and may apply weighting and binarization processing. The U map processing unit 140 can increase the reliability of data by using not only the number of pixels but also the actual distance information by multiplying the weight according to the U disparity value. In addition, the U map processing unit 140 can perform a binarization operation using a learning-based threshold. Information regarding the operation of the U map processing section 140 may be provided through FIG. 2 and FIG.

경계 검출부 150은 가공된 U 디스패리티 맵에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 3차원 디스패리트 맵을 참조할 수 있다. 경계 검출부 150의 동작에 관한 상세정보는 도 5를 통해 제공될 수 있다.The boundary detection unit 150 may connect boundary points in the processed U disparity map. The boundary detector 150 may refer to the 3D disparity map to display the position of the boundary points in the image. Detailed information regarding the operation of the boundary detection unit 150 may be provided through FIG.

필터링부 160은 경계 후보로 검출된 점들에 의해 발생하는 피크 중 일부를 필터링을 통해 제거할 수 있다. 필터링부 160은 경계 후보로 검출된 점들을 연결하는 과정에서 지정된 너비 이하의 피크를 제거하여 사용자에게 실질적으로 의미를 줄 수 있는 도로의 경계를 검출하도록 할 수 있다. 필터링부 160의 동작에 관한 상세정보는 도 6 및 도 7을 통해 제공될 수 있다.The filtering unit 160 may filter out some of the peaks generated by the points detected as boundary candidates. The filtering unit 160 may remove a peak below a predetermined width in the process of connecting the detected points to the boundary candidates, thereby detecting the boundary of the road that can give a substantial meaning to the user. Detailed information regarding the operation of the filtering unit 160 may be provided through Figs. 6 and 7. Fig.

출력부 170은 필터링된 경계값을 반영한 이미지 또는 범위 값을 출력할 수 있다. 출력부 170은 필터링된 경계값을 반영한 이미지를 화면에 표시하거나 운전 지원 시스템에 제공하여 이용(협로 인식, 전방 차량 추종 및 충돌 회피 등)하도록 할 수 있다.The output unit 170 may output an image or a range value reflecting the filtered boundary value. The output unit 170 may display an image reflecting the filtered boundary value on the screen or provide it to a driving support system so as to use it (narrowing recognition, forward vehicle tracking, collision avoidance, etc.).

도 2는 다양한 실시 예에 따른 U맵 가공부의 구성을 나타내는 블록도 이다.2 is a block diagram showing a configuration of a U-map processing unit according to various embodiments.

도 2를 참조하면, U맵 가공부 140은 가중치 계산부 210 및 문턱치 적용부 220을 포함할 수 있다.Referring to FIG. 2, the U map processing unit 140 may include a weight calculation unit 210 and a threshold value application unit 220.

가중치 계산부 210은 U맵 생성부 130에서 제공 받은 U 디스패리티 값에 거리 가중치를 반영할 수 있다. 가중치 계산부 210은 U 디스패리티 값에 거리에 따른 가중치(먼 거리일수록 높은 가중치)를 곱해서 단순 픽셀 수뿐 아니라 실제 거리 정보를 활용할 수 있다. 거리 가중치는 하기의 수학식 1에 의해 반영될 수 있다. The weight calculation unit 210 may reflect the distance weight to the U disparity value provided by the U map generation unit 130. [ The weight calculation unit 210 may multiply the U disparity value by a weight according to distance (a higher weight as the distance increases) so that the actual distance information as well as the simple pixel count can be utilized. The distance weight can be reflected by the following equation (1).

[수학식 1][Equation 1]

Figure pat00001

Figure pat00001

Figure pat00002
: U 디스패리티 값
Figure pat00002
: U disparity value

Figure pat00003
: 거리 가중치
Figure pat00003
: Distance Weight

문턱치 적용부 220은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다. 문턱치 적용부 220은 도로에 해당하는 영역의 디스패리티 분포에 관한 표준 편차 정보를 저장할 수 있다. 상기 표준 편차 정보는 일반적인 도로 지형에 대한 높이 정보를 기반으로 설정될 수 있다.The threshold value applying unit 220 can simplify a part of the area corresponding to the road by binarizing. The threshold value applying unit 220 may store standard deviation information on the disparity distribution of the area corresponding to the road. The standard deviation information may be set based on height information of a general road topography.

문턱치 적용부 220은 상기 표준 편차 정보에 따라 지정된 범위 이하의 U 디스패리티 값을 제거하기 위한 문턱치를 결정할 수 있다. 예를 들어, 문턱치 적용부 220은 전체 U 디스패리티 점들 중 상기 표준 편차 정보에 따라 60% 이하 범위의 점들을 제거하기 위한 문턱치를 결정할 수 있다. 문턱치 적용부 220은 일정 높이 미만의 값들은 0으로 만들고, 상기 높이 이상의 값들만 출력되도록 할 수 있다. 도 5를 통해, 문턱치 적용부 220의 동작에 관한 정보가 제공될 수 있다.The threshold value applying unit 220 may determine a threshold for removing a U disparity value below a predetermined range according to the standard deviation information. For example, the threshold applying unit 220 may determine a threshold for removing points within a range of 60% or less based on the standard deviation information among all the U disparity points. The threshold value application unit 220 may set values less than a certain height to 0, and output only values higher than the height. 5, information on the operation of the threshold applying unit 220 may be provided.

도 3은 다양한 실시 예에 따른 도로 인식 과정을 설명하는 순서도이다.3 is a flowchart illustrating a road recognition process according to various embodiments.

도 3을 참조하면, 동작 310에서, 3차원 맵 생성부 120은 촬영용 렌즈들의 위치, 렌즈 사이의 거리 및 설치 각도에 의해 발생하는 차이에 따른 3차원 디스패리티 맵을 생성할 수 있다.Referring to FIG. 3, in operation 310, the three-dimensional map generator 120 may generate a three-dimensional disparity map according to the difference caused by the position of the photographing lenses, the distance between the lenses, and the installation angle.

동작 320에서, U맵 생성부 130은 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성할 수 있다. U맵 생성부 130은 3차원 이미지 중 x축 및 z축의 값을 이용하여 같은 가로축에 위치하는 거리 값들의 히스토그램을 쌓음으로 획득될 수 있다.In operation 320, the U map generating unit 130 may generate a U disparity map in the 3D disparity map. The U-map generating unit 130 can be obtained by accumulating histograms of distance values located on the same horizontal axis by using values of the x-axis and the z-axis among the three-dimensional images.

동작 330에서, U맵 가공부 140은 생성된 U 디스패리티 맵을 가공하여, 가중치 적용 및 이진화 처리를 할 수 있다. U맵 가공부 140은 U맵 생성부 130에서 제공 받은 U 디스패리티 값에 거리 가중치를 반영할 수 있다. 또한, U맵 가공부 140은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다.In operation 330, the U map processing unit 140 may process the generated U disparity map to perform weighting and binarization processing. The U map processing unit 140 may reflect the distance weight to the U disparity value provided by the U map generating unit 130. In addition, the U map processing unit 140 can simplify a part of the area corresponding to the road by binarizing.

동작 340에서, 경계 검출부 150은 가공된 U 디스패리티 맵에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 3차원 디스패리트 맵을 참조할 수 있다.In operation 340, the boundary detector 150 may concatenate boundary points in the processed U disparity map. The boundary detector 150 may refer to the 3D disparity map to display the position of the boundary points in the image.

동작 350에서, 필터링부 160은 경계 후보로 검출된 점들 중 일부를 필터링을 통해 제거할 수 있다. 필터링부 160은 경계 후보로 검출된 점들을 연결하는 과정에서 지정된 너비 이하의 피크를 제거하여 사용자에게 실질적으로 의미를 줄 수 있는 도로의 경계를 검출하도록 할 수 있다.In operation 350, the filtering unit 160 may filter out some of the points detected as boundary candidates. The filtering unit 160 may remove a peak below a predetermined width in the process of connecting the detected points to the boundary candidates, thereby detecting the boundary of the road that can give a substantial meaning to the user.

동작 360에서, 출력부 170은 필터링된 경계값을 반영한 이미지를 화면에 표시하거나 운전 지원 시스템에 제공하여 이용(협로 인식, 전방 차량 추종 및 충돌 회피 등)하도록 할 수 있다.In operation 360, the output unit 170 may display an image reflecting the filtered boundary value on the screen or provide it to the driving support system for use (narrowing recognition, forward vehicle tracking, collision avoidance, etc.).

도 4는 다양한 실시 예에 따른 학습 기반 문턱치 적용에 관한 예시도 이다. Figure 4 is an exemplary diagram of applying a learning-based threshold according to various embodiments.

도 4를 참조하면, 문턱치 적용부 220은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다. Referring to FIG. 4, the threshold value application unit 220 can simplify a part of the area corresponding to the road by binarizing the area.

제1 이미지 410은 문턱치 적용 이전의 U 디스패리티 분포를 나타낸다. 제1 이미지 410은 실제 도로의 경계가 되는 부분 이외에도 이미지 중/하단에 단순히 도로의 통상적인 높이차도 반영되어 있다. The first image 410 represents the U disparity distribution before applying the threshold. The first image 410 reflects merely the normal height difference of the road in the middle / lower part of the image in addition to the part that becomes the boundary of the actual road.

문턱치 적용부 220은 도로에 해당하는 영역의 디스패리티 분포에 관한 표준 편차 정보를 저장할 수 있다. 상기 표준 편차 정보는 일반적인 도로 지형에 대한 높이 정보를 기반으로 설정될 수 있다.The threshold value applying unit 220 may store standard deviation information on the disparity distribution of the area corresponding to the road. The standard deviation information may be set based on height information of a general road topography.

문턱치 적용부 220은 상기 표준 편차 정보에 따라 지정된 범위 이하의 U 디스패리티 값을 제거하기 위한 문턱치를 결정할 수 있다. 예를 들어, 문턱치 적용부 220은 제1 이미지 410의 전체 U 디스패리티 점들 중 상기 표준 편차 정보에 따라 60% 이하 범위의 점들을 제거하여 제2 이미지 420을 얻을 수 있다.The threshold value applying unit 220 may determine a threshold for removing a U disparity value below a predetermined range according to the standard deviation information. For example, the threshold applying unit 220 can obtain the second image 420 by removing the points in the range of 60% or less based on the standard deviation information among the entire U disparity points of the first image 410.

제2 이미지 420은 문턱치 적용에 따라 이미지 중/하단의 U 디스패리티 분포가 모두 0으로 처리되어 도로의 실제 경계를 판단하기 용이한 상태로 변환될 수 있다.The second image 420 can be converted into a state in which the U-disparity distribution in the lower / upper part of the image is all set to 0 according to the application of the threshold, so that the actual boundary of the road can be easily determined.

도 5는 다양한 실시 예에 따른 도로 경계 후보 검출을 설명하는 예시도이다.5 is an exemplary diagram illustrating road boundary candidate detection in accordance with various embodiments.

도 5를 참조하면, 경계 검출부 150은 이진화된 U 디스패리티 맵 420에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 입력 영상인 3차원 디스패리티 맵 510을 참조할 수 있다. Referring to FIG. 5, the boundary detector 150 may connect boundary points in the binarized U disparity map 420. The boundary detection unit 150 may refer to the 3D disparity map 510, which is an input image, in order to display the position of the boundary points in the image.

경계 검출부 150은 이진화된 U 디스패리티 맵 420의 특정 열에서 경계에 해당하는 픽셀의 디스패리티 값(행 번호)을 찾을 수 있다. 경계 검출부 150은 3차원 디스패리티 맵 510에서 상기 디스패리티 값을 가지는 위치를 아래에서 위로 스캔하여 찾을 수 있다. 경계 검출부 150은 매칭되는 점의 위치 정보를 저장할 수 있다. The boundary detector 150 can find the disparity value (row number) of the pixel corresponding to the boundary in the specific column of the binarized U disparity map 420. The boundary detector 150 can scan the 3D disparity map 510 by scanning the position having the disparity value from bottom to top. The boundary detection unit 150 may store position information of a matching point.

예를 들어, 경계 검출부 150은 이진화된 U 디스패리티 맵 420에서 경계가 되는 점 411의 위치를 3차원 디스패리티 맵 520을 참조하여 찾을 수 있다. 경계 검출부 150은 경계가 되는 점 411의 디스패리티 값(행 번호)을 확인하고, 3차원 디스패리티 맵 510을 아래에서 위로 스캔하여 매칭되는 점 511을 찾을 수 있다. 경계 검출부 150은 상기 점 511의 위치를 실제 영상에서 매칭하여 점 521로 결정하고 결과를 저장할 수 있다.For example, the boundary detector 150 can find the position of the boundary 411 in the binarized U disparity map 420 by referring to the 3D disparity map 520. The boundary detection unit 150 can check the disparity value (line number) of the boundary point 411 and scan the 3D disparity map 510 from below to find the matched point 511. The boundary detection unit 150 may determine the point 521 as a result of matching the position of the point 511 in the actual image and store the result.

본 발명에 의한 도로 인식 기술은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 제공될 수 있다.The road recognition technology according to the present invention does not use a separate V disparity map and does not use a complicated algorithm such as RANSAC or Hough transformation used for straight line detection, thereby enabling a fast data processing speed to be maintained. The processed data can be delivered to the driving support system in real time and can be provided to the user.

도 6은 다양한 실시 예에 따른 필터링부에서 수행되는 에러 제거 필터링 예시도이다.6 is an illustration of an example of error cancellation filtering performed in a filtering unit according to various embodiments.

도 6을 참조하면, 필터링부 160은 경계 후보로 검출된 점들을 연결할 때 에러가 발생하는 부분을 필터링을 통해 제거할 수 있다. 필터링부 160은 양 방향으로 피크를 검출하고, 하기 [수학식 2]를 통해 너비를 계산하여 일정 너비 미만의 피크를 제거할 수 있다.Referring to FIG. 6, the filtering unit 160 may remove a portion where an error occurs when filtering the points detected as boundary candidates through filtering. The filtering unit 160 can detect peaks in both directions and calculate a width through the following equation (2) to remove peaks less than a predetermined width.

[수학식 2]&Quot; (2) "

Figure pat00004

Figure pat00004

도 6에서, 필터링부 160은 필터링 이전의 경계 610에서, 제1 방향(예: 좌에서 우 방향)으로 검출된 점들을 연결할 수 있다. 이를 통해, 필터링부 160은 제1 피크 601 및 제3 피크 603을 검출할 수 있다. 필터링부 160은 제2 방향(예: 우에서 좌 방향)으로 검출된 점들을 연결하여 제2 피크 602를 검출할 수 있다.In FIG. 6, the filtering unit 160 may connect the detected points in the first direction (e.g., from left to right) at the pre-filtering boundary 610. Accordingly, the filtering unit 160 can detect the first peak 601 and the third peak 603. The filtering unit 160 may detect the second peak 602 by connecting the detected points in the second direction (e.g., right to left direction).

필터링부 160은 피크가 검출된 경계 620에서, 각각의 피크에 대한 너비를 결정할 수 있다. 필터링부 160은 검출된 피크의 폭이 상기 수학식에 의해 결정된 폭 보다 작은 피크를 제거할 수 있다.Filtering section 160 may determine the width for each peak at boundary 620 where a peak is detected. The filtering unit 160 can remove the peak whose width of the detected peak is smaller than the width determined by the above equation.

예를 들어, 제1 피크 601, 제2 피크 602 및 제3 피크 603이 검출된 경우, 필터링부 160은 지정된 폭보다 큰 폭을 가지고 있는 제1 피크 601을 유지하고, 상기 지정된 폭 미만의 제2 피크 602 및 제3 피크 603를 제거하여 경계 630을 얻을 수 있다. 다양한 실시 예에서, 필터링부 160은 경계 630의 결과를 부드럽게 하여 연속된 경계로 인식될 수 있도록 박스 필터링 작업을 추가로 수행할 수 있다.For example, when the first peak 601, the second peak 602 and the third peak 603 are detected, the filtering unit 160 maintains the first peak 601 having a width greater than the specified width, and the second peak 601, The peak 602 and the third peak 603 may be removed to obtain the boundary 630. In various embodiments, the filtering unit 160 may further perform a box filtering operation to soften the result of the boundary 630 so that it can be recognized as a continuous boundary.

도 7은 다양한 실시 예에 따른 실제 영상에 필터링 과정을 적용한 예시도이다.FIG. 7 is a diagram illustrating an example of applying a filtering process to an actual image according to various embodiments.

도 7을 참조하면, 필터링부 160은 1차 미분을 통해 피크를 검출할 수 있다. 필터링부 160은 제1 방향(예: 좌에서 우 방향)으로 검출된 점들을 연결하여 피크를 검출할 수 있고, 제2 방향(예: 우에서 좌 방향)으로 검출된 점들을 연결하여 피크를 검출할 수 있다. 이를 통해, 필터링 전의 경계 710이 결정될 수 있다.Referring to FIG. 7, the filtering unit 160 can detect a peak through a first derivative. The filtering unit 160 can detect peaks by connecting detected points in a first direction (e.g., left to right direction), and connects detected points in a second direction (e.g., right to left direction) to detect peaks can do. Through this, the boundary 710 before filtering can be determined.

필터링부 160은 검출된 피크 각각의 너비를 결정할 수 있다. 필터링부 160은 검출된 피크 중 지정된 너비 미만의 피크 721을 제거할 수 있다. 지정된 너비 이상의 피크 722는 제거되지 않고 도로 경계로 검출될 수 있다. 필터링부 160은 경계 730을 출력할 수 있다.The filtering unit 160 can determine the width of each of the detected peaks. The filtering unit 160 can remove a peak 721 of less than a specified width among the detected peaks. The peak 722 of the specified width or more can be detected as a road boundary without being removed. The filtering unit 160 may output the boundary 730. [

도 8은 다양한 실시 예에 따른 경계 검출 예시도이다.8 is a diagram illustrating boundary detection according to various embodiments.

도 8을 참조하면, 도로 인식 시스템 100은 스테레오 카메라 110을 통해 획득한 각각의 이미지들에서 도로와 주변 사물 사이의 경계 801을 검출할 수 있다.Referring to FIG. 8, the road recognition system 100 may detect a boundary 801 between a road and surrounding objects in each of the images acquired through the stereo camera 110.

도로 인식 시스템 100은 U 디스패리티 맵을 생성하여 가공하고, 3차원 디스패리트 맵을 참조하여 경계가 되는 점들의 위치를 결정할 수 있다.The road recognition system 100 can generate and process a U disparity map, and determine the positions of boundary points by referring to the 3D disparity map.

도로 인식 시스템 100은 필터링 과정을 거쳐, 유의미한 피크들만을 검출하고 불필요한 피크를 제거하여 사용자가 실질적으로 이용할 수 있는 경계 801을 결정할 수 있다.The road recognition system 100 can determine a boundary 801 that can be substantially utilized by the user by detecting only meaningful peaks and eliminating unnecessary peaks through a filtering process.

도로 인식 시스템 100은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 제공될 수 있다.The road recognition system 100 does not use a separate V disparity map and does not use a complicated algorithm such as RANSAC or Hough transformation used for straight line detection, and thus can maintain a high data processing speed. The processed data can be delivered to the driving support system in real time and can be provided to the user.

본 명세서와 도면에서는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 상기에 기재된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. Although the present invention has been described in connection with what is presently considered to be preferred embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, The present invention is not limited thereto. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments described above.

100: 도로 인식 시스템 110: 스테레오 카메라
120: 3차원 맵 생성부 130: U맵 생성부
140: U맵 가공부 150: 경계 검출부
160: 필터링부 170: 출력부
100: Road recognition system 110: Stereo camera
120: three-dimensional map generating unit 130: U map generating unit
140: U map processing unit 150:
160: Filtering unit 170: Output unit

Claims (10)

스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 단계;
상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계;
상기 U 디스패리티 맵을 가공하여 단순화하는 단계;
상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계; 및
상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계;를 포함하는 도로 인식 방법.
Generating a 3D disparity map for an image acquired through a stereo camera;
Generating a U disparity map in the 3D disparity map;
Processing and simplifying the U disparity map;
Detecting a boundary candidate based on the 3D disparity map in the U disparity map; And
And determining the boundaries of the road by filtering the detected boundary candidates.
제1항에 있어서, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계는
상기 U 디스패리티 맵에 거리 가중치를 부여하는 단계; 및
상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 단계;를 포함하는 도로 인식 방법.
2. The method of claim 1, wherein processing and simplifying the U disparity map comprises:
Assigning a distance weight to the U disparity map; And
And binarizing the U disparity map with a threshold value.
제2항에 있어서, 상기 거리 가중치는
객체와의 거리가 멀수록 커지는 것을 특징으로 하는 도로 인식 방법.
3. The method of claim 2, wherein the distance weight
And the distance between the object and the object increases.
제2항에 있어서, 상기 문턱치는
미리 설정된 도로 영역의 표준 편차 정보를 기반으로 결정되는 것을 특징으로 하는 도로 인식 방법.
3. The method of claim 2,
Wherein the road information is determined based on standard deviation information of a predetermined road area.
제2항에 있어서, 상기 문턱치에 의한 이진화 처리를 하는 단계는
U 디스패리티 값이 상기 문턱치 보다 낮은 점의 값을 0으로 설정하는 단계;를 포함하는 도로 인식 방법.
3. The method of claim 2, wherein the step of binarizing comprises:
And setting a value of a point whose U disparity value is lower than the threshold to zero.
제1항에 있어서, 상기 경계 후보를 검출하는 단계는
지정된 열에서 경계에 해당하는 픽셀의 디스패리티 값을 찾는 단계; 및
상기 디스패리티 값을 갖는 상기 3차원 디스패리티 맵에서의 위치를 결정하는 단계;를 포함하는 도로 인식 방법.
2. The method of claim 1, wherein detecting the boundary candidate comprises:
Finding a disparity value of a pixel corresponding to the boundary in the designated column; And
And determining a position in the 3D disparity map having the disparity value.
제1항에 있어서, 상기 도로의 경계를 결정하는 단계는
상기 경계 후보로 검출된 점들을 연결하여 피크를 검출하는 단계;
상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계;를 포함하는 도로 인식 방법.
2. The method of claim 1, wherein determining the boundary of the road comprises:
Detecting peaks by connecting points detected by the boundary candidate;
And determining a boundary of the road based on the detected peak width.
제7항에 있어서, 상기 피크를 검출하는 단계는
상기 경계 후보로 검출된 점들을 제1 방향으로 연결하여 피크를 검출하는 단계; 및
상기 경계 후보로 검출된 점들을 상기 제1 방향과 반대되는 제2 방향으로 연결하여 피크를 검출하는 단계;를 포함하는 도로 인식 방법.
8. The method of claim 7, wherein detecting the peak comprises:
Detecting a peak by connecting points detected by the boundary candidate in a first direction; And
And detecting peaks by connecting the points detected by the boundary candidates in a second direction opposite to the first direction.
제7항에 있어서, 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계는
상기 검출된 피크의 너비가 지정된 범위 미만인 경우, 상기 검출된 피크를 제거하는 단계;를 포함하는 도로 결정 방법.
8. The method of claim 7, wherein determining the boundary of the road based on the detected peak width comprises:
And removing the detected peak when the width of the detected peak is less than a specified range.
스테레오 카메라;
상기 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 3차원 맵 생성부;
상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 U맵 생성부;
상기 U 디스패리티 맵을 가공하여 단순화하는 U맵 가공부;
상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 경계 검출부; 및
상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 필터링부;를 포함하는 운송 수단.
Stereo camera;
A three-dimensional map generator for generating a three-dimensional disparity map of an image acquired through the stereo camera;
A U map generator for generating a U disparity map in the 3D disparity map;
A U map processing unit for processing and simplifying the U disparity map;
A boundary detector for detecting a boundary candidate based on the 3D disparity map in the U disparity map; And
And a filtering unit for filtering the detected boundary candidates to determine a boundary of the road.
KR1020140166515A 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data KR102188164B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140166515A KR102188164B1 (en) 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140166515A KR102188164B1 (en) 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data

Publications (2)

Publication Number Publication Date
KR20160063039A true KR20160063039A (en) 2016-06-03
KR102188164B1 KR102188164B1 (en) 2020-12-07

Family

ID=56192311

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140166515A KR102188164B1 (en) 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data

Country Status (1)

Country Link
KR (1) KR102188164B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013618B2 (en) 2016-06-09 2018-07-03 Hyundai Motor Company Method and apparatus for detecting side of object using ground boundary information of obstacle
US10529085B2 (en) * 2018-03-30 2020-01-07 Samsung Electronics Co., Ltd. Hardware disparity evaluation for stereo matching
CN112036227A (en) * 2020-06-10 2020-12-04 北京中科慧眼科技有限公司 Method and device for detecting road surface travelable area and automatic driving system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120044699A (en) * 2010-10-28 2012-05-08 재단법인대구경북과학기술원 Method and apparatus for detecting obstacle on road
JP2014067407A (en) * 2012-09-24 2014-04-17 Ricoh Co Ltd Method and device for detecting travelable region on road surface
KR101452628B1 (en) * 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120044699A (en) * 2010-10-28 2012-05-08 재단법인대구경북과학기술원 Method and apparatus for detecting obstacle on road
JP2014067407A (en) * 2012-09-24 2014-04-17 Ricoh Co Ltd Method and device for detecting travelable region on road surface
KR101452628B1 (en) * 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Free Space Estimation for Autonomous Navigation, The 5th International Conference on Computer Vision Systems(ICVS 2007) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013618B2 (en) 2016-06-09 2018-07-03 Hyundai Motor Company Method and apparatus for detecting side of object using ground boundary information of obstacle
US10529085B2 (en) * 2018-03-30 2020-01-07 Samsung Electronics Co., Ltd. Hardware disparity evaluation for stereo matching
CN112036227A (en) * 2020-06-10 2020-12-04 北京中科慧眼科技有限公司 Method and device for detecting road surface travelable area and automatic driving system
CN112036227B (en) * 2020-06-10 2024-01-16 北京中科慧眼科技有限公司 Road surface drivable area detection method, device and automatic driving system

Also Published As

Publication number Publication date
KR102188164B1 (en) 2020-12-07

Similar Documents

Publication Publication Date Title
KR102109941B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
CN107272021B (en) Object detection using radar and visually defined image detection areas
EP2728546B1 (en) Method and system for detecting object on a road
JP6670071B2 (en) Vehicle image recognition system and corresponding method
EP3057063B1 (en) Object detection device and vehicle using same
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
WO2017158958A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP6574611B2 (en) Sensor system for obtaining distance information based on stereoscopic images
JPH07129898A (en) Obstacle detecting device
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6547841B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JPH11351862A (en) Foregoing vehicle detecting method and equipment
JP3961584B2 (en) Lane marking detector
Yiruo et al. Complex ground plane detection based on v-disparity map in off-road environment
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP2023029441A (en) Measuring device, measuring system, and vehicle
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
KR102188164B1 (en) Method of Road Recognition using 3D Data
CN110197104B (en) Distance measurement method and device based on vehicle
Romdhane et al. A generic obstacle detection method for collision avoidance
JP2005156199A (en) Vehicle detection method and vehicle detector
JP5587852B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant