KR102188164B1 - Method of Road Recognition using 3D Data - Google Patents

Method of Road Recognition using 3D Data Download PDF

Info

Publication number
KR102188164B1
KR102188164B1 KR1020140166515A KR20140166515A KR102188164B1 KR 102188164 B1 KR102188164 B1 KR 102188164B1 KR 1020140166515 A KR1020140166515 A KR 1020140166515A KR 20140166515 A KR20140166515 A KR 20140166515A KR 102188164 B1 KR102188164 B1 KR 102188164B1
Authority
KR
South Korea
Prior art keywords
boundary
disparity map
map
road
disparity
Prior art date
Application number
KR1020140166515A
Other languages
Korean (ko)
Other versions
KR20160063039A (en
Inventor
이재홍
윤성원
이동하
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140166515A priority Critical patent/KR102188164B1/en
Publication of KR20160063039A publication Critical patent/KR20160063039A/en
Application granted granted Critical
Publication of KR102188164B1 publication Critical patent/KR102188164B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection

Abstract

본 발명은 도로 인식 방법에 관한 것으로, 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 단계, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계 및 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계를 포함할 수 있다.The present invention relates to a road recognition method, comprising: generating a 3D disparity map for an image acquired through a stereo camera, generating a U disparity map from the 3D disparity map, the U disparity map Simplifying by processing, detecting a boundary candidate based on the 3D disparity map from the U disparity map, and determining a boundary of a road by filtering the detected boundary candidate.

Description

3차원 데이터를 이용한 도로 인식 방법{Method of Road Recognition using 3D Data}Road Recognition Using 3D Data {Method of Road Recognition using 3D Data}

본 발명은 3차원 데이터를 이용한 도로 인식 방법에 관한 것으로, 보다 구체적으로 3차원 디스패리티 맵(Disparity Map)을 이용하여 도로의 경계를 검출하는 방법에 관한 것이다.The present invention relates to a road recognition method using 3D data, and more particularly, to a method of detecting a boundary of a road using a 3D disparity map.

차량 등의 운송 수단은 입체 카메라를 이용하여 주변을 촬영하고, 촬영된 영상을 기반으로 도로의 경계면, 주변 장애물 등을 인식할 수 있다.Transportation means such as a vehicle may photograph the surroundings using a three-dimensional camera, and recognize a boundary surface of a road and an obstacle around the road based on the captured image.

종래의 도로 인식 기술은 스테레오 카메라의 디스패리티 맵을 종/횡 방향으로 나누어 누적시키는 u 변위, v 변위를 각각 생성하여 지면 영역을 판별하였다. 이러한 종래 기술은 u 변위, v 변위를 각각 생성하기 위해 클러스터링, 회귀 분석과 같은 복잡한 방식이 이용되고, 모델링에 RANSAC 나 Hough 변환 같은 연산 시간이 오래 걸리는 방식을 이용하여, 실시간 정보 제공에 어려움이 있다.In the conventional road recognition technology, the ground area is determined by generating u displacement and v displacement, which are accumulated by dividing the disparity map of a stereo camera in the vertical and horizontal directions. In such a conventional technique, complex methods such as clustering and regression analysis are used to generate u displacement and v displacement respectively, and it is difficult to provide real-time information by using a method that takes a long computation time such as RANSAC or Hough transform for modeling. .

이러한 종래의 문제점들을 해결하기 위한 본 발명의 목적은 별도의 V 변위 생성 없이, 3차원 영상 데이터 중 U 디스패리티 맵을 생성 가공하여 정확한 도로 정보를 사용자에게 제공함에 있다.An object of the present invention for solving these conventional problems is to provide accurate road information to a user by generating and processing a U disparity map from 3D image data without generating a separate V displacement.

이러한 목적들을 달성하기 위하여 본 발명에 따른 도로 인식 방법은 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 단계, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계 및 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계를 포함할 수 있다.In order to achieve these objects, the road recognition method according to the present invention includes the steps of generating a 3D disparity map for an image acquired through a stereo camera, generating a U disparity map from the 3D disparity map, the Simplifying by processing a U disparity map, detecting a boundary candidate from the U disparity map based on the 3D disparity map, and determining a boundary of a road by filtering the detected boundary candidate can do.

다양한 실시 예에 따르면, 상기 U 디스패리티 맵을 가공하여 단순화하는 단계는 상기 U 디스패리티 맵에 거리 가중치를 부여하는 단계 및 상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 단계를 포함할 수 있다. 상기 거리 가중치는 객체와의 거리가 멀수록 커지는 것을 특징으로 할 수 있다. 상기 문턱치는 미리 설정된 도로 영역의 표준 편차 정보를 기반으로 결정될 수 있다. 상기 문턱치에 의한 이진화 처리를 하는 단계는 U 디스패리티 값이 상기 문턱치 보다 낮은 점의 값을 0으로 설정하는 단계를 포함할 수 있다.According to various embodiments, the processing and simplification of the U disparity map may include assigning a distance weight to the U disparity map and performing a binarization process based on a threshold value on the U disparity map. . The distance weight may increase as the distance to the object increases. The threshold value may be determined based on information about a standard deviation of a road area set in advance. The step of performing the binarization process based on the threshold value may include setting a value of a point having a U disparity value lower than the threshold value to 0.

다양한 실시 예에 따르면, 상기 경계 후보를 검출하는 단계는 지정된 열에서 경계에 해당하는 픽셀의 디스패리티 값을 찾는 단계 및 상기 디스패리티 값을 갖는 상기 3차원 디스패리티 맵에서의 위치를 결정하는 단계를 포함할 수 있다.According to various embodiments, the detecting of the boundary candidate includes finding a disparity value of a pixel corresponding to a boundary in a designated column and determining a position in the 3D disparity map having the disparity value. Can include.

다양한 실시 예에 따르면, 상기 도로의 경계를 결정하는 단계는 상기 경계 후보로 검출된 점들을 연결하여 피크를 검출하는 단계, 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계를 포함할 수 있다. 상기 피크를 검출하는 단계는 상기 경계 후보로 검출된 점들을 제1 방향으로 연결하여 피크를 검출하는 단계 및 상기 경계 후보로 검출된 점들을 상기 제1 방향과 반대되는 제2 방향으로 연결하여 피크를 검출하는 단계를 포함할 수 있다. 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계는 상기 검출된 피크의 너비가 지정된 범위 미만인 경우, 상기 검출된 피크를 제거하는 단계를 포함할 수 있다.According to various embodiments, the determining of the boundary of the road includes detecting a peak by connecting points detected as the boundary candidates, and determining a boundary of the road based on a width of the detected peak. can do. The detecting of the peak includes detecting a peak by connecting points detected as the boundary candidates in a first direction, and connecting points detected as the boundary candidates in a second direction opposite to the first direction to generate a peak. It may include the step of detecting. Determining the boundary of the road based on the width of the detected peak may include removing the detected peak when the width of the detected peak is less than a specified range.

본 발명에 따른 운송 수단은 스테레오 카메라, 상기 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 3차원 맵 생성부, 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 U맵 생성부, 상기 U 디스패리티 맵을 가공하여 단순화하는 U맵 가공부, 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 경계 검출부, 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 필터링부를 포함할 수 있다.The vehicle according to the present invention includes a stereo camera, a 3D map generator that generates a 3D disparity map for an image acquired through the stereo camera, and a U map that generates a U disparity map from the 3D disparity map. A generation unit, a U map processing unit that processes and simplifies the U disparity map, a boundary detection unit that detects a boundary candidate from the U disparity map based on the 3D disparity map, and filters the detected boundary candidate It may include a filtering unit that determines the boundary of.

이와 같이, 본 발명에 따른 도로 인식 방법은 별도의 V 변위 생성을 위한 처리를 수행하지 않아 실시간으로 정확한 도로 인식 정보를 사용자에게 제공할 수 있다. As described above, since the road recognition method according to the present invention does not perform a separate process for generating V displacement, accurate road recognition information can be provided to the user in real time.

또한, 본 발명에 따른 도로 인식 방법은 양방향 필터링을 통해 불필요한 피크를 검출하여, 정확한 도로 경계를 결정할 수 있다.In addition, the road recognition method according to the present invention can determine an accurate road boundary by detecting unnecessary peaks through bidirectional filtering.

도 1은 본 발명의 도로 인식 시스템의 구성도이다.
도 2는 다양한 실시 예에 따른 U맵 가공부의 구성을 나타내는 블록도 이다.
도 3은 다양한 실시 예에 따른 도로 인식 과정을 설명하는 순서도이다.
도 4는 다양한 실시 예에 따른 학습 기반 문턱치 적용에 관한 예시도 이다.
도 5는 다양한 실시 예에 따른 도로 경계 후보 검출을 설명하는 예시도이다.
도 6은 다양한 실시 예에 따른 필터링 부에서 수행되는 에러 제거 필터링 예시도이다.
도 7은 다양한 실시 예에 따른 실제 영상에 필터링 과정을 적용한 예시도이다.
도 8은 다양한 실시 예에 따른 경계 검출 예시도이다.
1 is a block diagram of a road recognition system according to the present invention.
2 is a block diagram illustrating a configuration of a U map processing unit according to various embodiments of the present disclosure.
3 is a flowchart illustrating a road recognition process according to various embodiments of the present disclosure.
4 is an exemplary diagram for applying a learning-based threshold according to various embodiments of the present disclosure.
5 is an exemplary diagram illustrating detection of a road boundary candidate according to various embodiments of the present disclosure.
6 is an exemplary diagram illustrating error removal filtering performed by a filtering unit according to various embodiments of the present disclosure.
7 is an exemplary diagram in which a filtering process is applied to an actual image according to various embodiments of the present disclosure.
8 is an exemplary diagram illustrating edge detection according to various embodiments of the present disclosure.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 다만, 실시예들을 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있고, 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 가급적 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. Hereinafter, exemplary embodiments of the present invention will be described in more detail with reference to the accompanying drawings. However, in describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted as much as possible. This is to more clearly convey the core of the present invention by omitting unnecessary description.

도 1은 본 발명의 도로 인식 시스템의 구성도이다. 도로 인식 시스템 100은 차량과 같은 운송 수단에 장착될 수 있다. 도로 인식 시스템 100을 통해 처리된 정보는 운전자에게 전달되거나, 사용자 운행 보조 프로그램에 이용될 수 있고, 무인 운행 시스템에 이용될 수 있다.1 is a block diagram of a road recognition system according to the present invention. The road recognition system 100 may be installed in a vehicle such as a vehicle. The information processed through the road recognition system 100 may be delivered to a driver, may be used for a user driving assistance program, or may be used for an unmanned driving system.

도 1을 참조하면, 도로 인식 시스템 100은 스테레오 카메라 110, 3차원 맵 생성부 120, U맵 생성부 130, U맵 가공부 140, 경계 검출부 150, 필터링부 160 및 출력부 170을 포함할 수 있다.Referring to FIG. 1, the road recognition system 100 may include a stereo camera 110, a 3D map generator 120, a U map generator 130, a U map processor 140, a boundary detector 150, a filtering unit 160, and an output unit 170. .

스테레오 카메라 110은 지정된 간격을 두고 2개의 촬영용 렌즈를 배치하여 이미지 또는 영상을 촬영할 수 있다. 스테레오 카메라 110은 2개의 촬영용 렌즈를 통해 피사체를 동시에 촬영하고, 2개의 화상을 동시에 얻을 수 있다. The stereo camera 110 may capture an image or video by arranging two photographing lenses at designated intervals. The stereo camera 110 can simultaneously photograph a subject through two photographing lenses and obtain two images at the same time.

3차원 맵 생성부 120은 스테레오 카메라 110를 통해 촬영된 영상 정보를 분석하여 3차원 맵을 생성할 수 있다. 3차원 맵 생성부 120은 각각의 렌즈를 통해 촬영된 영상은 비교를 통해 객체, 객체의 크기, 객체와의 거리 등을 분석할 수 있다. 예를 들어, 스테레오 카메라 110에 포함된 각각의 렌즈를 통해 촬영된 스테레오 이미지는 x축과 y축으로 표현될 수 있는 2차원 이미지 일수 있다. 3차원 맵 생성부 120은 동시간에 각각의 렌즈에서 촬영된 이미지를 비교하고, 상기 렌즈 사이의 거리를 반영하여 x축, y축 및 z축으로 표현될 수 있는 3차원 이미지를 생성할 수 있다.The 3D map generator 120 may generate a 3D map by analyzing image information captured through the stereo camera 110. The 3D map generator 120 may analyze an object, a size of the object, a distance to the object, and the like through comparison of the image captured through each lens. For example, a stereo image captured through each lens included in the stereo camera 110 may be a two-dimensional image that can be represented by an x-axis and a y-axis. The 3D map generator 120 may compare images captured by each lens at the same time and generate a 3D image that can be expressed in the x-axis, y-axis, and z-axis by reflecting the distance between the lenses. .

다양한 실시 예에 따르면, 3차원 맵 생성부 120은 촬영용 렌즈들의 위치, 렌즈 사이의 거리 및 설치 각도에 의해 발생하는 차이에 따른 3차원 디스패리티 맵을 생성할 수 있다.According to various embodiments of the present disclosure, the 3D map generator 120 may generate a 3D disparity map according to a difference caused by positions of photographing lenses, a distance between lenses, and an installation angle.

U맵 생성부 130은 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성할 수 있다. U 디스패리티 맵은 3차원 이미지 중 x축 및 z축의 값을 이용하여 같은 가로축에 위치하는 거리 값들의 히스토그램을 쌓음으로 획득될 수 있다.The U map generator 130 may generate a U disparity map from a 3D disparity map. The U disparity map may be obtained by stacking histograms of distance values located on the same horizontal axis using values of the x-axis and z-axis of the 3D image.

종래의 도로 인식 기술은 스테레오 카메라의 디스패리티 맵을 종/횡 방향으로 나누어 누적시키는 u 변위, v 변위를 각각 생성하여 지면 영역을 판별하였다. 이러한 종래 기술은 u 변위, v 변위를 각각 생성하기 위해 클러스터링, 회귀 분석과 같은 복잡한 방식이 이용되고, 모델링에 RANSAC 나 Hough 변환 같은 연산 시간이 오래 걸리는 방식을 이용하여, 실시간 시스템 제공에 어려움이 있다.In the conventional road recognition technology, the ground area is determined by generating u displacement and v displacement, which are accumulated by dividing the disparity map of a stereo camera in the vertical and horizontal directions. In this prior art, complex methods such as clustering and regression analysis are used to generate u displacement and v displacement, respectively, and it is difficult to provide a real-time system by using a method that takes a long computation time such as RANSAC or Hough transform for modeling. .

반면, 본 발명에 의한 도로 인식 기술은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 도로 인식 정보를 제공할 수 있다.On the other hand, the road recognition technology according to the present invention does not use a separate V disparity map and does not use a complex algorithm such as RANSAC or Hough transform used for straight line detection, and thus can maintain a fast data processing speed. The processed data may be transmitted to the driving assistance system in real time, and road recognition information may be provided to the user.

U맵 가공부 140는 생성된 U 디스패리티 맵을 가공하여, 가중치 적용 및 이진화 처리를 할 수 있다. U맵 가공부 140은 U 디스패리티 값에 따른 가중치를 곱해서 단순 픽셀 수뿐만 아니라, 실제 거리 정보를 활용하여 데이터의 신뢰성을 높일 수 있다. 또한, U맵 가공부 140는 학습 기반의 문턱치(threshold)를 이용하여 이진화 작업을 수행할 수 있다. U맵 가공부 140의 동작에 관한 정보는 도 2 및 도 4를 통해 제공될 수 있다.The U map processor 140 may process the generated U disparity map to apply weights and perform binarization processing. The U map processor 140 may increase the reliability of data by multiplying the weight according to the U disparity value by using not only the number of simple pixels but also actual distance information. Also, the U map processor 140 may perform a binarization operation using a learning-based threshold. Information on the operation of the U-map processor 140 may be provided through FIGS. 2 and 4.

경계 검출부 150은 가공된 U 디스패리티 맵에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 3차원 디스패리트 맵을 참조할 수 있다. 경계 검출부 150의 동작에 관한 상세정보는 도 5를 통해 제공될 수 있다.The boundary detection unit 150 may connect points that become boundary in the processed U disparity map. The boundary detection unit 150 may refer to a 3D dispatch map to indicate the positions of the boundary points in the image. Detailed information on the operation of the boundary detection unit 150 may be provided through FIG. 5.

필터링부 160은 경계 후보로 검출된 점들에 의해 발생하는 피크 중 일부를 필터링을 통해 제거할 수 있다. 필터링부 160은 경계 후보로 검출된 점들을 연결하는 과정에서 지정된 너비 이하의 피크를 제거하여 사용자에게 실질적으로 의미를 줄 수 있는 도로의 경계를 검출하도록 할 수 있다. 필터링부 160의 동작에 관한 상세정보는 도 6 및 도 7을 통해 제공될 수 있다.The filtering unit 160 may remove some of the peaks generated by points detected as boundary candidates through filtering. The filtering unit 160 may detect a boundary of a road that may substantially give meaning to a user by removing peaks less than a specified width in a process of connecting points detected as boundary candidates. Detailed information on the operation of the filtering unit 160 may be provided through FIGS. 6 and 7.

출력부 170은 필터링된 경계값을 반영한 이미지 또는 범위 값을 출력할 수 있다. 출력부 170은 필터링된 경계값을 반영한 이미지를 화면에 표시하거나 운전 지원 시스템에 제공하여 이용(협로 인식, 전방 차량 추종 및 충돌 회피 등)하도록 할 수 있다.The output unit 170 may output an image or a range value reflecting the filtered boundary value. The output unit 170 may display an image reflecting the filtered boundary value on a screen or provide it to a driving assistance system to be used (negative path recognition, forward vehicle tracking, collision avoidance, etc.).

도 2는 다양한 실시 예에 따른 U맵 가공부의 구성을 나타내는 블록도 이다.2 is a block diagram illustrating a configuration of a U map processing unit according to various embodiments of the present disclosure.

도 2를 참조하면, U맵 가공부 140은 가중치 계산부 210 및 문턱치 적용부 220을 포함할 수 있다.Referring to FIG. 2, the U map processing unit 140 may include a weight calculation unit 210 and a threshold value application unit 220.

가중치 계산부 210은 U맵 생성부 130에서 제공 받은 U 디스패리티 값에 거리 가중치를 반영할 수 있다. 가중치 계산부 210은 U 디스패리티 값에 거리에 따른 가중치(먼 거리일수록 높은 가중치)를 곱해서 단순 픽셀 수뿐 아니라 실제 거리 정보를 활용할 수 있다. 거리 가중치는 하기의 수학식 1에 의해 반영될 수 있다. The weight calculator 210 may reflect the distance weight to the U disparity value provided from the U map generator 130. The weight calculator 210 may multiply the U disparity value by a weight according to a distance (a higher weight as the distance increases) to utilize not only the number of simple pixels but also actual distance information. The distance weight may be reflected by Equation 1 below.

[수학식 1][Equation 1]

Figure 112014114655270-pat00001

Figure 112014114655270-pat00001

Figure 112014114655270-pat00002
: U 디스패리티 값
Figure 112014114655270-pat00002
: U disparity value

Figure 112014114655270-pat00003
: 거리 가중치
Figure 112014114655270-pat00003
: Distance weight

문턱치 적용부 220은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다. 문턱치 적용부 220은 도로에 해당하는 영역의 디스패리티 분포에 관한 표준 편차 정보를 저장할 수 있다. 상기 표준 편차 정보는 일반적인 도로 지형에 대한 높이 정보를 기반으로 설정될 수 있다.The threshold value application unit 220 may simplify a part of the area corresponding to the road by binarizing it. The threshold value application unit 220 may store standard deviation information on a disparity distribution of an area corresponding to a road. The standard deviation information may be set based on height information for general road topography.

문턱치 적용부 220은 상기 표준 편차 정보에 따라 지정된 범위 이하의 U 디스패리티 값을 제거하기 위한 문턱치를 결정할 수 있다. 예를 들어, 문턱치 적용부 220은 전체 U 디스패리티 점들 중 상기 표준 편차 정보에 따라 60% 이하 범위의 점들을 제거하기 위한 문턱치를 결정할 수 있다. 문턱치 적용부 220은 일정 높이 미만의 값들은 0으로 만들고, 상기 높이 이상의 값들만 출력되도록 할 수 있다. 도 5를 통해, 문턱치 적용부 220의 동작에 관한 정보가 제공될 수 있다.The threshold value application unit 220 may determine a threshold value for removing a U disparity value less than a specified range according to the standard deviation information. For example, the threshold value application unit 220 may determine a threshold value for removing points within a range of 60% or less according to the standard deviation information among all U disparity points. The threshold value applying unit 220 may make values less than a certain height to 0 and output only values greater than the height. Through FIG. 5, information on the operation of the threshold value application unit 220 may be provided.

도 3은 다양한 실시 예에 따른 도로 인식 과정을 설명하는 순서도이다.3 is a flowchart illustrating a road recognition process according to various embodiments of the present disclosure.

도 3을 참조하면, 동작 310에서, 3차원 맵 생성부 120은 촬영용 렌즈들의 위치, 렌즈 사이의 거리 및 설치 각도에 의해 발생하는 차이에 따른 3차원 디스패리티 맵을 생성할 수 있다.Referring to FIG. 3, in operation 310, the 3D map generator 120 may generate a 3D disparity map according to a difference caused by a location of photographing lenses, a distance between lenses, and an installation angle.

동작 320에서, U맵 생성부 130은 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성할 수 있다. U맵 생성부 130은 3차원 이미지 중 x축 및 z축의 값을 이용하여 같은 가로축에 위치하는 거리 값들의 히스토그램을 쌓음으로 획득될 수 있다.In operation 320, the U map generator 130 may generate a U disparity map from a 3D disparity map. The U map generator 130 may be obtained by stacking histograms of distance values located on the same horizontal axis using values of the x-axis and the z-axis of the 3D image.

동작 330에서, U맵 가공부 140은 생성된 U 디스패리티 맵을 가공하여, 가중치 적용 및 이진화 처리를 할 수 있다. U맵 가공부 140은 U맵 생성부 130에서 제공 받은 U 디스패리티 값에 거리 가중치를 반영할 수 있다. 또한, U맵 가공부 140은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다.In operation 330, the U map processor 140 may process the generated U disparity map to apply weights and perform binarization processing. The U map processor 140 may reflect the distance weight to the U disparity value provided from the U map generator 130. In addition, the U-map processing unit 140 may simplify a part of the area corresponding to the road by binarizing it.

동작 340에서, 경계 검출부 150은 가공된 U 디스패리티 맵에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 3차원 디스패리트 맵을 참조할 수 있다.In operation 340, the boundary detection unit 150 may connect boundary points in the processed U disparity map. The boundary detection unit 150 may refer to a 3D dispatch map to indicate the positions of the boundary points in the image.

동작 350에서, 필터링부 160은 경계 후보로 검출된 점들 중 일부를 필터링을 통해 제거할 수 있다. 필터링부 160은 경계 후보로 검출된 점들을 연결하는 과정에서 지정된 너비 이하의 피크를 제거하여 사용자에게 실질적으로 의미를 줄 수 있는 도로의 경계를 검출하도록 할 수 있다.In operation 350, the filtering unit 160 may remove some of the points detected as boundary candidates through filtering. The filtering unit 160 may detect a boundary of a road that may substantially give meaning to a user by removing peaks less than a specified width in a process of connecting points detected as boundary candidates.

동작 360에서, 출력부 170은 필터링된 경계값을 반영한 이미지를 화면에 표시하거나 운전 지원 시스템에 제공하여 이용(협로 인식, 전방 차량 추종 및 충돌 회피 등)하도록 할 수 있다.In operation 360, the output unit 170 may display an image reflecting the filtered boundary value on a screen or provide it to a driving support system to be used (negotiated path recognition, forward vehicle tracking, collision avoidance, etc.).

도 4는 다양한 실시 예에 따른 학습 기반 문턱치 적용에 관한 예시도 이다. 4 is an exemplary diagram for applying a learning-based threshold according to various embodiments of the present disclosure.

도 4를 참조하면, 문턱치 적용부 220은 도로에 해당하는 영역의 일부를 이진화 처리하여 단순화 할 수 있다. Referring to FIG. 4, the threshold value application unit 220 may simplify a part of an area corresponding to a road by binarizing it.

제1 이미지 410은 문턱치 적용 이전의 U 디스패리티 분포를 나타낸다. 제1 이미지 410은 실제 도로의 경계가 되는 부분 이외에도 이미지 중/하단에 단순히 도로의 통상적인 높이차도 반영되어 있다. The first image 410 shows the U disparity distribution before applying the threshold. The first image 410 simply reflects the normal height difference of the road in the middle/bottom of the image in addition to the part that becomes the boundary of the actual road.

문턱치 적용부 220은 도로에 해당하는 영역의 디스패리티 분포에 관한 표준 편차 정보를 저장할 수 있다. 상기 표준 편차 정보는 일반적인 도로 지형에 대한 높이 정보를 기반으로 설정될 수 있다.The threshold value application unit 220 may store standard deviation information on a disparity distribution of an area corresponding to a road. The standard deviation information may be set based on height information for general road topography.

문턱치 적용부 220은 상기 표준 편차 정보에 따라 지정된 범위 이하의 U 디스패리티 값을 제거하기 위한 문턱치를 결정할 수 있다. 예를 들어, 문턱치 적용부 220은 제1 이미지 410의 전체 U 디스패리티 점들 중 상기 표준 편차 정보에 따라 60% 이하 범위의 점들을 제거하여 제2 이미지 420을 얻을 수 있다.The threshold value application unit 220 may determine a threshold value for removing a U disparity value less than a specified range according to the standard deviation information. For example, the threshold value application unit 220 may obtain the second image 420 by removing points within a range of 60% or less according to the standard deviation information among all U disparity points of the first image 410.

제2 이미지 420은 문턱치 적용에 따라 이미지 중/하단의 U 디스패리티 분포가 모두 0으로 처리되어 도로의 실제 경계를 판단하기 용이한 상태로 변환될 수 있다.In the second image 420, U disparity distributions in the middle/bottom of the image are all processed as 0 according to the application of the threshold, so that the actual boundary of the road can be easily determined.

도 5는 다양한 실시 예에 따른 도로 경계 후보 검출을 설명하는 예시도이다.5 is an exemplary diagram illustrating detection of a road boundary candidate according to various embodiments of the present disclosure.

도 5를 참조하면, 경계 검출부 150은 이진화된 U 디스패리티 맵 420에서 경계가 되는 점들을 연결시킬 수 있다. 경계 검출부 150은 경계가 되는 점들의 영상에서의 위치를 표시하기 위해 입력 영상인 3차원 디스패리티 맵 510을 참조할 수 있다. Referring to FIG. 5, the boundary detection unit 150 may connect boundary points in the binarized U disparity map 420. The boundary detector 150 may refer to a 3D disparity map 510 that is an input image to indicate the positions of the boundary points in the image.

경계 검출부 150은 이진화된 U 디스패리티 맵 420의 특정 열에서 경계에 해당하는 픽셀의 디스패리티 값(행 번호)을 찾을 수 있다. 경계 검출부 150은 3차원 디스패리티 맵 510에서 상기 디스패리티 값을 가지는 위치를 아래에서 위로 스캔하여 찾을 수 있다. 경계 검출부 150은 매칭되는 점의 위치 정보를 저장할 수 있다. The boundary detector 150 may find a disparity value (row number) of a pixel corresponding to a boundary in a specific column of the binarized U disparity map 420. The boundary detector 150 may search for a location having the disparity value in the 3D disparity map 510 by scanning from bottom to top. The boundary detector 150 may store location information of a matched point.

예를 들어, 경계 검출부 150은 이진화된 U 디스패리티 맵 420에서 경계가 되는 점 411의 위치를 3차원 디스패리티 맵 520을 참조하여 찾을 수 있다. 경계 검출부 150은 경계가 되는 점 411의 디스패리티 값(행 번호)을 확인하고, 3차원 디스패리티 맵 510을 아래에서 위로 스캔하여 매칭되는 점 511을 찾을 수 있다. 경계 검출부 150은 상기 점 511의 위치를 실제 영상에서 매칭하여 점 521로 결정하고 결과를 저장할 수 있다.For example, the boundary detection unit 150 may find the location of the boundary point 411 in the binarized U disparity map 420 with reference to the 3D disparity map 520. The boundary detector 150 may check the disparity value (row number) of the boundary point 411 and scan the 3D disparity map 510 from the bottom to the top to find the matching point 511. The boundary detector 150 may match the position of the point 511 in an actual image to determine the point 521 and store the result.

본 발명에 의한 도로 인식 기술은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 제공될 수 있다.The road recognition technology according to the present invention does not use a separate V disparity map, and does not use a complex algorithm such as RANSAC or Hough transform used for straight line detection, thereby maintaining a fast data processing speed. The processed data can be delivered to the driving assistance system in real time and can be provided to the user.

도 6은 다양한 실시 예에 따른 필터링부에서 수행되는 에러 제거 필터링 예시도이다.6 is an exemplary diagram illustrating error removal filtering performed by a filtering unit according to various embodiments of the present disclosure.

도 6을 참조하면, 필터링부 160은 경계 후보로 검출된 점들을 연결할 때 에러가 발생하는 부분을 필터링을 통해 제거할 수 있다. 필터링부 160은 양 방향으로 피크를 검출하고, 하기 [수학식 2]를 통해 너비를 계산하여 일정 너비 미만의 피크를 제거할 수 있다.Referring to FIG. 6, the filtering unit 160 may remove a portion where an error occurs when points detected as boundary candidates are connected through filtering. The filtering unit 160 may detect peaks in both directions and calculate a width through Equation 2 below to remove peaks less than a predetermined width.

[수학식 2][Equation 2]

Figure 112014114655270-pat00004

Figure 112014114655270-pat00004

도 6에서, 필터링부 160은 필터링 이전의 경계 610에서, 제1 방향(예: 좌에서 우 방향)으로 검출된 점들을 연결할 수 있다. 이를 통해, 필터링부 160은 제1 피크 601 및 제3 피크 603을 검출할 수 있다. 필터링부 160은 제2 방향(예: 우에서 좌 방향)으로 검출된 점들을 연결하여 제2 피크 602를 검출할 수 있다.In FIG. 6, the filtering unit 160 may connect points detected in a first direction (eg, from left to right) at a boundary 610 before filtering. Through this, the filtering unit 160 may detect the first peak 601 and the third peak 603. The filtering unit 160 may detect the second peak 602 by connecting points detected in the second direction (eg, from right to left).

필터링부 160은 피크가 검출된 경계 620에서, 각각의 피크에 대한 너비를 결정할 수 있다. 필터링부 160은 검출된 피크의 폭이 상기 수학식에 의해 결정된 폭 보다 작은 피크를 제거할 수 있다.The filtering unit 160 may determine a width of each peak at the boundary 620 in which the peak is detected. The filtering unit 160 may remove a peak whose width of the detected peak is smaller than the width determined by the above equation.

예를 들어, 제1 피크 601, 제2 피크 602 및 제3 피크 603이 검출된 경우, 필터링부 160은 지정된 폭보다 큰 폭을 가지고 있는 제1 피크 601을 유지하고, 상기 지정된 폭 미만의 제2 피크 602 및 제3 피크 603를 제거하여 경계 630을 얻을 수 있다. 다양한 실시 예에서, 필터링부 160은 경계 630의 결과를 부드럽게 하여 연속된 경계로 인식될 수 있도록 박스 필터링 작업을 추가로 수행할 수 있다.For example, when the first peak 601, the second peak 602, and the third peak 603 are detected, the filtering unit 160 maintains the first peak 601 having a width greater than the specified width, and the second peak 601 is less than the specified width. Boundary 630 can be obtained by removing peak 602 and third peak 603. In various embodiments, the filtering unit 160 may additionally perform a box filtering operation so that the result of the boundary 630 can be smoothed and recognized as a continuous boundary.

도 7은 다양한 실시 예에 따른 실제 영상에 필터링 과정을 적용한 예시도이다.7 is an exemplary diagram in which a filtering process is applied to an actual image according to various embodiments of the present disclosure.

도 7을 참조하면, 필터링부 160은 1차 미분을 통해 피크를 검출할 수 있다. 필터링부 160은 제1 방향(예: 좌에서 우 방향)으로 검출된 점들을 연결하여 피크를 검출할 수 있고, 제2 방향(예: 우에서 좌 방향)으로 검출된 점들을 연결하여 피크를 검출할 수 있다. 이를 통해, 필터링 전의 경계 710이 결정될 수 있다.Referring to FIG. 7, the filtering unit 160 may detect a peak through first derivative. The filtering unit 160 may detect a peak by connecting points detected in a first direction (eg, from left to right), and detect a peak by connecting points detected in a second direction (eg, from right to left). can do. Through this, the boundary 710 before filtering may be determined.

필터링부 160은 검출된 피크 각각의 너비를 결정할 수 있다. 필터링부 160은 검출된 피크 중 지정된 너비 미만의 피크 721을 제거할 수 있다. 지정된 너비 이상의 피크 722는 제거되지 않고 도로 경계로 검출될 수 있다. 필터링부 160은 경계 730을 출력할 수 있다.The filtering unit 160 may determine the width of each of the detected peaks. The filtering unit 160 may remove a peak 721 less than a designated width among the detected peaks. Peak 722 that is larger than the specified width is not removed and can be detected as a road boundary. The filtering unit 160 may output the boundary 730.

도 8은 다양한 실시 예에 따른 경계 검출 예시도이다.8 is an exemplary diagram illustrating edge detection according to various embodiments of the present disclosure.

도 8을 참조하면, 도로 인식 시스템 100은 스테레오 카메라 110을 통해 획득한 각각의 이미지들에서 도로와 주변 사물 사이의 경계 801을 검출할 수 있다.Referring to FIG. 8, the road recognition system 100 may detect a boundary 801 between a road and surrounding objects from images acquired through a stereo camera 110.

도로 인식 시스템 100은 U 디스패리티 맵을 생성하여 가공하고, 3차원 디스패리트 맵을 참조하여 경계가 되는 점들의 위치를 결정할 수 있다.The road recognition system 100 may generate and process a U disparity map, and may determine locations of boundary points by referring to the 3D disparity map.

도로 인식 시스템 100은 필터링 과정을 거쳐, 유의미한 피크들만을 검출하고 불필요한 피크를 제거하여 사용자가 실질적으로 이용할 수 있는 경계 801을 결정할 수 있다.The road recognition system 100 may detect only meaningful peaks through a filtering process and remove unnecessary peaks to determine a boundary 801 that can be substantially used by a user.

도로 인식 시스템 100은 별도의 V 디스패리티 맵을 사용하지 않고, 직선 검출에 사용되는 RANSAC 나 Hough 변환 같은 복잡한 알고리즘을 사용하지 않아 빠른 데이터 처리 속도를 유지할 수 있다. 처리된 데이터는 운전 지원 시스템에 실시간으로 전달될 수 있고, 사용자에게 제공될 수 있다.The road recognition system 100 does not use a separate V disparity map, and does not use complex algorithms such as RANSAC or Hough transform, which are used for straight line detection, so it can maintain fast data processing speed. The processed data can be delivered to the driving assistance system in real time and can be provided to the user.

본 명세서와 도면에서는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것일 뿐, 본 발명의 범위를 한정하고자 하는 것은 아니다. 상기에 기재된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. In the present specification and drawings, a preferred embodiment of the present invention has been disclosed, and although specific terms are used, these are merely used in a general meaning to easily explain the technical content of the present invention and to aid understanding of the present invention. It is not intended to limit the scope of. In addition to the above-described embodiments, it is obvious to those of ordinary skill in the art that other modifications based on the technical idea of the present invention can be implemented.

100: 도로 인식 시스템 110: 스테레오 카메라
120: 3차원 맵 생성부 130: U맵 생성부
140: U맵 가공부 150: 경계 검출부
160: 필터링부 170: 출력부
100: road recognition system 110: stereo camera
120: 3D map generation unit 130: U map generation unit
140: U map processing unit 150: boundary detection unit
160: filtering unit 170: output unit

Claims (10)

스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 단계; 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 단계; 상기 U 디스패리티 맵을 가공하여 단순화하는 단계; 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 단계; 및 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 단계를 포함하고;
상기 U 디스패리티 맵을 가공하여 단순화하는 단계는 상기 U 디스패리티 맵에 거리 가중치를 부여하는 단계; 및 상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 단계를 포함하는 도로 인식 방법.
Generating a 3D disparity map for an image acquired through a stereo camera; Generating a U disparity map from the 3D disparity map; Processing and simplifying the U disparity map; Detecting a boundary candidate from the U disparity map based on the 3D disparity map; And filtering the detected boundary candidate to determine a boundary of the road.
The processing and simplification of the U disparity map may include assigning a distance weight to the U disparity map; And performing a binarization process based on a threshold value on the U disparity map.
삭제delete 제1항에 있어서, 상기 거리 가중치는
객체와의 거리가 멀수록 커지는 것을 특징으로 하는 도로 인식 방법.
The method of claim 1, wherein the distance weight is
Road recognition method, characterized in that the larger the distance to the object is increased.
제1항에 있어서, 상기 문턱치는
미리 설정된 도로 영역의 표준 편차 정보를 기반으로 결정되는 것을 특징으로 하는 도로 인식 방법.
The method of claim 1, wherein the threshold is
A road recognition method, characterized in that it is determined based on standard deviation information of a preset road area.
제1항에 있어서, 상기 문턱치에 의한 이진화 처리를 하는 단계는
U 디스패리티 값이 상기 문턱치 보다 낮은 점의 값을 0으로 설정하는 단계;를 포함하는 도로 인식 방법.
The method of claim 1, wherein the step of performing the binarization process based on the threshold value
And setting a value of a point having a U disparity value lower than the threshold value to 0.
제1항에 있어서, 상기 경계 후보를 검출하는 단계는
지정된 열에서 경계에 해당하는 픽셀의 디스패리티 값을 찾는 단계; 및
상기 디스패리티 값을 갖는 상기 3차원 디스패리티 맵에서의 위치를 결정하는 단계;를 포함하는 도로 인식 방법.
The method of claim 1, wherein detecting the boundary candidate
Finding a disparity value of a pixel corresponding to a boundary in a designated column; And
Determining a location in the 3D disparity map having the disparity value.
제1항에 있어서, 상기 도로의 경계를 결정하는 단계는
상기 경계 후보로 검출된 점들을 연결하여 피크를 검출하는 단계;
상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계;를 포함하는 도로 인식 방법.
The method of claim 1, wherein determining the boundary of the road
Detecting a peak by connecting points detected as the boundary candidates;
And determining a boundary of the road based on a width of the detected peak.
제7항에 있어서, 상기 피크를 검출하는 단계는
상기 경계 후보로 검출된 점들을 제1 방향으로 연결하여 피크를 검출하는 단계; 및
상기 경계 후보로 검출된 점들을 상기 제1 방향과 반대되는 제2 방향으로 연결하여 피크를 검출하는 단계;를 포함하는 도로 인식 방법.
The method of claim 7, wherein detecting the peak
Detecting a peak by connecting points detected as boundary candidates in a first direction; And
And detecting a peak by connecting points detected as the boundary candidates in a second direction opposite to the first direction.
제7항에 있어서, 상기 검출된 피크를 너비를 기반으로 상기 도로의 경계를 결정하는 단계는
상기 검출된 피크의 너비가 지정된 범위 미만인 경우, 상기 검출된 피크를 제거하는 단계;를 포함하는 도로 인식 방법.
The method of claim 7, wherein determining the boundary of the road based on the width of the detected peak
If the width of the detected peak is less than the specified range, removing the detected peak; road recognition method comprising a.
스테레오 카메라; 상기 스테레오 카메라를 통해 취득된 이미지에 대한 3차원 디스패리티 맵을 생성하는 3차원 맵 생성부; 상기 3차원 디스패리티 맵에서 U 디스패리티 맵을 생성하는 U맵 생성부; 상기 U 디스패리티 맵을 가공하여 단순화하는 U맵 가공부; 상기 U 디스패리티 맵에서 상기 3차원 디스패리티 맵을 기반으로 경계 후보를 검출하는 경계 검출부; 및 상기 검출된 경계 후보를 필터링하여 도로의 경계를 결정하는 필터링부를 포함하고;
상기 U 맵 가공부는 상기 U 디스패리티 맵에 거리 가중치를 부여하고, 상기 U 디스패리티 맵에 문턱치에 의한 이진화 처리를 하는 것을 특징으로 하는 운송 수단.
Stereo camera; A 3D map generator that generates a 3D disparity map for the image acquired through the stereo camera; A U map generator for generating a U disparity map from the 3D disparity map; A U map processing unit that processes and simplifies the U disparity map; A boundary detector for detecting a boundary candidate from the U disparity map based on the 3D disparity map; And a filtering unit configured to determine a boundary of a road by filtering the detected boundary candidates.
And the U map processing unit assigns a distance weight to the U disparity map and performs a binarization process based on a threshold value on the U disparity map.
KR1020140166515A 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data KR102188164B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140166515A KR102188164B1 (en) 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140166515A KR102188164B1 (en) 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data

Publications (2)

Publication Number Publication Date
KR20160063039A KR20160063039A (en) 2016-06-03
KR102188164B1 true KR102188164B1 (en) 2020-12-07

Family

ID=56192311

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140166515A KR102188164B1 (en) 2014-11-26 2014-11-26 Method of Road Recognition using 3D Data

Country Status (1)

Country Link
KR (1) KR102188164B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101795270B1 (en) 2016-06-09 2017-11-07 현대자동차주식회사 Method and Apparatus for Detecting Side of Object using Information for Ground Boundary of Obstacle
US10529085B2 (en) * 2018-03-30 2020-01-07 Samsung Electronics Co., Ltd. Hardware disparity evaluation for stereo matching
CN112036227B (en) * 2020-06-10 2024-01-16 北京中科慧眼科技有限公司 Road surface drivable area detection method, device and automatic driving system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067407A (en) * 2012-09-24 2014-04-17 Ricoh Co Ltd Method and device for detecting travelable region on road surface
KR101452628B1 (en) 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101208647B1 (en) * 2010-10-28 2012-12-06 재단법인대구경북과학기술원 Method and apparatus for detecting obstacle on road

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067407A (en) * 2012-09-24 2014-04-17 Ricoh Co Ltd Method and device for detecting travelable region on road surface
KR101452628B1 (en) 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Free Space Estimation for Autonomous Navigation, The 5th International Conference on Computer Vision Systems(ICVS 2007)

Also Published As

Publication number Publication date
KR20160063039A (en) 2016-06-03

Similar Documents

Publication Publication Date Title
KR102109941B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
JP6670071B2 (en) Vehicle image recognition system and corresponding method
US9378424B2 (en) Method and device for detecting road region as well as method and device for detecting road line
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
US10129521B2 (en) Depth sensing method and system for autonomous vehicles
WO2017158958A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
JP6450294B2 (en) Object detection apparatus, object detection method, and program
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP2013109760A (en) Target detection method and target detection system
US20150377607A1 (en) Sensor system for determining distance information based on stereoscopic images
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
EP2720193A2 (en) Method and system for detecting uneven road surface
US20180285661A1 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
US20190001910A1 (en) Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2014009975A (en) Stereo camera
WO2017099199A1 (en) Image processing device, object recognition device, apparatus control system, image processing method and program
JP6617150B2 (en) Object detection method and object detection apparatus
JP6572696B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
KR102188164B1 (en) Method of Road Recognition using 3D Data
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
Romdhane et al. A generic obstacle detection method for collision avoidance
KR102003387B1 (en) Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant