KR20130035959A - Driable area providindg apparatus, method and system - Google Patents

Driable area providindg apparatus, method and system Download PDF

Info

Publication number
KR20130035959A
KR20130035959A KR1020120108988A KR20120108988A KR20130035959A KR 20130035959 A KR20130035959 A KR 20130035959A KR 1020120108988 A KR1020120108988 A KR 1020120108988A KR 20120108988 A KR20120108988 A KR 20120108988A KR 20130035959 A KR20130035959 A KR 20130035959A
Authority
KR
South Korea
Prior art keywords
information
image
analysis
area
scan
Prior art date
Application number
KR1020120108988A
Other languages
Korean (ko)
Other versions
KR101361599B1 (en
Inventor
이석한
김수현
박용진
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Publication of KR20130035959A publication Critical patent/KR20130035959A/en
Application granted granted Critical
Publication of KR101361599B1 publication Critical patent/KR101361599B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE: A drivable area providing apparatus and a method and system thereof are provided to stably perform a drivable area detection and provide an unmanned vehicle driving technology capable of giving a reliable road curve and gradient information to an area reaching a far distance further than an existing distance in the progress direction of a vehicle by analyzing and properly using three or more laser scan results obtained by a multilayer laser scan method in one time of scan. CONSTITUTION: A drivable area providing apparatus includes a scan data analyzing unit extracting a first drivable area by utilizing 'an analysis by histogram and statistical mahalanobis distance classification' and 'a differentiation about the scan result data of multiple multilayer laser sensors about the driving road of a vehicle while driving'; a camera acquisition image information analyzing unit obtaining a boundary and traffic sign information by analyzing by reflecting information related to the first drivable area in an analysis range; and a final drivable area information acquisition unit obtaining final drivable area information by connecting the scan data analysis result with a camera acquisition image information analysis result. [Reference numerals] (AA) Scanning a multilayer; (BB) Analyzing an individual scan layer; (CC) Analyzing upper plane(X-Y) data histogram; (DD) Analyzing front plane(X-Y) data histogram; (EE) Detecting a drivable horizontal smoothing line; (FF) Generating a polygon by the connection of individual smoothing line edge points; (GG) Generating a drivable area; (HH) Obtaining a camera image; (II) Limiting an image processing range in the inner area of the drivable area; (JJ) Separating a color image to gray; (KK) Setting a threshold intensity database in advance to make a separated object area as a purpose recognition target; (LL) Converting into a black and white image by threshold intensity and an area expansion of a separated pixel; (MM) Recognizing a strong drivable area;

Description

주행 가능 영역 제공 장치, 방법 및 시스템{DRIABLE AREA PROVIDINDG APPARATUS, METHOD AND SYSTEM}Device, method and system for providing driving range {DRIABLE AREA PROVIDINDG APPARATUS, METHOD AND SYSTEM}

본 발명은 주행 가능 영역 제공 장치, 방법 및 시스템에 관한 것이다.
The present invention relates to an apparatus, a method and a system for providing a movable area.

종래의 기술은 무인주행차량의 주행가능영역 인식에 의한 조향제어 과정에 있어서, 레이저 센서나 비전을 개별적으로 이용한 방식을 사용하여 왔으며, 이는 다양한 조명환경 및 도로 환경에 강인하지 않은 단점을 갖고 있다.
The prior art has used a method using a laser sensor or a vision individually in the steering control process by recognition of the driving range of the unmanned vehicle, which has a disadvantage that is not robust to a variety of lighting environment and road environment.

본 발명의 목적은 종래의 레이저 센서를 이용하여 도로영역을 인식하는 기술에 있어서, 진보된 다층 레이저 스캔 방식에 의해 일회의 스캔 시 얻어지는 3개 이상의 레이저 스캔 결과를 분석하고 적절히 이용함으로써, 주행가능도로영역 검출을 안정적으로 수행하고, 차량의 진행방향에 종래보다 먼 거리에 이르는 영역에까지 신뢰성있는 도로 곡선 및 구배 정보를 줄 수 있는 무인주행차량 기술을 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is a technology for recognizing a road area using a conventional laser sensor, by analyzing and appropriately using three or more laser scan results obtained in one scan by an advanced multi-layer laser scan method. The present invention provides a driverless vehicle technology capable of stably performing area detection and giving reliable road curve and gradient information to an area that reaches a farther distance in the direction of travel of the vehicle.

또한, 본 발명의 목적은 다층 레이저 센서 정보에 의해 얻어진 주행가능한 영역이 결정된 후, 이 영역 내부의 도로면을 향해 설치된 카메라에 의해 얻어지는 영상을 분석하면서, 차선과 횡단보도, 속도방지턱 정보 등을 검출해 냄으로써, 실제 도로 환경에 적용 가능한 무인주행 기술 안정성을 높일 수 있는 무선주행차량 기술을 제공하는 것이다.
In addition, an object of the present invention is to detect lanes, crosswalks, speed bumps, etc. while analyzing the image obtained by the camera installed toward the road surface inside the area after the runnable area obtained by the multilayer laser sensor information is determined. By doing so, it is to provide a wireless driving vehicle technology that can increase the stability of unmanned driving technology applicable to the actual road environment.

상기한 문제점을 해결하기 위한 본 발명의 주행 가능 영역 제공 장치는 주행 중인 차량의 주행 도로에 대한 복수의 다층 레이저 센서의 스캔 결과 데이터에 대해 미분, 히스토그램 및 통계적 마할라노비스 거리 분류 분석을 활용하여 제 1 주행 가능 영역을 추출하는 스캔 데이터 분석부; 카메라를 통해 취득된 영상을 상기 제 1 주행 가능 영역과 관련된 정보를 분석 범위에 반영하여 분석하여 경계선 및 교통 표식 정보를 획득하는 카메라 취득 영상 정보 분석부; 및 상기 스캔 데이터 분석 결과와 카메라 취득 영상 정보 분석 결과를 연결하여 최종 주행 가능 영역 정보를 획득하는 최종 주행 가능 영역 정보 획득부를 포함할 수 있다.The apparatus for providing a runnable area according to the present invention for solving the above problems is based on a differential, histogram, and statistical Mahalanobis distance classification analysis on scan result data of a plurality of multi-layer laser sensors of a driving road of a driving vehicle. A scan data analyzer configured to extract one driveable region; A camera acquisition image information analyzer configured to obtain information about a boundary line and traffic marker by analyzing the image acquired by the camera and reflecting the information related to the first travelable area in an analysis range; And a final driving region information acquisition unit which connects the scan data analysis result and the camera acquired image information analysis result to obtain final driving region information.

상기 스캔 데이터 분석부는 상기 복수의 다층 레이저 센서를 통해 획득된 개별 스캔층에 대해 미분을 수행하여 주행 가능 도로폭 정보를 획득하는 미분 수행부; 상기 개별 스캔층의 각각의 축에 대한 히스토그램 분석과 레이저 검출 포인트들의 집합을 통계적으로 분류하기 위한 마할라노비스 거리 분석을 수행하여 제 1 주행 가능 영역의 후보 범위를 찾는 히스토그램 분석 및 마할라노비스 거리 분석 수행부; 및 상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 적어도 하나의 주행 가능 영역의 사각형 영역을 획득하는 비교부를 포함할 수 있다.The scan data analysis unit may perform a derivative on the individual scan layers obtained through the plurality of multilayer laser sensors to obtain driving road width information; Histogram analysis and Mahalanobis distance analysis to find candidate range of the first travelable region by performing histogram analysis on each axis of the individual scan layer and Mahalanobis distance analysis for statistically classifying a set of laser detection points. Execution unit; And a comparator configured to compare a result of performing the differential of the individual scan layers with a candidate range of the first travelable area to obtain a rectangular area of the at least one travelable area.

상기 미분 수행부는 상기 개별 스캔층을 가로축의 우측 방향으로 미분을 수행하여 최고값을 추출하여 제 1 주행 가능 영역에 관한 정보를 감소시키는 최고값 추출부; 및 상기 최고값 추출 결과를 기반으로 편평한 면이 연속되다 경사가 급격히 변화하는 도로의 양쪽 끝부분을 검출하여 주행 가능 도로폭 정보를 획득하는 도로폭 정보 획득부를 포함할 수 있다.The derivative performing unit extracts a maximum value by performing a derivative in the right direction of the horizontal axis on the individual scan layer to reduce the information on the first travelable region; And a road width information acquisition unit that detects both ends of the road whose slope is rapidly changed based on the peak value extraction result and obtains the road width information.

상기 비교부는 상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 공통 부분의 정확한 경계 위치를 획득하는 경계 위치 획득부; 상기 획득된 경계 위치 정보로부터 각 개별 스캔층의 가로 평활선을 표시하는 평활선 표시부; 및 상기 각 스캔층의 가로 평활선의 모서리 점들을 사각형 형태로 연결하여 인접한 스캔층 간의 상기 제 1 주행 가능 영역을 획득하는 획득부를 포함할 수 있다.The comparison unit may include: a boundary position acquisition unit configured to obtain an accurate boundary position of a common part by comparing a differential performance result of the individual scan layers with a candidate range of the first travelable region; A smoothing line display unit displaying a horizontal smoothing line of each individual scan layer from the obtained boundary position information; And an acquisition unit for connecting the corner points of the horizontal smooth line of each scan layer in a quadrangular shape to obtain the first travelable region between adjacent scan layers.

상기 카메라 취득 영상 분석부는 상기 카메라가 전방 도로면을 향한 상태에서 취득된 영상을 역원근투사일치법(Inverse Perspective Mapping)에 의해 도로면의 위에서 바라본 평면상의 영상으로 변환하는 평면 영상 변환부; 및 상기 평면 영상에서 상기 경계선 및 교통 표식 정보를 획득하는 정보 획득부를 포함할 수 있다.The camera acquisition image analyzer may include a plane image converter configured to convert an image acquired while the camera faces the front road surface into a planar image viewed from the top of the road surface by inverse perspective mapping. And an information obtaining unit obtaining the boundary line and the traffic mark information from the plane image.

상기 정보 획득부는 상기 평면 상의 영상을 RGB 색상 채널로 분리하는 색상 채널 분리부; 상기 분리된 RGB 색상 채널 중 R 채널 영상에 대해 인접한 픽셀 집합에서 밝기 강도가 급격하게 변하는 점과 관련된 기본 특징 정보를 추출하는 기본 특징 정보 추출부; 상기 기본 특징 정보를 기반으로 임계 강도보다 밝은 색상은 모두 1의 색상수치로 임계 강도보다 어두운 색상들은 0의 색상 수치로 강제 변환하여 흑백 영상을 획득하는 흑백 영상 획득부; 및 상기 획득된 흑백 영상을 기반으로 상기 경계면 및 교통 표식 정보를 획득하는 교통 표식 정보 획득부를 포함할 수 있다.The information acquisition unit includes a color channel separation unit for separating the image on the plane into an RGB color channel; A basic feature information extraction unit for extracting basic feature information related to a point where a brightness intensity rapidly changes in an adjacent pixel set with respect to an R channel image among the separated RGB color channels; A black and white image acquisition unit for obtaining a black and white image by forcibly converting colors lighter than a threshold intensity to a color value of all 1 based on the basic feature information and colors darker than a threshold intensity to a color value of 0; And a traffic marker information acquisition unit for acquiring the boundary surface and the traffic marker information based on the obtained black and white image.

상기 기본 특징 정보 추출부는 상기 R 채널 영상에 대해 가우시안 스무딩(smoothing) 처리 수행 후, 1차 및 2차 미분 마스크 커널을 적용하여 상기 기본 특징 정보를 추출할 수 있다.The basic feature information extractor may extract the basic feature information by applying a first and second differential mask kernel after performing a Gaussian smoothing process on the R channel image.

상기 기본 특징 정보는 아스팔트 색상의 도로면과 교통 표식을 나타내는 색상 간의 차이에 의해 구분될 수 있다.The basic feature information may be distinguished by a difference between the road surface of the asphalt color and the color representing the traffic sign.

상기 교통 표식 정보 획득부는 상기 흑백 영상 중 흰색 영역에 대해 픽셀주변영역확장(region growing) 기법을 적용하여 일정 거리 내의 동일 색상 픽셀을 서로 합침으로써 연속된 선 또는 다각형 정보로 변환하는 정보 변환부; 및 상기 연속된 선을 도로면 상의 경계선 정보로 변환하고, 상기 다각형 정보는 데이터베이스화된 일정 패턴 및 임계 강도 정보를 활용하여 교통 표식 정보로 변환하는 경계선 및 교통 표식 정보 변환부를 포함할 수 있다.The traffic marking information obtaining unit may include: an information converting unit converting the same color pixels within a predetermined distance into continuous line or polygon information by applying a region growing technique to a white region of the black and white image; And converting the continuous line into boundary line information on a road surface, and the polygonal information may include a boundary line and a traffic mark information converting unit converting the continuous line into traffic mark information by using a predetermined pattern and threshold strength information that is database.

상기 경계선 및 교통 표신 정보 변환부는 상기 연속된 선을 RANSAC(RANdom SAmple Consensus)/kmeans 군집화 알고리즘 처리에 의해 선형 적합(line fitting) 함으로써 상기 경계선 정보로 변환할 수 있다.The boundary line and traffic message information converting unit may convert the continuous line into the boundary line information by linear fitting by RANSAC (RANdom SAmple Consensus) / kmeans clustering algorithm processing.

상기한 문제점을 해결하기 위한 본 발명의 주행 가능 영역 제공 방법은 주행 중인 차량의 주행 도로에 대한 복수의 다층 레이저 센서의 스캔 결과 데이터에 대해 미분, 히스토그램 및 통계적 마할라노비스 거리 분류 분석을 활용하여 제 1 주행 가능 영역을 추출하는 스캔 데이터 분석 단계; 카메라를 통해 취득된 영상을 상기 제 1 주행 가능 영역과 관련된 정보를 분석 범위에 반영하여 분석하여 경계선 및 교통 표식 정보를 획득하는 카메라 취득 영상 정보 분석 단계; 및 상기 스캔 데이터 분석 결과와 카메라 취득 영상 정보 분석 결과를 연결하여 최종 주행 가능 영역 정보를 획득하는 최종 주행 가능 영역 정보 획득 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of providing a driveable area according to the present invention, using differential, histogram, and statistical Mahalanobis distance classification analysis on scan result data of a plurality of multilayer laser sensors of a driving road of a driving vehicle. A scan data analysis step of extracting a driving range; A camera acquired image information analyzing step of acquiring boundary lines and traffic marker information by analyzing the image acquired through the camera and reflecting the information related to the first travelable area in an analysis range; And acquiring final driving region information by connecting the scan data analysis result and the camera acquired image information analysis result to obtain final driving region information.

상기 스캔 데이터 분석 단계는 상기 복수의 다층 레이저 센서를 통해 획득된 개별 스캔층에 대해 미분을 수행하여 경계 측 정보를 획득하는 미분 수행 단계; 상기 개별 스캔층의 각각의 축에 대한 히스토그램 분석 및 통계적 마할라노비스 거리 분류 분석을 수행하여 제 1 주행 가능 영역의 후보 범위를 찾는 히스토그램 분석 및 마할라노비스 거리 분석 수행 단계; 및 상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 적어도 하나의 주행 가능 영역의 사각형 영역을 획득하는 비교 단계를 포함할 수 있다.The scanning data analyzing step may include performing derivatives on individual scan layers obtained through the plurality of multilayer laser sensors to obtain boundary side information; Performing a histogram analysis and a Mahalanobis distance analysis to find a candidate range of a first travelable region by performing histogram analysis and statistical Mahalanobis distance classification analysis on each axis of the individual scan layer; And comparing a result of performing the differential of the individual scan layers with a candidate range of the first travelable area to obtain a rectangular area of the at least one travelable area.

상기 카메라 취득 영상 분석 단계는 상기 카메라가 전방 도로면을 향한 상태에서 취득된 영상을 역원근투사일치법(Inverse Perspective Mapping)에 의해 도로면의 위에서 바라본 평면상의 영상으로 변환하는 평면 영상 변환 단계; 및 상기 평면 영상에서 상기 경계선 및 교통 표식 정보를 획득하는 정보 획득 단계를 포함할 수 있다.The camera image analysis step may include converting an image acquired while the camera faces the front road surface into a planar image viewed from the top of the road surface by inverse perspective mapping. And an information acquiring step of acquiring the boundary line and traffic marker information from the plane image.

상기한 문제점을 해결하기 위한 본 발명의 주행 가능 영역 제공 시스템은 상하 방향으로 점차 증가하는 방향 각도를 갖고 스캔하는 복수의 다층 레이저 센서; 주행 도로를 촬영하는 카메라; 및 상기 복수의 다층 레이저 센서의 스캔 결과 데이터를 미분, 히스토그램 및 통계적 마할라노비스 거리 분류 분석을 활용하여 제 1 주행 가능 영역을 추출하고, 상기 카메라를 통해 취득된 영상을 상기 제 1 주행 가능 영역과 관련된 정보를 분석 범위에 반영하여 분석하여 경계선 및 교통 표식 정보를 획득하며, 상기 스캔 데이터 분석 결과와 카메라 취득 영상 정보 분석 결과를 연결하여 최종 주행 가능 영역 정보를 획득하는 주행 가능 영역 제공 장치를 포함할 수 있다.The traveling area providing system of the present invention for solving the above problems is a plurality of multi-layer laser sensor for scanning with a direction angle gradually increasing in the vertical direction; A camera for photographing driving roads; And extracting a first travelable region by using differential, histogram, and statistical Mahalanobis distance classification analysis of the scan result data of the plurality of multilayer laser sensors, and extracting an image acquired by the camera from the first travelable region. The apparatus may include a driving area providing apparatus for obtaining boundary line and traffic marker information by reflecting relevant information in an analysis range and analyzing the result, and obtaining final driving area information by connecting the scan data analysis result and the camera acquired image information analysis result. Can be.

상기 주행 가능 영역 제공 장치는 상기 복수의 다층 레이저 센서를 통해 획득된 개별 스캔층에 대해 미분을 수행하여 경계 측 정보를 획득하는 미분 수행부; 상기 개별 스캔층의 각각의 축에 대한 히스토그램 분석 및 레이저 검출 포인트들의 집합을 통계적으로 분류하기 위한 마할라노비스 거리 분석을 수행하여 제 1 주행 가능 영역의 후보 범위를 찾는 히스토그램 분석 및 마할라노비스 거리 분석 수행부; 및 상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 적어도 하나의 주행 가능 영역의 사각형 영역을 획득하는 비교부를 포함할 수 있다.The apparatus for providing a travelable area may include a differential performing unit configured to obtain boundary side information by performing differentiation on individual scan layers obtained through the plurality of multilayer laser sensors; The histogram analysis and the Mahalanobis distance analysis for finding the candidate range of the first travelable region by performing histogram analysis and the Mahalanobis distance analysis for statistically classifying the set of laser detection points for each axis of the individual scan layer. Execution unit; And a comparator configured to compare a result of performing the differential of the individual scan layers with a candidate range of the first travelable area to obtain a rectangular area of the at least one travelable area.

상기 주행 가능 영역 제공 장치는 상기 카메라가 전방 도로면을 향한 상태에서 취득된 영상을 역원근투사일치법(Inverse Perspective Mapping)에 의해 도로면의 위에서 바라본 평면상의 영상으로 변환하는 평면 영상 변환부; 및 상기 평면 영상에서 상기 경계선 및 교통 표식 정보를 획득하는 정보 획득부를 포함할 수 있다.
The apparatus for providing a movable area includes a plane image converting unit which converts an image acquired while the camera faces a front road surface into an image on a plane viewed from above on a road surface by inverse perspective mapping; And an information obtaining unit obtaining the boundary line and the traffic mark information from the plane image.

일회의 다층 레이저 스캔 결과에서 얻어지는 세 개 이상의 스캔 데이터 결과를 분석하고 처리하여 주행가능영역을 확보하고, 이를 주행과정에서 시간에 따라 연속적으로 확장시켜 전방 주행 가능영역을 보다 멀리까지 안정적으로 인식할 수 있어, 주행의 조향 방향 예측과 경로 계획이 원활해 지고, 차량의 최대안전속도를 높일 수 있다. 주행가능영역 내부의 장애물, 교통표식나 위험요소는 다층 레이저 스캔 결과 분석에 의해 대략적으로 파악되며, 여기에 카메라 영상정보의 취득 및 분석과정을 통해 주행가능 영역에 대한 추가 정보들이 보충됨으로써, 강인한 주행가능 영역 인식 성능을 갖게 된다.
Analyzing and processing three or more scan data results obtained from a single multilayer laser scan result to secure driving range, and continuously extending it over time in the driving process to stably recognize the driving range ahead. Thus, the steering direction prediction and route planning of the driving can be facilitated, and the maximum safety speed of the vehicle can be increased. Obstacles, traffic signs, or hazards within the driveable area are roughly identified by multi-layer laser scan analysis, and additional information on the driveable area is supplemented through the acquisition and analysis of camera image information, thereby providing robust driving. Possible area recognition performance.

도 1 에서 본 발명 기술에 관한 정보 처리단계와 순서 관계관계이고,
도 2 는 윗평면에서 바라본 데이터 출력 결과와 앞평면에서 바라본 데이터 출력 결과이며, 세 번째는 이 데이터들을 3차원 공간 상에서 표현한 결과이다.
도 3 과 도 4 는 얻어진 개별 스캔 데이터에 대한 분석을 수행하여 주행가능한 도로 영역 정보를 추출하는 과정을 나타낸 것이다.
도 5 는 높이방향(Z 축) 히스토그램 분석을 수행한 결과이며,
도 6 은 폭 방향(Y 축) 히스토그램 분석을 수행한 결과이다.
도 7 은 각 개별 스캔 데이터의 가로 평활선을 표시한 것이고,
도 8 은 역원근투사일치법에 의해 변환 후 일반도로의 선 정보를 추출한 결과를 나타낸 것이며,
도 9 는 인접한 두 개의 레이저 스캔 층 간의 분석에 의해 얻어진 영역과 영상정보 분석 결과를 서로 연결하여 강인한 주행가능 영역 정보를 얻는 과정 및 결과이다.
도 10 은 사용된 다층 레이저 센서의 각 층의 진행 각도 범위 등을 나타낸 것이다.
1 is an order relationship with the information processing step according to the present invention,
2 is a data output result seen from the top plane and a data output result seen from the front plane, and the third is a result of expressing these data in three-dimensional space.
3 and 4 illustrate a process of extracting road area information that can be driven by performing analysis on the obtained individual scan data.
5 is a result of performing a height direction (Z axis) histogram analysis,
6 is a result of performing a width direction (Y axis) histogram analysis.
7 shows a horizontal smooth line of each individual scan data,
8 shows the result of extracting line information of a general road after conversion by inverse perspective projection matching method,
FIG. 9 is a process and results of obtaining robust driving region information by connecting an image obtained by analysis between two adjacent laser scan layers and an image information analysis result to each other.
Fig. 10 shows the range of travel angles and the like of each layer of the multilayer laser sensor used.

도 1 에서 본 발명 기술에 관한 정보 처리단계와 순서 관계가 나타나 있다. 다층레이저 시스템에 의해 일회 스캔에 의해 얻어지는 복수 개의 스캔층 데이터를 개별적으로 분석하게 되는데, 도 2 의 좌측 첫번째 그림과 같이 윗평면, 즉 X-Y 평면에서 바라본 데이터 출력 결과와 두번째 앞평면, 즉 Y-Z 평면에서 바라본 데이터 출력 결과를 동시에 분석하게 된다. 마지막 세 번째 그림은 이 데이터들을 3차원 공간 상에서 표현한 결과이다. 도 3 과 도 4 는 얻어진 개별 스캔 데이터에 대한 분석을 수행하여 주행가능한 도로 영역 정보를 추출하는 과정을 나타낸 것이다.In Fig. 1, the order processing and information processing steps related to the present invention are shown. The multi-layer laser system analyzes a plurality of pieces of scan layer data obtained by one scan. In the first figure on the left side of FIG. 2, the data output result from the upper plane, that is, the XY plane, and the second front plane, that is, the YZ plane Analyze the data output you see at the same time. The final third figure is the result of representing these data in three-dimensional space. 3 and 4 illustrate a process of extracting road area information that can be driven by performing analysis on the obtained individual scan data.

도 3 은 개별 층에 대하여 얻어진 결과를 가로축의 우측 방향으로 미분을 수행하여 최고값(peak)을 추출함으로써, 주행가능 영역에 관한 정보를 줄 수 있다. 즉, 연석이나 중앙분계선과 같이 평평한 면이 연속되다가 경사가 급격히 변화하는 양 쪽 끝부분을 검출함으로써, 주행가능 도로폭 정보를 얻을 수 있다. 하지만, 미분 방식에 의해 경계 측 정보를 얻어내는 과정은 레이저 측정 결과 데이터에 노이즈 성분이 없어서, 전체적으로 부드러운 성질이 유지될 때만 가능하며, 중간에 노이즈 성분이 포함되면, 양쪽 끝 부분 검출에 오차가 발생하게 될 수 있다. 따라서 이를 보강하는 영역 검출이 필요하며, 데이터의 히스토그램 분석이 추가된다. FIG. 3 may give information about the travelable area by extracting a peak value by performing a derivative in the right direction of the horizontal axis on the result obtained for the individual floors. In other words, by detecting both ends of a flat surface such as a curb or a center dividing line, the slope is rapidly changed, it is possible to obtain the road width information. However, the process of obtaining boundary-side information by the differential method is possible only when the laser measurement result data has no noise component, so that the overall soft property is maintained, and when the noise component is included in the middle, an error occurs in detecting both ends. Can be done. Therefore, area detection is required to reinforce it, and histogram analysis of data is added.

도 4 는 도 2 의 첫번째 센서 데이터 출력 결과 중 한 개 층에 관하여 진행방향(X축) 히스토그램 분석을 수행한 결과이고, 도 5 는 높이방향(Z 축) 히스토그램 분석을 수행한 결과이며, 도 6 은 폭 방향(Y 축) 히스토그램 분석을 수행한 결과이다. 각 개별 층에 관하여 위 히스토그램 분석 결과를 이용하면, 주행가능 영역의 후보 범위를 찾을 수 있으며, 앞에서 얻어진 미분 결과를 비교하여, 공통부분의 정확한 경계 위치를 얻을 수 있다. 이러한 정보로부터 도 7 과 같이 각 개별 스캔 데이터의 가로 평활선을 표시할 수 있으며, 각 층의 가로 평활선의 모서리 점들을 사각형 형태로 연결하여 인접한 층 간의 주행가능영역 사각형 영역을 얻을 수 있다. 이 영역들은 다층 레이저 센서 데이터 결과와 차량의 주행과정에서 전방으로 진행하면서 누적되면, 주행한 경로 상의 주행가능영역 지도 정보를 제공할 수 있다. 주행가능 영역에 관한 정보가 카메라의 영상분석 범위에 반영되고, 차량의 전방 도로면을 향한 상태에서 취득되는 영상을 역원근투사일치법(Inverse Perspective Mapping) 에 의해 위에서 바라본 평면상의 영상으로 변환하게 된다.4 is a result of performing a moving direction (X axis) histogram analysis on one layer of the first sensor data output result of FIG. 2, and FIG. 5 is a result of performing a height direction (Z axis) histogram analysis. Is the result of the width direction (Y axis) histogram analysis. Using the above histogram analysis results for each individual floor, the candidate range of the travelable area can be found, and the differential results obtained above can be compared to obtain an accurate boundary position of the common part. From this information, a horizontal smooth line of each individual scan data can be displayed as shown in FIG. 7, and the corner points of the horizontal smooth line of each floor can be connected in a quadrangular shape to obtain a rectangular area of the movable area between adjacent floors. When these areas accumulate as they progress forward in the course of traveling of the vehicle, the multi-layer laser sensor data results may provide map information of the driving region on the traveled route. The information about the driveable area is reflected in the image analysis range of the camera, and the image acquired in the state of facing the front road surface of the vehicle is converted into the planar image viewed from above by Inverse Perspective Mapping.

도 8 은 역원근투사일치법에 의해 변환 후 일반도로의 선 정보를 추출한 결과를 나타낸 것이며, 도 9 는 앞에서 얻어진 인접한 두 개의 레이저 스캔 층 간의 분석에 의해 얻어진 영역과 영상정보 분석 결과를 서로 연결하여 강인한 주행가능 영역 정보를 얻는 과정을 나타낸 것이다. 역원근투사일치법에 의해 얻어진 영상에서 필요한 정보를 얻어내는 과정은 다음과 같다. 우선 얻어진 컬러 영상을 RGB 색상채널로 분리하고, R 채널(빨강) 영상에 대하여, 가우시안 스무딩(smoothing) 처리를 수행한 후, 1차와 2차 미분 마스크 커널을 적용하여, 기본적인 특징 정보, 즉 인접한 픽셀 집합에서 밝기 강도가 급격하게 변화하는 점들을 추출한다. 이 정보들은 결국 짙은 회색 계열의 아스팔트 색상의 도로면과 교통표식을 나타내는 색상 간의 차이에 의해 구분되며, 노랑 또는 흰색상으로 표시되는 도로면 상의 교통표식들은 이후의 영상처리 과정에 의해 구분되고 식별된다. 즉, 임계강도가 설정되어, 영상픽셀 중 임계강도보다 밝은 색상들은 모두 1로 강제 변환하고, 임계강도보다 어두운 색상들은 0으로 강제 변환함으로써, 흑백영상으로 변환할 수 있으며, 변환된 영상들은 순수한 진회색 도로면과 그 이외의 교통표식으로 나뉘어지게 된다. 얻어진 흰색 영역들은 적절한 픽셀주변영역확장 (region growing) 기법을 적용함으로써, 일정 거리 내의 동일 색상 픽셀들이 서로 합쳐짐으로써, 연속된 선이나 다각형 정보로 변환되고, 연속된 선은 도로면 상의 경계선 정보로 변환될 수 있도록 하기 위해, RANSAC(RANdom SAmple Consensus)/ kmeans 군집화 알고리즘 처리에 의해 선형적합(line fitting) 된다. 다양한 도로면 상의 교통표식에 대해서는 일정 패턴 및 임계강도 값을 사전실험수행에 의해 데이터베이스화 한 후, 적용함으로써, 주행가능영역에 관한 센서 측정 당시의 정보 뿐 아니라, 전방 주행 방향에 대한 예측을 가능하게 함으로써, 강인한 주행가능영역 인식이 가능해진다.
FIG. 8 shows the result of extracting line information of a general road after conversion by inverse near perspective matching method, and FIG. 9 shows robustness by connecting the image information analysis result with the area obtained by analysis between two adjacent laser scan layers obtained above. It shows the process of obtaining the driveable region information. The process of acquiring the necessary information from the image obtained by the inverse near-projection matching method is as follows. First, the obtained color image is separated into RGB color channels, the Gaussian smoothing process is performed on the R channel (red) image, and then primary and second differential mask kernels are applied to the basic feature information, that is, the adjacent image. Extract points whose brightness intensity changes rapidly in a set of pixels. This information is finally distinguished by the difference between the road surface of dark gray asphalt color and the color representing the traffic sign, and the traffic signs on the road surface displayed in yellow or white color are identified and identified by subsequent image processing. . That is, the threshold intensity is set so that colors brighter than the threshold intensity of the image pixels are all converted to 1, and colors darker than the threshold intensity are converted to 0, thereby converting them into black and white images, and the converted images are pure dark gray. It is divided into road surfaces and other traffic markers. The obtained white areas are transformed into continuous line or polygon information by applying the same region growing technique, and the same color pixels within a certain distance are merged with each other, and the continuous line is converted into boundary information on the road surface. In order to be able to be transformed, line fitting is performed by RANSAC (RANdom SAmple Consensus) / kmeans clustering algorithm processing. The traffic signs on various road surfaces are databased by a predetermined pattern and critical intensity values by pre-experimental experiments, and then applied, enabling prediction of forward driving direction as well as information at the time of sensor measurement about the driving range. By doing so, it is possible to recognize the strong driving range.

Claims (16)

주행 중인 차량의 주행 도로에 대한 복수의 다층 레이저 센서의 스캔 결과 데이터에 대해 미분, 히스토그램 및 통계적 마할라노비스 거리 분류에 의한 분석을 활용하여 제 1 주행 가능 영역을 추출하는 스캔 데이터 분석부;
카메라를 통해 취득된 영상을 상기 제 1 주행 가능 영역과 관련된 정보를 분석 범위에 반영하여 분석하여 경계선 및 교통 표식 정보를 획득하는 카메라 취득 영상 정보 분석부; 및
상기 스캔 데이터 분석 결과와 카메라 취득 영상 정보 분석 결과를 연결하여 최종 주행 가능 영역 정보를 획득하는 최종 주행 가능 영역 정보 획득부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
A scan data analyzer extracting a first driveable region using analysis based on differential, histogram, and statistical Mahalanobis distance classification on scan result data of a plurality of multi-layer laser sensors of a driving road of a driving vehicle;
A camera acquisition image information analyzer configured to obtain information about a boundary line and traffic marker by analyzing the image acquired by the camera and reflecting the information related to the first travelable area in an analysis range; And
And a final driveable area information acquisition unit which connects the scan data analysis result and the camera acquired image information analysis result to obtain final driveable area information.
제 1 항에 있어서, 상기 스캔 데이터 분석부는
상기 복수의 다층 레이저 센서를 통해 획득된 개별 스캔층에 대해 미분을 수행하여 주행 가능 도로폭 정보를 획득하는 미분 수행부;
상기 개별 스캔층의 각각의 축에 대한 히스토그램 분석 및 통계적 마할라노비스 거리 분류 분석을 수행하여 제 1 주행 가능 영역의 후보 범위를 찾는 히스토그램 분석 및 마할라노비스 거리 분석 수행부; 및
상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 적어도 하나의 주행 가능 영역의 사각형 영역을 획득하는 비교부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method of claim 1, wherein the scan data analysis unit
A differential performing unit configured to obtain driving road width information by performing differentiation on individual scan layers obtained through the plurality of multilayer laser sensors;
A histogram analysis and a Mahalanobis distance analysis unit for performing a histogram analysis and statistical Mahalanobis distance classification analysis on each axis of the individual scan layer to find a candidate range of a first driveable region; And
And a comparator configured to compare a result of performing the differential of the individual scan layers with a candidate range of the first travelable area to obtain a rectangular area of the at least one travelable area.
제 2 항에 있어서, 상기 미분 수행부는
상기 개별 스캔층을 가로축의 우측 방향으로 미분을 수행하여 최고값을 추출하여 제 1 주행 가능 영역에 관한 정보를 감소시키는 최고값 추출부; 및
상기 최고값 추출 결과를 기반으로 편평한 면이 연속되다 경사가 급격히 변화하는 도로의 양쪽 끝부분을 검출하여 주행 가능 도로폭 정보를 획득하는 도로폭 정보 획득부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method of claim 2, wherein the differential execution unit
A maximum value extracting unit configured to extract a maximum value by performing differential operation on the individual scan layers in a right direction along a horizontal axis to reduce information on a first travelable region; And
And a road width information acquisition unit for detecting both ends of a road whose slope is rapidly changed based on the highest value extraction result and obtaining road width information. .
제 2 항에 있어서, 상기 비교부는
상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 공통 부분의 정확한 경계 위치를 획득하는 경계 위치 획득부;
상기 획득된 경계 위치 정보로부터 각 개별 스캔층의 가로 평활선을 표시하는 평활선 표시부; 및
상기 각 스캔층의 가로 평활선의 모서리 점들을 사각형 형태로 연결하여 인접한 스캔층 간의 상기 제 1 주행 가능 영역을 획득하는 획득부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method of claim 2, wherein the comparison unit
A boundary position acquisition unit for obtaining an accurate boundary position of a common part by comparing a differential performance result of the individual scan layers with a candidate range of the first travelable region;
A smoothing line display unit displaying a horizontal smoothing line of each individual scan layer from the obtained boundary position information; And
And an acquisition unit for connecting the corner points of the horizontal smooth line of each scan layer in a quadrangular shape to obtain the first travelable region between adjacent scan layers.
제 1 항에 있어서, 상기 카메라 취득 영상 분석부는
상기 카메라가 전방 도로면을 향한 상태에서 취득된 영상을 역원근투사일치법(Inverse Perspective Mapping)에 의해 도로면의 위에서 바라본 평면상의 영상으로 변환하는 평면 영상 변환부; 및
상기 평면 영상에서 상기 경계선 및 교통 표식 정보를 획득하는 정보 획득부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method of claim 1, wherein the camera acquisition image analysis unit
A planar image converting unit converting an image acquired while the camera faces the front road surface into a planar image viewed from the top of the road surface by Inverse Perspective Mapping; And
And an information acquisition unit for acquiring the boundary line and the traffic mark information from the planar image.
제 5 항에 있어서, 상기 정보 획득부는
상기 평면 상의 영상을 RGB 색상 채널로 분리하는 색상 채널 분리부;
상기 분리된 RGB 색상 채널 중 R 채널 영상에 대해 인접한 픽셀 집합에서 밝기 강도가 급격하게 변하는 점과 관련된 기본 특징 정보를 추출하는 기본 특징 정보 추출부;
상기 기본 특징 정보를 기반으로 임계 강도보다 밝은 색상은 모두 1의 색상수치로 임계 강도보다 어두운 색상들은 0의 색상 수치로 강제 변환하여 흑백 영상을 획득하는 흑백 영상 획득부; 및
상기 획득된 흑백 영상을 기반으로 상기 경계면 및 교통 표식 정보를 획득하는 교통 표식 정보 획득부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method of claim 5, wherein the information acquisition unit
A color channel separator that separates the image on the plane into an RGB color channel;
A basic feature information extraction unit for extracting basic feature information related to a point where a brightness intensity rapidly changes in an adjacent pixel set with respect to an R channel image among the separated RGB color channels;
A black and white image acquisition unit for obtaining a black and white image by forcibly converting colors lighter than a threshold intensity to a color value of all 1 based on the basic feature information and colors darker than a threshold intensity to a color value of 0; And
And a traffic marking information obtaining unit obtaining the boundary surface and the traffic marking information based on the obtained black and white image.
제 6 항에 있어서,
상기 기본 특징 정보 추출부는 상기 R 채널 영상에 대해 가우시안 스무딩(smoothing) 처리 수행 후, 1차 및 2차 미분 마스크 커널을 적용하여 상기 기본 특징 정보를 추출하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method according to claim 6,
And the basic feature information extractor extracts the basic feature information by applying first and second differential mask kernels after performing a Gaussian smoothing process on the R channel image.
제 6 항에 있어서,
상기 기본 특징 정보는 아스팔트 색상의 도로면과 교통 표식을 나타내는 색상 간의 차이에 의해 구분되는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method according to claim 6,
The basic feature information is distinguished by the difference between the road surface of the asphalt color and the color representing the traffic sign.
제 6 항에 있어서, 상기 교통 표식 정보 획득부는
상기 흑백 영상 중 흰색 영역에 대해 픽셀주변영역확장(region growing) 기법을 적용하여 일정 거리 내의 동일 색상 픽셀을 서로 합침으로써 연속된 선 또는 다각형 정보로 변환하는 정보 변환부; 및
상기 연속된 선을 도로면 상의 경계선 정보로 변환하고, 상기 다각형 정보는 데이터베이스화된 일정 패턴 및 임계 강도 정보를 활용하여 교통 표식 정보로 변환하는 경계선 및 교통 표식 정보 변환부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
The method of claim 6, wherein the traffic sign information acquisition unit
An information conversion unit converting the same color pixels within a predetermined distance into continuous line or polygon information by applying a region growing technique to a white region of the black and white image; And
The continuous line is converted into boundary information on the road surface, and the polygonal information includes a boundary line and a traffic marker information converting unit for converting the traffic marker information by using a constant pattern and threshold strength information that is databased. Possible area provision device.
제 9 항에 있어서, 상기 경계선 및 교통 표신 정보 변환부는
상기 연속된 선을 RANSAC(RANdom SAmple Consensus)/kmeans 군집화 알고리즘 처리에 의해 선형 적합(line fitting) 함으로써 상기 경계선 정보로 변환하는 것을 특징으로 하는 주행 가능 영역 제공 장치.
10. The apparatus of claim 9, wherein the boundary line and traffic message information converting unit is used.
And converting the continuous line into the boundary line information by linearly fitting the random lines by a RANSAC (random SAmple consensus) / kmeans clustering algorithm process.
주행 중인 차량의 주행 도로에 대한 복수의 다층 레이저 센서의 스캔 결과 데이터에 대해 미분, 히스토그램 및 통계적 마할라노비스 거리 분류 분석을 활용하여 제 1 주행 가능 영역을 추출하는 스캔 데이터 분석 단계;
카메라를 통해 취득된 영상을 상기 제 1 주행 가능 영역과 관련된 정보를 분석 범위에 반영하여 분석하여 경계선 및 교통 표식 정보를 획득하는 카메라 취득 영상 정보 분석 단계; 및
상기 스캔 데이터 분석 결과와 카메라 취득 영상 정보 분석 결과를 연결하여 최종 주행 가능 영역 정보를 획득하는 최종 주행 가능 영역 정보 획득 단계를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 방법.
A scan data analysis step of extracting a first travelable region by using differential, histogram, and statistical Mahalanobis distance classification analysis on scan result data of a plurality of multilayer laser sensors of a driving road of a driving vehicle;
A camera acquired image information analyzing step of acquiring boundary lines and traffic marker information by analyzing the image acquired through the camera and reflecting the information related to the first travelable area in an analysis range; And
And obtaining final driving region information by connecting the scan data analysis result and the camera acquired image information analysis result to obtain final driving region information.
제 11 항에 있어서, 상기 스캔 데이터 분석 단계는
상기 복수의 다층 레이저 센서를 통해 획득된 개별 스캔층에 대해 미분을 수행하여 경계 측 정보를 획득하는 미분 수행 단계;
상기 개별 스캔층의 각각의 축에 대한 히스토그램 분석 및 통계적 마할라노비스 거리 분류 분석을 수행하여 제 1 주행 가능 영역의 후보 범위를 찾는 히스토그램 분석 및 마할라노비스 거리 분석 수행 단계; 및
상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 적어도 하나의 주행 가능 영역의 사각형 영역을 획득하는 비교 단계를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 방법.
The method of claim 11, wherein analyzing the scan data
Performing differentiation on individual scan layers obtained through the plurality of multilayer laser sensors to obtain boundary side information;
Performing a histogram analysis and a Mahalanobis distance analysis to find a candidate range of a first travelable region by performing histogram analysis and statistical Mahalanobis distance classification analysis on each axis of the individual scan layer; And
And comparing a result of performing the differential of the individual scan layers with a candidate range of the first travelable area to obtain a rectangular area of the at least one travelable area.
제 11 항에 있어서, 상기 카메라 취득 영상 분석 단계는
상기 카메라가 전방 도로면을 향한 상태에서 취득된 영상을 역원근투사일치법(Inverse Perspective Mapping)에 의해 도로면의 위에서 바라본 평면상의 영상으로 변환하는 평면 영상 변환 단계; 및
상기 평면 영상에서 상기 경계선 및 교통 표식 정보를 획득하는 정보 획득 단계를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 방법.
The method of claim 11, wherein the analyzing of the camera acquired image comprises:
A plane image conversion step of converting an image acquired while the camera faces the front road surface into a planar image viewed from the top of the road surface by inverse perspective mapping; And
And an information obtaining step of acquiring the boundary line and the traffic mark information from the plane image.
상하 방향으로 점차 증가하는 방향 각도를 갖고 스캔하는 복수의 다층 레이저 센서;
주행 도로를 촬영하는 카메라; 및
상기 복수의 다층 레이저 센서의 스캔 결과 데이터를 미분, 히스토그램 및 통계적 마할라노비스 거리 분류 분석을 활용하여 제 1 주행 가능 영역을 추출하고, 상기 카메라를 통해 취득된 영상을 상기 제 1 주행 가능 영역과 관련된 정보를 분석 범위에 반영하여 분석하여 경계선 및 교통 표식 정보를 획득하며, 상기 스캔 데이터 분석 결과와 카메라 취득 영상 정보 분석 결과를 연결하여 최종 주행 가능 영역 정보를 획득하는 주행 가능 영역 제공 장치를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 시스템.
A plurality of multi-layer laser sensor for scanning with a direction angle gradually increasing in the vertical direction;
A camera for photographing driving roads; And
The first driving region is extracted by using differential, histogram, and statistical Mahalanobis distance classification analysis of the scan result data of the plurality of multilayer laser sensors, and the image acquired by the camera is associated with the first driving region. Reflecting the information in the analysis range to obtain boundary lines and traffic marker information, and connecting the scan data analysis result and the camera acquired image information analysis result to obtain a driving area providing apparatus for obtaining final driving area information. A drive area providing system characterized in that.
제 14 항에 있어서, 상기 주행 가능 영역 제공 장치는
상기 복수의 다층 레이저 센서를 통해 획득된 개별 스캔층에 대해 미분을 수행하여 경계 측 정보를 획득하는 미분 수행부;
상기 개별 스캔층의 각각의 축에 대한 히스토그램 및 통계적 마할라노비스 거리 분류 분석을 수행하여 제 1 주행 가능 영역의 후보 범위를 찾는 히스토그램 분석 및 마할라노비스 거리 분석 수행부; 및
상기 개별 스캔층의 미분 수행 결과와 상기 제 1 주행 가능 영역의 후보 범위를 비교하여 적어도 하나의 주행 가능 영역의 사각형 영역을 획득하는 비교부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 시스템.
The apparatus of claim 14, wherein the driving area providing apparatus
A differential performing unit configured to obtain boundary side information by performing differentiation on individual scan layers obtained through the plurality of multilayer laser sensors;
A histogram analysis and mahalanobis distance analysis unit that performs a histogram and statistical Mahalanobis distance classification analysis on each axis of the individual scan layer to find a candidate range of a first driveable region; And
And a comparator configured to compare a result of performing the differential of the individual scan layers with a candidate range of the first travelable area to obtain a rectangular area of the at least one travelable area.
제 14 항에 있어서, 상기 주행 가능 영역 제공 장치는
상기 카메라가 전방 도로면을 향한 상태에서 취득된 영상을 역원근투사일치법(Inverse Perspective Mapping)에 의해 도로면의 위에서 바라본 평면상의 영상으로 변환하는 평면 영상 변환부; 및
상기 평면 영상에서 상기 경계선 및 교통 표식 정보를 획득하는 정보 획득부를 포함하는 것을 특징으로 하는 주행 가능 영역 제공 시스템.
The apparatus of claim 14, wherein the driving area providing apparatus
A planar image converting unit converting an image acquired while the camera faces the front road surface into a planar image viewed from the top of the road surface by Inverse Perspective Mapping; And
And a data acquisition unit for acquiring the boundary line and traffic marking information from the plane image.
KR1020120108988A 2011-09-30 2012-09-28 Driable area providindg apparatus, method and system KR101361599B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110100070 2011-09-30
KR20110100070 2011-09-30

Publications (2)

Publication Number Publication Date
KR20130035959A true KR20130035959A (en) 2013-04-09
KR101361599B1 KR101361599B1 (en) 2014-02-25

Family

ID=48437613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120108988A KR101361599B1 (en) 2011-09-30 2012-09-28 Driable area providindg apparatus, method and system

Country Status (1)

Country Link
KR (1) KR101361599B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463464B1 (en) * 2013-06-03 2014-11-21 국방과학연구소 Driveable path detection apparatus, moving objection having th same and method of detectiing driveable path
WO2016036126A1 (en) * 2014-09-03 2016-03-10 신동윤 Long-range discernible image generating apparatus and method of operating same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4070437B2 (en) * 2001-09-25 2008-04-02 ダイハツ工業株式会社 Forward vehicle recognition device and recognition method
KR100588563B1 (en) * 2004-04-19 2006-06-14 현대자동차주식회사 Method for a traffic line recognition of using image on vehicle
JP2006004188A (en) 2004-06-17 2006-01-05 Daihatsu Motor Co Ltd Obstacle recognition method and obstacle recognition device
KR101026778B1 (en) 2011-01-26 2011-04-11 주식회사보다텍 Vehicle image detection apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463464B1 (en) * 2013-06-03 2014-11-21 국방과학연구소 Driveable path detection apparatus, moving objection having th same and method of detectiing driveable path
WO2016036126A1 (en) * 2014-09-03 2016-03-10 신동윤 Long-range discernible image generating apparatus and method of operating same
US10373289B2 (en) 2014-09-03 2019-08-06 Dong-yun Shin Long-range discernible image generating apparatus and method of operating same

Also Published As

Publication number Publication date
KR101361599B1 (en) 2014-02-25

Similar Documents

Publication Publication Date Title
CN110175576B (en) Driving vehicle visual detection method combining laser point cloud data
US8750567B2 (en) Road structure detection and tracking
US8670612B2 (en) Environment recognition device and environment recognition method
US20170372160A1 (en) Environment recognition device and environment recognition method
US9099005B2 (en) Environment recognition device and environment recognition method
KR101947826B1 (en) Method for recognizimg parking mark for vehicle
US9435885B2 (en) Road-terrain detection method and system for driver assistance systems
US8855367B2 (en) Environment recognition device and environment recognition method
US20120269391A1 (en) Environment recognition device and environment recognition method
CN104899554A (en) Vehicle ranging method based on monocular vision
JP6583527B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
US8989439B2 (en) Environment recognition device and environment recognition method
JPWO2017145600A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
US20150203114A1 (en) Lane relative position estimation method and system for driver assistance systems
JP2005215985A (en) Traffic lane decision program and recording medium therefor, traffic lane decision unit and traffic lane decision method
CN102073846A (en) Method for acquiring traffic information based on aerial images
JP2012168592A (en) Environment recognition device
KR101392357B1 (en) System for detecting sign using 2d and 3d information
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
EP3432264A1 (en) Image processing device, image pickup device, mobile-body apparatus control system, image processing method, and program
JP2018088233A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
KR101361599B1 (en) Driable area providindg apparatus, method and system
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
Börcs et al. On board 3D object perception in dynamic urban scenes
Hsu et al. Detecting drivable space in traffic scene understanding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180201

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee