KR101578434B1 - Apparatus for detecting lane and method thereof - Google Patents

Apparatus for detecting lane and method thereof Download PDF

Info

Publication number
KR101578434B1
KR101578434B1 KR1020110077912A KR20110077912A KR101578434B1 KR 101578434 B1 KR101578434 B1 KR 101578434B1 KR 1020110077912 A KR1020110077912 A KR 1020110077912A KR 20110077912 A KR20110077912 A KR 20110077912A KR 101578434 B1 KR101578434 B1 KR 101578434B1
Authority
KR
South Korea
Prior art keywords
lane
information
feature points
extracted
image
Prior art date
Application number
KR1020110077912A
Other languages
Korean (ko)
Other versions
KR20130015738A (en
Inventor
김종헌
박영경
이중재
김현수
박준오
안드레아스 박
디르 산드라 셰이커
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110077912A priority Critical patent/KR101578434B1/en
Priority to PCT/KR2011/009801 priority patent/WO2013018961A1/en
Publication of KR20130015738A publication Critical patent/KR20130015738A/en
Application granted granted Critical
Publication of KR101578434B1 publication Critical patent/KR101578434B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0048Addition or subtraction of signals
    • B60W2050/0049Signal offset
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 명세서는 영상을 획득하는 카메라 모듈; 상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부; 및 상기 추적된 차선을 표시하는 표시부를 포함하되, 상기 차선 적합은, 임의의 과거 시점에서 추출된 특징점 정보를 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하고, 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하고, 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 하는 차선 인식 장치에 관한 것이다.
또한, 본 명세서는 영상을 획득하는 단계; 상기 획득된 영상으로부터 복수의 특징점을 추출하는 단계; 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하는 단계; 상기 적합 된 차선을 추적하는 단계; 및 상기 추적된 차선을 표시하는 단계를 포함하되, 상기 차선 적합을 수행하는 단계는, 임의의 과거 시점에서 추출된 특징점 정보를 획득하는 단계; 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하는 단계; 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하는 단계; 및 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법에 관한 것이다.
The present invention relates to a camera module for acquiring an image; A controller for extracting a plurality of feature points from the obtained image, performing lane fitting to connect the extracted plurality of feature points with one line, and tracking the adapted lane; And a display unit for displaying the tracked lane, wherein the lane adaptation comprises: obtaining minutia information extracted at an arbitrary past time point, extracting from the past time point based on the running information from the past past time point to the present time, Estimating a position of the current point of time with respect to the feature point that has been determined, determining an offset indicating the lateral deviation of the lane based on the estimated position of the current point of time, and performing curve fitting based on the determined offset To a lane recognizing device.
Further, the present disclosure relates to a method of acquiring images, Extracting a plurality of feature points from the acquired image; Performing lane fitting to connect the extracted plurality of feature points by one line; Tracking the adapted lane; And displaying the tracked lane, wherein performing the lane fitting comprises: obtaining minutia information extracted at an arbitrary past time; Estimating a position of a current point of time with respect to the minutiae extracted from the past time point based on the traveling information from the past past time point to the present; Determining an offset indicating a lateral deviation of the lane based on the estimated current position; And performing a curve fitting based on the determined offset.

Description

차선 인식 장치 및 그 방법{APPARATUS FOR DETECTING LANE AND METHOD THEREOF}[0001] APPARATUS FOR DETECTING LANE AND METHOD THEREOF [0002]

본 명세서는 차선 인식 장치 및 그 방법에 관한 것이다.The present specification relates to a lane recognition apparatus and a method thereof.

일반적으로 주행 장치가 선을 추적하여 이동할 때, 선을 이탈한 것을 감지하여 외부로 경보를 발하기 위해서는 우선적으로 영상 인식 장치 등을 사용하여 선을 인식해야 한다.Generally, when a traveling device moves along a line, it is necessary to recognize the line by using an image recognition device or the like in order to detect a departure from the line and issue an alarm to the outside.

즉, 영상을 이용한 인식 장치는 주행 장치에서 인식하기 위한 목표물의 영상을 카메라 등을 이용하여 획득한 후, 디지털 영상처리 기술을 이용하여 목표물의 특징을 추출하고, 추출된 특징을 이용하여 목표물을 확인하는 과정을 수행하는데, 이러한 영상 인식 장치가 본래의 기능을 원활히 수행하기 위해서는 이동하는 물체에서 목표물인 선을 더욱 정확하게 추출할 수 있어야 한다.That is, a recognition device using an image acquires an image of a target to be recognized by a traveling device using a camera or the like, extracts a characteristic of the target using a digital image processing technique, and confirms the target using the extracted characteristic In order for the image recognition apparatus to perform its original function smoothly, it is necessary to extract the target line more accurately from the moving object.

이와 같은 영상 인식 장치는 자동차, RT(Robot Technology), AGV(Automated Guided Vehicle) 등의 분야에서 폭넓게 적용될 수 있으며, 특히 자동차 분야에서는 고속 주행 시에도 정확한 차선 인식을 보장하여야 하기 때문에 타분야에 비하여 기술적 난이도가 높다. 여기서 차선은 운전의 기준선으로서 전진, 후진, 차선 변경, 진로 변경, 전진 주차, 후진 주차 및 종렬 주차 등 모든 운전 행위의 기준이 된다.Such image recognition apparatuses can be widely applied in fields such as automobiles, RT (Robot Technology), and AGV (Automated Guided Vehicle). Especially, in the automobile field, since accurate lane recognition must be ensured even when traveling at high speed, The difficulty is high. Here, the lane is the baseline of driving, and it is a standard for all driving behaviors such as forward, backward, lane change, career change, forward parking, reverse parking and in-line parking.

현재 고기능화, 지능화가 진행되고 있는 첨단 안전 차량(Advanced Safety Vehicle; ASV)은 차선 인식 방법의 주요 적용 대상으로서 졸음 운전 방지를 위한 차선 이탈 경보 장치, 초보자의 주차를 돕기 위한 후방 주차 가이드 및 종렬 주차 가이드 장치, 위험한 상황에서 핸들에 토크를 가하여 차선을 유지시키는 차선 유지 장치 등에 적용되며 점차 그 적용 범위가 넓혀지고 있다.The Advanced Safety Vehicle (ASV), which is currently being sophisticated and intelligent, is mainly applied to the lane identification method, which includes a lane departure warning device to prevent drowsiness driving, a rear parking guide to help beginners park, Devices, and lane keeping devices that maintain the lane by applying torque to the handle in a dangerous situation.

위와 같이 주행 도로를 영상으로 획득하고, 획득된 영상에서 차선을 구분하여 인식하는 기술에 따른 차선 인식 방법들을 살펴보면, 획득한 영상의 좌표에 대한 차선 포인트들을 2차원 좌표에 맵핑하고 차선의 위치를 검출하여 표시하는 과정으로 이루어진다. The lane recognition methods according to the technique of acquiring the running road as an image as described above and recognizing lanes in the obtained image are described as follows. The lane points for the coordinates of the acquired image are mapped to the two-dimensional coordinates and the position of the lane is detected .

이때 차선이 곡선으로 이루어지는 경우, 얻어진 차선 포인트들로부터 곡선 방정식을 사용하거나 차선의 폭을 이용하여 곡선을 인식한다. 그러나 이러한 방법은 곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 경우, 인식된 차선에 대한 정확도가 현저하게 떨어질 수 있다.At this time, when the lane is formed of a curve, the curve is recognized from the obtained lane points using the curve equation or the width of the lane. However, this method can significantly reduce the accuracy of the recognized lane when curved roads are formed by dotted lines and the roads are cut off and restarted from the front of the vehicle.

본 명세서는 곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 때와 같이 도로 변화가 심한 경우에도 정확하게 차선을 인식하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for accurately recognizing a lane even when road changes are severe, such as when a curved road with a large curvature is formed by a dotted line and the road is cut off and then restarted from the front of the vehicle.

본 명세서에 개시된 차선 인식 장치는, 영상을 획득하는 카메라 모듈, 상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부, 및 상기 추적된 차선을 표시하는 표시부를 포함하되, 상기 차선 적합은, 임의의 과거 시점에서 추출된 특징점 정보를 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하고, 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하고, 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 한다. The lane recognizing apparatus disclosed in this specification includes a camera module for acquiring an image, a lane matching function for extracting a plurality of feature points from the obtained image, connecting the extracted plurality of feature points by one line, And a display unit for displaying the tracked lane, wherein the lane adaptation comprises: acquiring minutia information extracted at an arbitrary past time point; and calculating the driving information from the arbitrary past time point to the present time Estimating a position of the current point of time with respect to the minutiae extracted at the past point in time, determining an offset indicating the lateral offset of the lane based on the estimated position of the current point of time, And performs the adaptation.

또한, 상기 곡선 적합은, 임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 것을 특징으로 한다. Further, the curve fit is characterized by determining coefficients of the curve equation based on a curve equation having an arbitrary dimension.

또한, 상기 주행 정보는, 속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 한다. The driving information may be at least one of speed information, acceleration information, and steering information.

또한, 상기 카메라 모듈은, 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라 또는 단일 카메라를 포함하여 구성되는 것을 특징으로 한다. In addition, the camera module may include at least one pair of cameras or a single camera, which are spaced apart from each other on the same central axis of the same plane.

또한, 상기 복수의 특징점은, 상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하고, 상기 관심 영역에 대하여만 추출되는 것을 특징으로 한다. In addition, the plurality of feature points may be extracted only for the region of interest, with only the road portion corresponding to the lower end centered on the horizon in the obtained image set as the region of interest.

또한, 상기 복수의 특징점은, 상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 한다. The plurality of minutiae are extracted based on gradient information or color information of the obtained image.

또한, 상기 제어부는, 상기 추출된 복수의 특징점을 월드 좌표계로 변환하고, 상기 변환된 복수의 특징점을 기초로 차선을 적합하는 것을 특징으로 한다. The control unit may convert the extracted plurality of feature points into a world coordinate system, and fit the lane based on the converted plurality of feature points.

또한, 상기 차선의 추적은, 상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 한다. Further, the tracking of the lane is performed with respect to all of the adapted lanes.

또한, 상기 추출된 특징점에 대한 정보를 저장하는 저장부를 더 포함하고, 상기 제어부는, 상기 저장부에 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 한다.The control unit may further include a storage unit for storing information on the extracted minutiae, wherein the control unit fits the lane based on the information about the minutiae stored in the storage unit.

또한, 본 명세서에 개시된 차선 인식 장치는, 영상을 획득하는 카메라 모듈, 상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부, 및 상기 추적된 차선을 표시하는 표시부를 포함하되, 상기 차선 적합은, 임의의 과거 시점에서의 차선 적합 결과의 차선의 횡방향 치우침을 나타내는 오프셋을 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 오프셋에 대한 현재 시점의 오프셋을 추정하고, 상기 추정된 현재 시점의 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 한다. Further, the lane recognizing apparatus disclosed in the present specification includes a camera module for acquiring an image, a lane matching function for extracting a plurality of feature points from the obtained image, connecting the extracted plurality of feature points with one line, And a display unit for displaying the tracked lane, wherein the lane adaptation obtains an offset representing a lateral deviation of a lane of the lane adaptation result at any past point in time, Estimates an offset of the current point of time based on the travel information from the past point of time to the present point of time, and performs curve fitting based on the estimated offset of the current point of time.

또한, 본 명세서에 개시된 차선 인식 방법은, 영상을 획득하는 단계, 상기 획득된 영상으로부터 복수의 특징점을 추출하는 단계, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하는 단계, 상기 적합 된 차선을 추적하는 단계, 및 상기 추적된 차선을 표시하는 단계를 포함하되, 상기 차선 적합을 수행하는 단계는, 임의의 과거 시점에서 추출된 특징점 정보를 획득하는 단계, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하는 단계, 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하는 단계, 및 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a lane recognition method including: obtaining an image; extracting a plurality of feature points from the acquired image; performing lane fitting to connect the extracted plurality of feature points with one line; The method comprising the steps of: tracking the adapted lane; and displaying the tracked lane, wherein performing the lane fitting comprises: obtaining minutia information extracted at an arbitrary past time; Estimating a current position of the feature point extracted from the past point of view based on the current driving information from the current point of view, determining an offset indicating lateral displacement of the lane based on the estimated position of the current point of time And performing a curve fit based on the determined offset.

또한, 상기 곡선 적합을 수행하는 단계는, 임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 단계를 포함하는 것을 특징으로 한다.In addition, the step of performing the curve fitting may include determining coefficients of the curve equation based on a curve equation having an arbitrary dimension.

또한, 상기 주행 정보는, 속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 한다.The driving information may be at least one of speed information, acceleration information, and steering information.

또한, 상기 카메라 모듈은, 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라 또는 단일 카메라를 포함하여 구성되는 것을 특징으로 한다. In addition, the camera module may include at least one pair of cameras or a single camera, which are spaced apart from each other on the same central axis of the same plane.

또한, 상기 복수의 특징점을 추출하는 단계는, 상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하는 단계, 및 상기 관심 영역에 대하여만 복수의 특징점을 추출하는 단계를 포함하는 것을 특징으로 한다.The step of extracting the plurality of feature points may further include the steps of setting only a road portion corresponding to a lower end of a center of a horizon in the obtained image as a region of interest and extracting a plurality of feature points only with respect to the region of interest .

또한, 상기 복수의 특징점은, 상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 한다. The plurality of minutiae are extracted based on gradient information or color information of the obtained image.

또한, 상기 차선을 적합하는 단계는, 상기 추출된 복수의 특징점을 월드 좌표계로 변환하는 단계, 및 상기 변환된 복수의 특징점을 기초로 차선을 적합하는 단계를 포함하는 것을 특징으로 한다. The step of fitting the lane may include converting the extracted plurality of feature points into a world coordinate system, and fitting the lane based on the converted plurality of feature points.

또한, 상기 차선을 추적하는 단계는, 상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 한다. In addition, the step of tracking the lane is performed on all of the adapted lanes.

또한, 상기 특징점을 추출하는 단계는, 상기 추출된 특징점에 대한 정보를 저장하는 단계를 더 포함하고, 상기 차선을 적합하는 단계는, 상기 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 한다.The step of extracting the feature points may further include storing information on the extracted feature points, and the step of fitting the lanes fits the lane based on the information on the stored feature points. do.

본 명세서에 개시된 차선 인식 장치에 따르면, 주행 경로에 나타난 전체 차선을 추적하고 추적 결과로부터 차선을 인식함으로써, 인터체인지와 같이 변동하는 도로 상황에서도 정확하게 차선을 인식할 수 있고 차선 변경 상황에서도 신속하게 새로운 주행 차선을 인지할 수 있다. According to the lane recognizing apparatus disclosed in this specification, it is possible to accurately recognize a lane even in a changing road situation such as an interchange by tracking the entire lane appearing in the traveling route and recognizing the lane from the tracking result, I can recognize the lane.

또한, 본 명세서에 개시된 차선 인식 장치에 따르면, 곡률이 심한 곡선 도로가 점선으로 이루어진 경우, 과거에 추출된 특징점 또는 과거의 차선 적합 결과를 기초로 현재 차선에 대한 곡선 적합을 수행함으로써, 실제 차선에 가까운 결과를 얻음과 동시에 정확한 오프셋(off set)을 결정할 수 있다.Further, according to the lane recognizing apparatus disclosed in this specification, when a curved road with a large curvature is formed by a dotted line, curve fitting to the current lane is performed based on past feature points or past lane fitting results, It is possible to obtain a close result and to determine an accurate off set.

도 1은 본 명세서에 개시된 실시 예에 따른 차선 인식 장치의 구성을 나타낸 블록도이다.
도 2는 본 명세서에 개시된 실시 예에 따른 차선 인식 과정을 나타낸 흐름도이다.
도 3은 본 명세서에 개시된 실시 예에 따른 영상을 나타낸 도면이다.
도 4는 본 명세서에 개시된 실시 예에 따른 특징점 추출 결과를 나타낸 도면이다.
도 5는 본 명세서에 개시된 실시 예에 다른 추출된 특징점의 월드 좌표계 변환 결과를 나타낸 도면이다.
도 6은 본 명세서에 개시된 실시 예에 따른 차선 적합 결과를 나타낸 도면이다.
도 7은 본 명세서에 개시된 실시 예에 따른 차선 추적 결과의 표시를 나타낸 도면이다.
도 8은 본 명세서에 개시된 실시 예에 따른 곡선 적합 과정을 나타낸 흐름도이다.
도 9는 본 명세서에 개시된 실시 예에 따른 차선 인식 장치가 주행하는 도로의 일 예를 나타낸 도면이다.
도 10은 실제 차선과 곡선 적합 결과 차선을 비교하여 나타낸 도면이다.
도 11은 본 명세서에 개시된 실시 예에 따른 과거 시점에서 추출된 특징점 정보를 획득한 결과를 나타낸 도면이다.
도 12는 본 명세서에 개시된 실시 예에 따른 주행 정보를 기초로 특징점의 변화된 위치를 추정한 결과를 나타낸 도면이다.
도 13은 본 명세서에 개시된 실시 예에 따른 곡선 적합 결과를 나타낸 도면이다.
1 is a block diagram showing a configuration of a lane recognizing apparatus according to an embodiment disclosed herein.
2 is a flowchart illustrating a lane recognition process according to an embodiment disclosed herein.
3 is a diagram illustrating an image according to an embodiment disclosed herein.
FIG. 4 is a diagram showing a feature point extraction result according to the embodiment disclosed herein.
FIG. 5 is a diagram showing a world coordinate system transformation result of extracted minutiae in accordance with the embodiment disclosed herein.
6 is a diagram showing lane-fitting results according to the embodiment disclosed herein.
7 is a diagram illustrating the display of lane-tracking results in accordance with the embodiment disclosed herein.
8 is a flowchart illustrating a curve fitting process according to the embodiment disclosed herein.
9 is a diagram showing an example of a road on which a lane recognizing device according to the embodiment disclosed herein runs.
Fig. 10 is a diagram showing the comparison between the actual lane and the curve fitting result lane.
11 is a diagram illustrating a result of obtaining minutia information extracted in the past according to the embodiment disclosed herein.
12 is a diagram illustrating a result of estimating a changed position of a minutiae on the basis of travel information according to the embodiment disclosed herein.
13 is a diagram showing the curve fitting result according to the embodiment disclosed herein.

본 명세서에 개시된 실시 예들은, 스탠드 얼론(stand alone)으로 구성될 수 있을 뿐만 아니라, 이동 단말기(Mobile Terminal), 텔레매틱스 단말기(Telematics Terminal), 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기 등과 같이 다양한 단말기에 적용될 수 있다.The embodiments disclosed herein may be configured not only as a stand alone device but also as a mobile terminal, a telematics terminal, a smart phone, a portable terminal, A personal digital assistant (PDA), a portable multimedia player (PMP), a notebook computer, a tablet PC, a Wibro terminal, an Internet Protocol Television (IPTV) terminal, , A 3D television, an image device, a telematics terminal, a navigation terminal, an AVN (Audio Video Navigation) terminal, and the like.

본 명세서에 개시된 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 파일 데이터, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 예도 마찬가지다.The embodiments disclosed herein may be implemented in the form of program instructions that may be executed on various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, file data, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk, and a magnetic tape; optical media such as CD-ROM and DVD; magnetic recording media such as a floppy disk; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The above hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and so forth.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. Also, the technical terms used herein should be interpreted in a sense that is generally understood by those skilled in the art to which the present disclosure relates, unless otherwise specifically defined in the present specification, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in this specification is an erroneous technical term that does not accurately express the concept of the technology disclosed in this specification, it should be understood that technical terms which can be understood by a person skilled in the art are replaced.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, the terms "comprising" or "comprising" and the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Further, the suffix "part" for a component used in the present specification is given or mixed in consideration of ease of specification, and does not have a meaning or role that is different from itself.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured. It is to be noted that the attached drawings are only for the purpose of easily understanding the concept of the technology disclosed in the present specification, and should not be construed as limiting the spirit of the technology by the attached drawings.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하도록 한다.
Hereinafter, embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings.

도 1은 본 명세서에 개시된 실시 예에 따른 차선 인식 장치를 나타낸 블록도이다.1 is a block diagram illustrating a lane recognition apparatus according to an embodiment disclosed herein.

도 1을 참조하면, 차선 인식 장치(100)는 카메라 모듈(110), 제어부(120), 저장부(130), 출력부(140) 및 센서부(150)를 포함하여 구성될 수 있다.1, the lane recognizing apparatus 100 may include a camera module 110, a control unit 120, a storage unit 130, an output unit 140, and a sensor unit 150.

상기 카메라 모듈(110)은 회전체 반사경과 집광 렌즈 및 촬상 소자를 이용하여 전방위, 후방위 및/또는 측방위를 한번에 촬영하는 카메라 시스템으로서, 보안 시설과 감시 카메라, 로봇 비전 등에 응용될 수 있다. 회전체 반사경의 형상으로는 쌍곡면이나 구면, 원추형, 복합형 등 다양하다. 상기 카메라 모듈(110)은 상기 차선 인식 장치(100)의 임의의 동일면의 동일 중심축 상에 수평 간격으로 이격적으로 설치되는 적어도 한 쌍의 카메라(스테레오 카메라(stereo camera), 스테레오코스픽 카메라(stereoscopic camera)), 또는 단일 카메라를 포함할 수 있다. 이때, 상기 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있으며, 상기 차선 인식 장치(100)를 구성할 때 설정할 수 있다. 또한, 상기 카메라 모듈(110)은, 영상 촬상이 가능한 임의의 모든 카메라 모듈일 수도 있다.The camera module 110 is a camera system for taking an omnidirectional, a rear direction and / or a side direction at a time using a rotating body reflector, a focusing lens, and an image pickup element, and can be applied to a security facility, a surveillance camera, a robot vision, The shape of the rotating body reflector may be hyperbolic, spherical, conical, or hybrid. The camera module 110 includes at least one pair of cameras (a stereo camera, a stereo co-peak camera (hereinafter, referred to as " a stereoscopic camera), or a single camera. At this time, the horizontal interval may be set considering the distance between two eyes of a general person, and may be set when the lane recognition device 100 is constructed. In addition, the camera module 110 may be any camera module capable of image capturing.

또한, 상기 카메라 모듈(110)의 촬상 소자로는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)가 사용될 수 있다. 상기 촬상 소자의 촬상면에 투영되는 화상(즉 전방위 영상)은 회전체 반사경에 반사된 것이어서 인간이 그대로 관찰하기에는 적합하지 않은 일그러진 화상일 수 있다. 따라서 상기 카메라 모듈(110)은 화상의 정확한 관찰을 위해 촬상 소자의 출력을 마이크로프로세서 등을 통해 그 좌표를 변환하여 새로운 파노라마 영상을 만들어낼 수 있다.A CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) may be used as the imaging element of the camera module 110. An image (i.e., an omni-directional image) projected on the imaging surface of the imaging element may be a distorted image that is reflected by the rotating mirror and is not suitable for human observation. Accordingly, the camera module 110 can convert the coordinates of the output of the image pickup device through a microprocessor or the like to create a new panoramic image for accurate observation of the image.

상기 카메라 모듈(110)은 전방위를 촬영하여 영상을 획득하기 위해 스테레오 카메라(stereo camera), 이동식 스테레오 카메라(moving stereo camera) 중 하나 이상을 포함하여 구성될 수 있다.The camera module 110 may be configured to include at least one of a stereo camera and a moving stereo camera to capture an image in all directions and acquire an image.

상기 스테레오 카메라는 복수의 카메라로 구성되는 영상 장치이다. 상기 카메라 모듈(110)을 통해 얻은 영상은 상기 카메라 모듈(110) 주변에 대한 2차원적인 정보를 제공할 수 있다. 복수의 카메라를 통해 서로 다른 방향에서 촬영한 복수의 영상을 이용하면 상기 카메라 모듈(110) 주변에 대한 3차원적인 정보를 얻을 수 있다. The stereo camera is a video device composed of a plurality of cameras. The image obtained through the camera module 110 may provide two-dimensional information about the periphery of the camera module 110. Dimensional information about the periphery of the camera module 110 can be obtained by using a plurality of images taken from different directions through a plurality of cameras.

상기 이동식 스테레오 카메라는 스테레오 카메라의 위치가 장애물의 거리에 따라 능동적으로 변하여 관측 장애물에 대한 주시각을 고정시키는 카메라를 말한다. 상기 스테레오 카메라는 일반적으로 두 대의 카메라를 평행하게 배치하고 영상을 획득하며, 획득 영상의 스테레오 시차에 따라 장애물까지의 거리를 계산할 수 있다. The mobile stereo camera refers to a camera in which the position of the stereo camera is actively changed according to the distance of the obstacle to fix the main time of the observation obstacle. The stereo camera generally arranges two cameras in parallel and acquires an image, and calculates the distance to the obstacle according to the stereo parallax of the acquired image.

상기 스테레오 카메라는 광축이 항상 평행하게 배치되어 고정된 형태의 수동적인 카메라이다. 반면, 상기 이동식 스테레오 카메라는 광축의 기하학적 위치를 능동적으로 변화시켜 주시각을 고정시킬 수 있다. The stereo camera is a passive camera in which the optical axis is always parallel and fixed. On the other hand, the mobile stereo camera can actively change the geometrical position of the optical axis to fix the principal time.

상기 스테레오 카메라의 주시 각도를 장애물의 거리에 따라 제어하는 것을 주시각 제어라 한다. 상기 주시각 제어 스테레오 카메라는 움직이는 장애물에 대한 스테레오 시차를 항상 일정하게 유지하여 입체 영상 관측자에게 더욱 자연스러운 입체 영상을 제공할 수 있으며 장애물에 대한 거리 측정이나 스테레오 영상 처리에 있어서 유용한 정보를 제공할 수 있다.Control of the viewing angle of the stereo camera according to the distance of the obstacle is called main vision control. The main vision control stereo camera maintains a stereoscopic difference with respect to a moving obstacle at all times, thereby providing a stereoscopic image more natural to a stereoscopic vision observer, and can provide useful information in distance measurement of a obstacle or stereo image processing .

상기 제어부(120)는 상기 차선 인식 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어 상기 차선 인식 장치(100)가 주행하기 위한 각종 동력 구동부의 제어를 수행할 수 있다. The control unit 120 may control the overall operation of the lane recognition apparatus 100. [ For example, the lane recognizing apparatus 100 can control various power driving units for driving.

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 카메라 모듈(110)로부터 수신한 영상의 처리, 차선 인식 및 기타 연산에 관한 처리를 수행한다. 또한, 본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 차선 인식을 위하여 상기 센서부(150)에서 수집된 주행 정보를 이용할 수 있다.According to an embodiment of the present invention, the control unit 120 performs processes relating to processing of images received from the camera module 110, lane recognition, and other operations. Also, according to the embodiment disclosed herein, the controller 120 may use the travel information collected by the sensor unit 150 for the lane recognition.

상기 제어부(120)의 차선 인식 과정은 이하 도 2 내지 도 13을 참조하여 상세히 설명된다.The lane recognition process of the controller 120 will be described in detail with reference to FIG. 2 to FIG.

또한, 상기 제어부(120)는, 임의의 GPS 모듈(미도시)을 통해 확인되는 상기 차선 인식 장치(100)(또는, 상기 차선 인식 장치(100)가 구비된 차량)의 위치 및 상기 인식된 차선을 근거로 차선 유지와 관련된 기능(경고 메시지 기능, 자동 차선 유지 기능 등 포함)을 수행할 수 있다.The control unit 120 may control the position of the lane recognition device 100 (or the vehicle equipped with the lane recognition device 100) identified through an arbitrary GPS module (not shown) (Including warning message function, automatic lane keeping function, etc.) related to lane keeping based on the traffic information.

상기 저장부(130)는 상기 제어부(120)의 동작을 위한 데이터와 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 임시 저장할 수 있다. The storage unit 130 may store data and programs for the operation of the controller 120, and temporarily store input / output data.

본 명세서에 개시된 일 실시 예에 따르면, 상기 저장부(120)는 상기 카메라 모듈(110)을 통해 수신되는 영상, 상기 영상에 관한 처리 정보 및 차선 인식 정보를 임시 저장할 수 있다. 또한, 상기 저장부(120)는 상기 영상에 관한 처리를 위한 연산식(예를 들어, 곡선 방정식 등)을 저장할 수 있다.According to an embodiment of the present invention, the storage unit 120 may temporarily store an image received through the camera module 110, processing information related to the image, and lane identification information. In addition, the storage unit 120 may store an arithmetic expression (e.g., a curve equation) for processing on the image.

또한, 본 명세서에 개시된 일 실시 예에 따르면, 상기 저장부(120)는 상기 차선 인식 과정에서 임의의 시각에서 추출된 특징점 또는 차선 적합 결과를 저장할 수 있다. 저장된 과거 임의의 시각에서 추출된 특징점 또는 차선 적합 결과는 현재 차선의 적합을 수행하는 데 사용될 수 있다.In addition, according to the embodiment disclosed herein, the storage unit 120 may store the feature point or the lane fitting result extracted at an arbitrary time in the lane recognition process. Feature points or lane fitting results extracted from any stored past time can be used to perform the fit of the current lane.

어떤 실시 예들에서는, 상기 저장부(130)에 운영 체제(Operating System)(미도시), 무선통신부 기능을 수행하는 모듈(미도시), 사용자 입력부와 함께 동작하는 모듈(미도시), A/V 입력부와 함께 동작하는 모듈(미도시), 상기 출력부(140)와 함께 동작하는 모듈을 포함하는 소프트웨어 컴포넌트들이 저장될 수 있다. 상기 운영 체제(예를 들어, LINUX, UNIX, OS X, WINDOWS, Chrome, Symbian, iOS, Android, VxWorks 또는 기타 임베디드 운영체제)는 메모리 관리, 전력 관리 등과 같이 시스템 작업(tasks)들을 제어하기 위한 다양한 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함할 수 있다.In some embodiments, the storage unit 130 may include an operating system (not shown), a module (not shown) for performing a wireless communication function, a module (not shown) Software components may be stored, including a module (not shown) that operates in conjunction with an input unit, and a module that operates in conjunction with the output unit 140. The operating system (e.g., LINUX, UNIX, OS X, WINDOWS, Chrome, Symbian, iOS, Android, VxWorks or other embedded operating systems) provides various software for controlling system tasks such as memory management, power management, Components and / or drivers.

상기 저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 xD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 상기 차선 인식 장치(100)는 인터넷(Internet)상에서 상기 저장부(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The storage unit 130 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or xD memory) A random access memory (SRAM), a read only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM) , A magnetic disk, or an optical disk. The lane recognition apparatus 100 may operate in association with a web storage that performs a storage function of the storage unit 130 on the Internet.

상기 출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(141), 및 음향 출력 모듈(142)을 포함하여 구성될 수 있다.The output unit 140 is for generating output related to visual, auditory or tactile sense, and may include a display unit 141 and an audio output module 142.

상기 디스플레이부(141)는 상기 차선 인식 장치(100)에서 처리되는 정보를 출력할 수 있다. 예를 들어, 상기 차선 인식 장치(100)가 주행 중인 경우, 주행과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다.The display unit 141 may output information processed by the lane recognition apparatus 100. [ For example, when the lane recognition apparatus 100 is running, a UI (User Interface) or a GUI (Graphic User Interface) associated with the driving can be displayed.

본 명세서에 개시된 일 실시 예에 따르면, 상기 디스플레이부(141)는 상기 차선 인식 장치(100)의 상기 카메라 모듈(110)을 통해 획득된 영상 및/또는 상기 제어부(120)를 통해 인식된 차선과 관한 정보를 표시할 수 있다. 상기 디스플레이부(141)는 상기 영상과 상기 인식된 차선에 관한 정보를 동시에 표시하되, 상하 또는 좌우측으로 분할하여 표시하거나, 상기 영상에 상기 인식된 차선에 관한 정보를 오버랩하여 표시할 수 있다.The display unit 141 may display an image obtained through the camera module 110 of the lane recognition device 100 and / or a lane recognized through the control unit 120, Can be displayed. The display unit 141 may display the image and information about the recognized lane at the same time, and may display the divided image up and down or left and right, or overlap and display the information about the recognized lane in the image.

상기 디스플레이부(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 141 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) a flexible display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭 될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다. 상기 디스플레이부(141)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 141 may also be of a light transmission type.

상기 차선 인식 장치(100)의 구현 형태에 따라 상기 디스플레이부(141)는 2개 이상 존재할 수 있다. 예를 들어, 상기 차선 인식 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격적, 또는 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 141 according to the embodiment of the lane recognition apparatus 100. [ For example, in the lane recognizing apparatus 100, a plurality of display units may be spaced apart from one another, or may be arranged integrally with each other, or may be disposed on different planes.

또한, 상기 디스플레이부(141)는 터치 동작을 감지하는 터치 센서(미도시)와 상호 레이어 구조를 이룰 수 있다. 이 경우, 상기 디스플레이부(141)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 상기 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.In addition, the display unit 141 may have a mutual layer structure with a touch sensor (not shown) for sensing a touch operation. In this case, the display unit 141 may be used as an input device in addition to the output device. The touch sensor may take the form of, for example, a touch film, a touch sheet, a touch pad, a touch panel, or the like.

상기 터치 센서는 상기 디스플레이부(141)의 특정 부위에 가해진 압력 또는 상기 디스플레이부(141)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성될 수 있다. 상기 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific part of the display part 141 or a capacitance generated in a specific part of the display part 141 into an electrical input signal. The touch sensor may be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호는 터치 제어기로 보내진다. 터치 제어기는 그 신호를 처리한 다음 대응하는 데이터를 상기 제어부(120)로 전송한다. 이로써, 상기 제어부(120)는 상기 디스플레이부(141)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal is sent to the touch controller. The touch controller processes the signal and transmits corresponding data to the controller 120. [ Thus, the control unit 120 can know which area of the display unit 141 is touched or the like.

상기 음향 출력 모듈(142)은 녹음 모드, 음성인식 모드 등에서 상기 저장부(130)에 저장된 오디오 데이터를 출력할 수 있다. 상기 음향 출력 모듈(142)은 차선 인식 장치(200)에서 수행되는 차선 인식 결과(예를 들어, 인식된 차선의 종류 등에 대한 알림 등) 및 차선 인식에 관한 기능(예를 들어, 차선 이탈 경고, 자동 차선 유지 알림 등)과 관련된 음향 신호를 출력하기도 한다. 상기 음향 출력 모듈(142)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 142 may output the audio data stored in the storage unit 130 in a recording mode, a voice recognition mode, and the like. The sound output module 142 outputs a lane recognition result (for example, notification of the type of the recognized lane or the like) performed by the lane recognition device 200 and a lane recognition function (e.g., An automatic lane keeping notification, etc.). The sound output module 142 may include a receiver, a speaker, a buzzer, and the like.

상기 센서부(150)는 상기 차선 인식 장치(100)의 주행 정보를 수집하기 위한 것으로, 속도 센서(151) 및 스티어링 센서(152)를 포함할 수 있다.The sensor unit 150 is for collecting driving information of the lane recognition device 100 and may include a speed sensor 151 and a steering sensor 152. [

상기 속도 센서(151)는 상기 차선 인식 장치(100)의 속도를 검출한다. 상기 차선 인식 장치(100)에는 디퍼런셜 기어의 기어비, 타이어의 크기가 결정되어 있으므로 상기 속도 센서(151)는 변속기 출력축이나 휠의 회전수를 기초로 상기 차선 인식 장치(100)의 속도를 계산할 수 있다. 또한, 상기 속도 센서(151)는 리드스위치 타입, 마그네틱 타입 및 홀 타입 중 어느 하나로 구성될 수 있다.The speed sensor 151 detects the speed of the lane recognizing device 100. [ Since the gear ratio of the differential gear and the size of the tire are determined in the lane recognizing device 100, the speed sensor 151 can calculate the speed of the lane recognizing device 100 based on the speed of the transmission output shaft or the wheel . In addition, the speed sensor 151 may be configured of any one of a reed switch type, a magnetic type, and a hole type.

또한, 상기 속도 센서(151)는 상기 차선 인식 장치(100)의 속도의 변화를 기초로 상기 차선 인식 장치(100)의 가속도를 검출할 수 있다. 또는, 상기 차선 인식 장치(100)는 상기 차선 인식 장치(100)의 가속도를 검출하기 위한 별도의 가속도 센서(미도시)를 구비할 수 있다.In addition, the speed sensor 151 can detect the acceleration of the lane recognizing device 100 based on the change in the speed of the lane recognizing device 100. Alternatively, the lane recognizing device 100 may include a separate acceleration sensor (not shown) for detecting the acceleration of the lane recognizing device 100.

상기 스티어링 센서(152)는 상기 차선 인식 장치(100)의 스티어링(steering) 운동, 즉 휠 각도를 감지한다. 따라서, 상기 스티어링 센서(152)는 상기 차선 인식 장치(100)의 조향 휠에 연동되어, 회전되는 로터, 로터와 일체로 회전하는 기어, 자력을 발생시키는 자성체의 회전에 의한 위상 변화를 감지하는 감지부, 감지부의 입력을 연산 및 출력하는 연산부 및 연산부를 실장하기 위한 PCB 기판과 하우징을 포함하여 이루어질 수 있다.The steering sensor 152 senses the steering movement of the lane recognizing device 100, that is, the wheel angle. Therefore, the steering sensor 152 is connected to the steering wheel of the lane recognizing apparatus 100, and detects the phase change due to the rotation of the rotor, the gear rotating integrally with the rotor, An operation unit for calculating and outputting an input of the sensing unit, and a PCB substrate and a housing for mounting the operation unit.

또한, 상기 차선 인식 장치(100)는, 상기 제어부(120)의 제어에 의해 임의의 단말기 또는 서버와의 통신 기능을 수행하는 통신부(미도시)를 더 포함할 수 있다. 이때, 상기 통신부는, 유/무선 통신 모듈을 포함할 수 있다. 여기서, 상기 무선 인터넷 기술은, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), 고속 하향 패킷 접속(High Speed Downlink Packet Access : HSDPA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등을 포함할 수 있고, 상기 근거리 통신(Short Range Communication) 기술은, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), 초광대역 무선(Ultra Wideband : UWB), 지그비(ZigBee) 등을 포함할 수 있다. 또한, 상기 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다.The lane recognition apparatus 100 may further include a communication unit (not shown) that performs a communication function with an arbitrary terminal or a server under the control of the control unit 120. [ At this time, the communication unit may include a wired / wireless communication module. Herein, the wireless Internet technology may be a wireless LAN (WLAN), a Wi-Fi, a wireless broadband (Wibro), a World Interoperability for Microwave Access (HSDPA), IEEE 802.16, Long Term Evolution (LTE), Wireless Mobile Broadband Service (WMBS), and the like. The Short Range Communication Technology may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like. The wired communication technology may include USB (Universal Serial Bus) communication, and the like.

또한, 상기 통신부는, 상기 차선 인식 장치(100)가 구비되는 임의의 차량과의 통신을 위한, CAN 통신, 차량용 이더넷, 플렉스레이(flexray), LIN(Local Interconnect Network) 등을 포함할 수 있다.The communication unit may include CAN communication, a vehicle Ethernet, a flexray, a LIN (Local Interconnect Network), or the like for communication with any vehicle provided with the lane recognition device 100. [

또한, 상기 통신부는, 상기 임의의 단말기 또는 서버로부터 임의의 카메라 모듈을 통해 촬영된 영상을 전송받을 수 있다. 또한, 상기 통신부는, 상기 제어부(120)의 제어에 의해 임의의 영상에 대한 차선 인식 정보를 상기 임의의 단말기 또는 서버로 전송할 수 있다.In addition, the communication unit may receive the image photographed through the arbitrary camera module from the arbitrary terminal or server. The communication unit may transmit lane identification information for an arbitrary image to the arbitrary terminal or server under the control of the control unit 120. [

도 1에 도시한 차선 인식 장치(100)의 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도 1에 도시한 구성 요소보다 많거나 적은 구성 요소에 의해 차선 인식 장치(100)가 구현될 수 있다.
The lane recognizing apparatus 100 shown in Fig. 1 is not necessarily an essential component, and the lane recognizing apparatus 100 can be realized by a constituent element that is more or less than the constituent elements shown in Fig.

도 2는 본 명세서에 개시된 실시 예에 따른 차선 인식 과정을 나타낸 흐름도이다.2 is a flowchart illustrating a lane recognition process according to an embodiment disclosed herein.

도 2를 참조하면, 먼저, 상기 차선 인식 장치(100)는 영상을 획득한다(s21). Referring to FIG. 2, the lane recognition apparatus 100 acquires an image (s21).

상기 카메라 모듈(110)은, 차선 인식 장치(100)의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라 또는 스테레오코스픽 카메라)를 통해 촬영된 제 1 영상 및 제 2 영상을 수신하거나 또는, 단일 카메라를 통해 촬영된 영상을 획득할 수 있다. 여기서, 상기 제 1 영상은, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상이고, 상기 제 2 영상은 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상일 수 있다. 또한, 상기 카메라 모듈(110)은, 상기 한 쌍의 카메라를 통해 촬영된 제 1 영상 및 제 2 영상 중에서 어느 하나의 영상을 획득할 수도 있다.The camera module 110 is mounted on the same lane recognition device 100 as the lane recognizing device 100. The lane recognizing device 100 includes a lane recognizing device 100, 1 image and the second image, or acquire an image photographed through a single camera. Here, the first image may be a left image captured by a left camera included in the pair of cameras, and the second image may be a right image captured by a right camera included in the pair of cameras . In addition, the camera module 110 may acquire any one of a first image and a second image captured through the pair of cameras.

일 예로, 상기 카메라 모듈(110)은, 상기 단일 카메라를 통해 도 3에 도시한 바와 같이 영상(310)을 획득할 수 있다.For example, the camera module 110 may acquire an image 310 as shown in FIG. 3 through the single camera.

그 다음, 상기 차선 인식 장치(100)는 차선의 특징점을 추출한다(s22).Then, the lane recognizing device 100 extracts feature points of the lane (s22).

상기 제어부(120)는 상기 카메라 모듈(110)에서 획득된 영상(310)으로부터 차선을 구분하기 위해, 도 4에 도시된 바와 같이 영상에 존재하는 복수의 특징점(edge point)(410)을 추출한다. 이때, 상기 제어부(120)는 지평선을 중심으로 하단의 도로 부분만을 관심 영역(Region of Interest; ROI)으로 설정하고, 관심 영역에서만 특징점(410) 추출을 수행할 수 있다. The control unit 120 extracts a plurality of edge points 410 existing in the image as shown in FIG. 4 in order to distinguish the lane from the image 310 obtained from the camera module 110 . At this time, the controller 120 sets only the ROI of the lower part of the horizon as a region of interest (ROI), and extracts the feature points 410 only in the ROI.

특징점(410) 추출은 다양한 알고리즘을 통해 수행될 수 있다. Feature point 410 extraction may be performed through various algorithms.

예를 들어, 상기 제어부(120)는 상기 획득된 영상(310)의 그레디언트(gradient) 정보를 기초로 특징점(410)을 추출할 수 있다. 즉, 상기 제어부(120)는 상기 획득된 영상(310)의 근접한 픽셀(pixel) 간 밝기 또는 색상 농담이 단계적으로 변화하는 경우, 특징점(410)이 아닌 것으로 인식할 수 있다. 반대로, 상기 제어부(120)는 근접한 픽셀 간 밝기 또는 색상 농담이 급격하게 변화하는 경우, 이를 특징점(410)으로 인식하고 해당 픽셀 정보를 추출할 수 있다. 이 경우, 특징점(410)은 픽셀의 밝기 또는 색상 농담이 구분되는 두 영역의 경계선에 대한 불연속점으로 이루어질 수 있다.For example, the control unit 120 may extract the feature point 410 based on the gradient information of the obtained image 310. That is, the controller 120 can recognize that the brightness or color intensity between neighboring pixels of the obtained image 310 is not the characteristic point 410 in a stepwise manner. On the contrary, when the brightness or color intensity between adjacent pixels changes abruptly, the controller 120 recognizes the brightness or color hue as a feature point 410 and extracts corresponding pixel information. In this case, the minutiae point 410 may be a discontinuous point for the boundary of the two regions in which the brightness of the pixel or the color intensity is distinguished.

또는, 상기 제어부(120)는 상기 획득된 영상(310)의 색상 정보를 기초로 특징점(410)을 추출할 수 있다. 일반적으로, 도로 내에서 일반 차선은 흰색으로, 중앙 차선은 노란색으로, 차선이 아닌 부분은 검은색을 띄고 있다. 따라서, 상기 제어부(120)는 차선의 색상 정보를 기초로 특징점(410)을 추출할 수 있다. 즉, 상기 제어부(120)는 영상(310)으로부터 차선으로 분류될 수 있는 색상을 지닌 영역만을 하나의 객체로 만들고, 도로를 주행하는 다른 객체들을 제외하기 위해 도로에 해당하는 영역만을 관심 영역으로 분류한 뒤, 관심 영역 내의 색상 정보를 기초로 만들어진 객체로부터 특징점(410)을 추출할 수 있다. Alternatively, the control unit 120 may extract the feature point 410 based on the color information of the obtained image 310. [ Typically, in a road, the normal lane is white, the center lane is yellow, and the non-lane part is black. Accordingly, the controller 120 can extract the feature point 410 based on the color information of the lane. That is, the controller 120 makes only an area having a color that can be classified into a lane from the image 310 as an object, and excludes only objects corresponding to the road as interest areas in order to exclude other objects running on the road The feature point 410 can be extracted from the object based on the color information in the region of interest.

상기에서는 상기 제어부(120)가 특징점(410)을 추출하는 알고리즘의 일 예를 들어 설명하였으나, 이에 한정되지 않고 Edge Tracing 또는 Boundary Flowing 알고리즘 등 다양한 특징점 추출 알고리즘 또는 필터를 통해 특징점(410)을 추출할 수 있다.In the above description, the controller 120 extracts the minutiae point 410. However, the minutiae point extractor 410 extracts the minutiae point 410 through various minutiae point extraction algorithms or filters such as Edge Tracing or Boundary Flowing algorithm. .

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 추출된 특징점의 정보를 상기 저장부(130)에 저장하였다가, 이후에 얻어진 영상으로부터 차선을 적합하기 위해 사용할 수 있다. 즉, 상기 제어부(120)는 과거에 추출된 특징점의 정보를 기초로 차선의 오프셋을 먼저 결정하고, 결정된 오프셋 값을 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.According to an embodiment of the present invention, the control unit 120 may store information on the extracted minutiae in the storage unit 130 and use it to fit the lane from the obtained image. That is, the controller 120 may first determine the offset of the lane based on the information of the extracted minutia points, and may perform the curve fitting on the current lane based on the determined offset value.

이와 같이, 과거에 추출된 특징점의 정보를 기초로 한 현재 차선의 곡선 적합 과정은 하기에서 도 8 내지 도 12를 참조하여 상세히 설명한다.The curve fitting process of the current lane based on the information of the feature points extracted in the past will be described in detail below with reference to FIG. 8 to FIG.

또한, 본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 특징점(410) 추출 후, 도 5에 도시된 바와 같이 상기 추출된 복수의 특징점(410)을 월드 좌표계로 변환할 수 있다. 이때, 상기 제어부(120)는 변환 행렬을 이용하거나 좌표 변환 방정식을 이용할 수 있다. 상기 변환 행렬은 상기 저장부(130)에 미리 저장된 것으로 호모그래픽 행렬(homographic maxtix)일 수 있다. 또한, 상기 제어부(120)는 상기 월드 좌표계로 각각 변환된 복수의 특징점(510)의 수직 및 수평 방향 간격을 동일하게 유지하여 좌표 변환 중 발생한 오류를 쉽게 검출하도록 할 수 있다.5, the control unit 120 may convert the extracted plurality of feature points 410 into a world coordinate system after extracting the feature points 410. In this case, . At this time, the controller 120 may use a transformation matrix or a coordinate transformation equation. The transformation matrix may be a homographic maxtix stored in advance in the storage unit 130. In addition, the control unit 120 can easily detect an error occurring during coordinate conversion by keeping the vertical and horizontal intervals of the plurality of feature points 510 converted to the world coordinate system the same.

그 후, 상기 차선 인식 장치(100)는 차선을 적합한다(s23).Thereafter, the lane recognition device 100 fits the lane (s23).

상기 제어부(120)는, 도 6에 도시된 바와 같이, 상기 추출된 복수의 특징점(510)을 하나의 선(610)으로 표현하기 위해 차선 적합을 수행한다. 상기 제어부(120)는 영상에서 직선 또는 곡선을 추출하기 위해 최소 자승법(least square method), 랜삭(Random Sample Consensus : RANSAC), 일반 허프 변환법(general hough transform method), 스플라인(spline) 보간법 등 중 어느 하나의 방식을 사용할 수 있다.6, the control unit 120 performs lane fitting to represent the extracted plurality of feature points 510 as one line 610. [0054] FIG. The control unit 120 may be any of a least square method, a random sample consensus (RANSAC) method, a general hough transform method, and a spline interpolation method to extract a straight line or a curve from an image. One method can be used.

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 추출된 복수의 특징점(510)이 곡선에 해당하는 경우, 곡선 방정식을 근거로 차선 적합을 수행할 수 있다. 구체적으로, 상기 제어부(120)는 상기 추출된 복수의 특징점(510)을 곡선 방정식에 대입하여 그 계수를 구하고, 계수가 구해진 곡선 방정식의 결과를 근거로 곡선 적합을 수행할 수 있다. 이때, 상기 커브 방정식은 상기 저장부(130)에 기 저장된 것으로 임의의 다차원 방정식일 수 있다.According to an embodiment of the present invention, when the extracted plurality of feature points 510 correspond to a curve, the controller 120 may perform lane fitting based on a curve equation. Specifically, the control unit 120 may substitute the extracted plurality of feature points 510 into a curve equation to obtain coefficients thereof, and perform curve fitting based on the result of the calculated curve equation. At this time, the curve equation is stored in the storage unit 130 and may be any arbitrary multi-dimensional equation.

예를 들어 상기 곡선 방정식이 2차 방정식일 경우, 상기 제어부(120)는 상기 복수의 특징점(510)을 2차 방정식, 예를 들어 y=ax2+bx+c (여기서, a는 곡률, b는 헤딩 각도, C는 오프셋)에 대입하여 곡선 적합을 수행할 수 있다. 이때, 상기 제어부(120)는 대입 결과 a가 0이면, 직선으로 인식하고, a가 0이 아니면, 커브로 인식할 수 있다.For example, when the curvilinear equation is a quadratic equation, the controller 120 multiplies the plurality of feature points 510 by a quadratic equation, for example, y = ax 2 + bx + c (where a is a curvature, b The heading angle, and C is the offset) to perform the curve fitting. At this time, if the substitution result a is 0, the controller 120 recognizes it as a straight line, and if a is not 0, it can recognize it as a curve.

다른 예로 상기 곡선 방정식이 3차 방정식인 경우, 상기 제어부(120)는 상기 복수의 특징점(510)을 3차 방정식, 예를 들어, y=ax3+bx2+cx+d (여기서, a는 커브 변화율(curve derivative), b는 곡률, c는 헤딩 각도, d는 오프셋)에 대입하여 곡선 적합을 수행한다. 이때, a가 0일 경우, 2차 방정식에서 b는 곡률, c는 헤딩 각도, d는 오프셋을 나타내며, a와 b 모두 0일 경우는 직선 검출로서, c는 헤딩 각도, d는 오프셋을 나타낸다.In another example, when the curve equation is a cubic equation, the controller 120 multiplies the plurality of feature points 510 by a cubic equation, for example, y = ax 3 + bx 2 + cx + d, Curve derivative, b is curvature, c is the heading angle, and d is offset). When a is 0, b is the curvature, c is the heading angle, d is the offset, and when both a and b are 0, the straight line detection, c is the heading angle, and d is the offset.

또한, 상기 제어부(120)는 상기 적합 결과를 상기 저장부(130)에 저장하고, 이후의 차선 적합을 위해 사용할 수 있다.Also, the controller 120 may store the fit result in the storage unit 130 and use the fit result for the next lane fit.

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 과거에 추출된 특징점 또는 과거의 차선 적합 결과를 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.According to an embodiment of the present invention, the controller 120 may perform a curve fit for the current lane based on past feature points or past lane adaptation results.

곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 등 도로 변화가 심한 경우, 곡선 적합 시 오프셋의 정확도가 떨어질 수 있다. 따라서 상기 제어부(120)는 과거에 추출된 특징점 또는 과거의 차선 적합 결과를 기초로 차선의 오프셋을 먼저 결정하고, 결정된 오프셋 값을 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.If the road changes severely due to a curvature curved road having a dotted line, for example, the road is cut off and restarted from the front of the vehicle, the accuracy of the offset may deteriorate when the curve is fitted. Accordingly, the controller 120 may first determine the offset of the lane based on the extracted feature points or past lane adaptation results, and may perform the curve fitting on the current lane based on the determined offset value.

이와 같이, 과거의 차선 적합 결과를 기초로 한 현재 차선의 곡선 적합 과정은 하기에서 도 8 내지 도 13을 참조하여 상세히 설명한다.The curve fitting process of the current lane based on the past lane-fitting result will be described in detail below with reference to Figs. 8 to 13.

끝으로, 상기 차선 인식 장치(100)는 차선을 추적한다(s24).Finally, the lane recognizing device 100 tracks the lane (s24).

상기 제어부(120)는 캘리브레이션 시간을 감소시키고 노이즈를 감소시키기 위해서, 상기 적합 된 차선에 해당하는 상기 복수의 특징점(510)을 근거로 추적을 수행한다. 이때, 캘리브레이션은, 상기 카메라 모듈(110)과 월드 좌표계와의 변환 관계를 계산하는 것을 의미한다. The control unit 120 performs tracking based on the plurality of feature points 510 corresponding to the adapted lane in order to reduce the calibration time and reduce the noise. At this time, the calibration means calculating the conversion relation between the camera module 110 and the world coordinate system.

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 적합 된 복수 개의 차선 전부에 대하여 추적을 수행할 수 있다. 즉, 상기 제어부(120)는 상기 차선 인식 장치(100)가 주행 중인 차선 외에 주행 도로상에 존재하는 주변의 차선에 대해서도 추적을 수행할 수 있다. According to the embodiment disclosed herein, the control unit 120 may perform tracking on all of the plurality of lanes that are suitable. That is, the control unit 120 may track the surrounding lanes existing on the traveling road in addition to the lane in which the lane recognition apparatus 100 is running.

이렇게 함으로써, 상기 제어부(120)는 상기 차선 인식 장치(100)가 차선을 변경하는 경우에도 새롭게 차선을 추적할 필요없이 기존의 추적 정보로부터 빠르게 차선을 인식할 수 있다. Accordingly, even when the lane recognizing apparatus 100 changes the lane, the control unit 120 can quickly recognize the lane from the existing track information without having to track the lane newly.

또한, 일부 차선이 누락, 소실 또는 상기 카메라 모듈(110)의 일시적 동작 장애로 영상이 누락되는 경우에도, 상기 제어부(120)는 복수의 차선에 대한 추적 정보(예를 들어, 차선의 위치, 차선 폭, 곡선 차선의 곡선 방정식 등)를 기초로 차선을 추정하여 인식할 수 있다.In addition, even when some lanes are missed, lost, or a video is missed due to a temporary operation failure of the camera module 110, the control unit 120 may also store tracking information for a plurality of lanes (e.g., Width, curve equation of curved lane, etc.), the lane can be estimated and recognized.

이 경우, 상기 제어부(120)는 상기 추적 결과를 상기 저장부(130)에 저장할 수 있다. 이로써 상기 제어부(120)는 차선 적합 시에 일부 오류가 발생한 경우에도 상기 저장된 추적 결과를 기초로 오류를 보정 할 수 있다.In this case, the control unit 120 may store the tracking result in the storage unit 130. Accordingly, the control unit 120 can correct the error based on the stored tracking result even when some errors occur in the lane fitting.

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 추적 결과를 상기 저장부(130)에 저장하였다가, 이후에 얻어진 영상으로부터 차선을 적합하기 위해 사용할 수 있다. 즉, 상기 제어부(120)는 과거의 차선 추적 결과를 기초로 차선의 오프셋을 먼저 결정하고, 결정된 오프셋 값을 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.According to an embodiment of the present invention, the control unit 120 may store the tracking result in the storage unit 130 and may use the obtained result to fit the lane from the obtained image. That is, the controller 120 may first determine the offset of the lane based on the past lane-tracking result, and may perform curve fitting on the current lane based on the determined offset value.

추가로, 상기 차선 인식 장치(100)는 차선의 추적 결과를 표시할 수 있다(s25).In addition, the lane recognition device 100 can display the lane-following result (s25).

상기 출력부(140)는 상기 차선 인식 과정을 통해 추적된 결과를 도 7에 도시된 바와 같이 표시할 수 있다.The output unit 140 may display the tracked result through the lane recognition process as shown in FIG.

상기 출력부(140)는 상기 차선 인식 장치(100)의 상기 카메라 모듈(110)을 통해 획득된 영상(310) 및/또는 상기 제어부(120)를 통해 인식된 차선의 추적 결과(710)를 표시할 수 있다. 상기 출력부(140)는 상기 영상(310)과 상기 인식된 차선의 추적 결과(710)를 동시에 표시하되, 상하 또는 좌우측으로 분할하여 표시하거나, 상기 영상에 상기 인식된 차선에 관한 정보를 오버랩하여 표시할 수 있다.The output unit 140 displays the image 310 obtained through the camera module 110 of the lane recognition device 100 and / or the tracking result 710 of the lane recognized through the control unit 120 can do. The output unit 140 displays the image 310 and the tracked result 710 of the recognized lane at the same time and divides the image 310 up or down or right and left to display the image 310. The output unit 140 overlaps information on the recognized lane Can be displayed.

또는, 상기 출력부(140)는 차선 인식 결과(예를 들어, 인식된 차선의 종류 등에 대한 알림 등) 및 차선 인식에 관한 기능(예를 들어, 차선 이탈 경고, 자동 차선 유지 알림 등)과 관련된 음향 신호를 출력할 수 있다.Alternatively, the output unit 140 may output the lane recognition result (for example, a notification about the type of the recognized lane or the like) and a function related to the lane recognition (for example, a lane departure warning, It is possible to output a sound signal.

하기에서는, 상기 차선 인식 과정 중 차선 적합 과정, 특히 곡선 적합 과정에 대하여 보다 상세히 설명한다.
In the following, the lane fitting process, particularly the curve fitting process, in the lane recognition process will be described in more detail.

도 8은 본 명세서에 개시된 실시 예에 따른 곡선 적합 과정을 나타낸 흐름도이다.8 is a flowchart illustrating a curve fitting process according to the embodiment disclosed herein.

도 8을 참조하면, 먼저 상기 차선 인식 장치(100)는 과거 시점에서의 추출된 특징점 정보를 획득한다(s231).Referring to FIG. 8, the lane recognition apparatus 100 obtains minutia information extracted at a past time (s231).

본 명세서에 개시된 실시 예에 따르면, 상기 제어부(120)는 상기 추출된 복수의 특징점(510)이 곡선에 해당하는 경우, 곡선 방정식을 사용하여 차선 적합을 수행할 수 있다. 이때, 곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 등 도로 변화가 심한 경우, 인식된 차선의 오프셋에 대한 정확도가 현저하게 떨어질 수 있다. According to the embodiment of the present invention, when the extracted plurality of feature points 510 correspond to a curve, the controller 120 may perform lane fitting using a curve equation. In this case, if the road changes severely, for example, the curved road having a curvature is formed by a dotted line and the road is cut off and restarted from the front of the vehicle, the accuracy of the offset of the recognized lane may be significantly deteriorated.

여기서, 오프셋이란 상기 차선 인식 장치(100)에 대하여 차선이 좌측에 위치하는지 또는 우측에 위치하는지를 나타내는 것으로, 차선을 임의의 방정식으로 나타낼 때 상수(1차 항의 계수)에 해당하는 값을 말한다. 즉, 상수가 양의 값을 갖는 경우 차선은 상기 차선 인식 장치(100)의 우측에 위치하는 것이고, 반대로 상수가 음의 값을 갖는 경우 차선은 상기 차선 인식 장치(100)의 좌측에 위치하는 것을 나타낸다.Here, the offset indicates whether the lane is located on the left side or the right side with respect to the lane recognition device 100, and refers to a value corresponding to a constant (coefficient of the first-order term) when the lane is expressed by an arbitrary equation. That is, when the constant has a positive value, the lane is located on the right side of the lane recognition device 100, and when the constant has a negative value, the lane is located on the left side of the lane recognition device 100 .

예를 들어, 도 9에 도시된 바와 같이, 상기 차선 인식 장치(100)은 곡률이 심하고 점선으로 이루어진 실제 차선(910)을 주행할 수 있다. 상기 실제 차선(910)은 점선으로 이루어져 있으므로 차선이 끊긴 영역(901)과 차선이 존재하는 영역(902)으로 나뉠 수 있다. 상기 차선 인식 장치(100)는 주행 중에 있으므로, 과거 임의의 시점에서는 t-1에 위치하고, 현재 시점에서는 t에 위치하게 된다.For example, as shown in FIG. 9, the lane recognizing apparatus 100 can travel on an actual lane 910 having a large curvature and a dotted line. The actual lane 910 is divided into a broken lane 901 and a lane 902 because the actual lane 910 is a dotted line. Since the lane recognizing apparatus 100 is running, the lane recognizing apparatus 100 is located at t-1 at an arbitrary time in the past and at t at the present time.

이러한 실제 차선(910)에 대하여, 도 10에 도시된 바와 같이 현재 시점 t에서 차선 적합을 수행할 때, 차선이 존재하는 영역(902)에서 추출된 복수의 특징점(510)만 존재하기 때문에, 상기 제어부(120)는 이를 기초로 차선 적합을 수행하게 된다. 따라서 곡률이 큰 곡선 도로로부터 추출된 복수의 특징점(510)을 곡선으로 인식한 상기 제어부(120)는 곡선 방정식에 기초하여 차선 적합을 수행하고, 그 결과 차선에 대한 인식 결과는 전체적으로 곡률을 갖는 곡선 적합 결과(920)를 갖게 된다. 이 경우, 차선이 존재하는 영역(902)에 대하여는 차선 인식이 정확할 수 있으나, 곡률이 심한 차선이 끊긴 영역(901)에 대하여는 차선 인식이 부정확해 진다. 또한, 상기 차선 인식 장치(100)(도 10의 원점 부분)의 우측에 존재하는 실제 차선(910)에 대하여 곡선 적합 결과(920) 차선의 오프셋이 상기 차선 인식 장치(100)의 좌측에 존재하게 되므로, 부정확한 오프셋이 발생하여 안전한 주행이 어렵게 된다.10, since there are only a plurality of feature points 510 extracted from the area 902 in which the lane exists, when the lane fitting is performed at the current point of time t, The control unit 120 performs the lane adaptation based on this. Accordingly, the controller 120, which recognizes the plurality of feature points 510 extracted from the curved road with a large curvature as a curve, performs the lane fitting based on the curve equation. As a result, the recognition result for the lane is curved Gt; 920 < / RTI > In this case, although the lane recognition can be accurate for the area 902 in which the lane exists, the lane recognition becomes inaccurate for the area 901 in which the lane with a large curvature is broken. 10, an offset of the curve fitting result 920 lane exists on the left side of the lane recognizing device 100 with respect to the actual lane 910 existing on the right side of the lane recognizing device 100 (the origin point of Fig. 10) An inaccurate offset occurs, thereby making safe running difficult.

따라서, 상기 제어부(120)는 정확한 오프셋을 찾기 위해 도 11의 (a)에 도시된 바와 같이, 과거 시점 t-1에서 추출된 특징점(520) 정보를 획득할 수 있다. 상기 특징점(520) 정보는 현재 시점을 t라고 할 때, 과거의 임의의 시점, 즉 t-1에서 추출된 것으로 상기 저장부(130)로부터 획득된 것일 수 있다. 상기 과거의 임의의 시점은 기 정해지거나, 유동적으로 변경될 수 있는 것으로, 상기 차선 인식 장치(100)가 주행하는 도로의 차선을 정확하기 인지하기 위해 지나치게 긴 과거의 시점이지 않도록 할 수 있다. Accordingly, the controller 120 may obtain the feature point 520 information extracted at the previous time point t-1 as shown in FIG. 11 (a) to find an accurate offset. The feature point 520 information may be obtained from the storage unit 130 as an extracted at an arbitrary time in the past, that is, t-1, when the current time is t. The past arbitrary point of time can be predetermined or can be changed in a fluid manner so that the lane recognition device 100 can prevent the lane of the road on which it is traveling from being too long from the past.

상기 제어부(120)가 상기 특징점(520) 정보를 현재 시점 t에서 획득하면, 도 11의 (b)에 도시된 바와 같이 원래 위치 정보를 그대로 갖고 있어 현재 시점의 차선을 적합하는데 이용할 수 없게 된다. 따라서, 상기 제어부(120)는 상기 특징점(520) 정보를 현재 시점 t에 대하여 올바른 값으로 추정하여 보정해야 한다.When the control unit 120 obtains the feature point 520 information at the current point of time t, the original position information remains as shown in FIG. 11 (b), so that the current point of time can not be used to fit the lane. Therefore, the controller 120 estimates the minutia information 520 as a correct value for the current time t and corrects the information.

따라서, 상기 차선 인식 장치(100)는 주행 정보를 기초로 특징점의 변화된 위치를 추정한다(s232). Therefore, the lane recognizing device 100 estimates the changed position of the minutiae based on the travel information (s232).

주행 중인 상기 차선 인식 장치(100)는 도로상에서 주행 중에 있으므로, 상기 특징점(520) 정보를 현재 시점 t에 대하여 올바른 값으로 추정해야 한다.Since the lane recognizing apparatus 100 in motion is running on the road, the minutia information 520 should be estimated to be a correct value for the current point of time t.

예를 들어, 상기 차선 인식 장치(100)가 도 9에 도시된 바와 같은 곡선 도로를 주행하는 경우, 상기 차선 인식 장치(100)가 과거 시점 t-1에서 획득한 영상은 상기 차선 인식 장치(100)의 일 측면 및 전방 주행 운동(곡선 운동을 분해한 결과)으로 인해 현재 시점 t에 대하여 반대 측면 및 후방으로 이동되어있는 상태가 된다.For example, when the lane recognizing apparatus 100 travels on a curved road as shown in Fig. 9, the lane recognizing apparatus 100 obtains an image obtained at a past time t-1 by the lane recognizing apparatus 100 (The result of the decomposition of the curved motion), and is moved to the opposite side and backward with respect to the current time point t.

따라서 상기 제어부(120)는 상기 특징점(520)의 과거 시점 t-1에서의 위치를 현재 시점 t에 대하여 올바르게 수정하기 위해, 상기 특징점(520)의 변화된 위치를 추정할 수 있다.Accordingly, the controller 120 may estimate the changed position of the feature point 520 in order to correctly correct the position of the feature point 520 at the time point t-1 with respect to the current point of time t.

이때, 상기 제어부(120)는 상기 센서부(150)를 통해 수집된 상기 차선 인식 장치(100)의 주행 정보를 기초로 상기 변화된 위치를 추정할 수 있다. 상기 주행 정보는 상기 센서부(150)로부터 수집되는 상기 차선 인식 장치(100)의 속도 정보, 가속도 정보, 또는 스티어링 운동 정보를 포함할 수 있다. At this time, the control unit 120 can estimate the changed position based on the traveling information of the lane recognition device 100 collected through the sensor unit 150. [ The traveling information may include speed information, acceleration information, or steering motion information of the lane recognition device 100 collected from the sensor unit 150. [

상기 제어부(120)는 상기 수집된 주행 정보를 기초로 상기 특징점(520)이 전후방 또는 좌우로 위치가 변화되었는지 판단할 수 있다. 또한, 상기 제어부(120)는 도 12에 도시된 바와 같이 상기 판단 결과를 기초로 상기 특징점(520)을 추정된 위치(520')로 변화시킬 수 있다.The control unit 120 can determine whether the feature point 520 has changed in the fore-and-aft direction or in the lateral direction based on the collected travel information. In addition, the control unit 120 may change the feature point 520 to the estimated position 520 'based on the determination result, as shown in FIG.

그 후, 상기 차선 인식 장치(100)는 상기 위치가 추정된 특징점을 기초로 오프셋을 결정한다(s233).Thereafter, the lane recognizing device 100 determines an offset based on the estimated feature point (s233).

상기 제어부(120)는 상기 위치가 추정된 특징점(520')을 기초로 곡선 방정식의 계수 중 차선의 오프셋을 나타내는 상수를 결정한다. The controller 120 determines a constant indicating the offset of the lane among the coefficients of the curve equation based on the estimated feature point 520 '.

예를 들어, 곡선인 차선에 대하여 2차 방정식, 즉 y=ax2+bx+c를 이용하여 곡선 적합을 수행할 때, 차선의 오프셋을 나타내는 c값을 상기 위치가 추정된 특징점(520')의 위치에 따른 좌표값으로 결정할 수 있다.For example, when curve fitting is performed using a quadratic equation, i.e., y = ax 2 + bx + c, for a curve that is a curve, the c value indicating the offset of the lane is calculated as the feature point 520 ' As shown in FIG.

이로써, 곡률이 심한 실제 차선(910)이 점선으로 이루어져 상기 차선 인식 장치(100)의 전방에서 끊김으로 인해 정확한 오프셋을 추정하기 어려운 경우라도, 상기 제어부(120)는 과거 시점에서의 정보와 상기 차선 인식 장치(100)의 주행 정보를 기초로 차선의 오프셋을 정확하게 결정할 수 있다.Accordingly, even when the actual lane 910 having a large curvature is formed by a dotted line and it is difficult to estimate an accurate offset due to a break in the front of the lane recognizing apparatus 100, the control unit 120 determines that the lane- It is possible to accurately determine the offset of the lane based on the travel information of the recognition apparatus 100. [

본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 위치가 추정된 특징점(520')이 아닌 과거 시점에서의 차선 적합 결과를 기초로 오프셋을 결정할 수 있다. 예를 들어, 상기 제어부(120)는 과거 시점에서 차선 적합 결과로부터 인식된 차선을 나타내는 방정식에서, 차선의 오프셋을 나타내는 c값을 취하여 상기 주행 정보를 기초로 c값의 변화를 추정하고, 변화된 추정 값을 현재 시점에서의 오프셋으로 결정할 수 있다.According to the embodiment disclosed herein, the controller 120 may determine the offset based on the lane adaptation result at the past time point rather than the estimated feature point 520 '. For example, the control unit 120 estimates a change in c value based on the running information by taking a value c representing an offset of the lane in an equation representing a lane recognized from the lane-fitting result at the past time point, The value can be determined as the offset at the current point in time.

마지막으로, 상기 차선 인식 장치(100)는 현재 시점에서의 곡선 적합을 수행한다(s234).Finally, the lane recognizing apparatus 100 performs curve fitting at the present time (s234).

상기 제어부(120)는 상기 결정된 오프셋을 기초로 차선의 현재 시점에서의 차선에 대한 곡선 적합을 수행하여 곡선 방정식의 나머지 계수를 구할 수 있다.The control unit 120 may calculate a residual coefficient of the curve equation by performing a curve fitting on the lane at the current time point of the lane on the basis of the determined offset.

예를 들어, 현재 시점에서의 곡선 도로에 대하여 2차원 방정식, 즉 y=ax2+bx+c을 이용하여 곡선 적합을 수행할 경우, 상기 c값은 곡선 적합과 무관하게 위치가 추정된 특징점(520')을 기초로 기 결정된 오프셋으로 결정하고, 추출된 복수의 특징점(510)을 기초로 곡선 적합을 수행하여 나머지 상수 a와 b의 값을 결정할 수 있다.For example, when curve fitting is performed using a two-dimensional equation, that is, y = ax 2 + bx + c, for a curved road at the current point, the c value is a feature point 520 ', and determines the values of the remaining constants a and b by performing a curve fit based on the extracted plurality of feature points 510. [0050] FIG.

따라서, 도 13에 도시된 바와 같이, 곡선 적합 결과 차선의 일부가 끊기거나 소실되어 실제로 상기 차선 인식 장치(100)의 우측에 위치하는 차선이 좌측에 위치하는 것으로 잘못 인식될 수 있더라도, 상기 제어부(120)는 과거 시점에서 추출된 특징점(520) 정보를 이용하여 실제 차선(910)의 정확한 오프셋을 결정할 수 있다(도 9 참조). 또한, 올바르게 결정된 오프셋을 기초로 곡선 적합하여 현재 시점에서의 차선 적합 결과(930), 정확하게 차선을 인식할 수 있다.
13, even if a portion of the curve fitting result lane is cut off or lost, and the lane located on the right side of the lane recognizing apparatus 100 is erroneously recognized as being located on the left side, 120 may determine the exact offset of the actual lane 910 using the minutiae information 520 extracted from the past time (see FIG. 9). Also, the lane adaptation result 930 at the current time point can be accurately recognized as a curved line based on the correctly determined offset.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 차선 인식 장치 110: 카메라 모듈
120: 제어부 130: 저장부
140: 출력부 150: 센서부
100: lane recognition device 110: camera module
120: control unit 130:
140: output unit 150: sensor unit

Claims (19)

영상을 획득하는 카메라 모듈;
상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부; 및
상기 추적된 차선을 표시하는 표시부를 포함하되,
상기 차선 적합은,
임의의 과거 시점에서의 차선 적합 결과의 차선의 횡방향 치우침을 나타내는 오프셋을 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 오프셋에 대한 현재 시점의 오프셋을 추정하고, 상기 추정된 현재 시점의 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 하는 차선 인식 장치.
A camera module for acquiring an image;
A controller for extracting a plurality of feature points from the obtained image, performing lane fitting to connect the extracted plurality of feature points with one line, and tracking the adapted lane; And
And a display unit for displaying the tracked lane,
The lane-
Obtaining an offset indicating a lateral deviation of a lane of a lane adaptation result at an arbitrary past time point and estimating an offset of a current time point with respect to an offset based on the traveling information from the arbitrary past time point, And performs curve fitting based on the offset of the current point of time.
제1항에 있어서, 상기 곡선 적합은,
임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 것을 특징으로 하는 차선 인식 장치.
2. The method of claim 1,
Wherein the coefficients of the curve equation are determined based on a curve equation having an arbitrary dimension.
제1항에 있어서, 상기 주행 정보는,
속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 하는 차선 인식 장치.
The information processing apparatus according to claim 1,
Speed information, acceleration information, and steering information.
제1항에 있어서, 상기 카메라 모듈은,
동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라 또는 단일 카메라를 포함하여 구성되는 것을 특징으로 하는 차선 인식 장치.
The camera module according to claim 1,
And at least one pair of cameras or a single camera provided at equal intervals on the same central axis of the same plane.
제1항에 있어서, 상기 복수의 특징점은,
상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하고, 상기 관심 영역에 대하여만 추출되는 것을 특징으로 하는 차선 인식 장치.
The image processing apparatus according to claim 1,
Wherein only the road portion corresponding to the lower end of the horizon in the obtained image is set as a region of interest and extracted only for the region of interest.
제1항에 있어서, 상기 복수의 특징점은,
상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 하는 차선 인식 장치.
The image processing apparatus according to claim 1,
Wherein the extracted lane recognition information is extracted based on gradient information or color information of the obtained image.
제1항에 있어서, 상기 제어부는,
상기 추출된 복수의 특징점을 월드 좌표계로 변환하고, 상기 변환된 복수의 특징점을 기초로 차선을 적합하는 것을 특징으로 하는 차선 인식 장치.
The apparatus of claim 1,
Converts the extracted plurality of feature points into a world coordinate system, and fits the lane based on the converted plurality of feature points.
제1항에 있어서, 상기 차선의 추적은,
상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 하는 차선 인식 장치.
2. The method according to claim 1,
Wherein the lane identification is performed with respect to all of the adapted lanes.
제1항에 있어서,
상기 추출된 특징점에 대한 정보를 저장하는 저장부를 더 포함하고,
상기 제어부는,
상기 저장부에 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 하는 차선 인식 장치.
The method according to claim 1,
And a storage unit for storing information on the extracted minutiae,
Wherein,
Wherein the lane recognizing unit matches the lane based on the information about the minutiae stored in the storage unit.
삭제delete 영상을 획득하는 단계;
상기 획득된 영상으로부터 복수의 특징점을 추출하는 단계;
상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하는 단계;
상기 적합 된 차선을 추적하는 단계; 및
상기 추적된 차선을 표시하는 단계를 포함하되,
상기 차선 적합을 수행하는 단계는,
임의의 과거 시점에서 차선 적합 결과의 차선의 횡방향 치우침을 나타내는 오프셋을 획득하는 단계;
상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 오프셋에 대한 현재 시점의 오프셋을 추정하는 단계; 및
상기 추정된 현재 시점의 오프셋을 기초로 곡선 적합을 수행하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
Acquiring an image;
Extracting a plurality of feature points from the acquired image;
Performing lane fitting to connect the extracted plurality of feature points by one line;
Tracking the adapted lane; And
And displaying the tracked lane,
Wherein performing the lane fitting comprises:
Obtaining an offset indicative of a lateral deviation of a lane of lane fitting result at any past time point;
Estimating an offset of the current point of time with respect to the offset based on the traveling information from the arbitrary past point of time; And
And performing a curve fitting based on the estimated offset of the current time point.
제11항에 있어서, 상기 곡선 적합을 수행하는 단계는,
임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
12. The method of claim 11, wherein performing curve fitting comprises:
Determining coefficients of the curvilinear equation based on a curvilinear equation having an arbitrary dimension.
제11항에 있어서, 상기 주행 정보는,
속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 하는 차선 인식 방법.
12. The method according to claim 11,
Speed information, acceleration information, and steering information.
삭제delete 제11항에 있어서, 상기 복수의 특징점을 추출하는 단계는,
상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하는 단계; 및
상기 관심 영역에 대하여만 복수의 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
The method of claim 11, wherein the extracting of the plurality of feature points comprises:
Setting only a road portion corresponding to a lower end of the obtained image centered on the horizon as a region of interest; And
And extracting a plurality of minutiae only for the area of interest.
제11항에 있어서, 상기 복수의 특징점은,
상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 하는 차선 인식 방법.
12. The image processing apparatus according to claim 11,
Wherein the extracted lane recognition information is extracted based on gradient information or color information of the obtained image.
제11항에 있어서, 상기 차선을 적합하는 단계는,
상기 추출된 복수의 특징점을 월드 좌표계로 변환하는 단계; 및
상기 변환된 복수의 특징점을 기초로 차선을 적합하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.
12. The method of claim 11, wherein fitting the lane comprises:
Converting the extracted plurality of feature points into a world coordinate system; And
And fitting the lane based on the converted plurality of feature points.
제11항에 있어서, 상기 차선을 추적하는 단계는,
상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 하는 차선 인식 방법.
12. The method of claim 11, wherein tracking the lane comprises:
Wherein the step of performing the lane recognition is performed for all of the adapted lanes.
제11항에 있어서, 상기 특징점을 추출하는 단계는,
상기 추출된 특징점에 대한 정보를 저장하는 단계를 더 포함하고,
상기 차선을 적합하는 단계는,
상기 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 하는 차선 인식 방법.
12. The method of claim 11, wherein extracting the feature points comprises:
Further comprising storing information on the extracted feature points,
The step of fitting the lane comprises:
And wherein the lane recognition unit fits the lane based on the information about the stored feature points.
KR1020110077912A 2011-08-04 2011-08-04 Apparatus for detecting lane and method thereof KR101578434B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110077912A KR101578434B1 (en) 2011-08-04 2011-08-04 Apparatus for detecting lane and method thereof
PCT/KR2011/009801 WO2013018961A1 (en) 2011-08-04 2011-12-19 Apparatus and method for detecting lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110077912A KR101578434B1 (en) 2011-08-04 2011-08-04 Apparatus for detecting lane and method thereof

Publications (2)

Publication Number Publication Date
KR20130015738A KR20130015738A (en) 2013-02-14
KR101578434B1 true KR101578434B1 (en) 2015-12-17

Family

ID=47629458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110077912A KR101578434B1 (en) 2011-08-04 2011-08-04 Apparatus for detecting lane and method thereof

Country Status (2)

Country Link
KR (1) KR101578434B1 (en)
WO (1) WO2013018961A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101565007B1 (en) * 2014-05-30 2015-11-02 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
CN107472134A (en) * 2016-07-07 2017-12-15 宝沃汽车(中国)有限公司 Auxiliary image system, control method and the vehicle of vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3424334B2 (en) * 1994-06-21 2003-07-07 日産自動車株式会社 Roadway detection device
JP4659631B2 (en) * 2005-04-26 2011-03-30 富士重工業株式会社 Lane recognition device
KR20110001427A (en) * 2009-06-30 2011-01-06 태성전장주식회사 High speed road lane detection method based on extraction of roi-lb

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device

Also Published As

Publication number Publication date
KR20130015738A (en) 2013-02-14
WO2013018961A1 (en) 2013-02-07

Similar Documents

Publication Publication Date Title
US11967109B2 (en) Vehicle localization using cameras
US20200293058A1 (en) Data processing method, apparatus and terminal
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
JP6241422B2 (en) Driving support device, driving support method, and recording medium for storing driving support program
KR101647370B1 (en) road traffic information management system for g using camera and radar
EP3349143B1 (en) Nformation processing device, information processing method, and computer-readable medium
US20120257056A1 (en) Image processing apparatus, image processing method, and image processing program
JP6450294B2 (en) Object detection apparatus, object detection method, and program
EP3449327A1 (en) Method and device for capturing image of traffic sign
KR20160123668A (en) Device and method for recognition of obstacles and parking slots for unmanned autonomous parking
KR101612822B1 (en) Apparatus for detecting lane and method thereof
US10108866B2 (en) Method and system for robust curb and bump detection from front or rear monocular cameras
KR101748780B1 (en) Method for detection of the road sign using stereo camera and apparatus thereof
US9373175B2 (en) Apparatus for estimating of vehicle movement using stereo matching
KR20130053980A (en) Obstacle detection method using image data fusion and apparatus
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JP2011103058A (en) Erroneous recognition prevention device
KR101578434B1 (en) Apparatus for detecting lane and method thereof
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
Hwang et al. Vision-based vehicle detection and tracking algorithm design
WO2014050285A1 (en) Stereo camera device
US20230168688A1 (en) Sequential mapping and localization (smal) for navigation
CN108416305B (en) Pose estimation method and device for continuous road segmentation object and terminal
Horani et al. A framework for vision-based lane line detection in adverse weather conditions using vehicle-to-infrastructure (V2I) communication
JP5024165B2 (en) Visual object estimation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181114

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191114

Year of fee payment: 5