KR101578434B1 - Apparatus for detecting lane and method thereof - Google Patents
Apparatus for detecting lane and method thereof Download PDFInfo
- Publication number
- KR101578434B1 KR101578434B1 KR1020110077912A KR20110077912A KR101578434B1 KR 101578434 B1 KR101578434 B1 KR 101578434B1 KR 1020110077912 A KR1020110077912 A KR 1020110077912A KR 20110077912 A KR20110077912 A KR 20110077912A KR 101578434 B1 KR101578434 B1 KR 101578434B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- information
- feature points
- extracted
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000006978 adaptation Effects 0.000 claims abstract description 11
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000010365 information processing Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 235000014676 Phragmites communis Nutrition 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0048—Addition or subtraction of signals
- B60W2050/0049—Signal offset
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0057—Frequency analysis, spectral techniques or transforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 명세서는 영상을 획득하는 카메라 모듈; 상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부; 및 상기 추적된 차선을 표시하는 표시부를 포함하되, 상기 차선 적합은, 임의의 과거 시점에서 추출된 특징점 정보를 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하고, 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하고, 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 하는 차선 인식 장치에 관한 것이다.
또한, 본 명세서는 영상을 획득하는 단계; 상기 획득된 영상으로부터 복수의 특징점을 추출하는 단계; 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하는 단계; 상기 적합 된 차선을 추적하는 단계; 및 상기 추적된 차선을 표시하는 단계를 포함하되, 상기 차선 적합을 수행하는 단계는, 임의의 과거 시점에서 추출된 특징점 정보를 획득하는 단계; 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하는 단계; 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하는 단계; 및 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법에 관한 것이다.The present invention relates to a camera module for acquiring an image; A controller for extracting a plurality of feature points from the obtained image, performing lane fitting to connect the extracted plurality of feature points with one line, and tracking the adapted lane; And a display unit for displaying the tracked lane, wherein the lane adaptation comprises: obtaining minutia information extracted at an arbitrary past time point, extracting from the past time point based on the running information from the past past time point to the present time, Estimating a position of the current point of time with respect to the feature point that has been determined, determining an offset indicating the lateral deviation of the lane based on the estimated position of the current point of time, and performing curve fitting based on the determined offset To a lane recognizing device.
Further, the present disclosure relates to a method of acquiring images, Extracting a plurality of feature points from the acquired image; Performing lane fitting to connect the extracted plurality of feature points by one line; Tracking the adapted lane; And displaying the tracked lane, wherein performing the lane fitting comprises: obtaining minutia information extracted at an arbitrary past time; Estimating a position of a current point of time with respect to the minutiae extracted from the past time point based on the traveling information from the past past time point to the present; Determining an offset indicating a lateral deviation of the lane based on the estimated current position; And performing a curve fitting based on the determined offset.
Description
본 명세서는 차선 인식 장치 및 그 방법에 관한 것이다.The present specification relates to a lane recognition apparatus and a method thereof.
일반적으로 주행 장치가 선을 추적하여 이동할 때, 선을 이탈한 것을 감지하여 외부로 경보를 발하기 위해서는 우선적으로 영상 인식 장치 등을 사용하여 선을 인식해야 한다.Generally, when a traveling device moves along a line, it is necessary to recognize the line by using an image recognition device or the like in order to detect a departure from the line and issue an alarm to the outside.
즉, 영상을 이용한 인식 장치는 주행 장치에서 인식하기 위한 목표물의 영상을 카메라 등을 이용하여 획득한 후, 디지털 영상처리 기술을 이용하여 목표물의 특징을 추출하고, 추출된 특징을 이용하여 목표물을 확인하는 과정을 수행하는데, 이러한 영상 인식 장치가 본래의 기능을 원활히 수행하기 위해서는 이동하는 물체에서 목표물인 선을 더욱 정확하게 추출할 수 있어야 한다.That is, a recognition device using an image acquires an image of a target to be recognized by a traveling device using a camera or the like, extracts a characteristic of the target using a digital image processing technique, and confirms the target using the extracted characteristic In order for the image recognition apparatus to perform its original function smoothly, it is necessary to extract the target line more accurately from the moving object.
이와 같은 영상 인식 장치는 자동차, RT(Robot Technology), AGV(Automated Guided Vehicle) 등의 분야에서 폭넓게 적용될 수 있으며, 특히 자동차 분야에서는 고속 주행 시에도 정확한 차선 인식을 보장하여야 하기 때문에 타분야에 비하여 기술적 난이도가 높다. 여기서 차선은 운전의 기준선으로서 전진, 후진, 차선 변경, 진로 변경, 전진 주차, 후진 주차 및 종렬 주차 등 모든 운전 행위의 기준이 된다.Such image recognition apparatuses can be widely applied in fields such as automobiles, RT (Robot Technology), and AGV (Automated Guided Vehicle). Especially, in the automobile field, since accurate lane recognition must be ensured even when traveling at high speed, The difficulty is high. Here, the lane is the baseline of driving, and it is a standard for all driving behaviors such as forward, backward, lane change, career change, forward parking, reverse parking and in-line parking.
현재 고기능화, 지능화가 진행되고 있는 첨단 안전 차량(Advanced Safety Vehicle; ASV)은 차선 인식 방법의 주요 적용 대상으로서 졸음 운전 방지를 위한 차선 이탈 경보 장치, 초보자의 주차를 돕기 위한 후방 주차 가이드 및 종렬 주차 가이드 장치, 위험한 상황에서 핸들에 토크를 가하여 차선을 유지시키는 차선 유지 장치 등에 적용되며 점차 그 적용 범위가 넓혀지고 있다.The Advanced Safety Vehicle (ASV), which is currently being sophisticated and intelligent, is mainly applied to the lane identification method, which includes a lane departure warning device to prevent drowsiness driving, a rear parking guide to help beginners park, Devices, and lane keeping devices that maintain the lane by applying torque to the handle in a dangerous situation.
위와 같이 주행 도로를 영상으로 획득하고, 획득된 영상에서 차선을 구분하여 인식하는 기술에 따른 차선 인식 방법들을 살펴보면, 획득한 영상의 좌표에 대한 차선 포인트들을 2차원 좌표에 맵핑하고 차선의 위치를 검출하여 표시하는 과정으로 이루어진다. The lane recognition methods according to the technique of acquiring the running road as an image as described above and recognizing lanes in the obtained image are described as follows. The lane points for the coordinates of the acquired image are mapped to the two-dimensional coordinates and the position of the lane is detected .
이때 차선이 곡선으로 이루어지는 경우, 얻어진 차선 포인트들로부터 곡선 방정식을 사용하거나 차선의 폭을 이용하여 곡선을 인식한다. 그러나 이러한 방법은 곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 경우, 인식된 차선에 대한 정확도가 현저하게 떨어질 수 있다.At this time, when the lane is formed of a curve, the curve is recognized from the obtained lane points using the curve equation or the width of the lane. However, this method can significantly reduce the accuracy of the recognized lane when curved roads are formed by dotted lines and the roads are cut off and restarted from the front of the vehicle.
본 명세서는 곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 때와 같이 도로 변화가 심한 경우에도 정확하게 차선을 인식하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for accurately recognizing a lane even when road changes are severe, such as when a curved road with a large curvature is formed by a dotted line and the road is cut off and then restarted from the front of the vehicle.
본 명세서에 개시된 차선 인식 장치는, 영상을 획득하는 카메라 모듈, 상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부, 및 상기 추적된 차선을 표시하는 표시부를 포함하되, 상기 차선 적합은, 임의의 과거 시점에서 추출된 특징점 정보를 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하고, 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하고, 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 한다. The lane recognizing apparatus disclosed in this specification includes a camera module for acquiring an image, a lane matching function for extracting a plurality of feature points from the obtained image, connecting the extracted plurality of feature points by one line, And a display unit for displaying the tracked lane, wherein the lane adaptation comprises: acquiring minutia information extracted at an arbitrary past time point; and calculating the driving information from the arbitrary past time point to the present time Estimating a position of the current point of time with respect to the minutiae extracted at the past point in time, determining an offset indicating the lateral offset of the lane based on the estimated position of the current point of time, And performs the adaptation.
또한, 상기 곡선 적합은, 임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 것을 특징으로 한다. Further, the curve fit is characterized by determining coefficients of the curve equation based on a curve equation having an arbitrary dimension.
또한, 상기 주행 정보는, 속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 한다. The driving information may be at least one of speed information, acceleration information, and steering information.
또한, 상기 카메라 모듈은, 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라 또는 단일 카메라를 포함하여 구성되는 것을 특징으로 한다. In addition, the camera module may include at least one pair of cameras or a single camera, which are spaced apart from each other on the same central axis of the same plane.
또한, 상기 복수의 특징점은, 상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하고, 상기 관심 영역에 대하여만 추출되는 것을 특징으로 한다. In addition, the plurality of feature points may be extracted only for the region of interest, with only the road portion corresponding to the lower end centered on the horizon in the obtained image set as the region of interest.
또한, 상기 복수의 특징점은, 상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 한다. The plurality of minutiae are extracted based on gradient information or color information of the obtained image.
또한, 상기 제어부는, 상기 추출된 복수의 특징점을 월드 좌표계로 변환하고, 상기 변환된 복수의 특징점을 기초로 차선을 적합하는 것을 특징으로 한다. The control unit may convert the extracted plurality of feature points into a world coordinate system, and fit the lane based on the converted plurality of feature points.
또한, 상기 차선의 추적은, 상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 한다. Further, the tracking of the lane is performed with respect to all of the adapted lanes.
또한, 상기 추출된 특징점에 대한 정보를 저장하는 저장부를 더 포함하고, 상기 제어부는, 상기 저장부에 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 한다.The control unit may further include a storage unit for storing information on the extracted minutiae, wherein the control unit fits the lane based on the information about the minutiae stored in the storage unit.
또한, 본 명세서에 개시된 차선 인식 장치는, 영상을 획득하는 카메라 모듈, 상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부, 및 상기 추적된 차선을 표시하는 표시부를 포함하되, 상기 차선 적합은, 임의의 과거 시점에서의 차선 적합 결과의 차선의 횡방향 치우침을 나타내는 오프셋을 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 오프셋에 대한 현재 시점의 오프셋을 추정하고, 상기 추정된 현재 시점의 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 한다. Further, the lane recognizing apparatus disclosed in the present specification includes a camera module for acquiring an image, a lane matching function for extracting a plurality of feature points from the obtained image, connecting the extracted plurality of feature points with one line, And a display unit for displaying the tracked lane, wherein the lane adaptation obtains an offset representing a lateral deviation of a lane of the lane adaptation result at any past point in time, Estimates an offset of the current point of time based on the travel information from the past point of time to the present point of time, and performs curve fitting based on the estimated offset of the current point of time.
또한, 본 명세서에 개시된 차선 인식 방법은, 영상을 획득하는 단계, 상기 획득된 영상으로부터 복수의 특징점을 추출하는 단계, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하는 단계, 상기 적합 된 차선을 추적하는 단계, 및 상기 추적된 차선을 표시하는 단계를 포함하되, 상기 차선 적합을 수행하는 단계는, 임의의 과거 시점에서 추출된 특징점 정보를 획득하는 단계, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 상기 과거 시점에서 추출되었던 특징점에 대한 현재 시점의 위치를 추정하는 단계, 상기 추정된 현재 시점의 위치를 기초로 차선의 횡방향 치우침을 나타내는 오프셋(offset)을 결정하는 단계, 및 상기 결정된 오프셋을 기초로 곡선 적합을 수행하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a lane recognition method including: obtaining an image; extracting a plurality of feature points from the acquired image; performing lane fitting to connect the extracted plurality of feature points with one line; The method comprising the steps of: tracking the adapted lane; and displaying the tracked lane, wherein performing the lane fitting comprises: obtaining minutia information extracted at an arbitrary past time; Estimating a current position of the feature point extracted from the past point of view based on the current driving information from the current point of view, determining an offset indicating lateral displacement of the lane based on the estimated position of the current point of time And performing a curve fit based on the determined offset.
또한, 상기 곡선 적합을 수행하는 단계는, 임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 단계를 포함하는 것을 특징으로 한다.In addition, the step of performing the curve fitting may include determining coefficients of the curve equation based on a curve equation having an arbitrary dimension.
또한, 상기 주행 정보는, 속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 한다.The driving information may be at least one of speed information, acceleration information, and steering information.
또한, 상기 카메라 모듈은, 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라 또는 단일 카메라를 포함하여 구성되는 것을 특징으로 한다. In addition, the camera module may include at least one pair of cameras or a single camera, which are spaced apart from each other on the same central axis of the same plane.
또한, 상기 복수의 특징점을 추출하는 단계는, 상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하는 단계, 및 상기 관심 영역에 대하여만 복수의 특징점을 추출하는 단계를 포함하는 것을 특징으로 한다.The step of extracting the plurality of feature points may further include the steps of setting only a road portion corresponding to a lower end of a center of a horizon in the obtained image as a region of interest and extracting a plurality of feature points only with respect to the region of interest .
또한, 상기 복수의 특징점은, 상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 한다. The plurality of minutiae are extracted based on gradient information or color information of the obtained image.
또한, 상기 차선을 적합하는 단계는, 상기 추출된 복수의 특징점을 월드 좌표계로 변환하는 단계, 및 상기 변환된 복수의 특징점을 기초로 차선을 적합하는 단계를 포함하는 것을 특징으로 한다. The step of fitting the lane may include converting the extracted plurality of feature points into a world coordinate system, and fitting the lane based on the converted plurality of feature points.
또한, 상기 차선을 추적하는 단계는, 상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 한다. In addition, the step of tracking the lane is performed on all of the adapted lanes.
또한, 상기 특징점을 추출하는 단계는, 상기 추출된 특징점에 대한 정보를 저장하는 단계를 더 포함하고, 상기 차선을 적합하는 단계는, 상기 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 한다.The step of extracting the feature points may further include storing information on the extracted feature points, and the step of fitting the lanes fits the lane based on the information on the stored feature points. do.
본 명세서에 개시된 차선 인식 장치에 따르면, 주행 경로에 나타난 전체 차선을 추적하고 추적 결과로부터 차선을 인식함으로써, 인터체인지와 같이 변동하는 도로 상황에서도 정확하게 차선을 인식할 수 있고 차선 변경 상황에서도 신속하게 새로운 주행 차선을 인지할 수 있다. According to the lane recognizing apparatus disclosed in this specification, it is possible to accurately recognize a lane even in a changing road situation such as an interchange by tracking the entire lane appearing in the traveling route and recognizing the lane from the tracking result, I can recognize the lane.
또한, 본 명세서에 개시된 차선 인식 장치에 따르면, 곡률이 심한 곡선 도로가 점선으로 이루어진 경우, 과거에 추출된 특징점 또는 과거의 차선 적합 결과를 기초로 현재 차선에 대한 곡선 적합을 수행함으로써, 실제 차선에 가까운 결과를 얻음과 동시에 정확한 오프셋(off set)을 결정할 수 있다.Further, according to the lane recognizing apparatus disclosed in this specification, when a curved road with a large curvature is formed by a dotted line, curve fitting to the current lane is performed based on past feature points or past lane fitting results, It is possible to obtain a close result and to determine an accurate off set.
도 1은 본 명세서에 개시된 실시 예에 따른 차선 인식 장치의 구성을 나타낸 블록도이다.
도 2는 본 명세서에 개시된 실시 예에 따른 차선 인식 과정을 나타낸 흐름도이다.
도 3은 본 명세서에 개시된 실시 예에 따른 영상을 나타낸 도면이다.
도 4는 본 명세서에 개시된 실시 예에 따른 특징점 추출 결과를 나타낸 도면이다.
도 5는 본 명세서에 개시된 실시 예에 다른 추출된 특징점의 월드 좌표계 변환 결과를 나타낸 도면이다.
도 6은 본 명세서에 개시된 실시 예에 따른 차선 적합 결과를 나타낸 도면이다.
도 7은 본 명세서에 개시된 실시 예에 따른 차선 추적 결과의 표시를 나타낸 도면이다.
도 8은 본 명세서에 개시된 실시 예에 따른 곡선 적합 과정을 나타낸 흐름도이다.
도 9는 본 명세서에 개시된 실시 예에 따른 차선 인식 장치가 주행하는 도로의 일 예를 나타낸 도면이다.
도 10은 실제 차선과 곡선 적합 결과 차선을 비교하여 나타낸 도면이다.
도 11은 본 명세서에 개시된 실시 예에 따른 과거 시점에서 추출된 특징점 정보를 획득한 결과를 나타낸 도면이다.
도 12는 본 명세서에 개시된 실시 예에 따른 주행 정보를 기초로 특징점의 변화된 위치를 추정한 결과를 나타낸 도면이다.
도 13은 본 명세서에 개시된 실시 예에 따른 곡선 적합 결과를 나타낸 도면이다.1 is a block diagram showing a configuration of a lane recognizing apparatus according to an embodiment disclosed herein.
2 is a flowchart illustrating a lane recognition process according to an embodiment disclosed herein.
3 is a diagram illustrating an image according to an embodiment disclosed herein.
FIG. 4 is a diagram showing a feature point extraction result according to the embodiment disclosed herein.
FIG. 5 is a diagram showing a world coordinate system transformation result of extracted minutiae in accordance with the embodiment disclosed herein.
6 is a diagram showing lane-fitting results according to the embodiment disclosed herein.
7 is a diagram illustrating the display of lane-tracking results in accordance with the embodiment disclosed herein.
8 is a flowchart illustrating a curve fitting process according to the embodiment disclosed herein.
9 is a diagram showing an example of a road on which a lane recognizing device according to the embodiment disclosed herein runs.
Fig. 10 is a diagram showing the comparison between the actual lane and the curve fitting result lane.
11 is a diagram illustrating a result of obtaining minutia information extracted in the past according to the embodiment disclosed herein.
12 is a diagram illustrating a result of estimating a changed position of a minutiae on the basis of travel information according to the embodiment disclosed herein.
13 is a diagram showing the curve fitting result according to the embodiment disclosed herein.
본 명세서에 개시된 실시 예들은, 스탠드 얼론(stand alone)으로 구성될 수 있을 뿐만 아니라, 이동 단말기(Mobile Terminal), 텔레매틱스 단말기(Telematics Terminal), 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기 등과 같이 다양한 단말기에 적용될 수 있다.The embodiments disclosed herein may be configured not only as a stand alone device but also as a mobile terminal, a telematics terminal, a smart phone, a portable terminal, A personal digital assistant (PDA), a portable multimedia player (PMP), a notebook computer, a tablet PC, a Wibro terminal, an Internet Protocol Television (IPTV) terminal, , A 3D television, an image device, a telematics terminal, a navigation terminal, an AVN (Audio Video Navigation) terminal, and the like.
본 명세서에 개시된 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 파일 데이터, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 예도 마찬가지다.The embodiments disclosed herein may be implemented in the form of program instructions that may be executed on various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, file data, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk, and a magnetic tape; optical media such as CD-ROM and DVD; magnetic recording media such as a floppy disk; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The above hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and so forth.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. Also, the technical terms used herein should be interpreted in a sense that is generally understood by those skilled in the art to which the present disclosure relates, unless otherwise specifically defined in the present specification, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in this specification is an erroneous technical term that does not accurately express the concept of the technology disclosed in this specification, it should be understood that technical terms which can be understood by a person skilled in the art are replaced.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, the terms "comprising" or "comprising" and the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Further, the suffix "part" for a component used in the present specification is given or mixed in consideration of ease of specification, and does not have a meaning or role that is different from itself.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured. It is to be noted that the attached drawings are only for the purpose of easily understanding the concept of the technology disclosed in the present specification, and should not be construed as limiting the spirit of the technology by the attached drawings.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하도록 한다.
Hereinafter, embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings.
도 1은 본 명세서에 개시된 실시 예에 따른 차선 인식 장치를 나타낸 블록도이다.1 is a block diagram illustrating a lane recognition apparatus according to an embodiment disclosed herein.
도 1을 참조하면, 차선 인식 장치(100)는 카메라 모듈(110), 제어부(120), 저장부(130), 출력부(140) 및 센서부(150)를 포함하여 구성될 수 있다.1, the
상기 카메라 모듈(110)은 회전체 반사경과 집광 렌즈 및 촬상 소자를 이용하여 전방위, 후방위 및/또는 측방위를 한번에 촬영하는 카메라 시스템으로서, 보안 시설과 감시 카메라, 로봇 비전 등에 응용될 수 있다. 회전체 반사경의 형상으로는 쌍곡면이나 구면, 원추형, 복합형 등 다양하다. 상기 카메라 모듈(110)은 상기 차선 인식 장치(100)의 임의의 동일면의 동일 중심축 상에 수평 간격으로 이격적으로 설치되는 적어도 한 쌍의 카메라(스테레오 카메라(stereo camera), 스테레오코스픽 카메라(stereoscopic camera)), 또는 단일 카메라를 포함할 수 있다. 이때, 상기 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있으며, 상기 차선 인식 장치(100)를 구성할 때 설정할 수 있다. 또한, 상기 카메라 모듈(110)은, 영상 촬상이 가능한 임의의 모든 카메라 모듈일 수도 있다.The
또한, 상기 카메라 모듈(110)의 촬상 소자로는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)가 사용될 수 있다. 상기 촬상 소자의 촬상면에 투영되는 화상(즉 전방위 영상)은 회전체 반사경에 반사된 것이어서 인간이 그대로 관찰하기에는 적합하지 않은 일그러진 화상일 수 있다. 따라서 상기 카메라 모듈(110)은 화상의 정확한 관찰을 위해 촬상 소자의 출력을 마이크로프로세서 등을 통해 그 좌표를 변환하여 새로운 파노라마 영상을 만들어낼 수 있다.A CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) may be used as the imaging element of the
상기 카메라 모듈(110)은 전방위를 촬영하여 영상을 획득하기 위해 스테레오 카메라(stereo camera), 이동식 스테레오 카메라(moving stereo camera) 중 하나 이상을 포함하여 구성될 수 있다.The
상기 스테레오 카메라는 복수의 카메라로 구성되는 영상 장치이다. 상기 카메라 모듈(110)을 통해 얻은 영상은 상기 카메라 모듈(110) 주변에 대한 2차원적인 정보를 제공할 수 있다. 복수의 카메라를 통해 서로 다른 방향에서 촬영한 복수의 영상을 이용하면 상기 카메라 모듈(110) 주변에 대한 3차원적인 정보를 얻을 수 있다. The stereo camera is a video device composed of a plurality of cameras. The image obtained through the
상기 이동식 스테레오 카메라는 스테레오 카메라의 위치가 장애물의 거리에 따라 능동적으로 변하여 관측 장애물에 대한 주시각을 고정시키는 카메라를 말한다. 상기 스테레오 카메라는 일반적으로 두 대의 카메라를 평행하게 배치하고 영상을 획득하며, 획득 영상의 스테레오 시차에 따라 장애물까지의 거리를 계산할 수 있다. The mobile stereo camera refers to a camera in which the position of the stereo camera is actively changed according to the distance of the obstacle to fix the main time of the observation obstacle. The stereo camera generally arranges two cameras in parallel and acquires an image, and calculates the distance to the obstacle according to the stereo parallax of the acquired image.
상기 스테레오 카메라는 광축이 항상 평행하게 배치되어 고정된 형태의 수동적인 카메라이다. 반면, 상기 이동식 스테레오 카메라는 광축의 기하학적 위치를 능동적으로 변화시켜 주시각을 고정시킬 수 있다. The stereo camera is a passive camera in which the optical axis is always parallel and fixed. On the other hand, the mobile stereo camera can actively change the geometrical position of the optical axis to fix the principal time.
상기 스테레오 카메라의 주시 각도를 장애물의 거리에 따라 제어하는 것을 주시각 제어라 한다. 상기 주시각 제어 스테레오 카메라는 움직이는 장애물에 대한 스테레오 시차를 항상 일정하게 유지하여 입체 영상 관측자에게 더욱 자연스러운 입체 영상을 제공할 수 있으며 장애물에 대한 거리 측정이나 스테레오 영상 처리에 있어서 유용한 정보를 제공할 수 있다.Control of the viewing angle of the stereo camera according to the distance of the obstacle is called main vision control. The main vision control stereo camera maintains a stereoscopic difference with respect to a moving obstacle at all times, thereby providing a stereoscopic image more natural to a stereoscopic vision observer, and can provide useful information in distance measurement of a obstacle or stereo image processing .
상기 제어부(120)는 상기 차선 인식 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어 상기 차선 인식 장치(100)가 주행하기 위한 각종 동력 구동부의 제어를 수행할 수 있다. The
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 카메라 모듈(110)로부터 수신한 영상의 처리, 차선 인식 및 기타 연산에 관한 처리를 수행한다. 또한, 본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 차선 인식을 위하여 상기 센서부(150)에서 수집된 주행 정보를 이용할 수 있다.According to an embodiment of the present invention, the
상기 제어부(120)의 차선 인식 과정은 이하 도 2 내지 도 13을 참조하여 상세히 설명된다.The lane recognition process of the
또한, 상기 제어부(120)는, 임의의 GPS 모듈(미도시)을 통해 확인되는 상기 차선 인식 장치(100)(또는, 상기 차선 인식 장치(100)가 구비된 차량)의 위치 및 상기 인식된 차선을 근거로 차선 유지와 관련된 기능(경고 메시지 기능, 자동 차선 유지 기능 등 포함)을 수행할 수 있다.The
상기 저장부(130)는 상기 제어부(120)의 동작을 위한 데이터와 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 임시 저장할 수 있다. The
본 명세서에 개시된 일 실시 예에 따르면, 상기 저장부(120)는 상기 카메라 모듈(110)을 통해 수신되는 영상, 상기 영상에 관한 처리 정보 및 차선 인식 정보를 임시 저장할 수 있다. 또한, 상기 저장부(120)는 상기 영상에 관한 처리를 위한 연산식(예를 들어, 곡선 방정식 등)을 저장할 수 있다.According to an embodiment of the present invention, the
또한, 본 명세서에 개시된 일 실시 예에 따르면, 상기 저장부(120)는 상기 차선 인식 과정에서 임의의 시각에서 추출된 특징점 또는 차선 적합 결과를 저장할 수 있다. 저장된 과거 임의의 시각에서 추출된 특징점 또는 차선 적합 결과는 현재 차선의 적합을 수행하는 데 사용될 수 있다.In addition, according to the embodiment disclosed herein, the
어떤 실시 예들에서는, 상기 저장부(130)에 운영 체제(Operating System)(미도시), 무선통신부 기능을 수행하는 모듈(미도시), 사용자 입력부와 함께 동작하는 모듈(미도시), A/V 입력부와 함께 동작하는 모듈(미도시), 상기 출력부(140)와 함께 동작하는 모듈을 포함하는 소프트웨어 컴포넌트들이 저장될 수 있다. 상기 운영 체제(예를 들어, LINUX, UNIX, OS X, WINDOWS, Chrome, Symbian, iOS, Android, VxWorks 또는 기타 임베디드 운영체제)는 메모리 관리, 전력 관리 등과 같이 시스템 작업(tasks)들을 제어하기 위한 다양한 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함할 수 있다.In some embodiments, the
상기 저장부(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 xD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 상기 차선 인식 장치(100)는 인터넷(Internet)상에서 상기 저장부(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
상기 출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(141), 및 음향 출력 모듈(142)을 포함하여 구성될 수 있다.The
상기 디스플레이부(141)는 상기 차선 인식 장치(100)에서 처리되는 정보를 출력할 수 있다. 예를 들어, 상기 차선 인식 장치(100)가 주행 중인 경우, 주행과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다.The
본 명세서에 개시된 일 실시 예에 따르면, 상기 디스플레이부(141)는 상기 차선 인식 장치(100)의 상기 카메라 모듈(110)을 통해 획득된 영상 및/또는 상기 제어부(120)를 통해 인식된 차선과 관한 정보를 표시할 수 있다. 상기 디스플레이부(141)는 상기 영상과 상기 인식된 차선에 관한 정보를 동시에 표시하되, 상하 또는 좌우측으로 분할하여 표시하거나, 상기 영상에 상기 인식된 차선에 관한 정보를 오버랩하여 표시할 수 있다.The
상기 디스플레이부(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭 될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다. 상기 디스플레이부(141)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the
상기 차선 인식 장치(100)의 구현 형태에 따라 상기 디스플레이부(141)는 2개 이상 존재할 수 있다. 예를 들어, 상기 차선 인식 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격적, 또는 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or
또한, 상기 디스플레이부(141)는 터치 동작을 감지하는 터치 센서(미도시)와 상호 레이어 구조를 이룰 수 있다. 이 경우, 상기 디스플레이부(141)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 상기 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.In addition, the
상기 터치 센서는 상기 디스플레이부(141)의 특정 부위에 가해진 압력 또는 상기 디스플레이부(141)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성될 수 있다. 상기 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific part of the
상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호는 터치 제어기로 보내진다. 터치 제어기는 그 신호를 처리한 다음 대응하는 데이터를 상기 제어부(120)로 전송한다. 이로써, 상기 제어부(120)는 상기 디스플레이부(141)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal is sent to the touch controller. The touch controller processes the signal and transmits corresponding data to the
상기 음향 출력 모듈(142)은 녹음 모드, 음성인식 모드 등에서 상기 저장부(130)에 저장된 오디오 데이터를 출력할 수 있다. 상기 음향 출력 모듈(142)은 차선 인식 장치(200)에서 수행되는 차선 인식 결과(예를 들어, 인식된 차선의 종류 등에 대한 알림 등) 및 차선 인식에 관한 기능(예를 들어, 차선 이탈 경고, 자동 차선 유지 알림 등)과 관련된 음향 신호를 출력하기도 한다. 상기 음향 출력 모듈(142)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
상기 센서부(150)는 상기 차선 인식 장치(100)의 주행 정보를 수집하기 위한 것으로, 속도 센서(151) 및 스티어링 센서(152)를 포함할 수 있다.The
상기 속도 센서(151)는 상기 차선 인식 장치(100)의 속도를 검출한다. 상기 차선 인식 장치(100)에는 디퍼런셜 기어의 기어비, 타이어의 크기가 결정되어 있으므로 상기 속도 센서(151)는 변속기 출력축이나 휠의 회전수를 기초로 상기 차선 인식 장치(100)의 속도를 계산할 수 있다. 또한, 상기 속도 센서(151)는 리드스위치 타입, 마그네틱 타입 및 홀 타입 중 어느 하나로 구성될 수 있다.The
또한, 상기 속도 센서(151)는 상기 차선 인식 장치(100)의 속도의 변화를 기초로 상기 차선 인식 장치(100)의 가속도를 검출할 수 있다. 또는, 상기 차선 인식 장치(100)는 상기 차선 인식 장치(100)의 가속도를 검출하기 위한 별도의 가속도 센서(미도시)를 구비할 수 있다.In addition, the
상기 스티어링 센서(152)는 상기 차선 인식 장치(100)의 스티어링(steering) 운동, 즉 휠 각도를 감지한다. 따라서, 상기 스티어링 센서(152)는 상기 차선 인식 장치(100)의 조향 휠에 연동되어, 회전되는 로터, 로터와 일체로 회전하는 기어, 자력을 발생시키는 자성체의 회전에 의한 위상 변화를 감지하는 감지부, 감지부의 입력을 연산 및 출력하는 연산부 및 연산부를 실장하기 위한 PCB 기판과 하우징을 포함하여 이루어질 수 있다.The
또한, 상기 차선 인식 장치(100)는, 상기 제어부(120)의 제어에 의해 임의의 단말기 또는 서버와의 통신 기능을 수행하는 통신부(미도시)를 더 포함할 수 있다. 이때, 상기 통신부는, 유/무선 통신 모듈을 포함할 수 있다. 여기서, 상기 무선 인터넷 기술은, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), 고속 하향 패킷 접속(High Speed Downlink Packet Access : HSDPA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등을 포함할 수 있고, 상기 근거리 통신(Short Range Communication) 기술은, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), 초광대역 무선(Ultra Wideband : UWB), 지그비(ZigBee) 등을 포함할 수 있다. 또한, 상기 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다.The
또한, 상기 통신부는, 상기 차선 인식 장치(100)가 구비되는 임의의 차량과의 통신을 위한, CAN 통신, 차량용 이더넷, 플렉스레이(flexray), LIN(Local Interconnect Network) 등을 포함할 수 있다.The communication unit may include CAN communication, a vehicle Ethernet, a flexray, a LIN (Local Interconnect Network), or the like for communication with any vehicle provided with the
또한, 상기 통신부는, 상기 임의의 단말기 또는 서버로부터 임의의 카메라 모듈을 통해 촬영된 영상을 전송받을 수 있다. 또한, 상기 통신부는, 상기 제어부(120)의 제어에 의해 임의의 영상에 대한 차선 인식 정보를 상기 임의의 단말기 또는 서버로 전송할 수 있다.In addition, the communication unit may receive the image photographed through the arbitrary camera module from the arbitrary terminal or server. The communication unit may transmit lane identification information for an arbitrary image to the arbitrary terminal or server under the control of the
도 1에 도시한 차선 인식 장치(100)의 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도 1에 도시한 구성 요소보다 많거나 적은 구성 요소에 의해 차선 인식 장치(100)가 구현될 수 있다.
The
도 2는 본 명세서에 개시된 실시 예에 따른 차선 인식 과정을 나타낸 흐름도이다.2 is a flowchart illustrating a lane recognition process according to an embodiment disclosed herein.
도 2를 참조하면, 먼저, 상기 차선 인식 장치(100)는 영상을 획득한다(s21). Referring to FIG. 2, the
상기 카메라 모듈(110)은, 차선 인식 장치(100)의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라 또는 스테레오코스픽 카메라)를 통해 촬영된 제 1 영상 및 제 2 영상을 수신하거나 또는, 단일 카메라를 통해 촬영된 영상을 획득할 수 있다. 여기서, 상기 제 1 영상은, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상이고, 상기 제 2 영상은 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상일 수 있다. 또한, 상기 카메라 모듈(110)은, 상기 한 쌍의 카메라를 통해 촬영된 제 1 영상 및 제 2 영상 중에서 어느 하나의 영상을 획득할 수도 있다.The
일 예로, 상기 카메라 모듈(110)은, 상기 단일 카메라를 통해 도 3에 도시한 바와 같이 영상(310)을 획득할 수 있다.For example, the
그 다음, 상기 차선 인식 장치(100)는 차선의 특징점을 추출한다(s22).Then, the
상기 제어부(120)는 상기 카메라 모듈(110)에서 획득된 영상(310)으로부터 차선을 구분하기 위해, 도 4에 도시된 바와 같이 영상에 존재하는 복수의 특징점(edge point)(410)을 추출한다. 이때, 상기 제어부(120)는 지평선을 중심으로 하단의 도로 부분만을 관심 영역(Region of Interest; ROI)으로 설정하고, 관심 영역에서만 특징점(410) 추출을 수행할 수 있다. The
특징점(410) 추출은 다양한 알고리즘을 통해 수행될 수 있다.
예를 들어, 상기 제어부(120)는 상기 획득된 영상(310)의 그레디언트(gradient) 정보를 기초로 특징점(410)을 추출할 수 있다. 즉, 상기 제어부(120)는 상기 획득된 영상(310)의 근접한 픽셀(pixel) 간 밝기 또는 색상 농담이 단계적으로 변화하는 경우, 특징점(410)이 아닌 것으로 인식할 수 있다. 반대로, 상기 제어부(120)는 근접한 픽셀 간 밝기 또는 색상 농담이 급격하게 변화하는 경우, 이를 특징점(410)으로 인식하고 해당 픽셀 정보를 추출할 수 있다. 이 경우, 특징점(410)은 픽셀의 밝기 또는 색상 농담이 구분되는 두 영역의 경계선에 대한 불연속점으로 이루어질 수 있다.For example, the
또는, 상기 제어부(120)는 상기 획득된 영상(310)의 색상 정보를 기초로 특징점(410)을 추출할 수 있다. 일반적으로, 도로 내에서 일반 차선은 흰색으로, 중앙 차선은 노란색으로, 차선이 아닌 부분은 검은색을 띄고 있다. 따라서, 상기 제어부(120)는 차선의 색상 정보를 기초로 특징점(410)을 추출할 수 있다. 즉, 상기 제어부(120)는 영상(310)으로부터 차선으로 분류될 수 있는 색상을 지닌 영역만을 하나의 객체로 만들고, 도로를 주행하는 다른 객체들을 제외하기 위해 도로에 해당하는 영역만을 관심 영역으로 분류한 뒤, 관심 영역 내의 색상 정보를 기초로 만들어진 객체로부터 특징점(410)을 추출할 수 있다. Alternatively, the
상기에서는 상기 제어부(120)가 특징점(410)을 추출하는 알고리즘의 일 예를 들어 설명하였으나, 이에 한정되지 않고 Edge Tracing 또는 Boundary Flowing 알고리즘 등 다양한 특징점 추출 알고리즘 또는 필터를 통해 특징점(410)을 추출할 수 있다.In the above description, the
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 추출된 특징점의 정보를 상기 저장부(130)에 저장하였다가, 이후에 얻어진 영상으로부터 차선을 적합하기 위해 사용할 수 있다. 즉, 상기 제어부(120)는 과거에 추출된 특징점의 정보를 기초로 차선의 오프셋을 먼저 결정하고, 결정된 오프셋 값을 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.According to an embodiment of the present invention, the
이와 같이, 과거에 추출된 특징점의 정보를 기초로 한 현재 차선의 곡선 적합 과정은 하기에서 도 8 내지 도 12를 참조하여 상세히 설명한다.The curve fitting process of the current lane based on the information of the feature points extracted in the past will be described in detail below with reference to FIG. 8 to FIG.
또한, 본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 특징점(410) 추출 후, 도 5에 도시된 바와 같이 상기 추출된 복수의 특징점(410)을 월드 좌표계로 변환할 수 있다. 이때, 상기 제어부(120)는 변환 행렬을 이용하거나 좌표 변환 방정식을 이용할 수 있다. 상기 변환 행렬은 상기 저장부(130)에 미리 저장된 것으로 호모그래픽 행렬(homographic maxtix)일 수 있다. 또한, 상기 제어부(120)는 상기 월드 좌표계로 각각 변환된 복수의 특징점(510)의 수직 및 수평 방향 간격을 동일하게 유지하여 좌표 변환 중 발생한 오류를 쉽게 검출하도록 할 수 있다.5, the
그 후, 상기 차선 인식 장치(100)는 차선을 적합한다(s23).Thereafter, the
상기 제어부(120)는, 도 6에 도시된 바와 같이, 상기 추출된 복수의 특징점(510)을 하나의 선(610)으로 표현하기 위해 차선 적합을 수행한다. 상기 제어부(120)는 영상에서 직선 또는 곡선을 추출하기 위해 최소 자승법(least square method), 랜삭(Random Sample Consensus : RANSAC), 일반 허프 변환법(general hough transform method), 스플라인(spline) 보간법 등 중 어느 하나의 방식을 사용할 수 있다.6, the
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 추출된 복수의 특징점(510)이 곡선에 해당하는 경우, 곡선 방정식을 근거로 차선 적합을 수행할 수 있다. 구체적으로, 상기 제어부(120)는 상기 추출된 복수의 특징점(510)을 곡선 방정식에 대입하여 그 계수를 구하고, 계수가 구해진 곡선 방정식의 결과를 근거로 곡선 적합을 수행할 수 있다. 이때, 상기 커브 방정식은 상기 저장부(130)에 기 저장된 것으로 임의의 다차원 방정식일 수 있다.According to an embodiment of the present invention, when the extracted plurality of feature points 510 correspond to a curve, the
예를 들어 상기 곡선 방정식이 2차 방정식일 경우, 상기 제어부(120)는 상기 복수의 특징점(510)을 2차 방정식, 예를 들어 y=ax2+bx+c (여기서, a는 곡률, b는 헤딩 각도, C는 오프셋)에 대입하여 곡선 적합을 수행할 수 있다. 이때, 상기 제어부(120)는 대입 결과 a가 0이면, 직선으로 인식하고, a가 0이 아니면, 커브로 인식할 수 있다.For example, when the curvilinear equation is a quadratic equation, the
다른 예로 상기 곡선 방정식이 3차 방정식인 경우, 상기 제어부(120)는 상기 복수의 특징점(510)을 3차 방정식, 예를 들어, y=ax3+bx2+cx+d (여기서, a는 커브 변화율(curve derivative), b는 곡률, c는 헤딩 각도, d는 오프셋)에 대입하여 곡선 적합을 수행한다. 이때, a가 0일 경우, 2차 방정식에서 b는 곡률, c는 헤딩 각도, d는 오프셋을 나타내며, a와 b 모두 0일 경우는 직선 검출로서, c는 헤딩 각도, d는 오프셋을 나타낸다.In another example, when the curve equation is a cubic equation, the
또한, 상기 제어부(120)는 상기 적합 결과를 상기 저장부(130)에 저장하고, 이후의 차선 적합을 위해 사용할 수 있다.Also, the
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 과거에 추출된 특징점 또는 과거의 차선 적합 결과를 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.According to an embodiment of the present invention, the
곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 등 도로 변화가 심한 경우, 곡선 적합 시 오프셋의 정확도가 떨어질 수 있다. 따라서 상기 제어부(120)는 과거에 추출된 특징점 또는 과거의 차선 적합 결과를 기초로 차선의 오프셋을 먼저 결정하고, 결정된 오프셋 값을 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.If the road changes severely due to a curvature curved road having a dotted line, for example, the road is cut off and restarted from the front of the vehicle, the accuracy of the offset may deteriorate when the curve is fitted. Accordingly, the
이와 같이, 과거의 차선 적합 결과를 기초로 한 현재 차선의 곡선 적합 과정은 하기에서 도 8 내지 도 13을 참조하여 상세히 설명한다.The curve fitting process of the current lane based on the past lane-fitting result will be described in detail below with reference to Figs. 8 to 13.
끝으로, 상기 차선 인식 장치(100)는 차선을 추적한다(s24).Finally, the
상기 제어부(120)는 캘리브레이션 시간을 감소시키고 노이즈를 감소시키기 위해서, 상기 적합 된 차선에 해당하는 상기 복수의 특징점(510)을 근거로 추적을 수행한다. 이때, 캘리브레이션은, 상기 카메라 모듈(110)과 월드 좌표계와의 변환 관계를 계산하는 것을 의미한다. The
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 적합 된 복수 개의 차선 전부에 대하여 추적을 수행할 수 있다. 즉, 상기 제어부(120)는 상기 차선 인식 장치(100)가 주행 중인 차선 외에 주행 도로상에 존재하는 주변의 차선에 대해서도 추적을 수행할 수 있다. According to the embodiment disclosed herein, the
이렇게 함으로써, 상기 제어부(120)는 상기 차선 인식 장치(100)가 차선을 변경하는 경우에도 새롭게 차선을 추적할 필요없이 기존의 추적 정보로부터 빠르게 차선을 인식할 수 있다. Accordingly, even when the
또한, 일부 차선이 누락, 소실 또는 상기 카메라 모듈(110)의 일시적 동작 장애로 영상이 누락되는 경우에도, 상기 제어부(120)는 복수의 차선에 대한 추적 정보(예를 들어, 차선의 위치, 차선 폭, 곡선 차선의 곡선 방정식 등)를 기초로 차선을 추정하여 인식할 수 있다.In addition, even when some lanes are missed, lost, or a video is missed due to a temporary operation failure of the
이 경우, 상기 제어부(120)는 상기 추적 결과를 상기 저장부(130)에 저장할 수 있다. 이로써 상기 제어부(120)는 차선 적합 시에 일부 오류가 발생한 경우에도 상기 저장된 추적 결과를 기초로 오류를 보정 할 수 있다.In this case, the
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 추적 결과를 상기 저장부(130)에 저장하였다가, 이후에 얻어진 영상으로부터 차선을 적합하기 위해 사용할 수 있다. 즉, 상기 제어부(120)는 과거의 차선 추적 결과를 기초로 차선의 오프셋을 먼저 결정하고, 결정된 오프셋 값을 기초로 현재 차선에 대한 곡선 적합을 수행할 수 있다.According to an embodiment of the present invention, the
추가로, 상기 차선 인식 장치(100)는 차선의 추적 결과를 표시할 수 있다(s25).In addition, the
상기 출력부(140)는 상기 차선 인식 과정을 통해 추적된 결과를 도 7에 도시된 바와 같이 표시할 수 있다.The
상기 출력부(140)는 상기 차선 인식 장치(100)의 상기 카메라 모듈(110)을 통해 획득된 영상(310) 및/또는 상기 제어부(120)를 통해 인식된 차선의 추적 결과(710)를 표시할 수 있다. 상기 출력부(140)는 상기 영상(310)과 상기 인식된 차선의 추적 결과(710)를 동시에 표시하되, 상하 또는 좌우측으로 분할하여 표시하거나, 상기 영상에 상기 인식된 차선에 관한 정보를 오버랩하여 표시할 수 있다.The
또는, 상기 출력부(140)는 차선 인식 결과(예를 들어, 인식된 차선의 종류 등에 대한 알림 등) 및 차선 인식에 관한 기능(예를 들어, 차선 이탈 경고, 자동 차선 유지 알림 등)과 관련된 음향 신호를 출력할 수 있다.Alternatively, the
하기에서는, 상기 차선 인식 과정 중 차선 적합 과정, 특히 곡선 적합 과정에 대하여 보다 상세히 설명한다.
In the following, the lane fitting process, particularly the curve fitting process, in the lane recognition process will be described in more detail.
도 8은 본 명세서에 개시된 실시 예에 따른 곡선 적합 과정을 나타낸 흐름도이다.8 is a flowchart illustrating a curve fitting process according to the embodiment disclosed herein.
도 8을 참조하면, 먼저 상기 차선 인식 장치(100)는 과거 시점에서의 추출된 특징점 정보를 획득한다(s231).Referring to FIG. 8, the
본 명세서에 개시된 실시 예에 따르면, 상기 제어부(120)는 상기 추출된 복수의 특징점(510)이 곡선에 해당하는 경우, 곡선 방정식을 사용하여 차선 적합을 수행할 수 있다. 이때, 곡률이 심한 곡선 도로가 점선으로 이루어져 차량의 전방에서 도로가 끊겼다가 다시 시작되는 등 도로 변화가 심한 경우, 인식된 차선의 오프셋에 대한 정확도가 현저하게 떨어질 수 있다. According to the embodiment of the present invention, when the extracted plurality of feature points 510 correspond to a curve, the
여기서, 오프셋이란 상기 차선 인식 장치(100)에 대하여 차선이 좌측에 위치하는지 또는 우측에 위치하는지를 나타내는 것으로, 차선을 임의의 방정식으로 나타낼 때 상수(1차 항의 계수)에 해당하는 값을 말한다. 즉, 상수가 양의 값을 갖는 경우 차선은 상기 차선 인식 장치(100)의 우측에 위치하는 것이고, 반대로 상수가 음의 값을 갖는 경우 차선은 상기 차선 인식 장치(100)의 좌측에 위치하는 것을 나타낸다.Here, the offset indicates whether the lane is located on the left side or the right side with respect to the
예를 들어, 도 9에 도시된 바와 같이, 상기 차선 인식 장치(100)은 곡률이 심하고 점선으로 이루어진 실제 차선(910)을 주행할 수 있다. 상기 실제 차선(910)은 점선으로 이루어져 있으므로 차선이 끊긴 영역(901)과 차선이 존재하는 영역(902)으로 나뉠 수 있다. 상기 차선 인식 장치(100)는 주행 중에 있으므로, 과거 임의의 시점에서는 t-1에 위치하고, 현재 시점에서는 t에 위치하게 된다.For example, as shown in FIG. 9, the
이러한 실제 차선(910)에 대하여, 도 10에 도시된 바와 같이 현재 시점 t에서 차선 적합을 수행할 때, 차선이 존재하는 영역(902)에서 추출된 복수의 특징점(510)만 존재하기 때문에, 상기 제어부(120)는 이를 기초로 차선 적합을 수행하게 된다. 따라서 곡률이 큰 곡선 도로로부터 추출된 복수의 특징점(510)을 곡선으로 인식한 상기 제어부(120)는 곡선 방정식에 기초하여 차선 적합을 수행하고, 그 결과 차선에 대한 인식 결과는 전체적으로 곡률을 갖는 곡선 적합 결과(920)를 갖게 된다. 이 경우, 차선이 존재하는 영역(902)에 대하여는 차선 인식이 정확할 수 있으나, 곡률이 심한 차선이 끊긴 영역(901)에 대하여는 차선 인식이 부정확해 진다. 또한, 상기 차선 인식 장치(100)(도 10의 원점 부분)의 우측에 존재하는 실제 차선(910)에 대하여 곡선 적합 결과(920) 차선의 오프셋이 상기 차선 인식 장치(100)의 좌측에 존재하게 되므로, 부정확한 오프셋이 발생하여 안전한 주행이 어렵게 된다.10, since there are only a plurality of feature points 510 extracted from the
따라서, 상기 제어부(120)는 정확한 오프셋을 찾기 위해 도 11의 (a)에 도시된 바와 같이, 과거 시점 t-1에서 추출된 특징점(520) 정보를 획득할 수 있다. 상기 특징점(520) 정보는 현재 시점을 t라고 할 때, 과거의 임의의 시점, 즉 t-1에서 추출된 것으로 상기 저장부(130)로부터 획득된 것일 수 있다. 상기 과거의 임의의 시점은 기 정해지거나, 유동적으로 변경될 수 있는 것으로, 상기 차선 인식 장치(100)가 주행하는 도로의 차선을 정확하기 인지하기 위해 지나치게 긴 과거의 시점이지 않도록 할 수 있다. Accordingly, the
상기 제어부(120)가 상기 특징점(520) 정보를 현재 시점 t에서 획득하면, 도 11의 (b)에 도시된 바와 같이 원래 위치 정보를 그대로 갖고 있어 현재 시점의 차선을 적합하는데 이용할 수 없게 된다. 따라서, 상기 제어부(120)는 상기 특징점(520) 정보를 현재 시점 t에 대하여 올바른 값으로 추정하여 보정해야 한다.When the
따라서, 상기 차선 인식 장치(100)는 주행 정보를 기초로 특징점의 변화된 위치를 추정한다(s232). Therefore, the
주행 중인 상기 차선 인식 장치(100)는 도로상에서 주행 중에 있으므로, 상기 특징점(520) 정보를 현재 시점 t에 대하여 올바른 값으로 추정해야 한다.Since the
예를 들어, 상기 차선 인식 장치(100)가 도 9에 도시된 바와 같은 곡선 도로를 주행하는 경우, 상기 차선 인식 장치(100)가 과거 시점 t-1에서 획득한 영상은 상기 차선 인식 장치(100)의 일 측면 및 전방 주행 운동(곡선 운동을 분해한 결과)으로 인해 현재 시점 t에 대하여 반대 측면 및 후방으로 이동되어있는 상태가 된다.For example, when the
따라서 상기 제어부(120)는 상기 특징점(520)의 과거 시점 t-1에서의 위치를 현재 시점 t에 대하여 올바르게 수정하기 위해, 상기 특징점(520)의 변화된 위치를 추정할 수 있다.Accordingly, the
이때, 상기 제어부(120)는 상기 센서부(150)를 통해 수집된 상기 차선 인식 장치(100)의 주행 정보를 기초로 상기 변화된 위치를 추정할 수 있다. 상기 주행 정보는 상기 센서부(150)로부터 수집되는 상기 차선 인식 장치(100)의 속도 정보, 가속도 정보, 또는 스티어링 운동 정보를 포함할 수 있다. At this time, the
상기 제어부(120)는 상기 수집된 주행 정보를 기초로 상기 특징점(520)이 전후방 또는 좌우로 위치가 변화되었는지 판단할 수 있다. 또한, 상기 제어부(120)는 도 12에 도시된 바와 같이 상기 판단 결과를 기초로 상기 특징점(520)을 추정된 위치(520')로 변화시킬 수 있다.The
그 후, 상기 차선 인식 장치(100)는 상기 위치가 추정된 특징점을 기초로 오프셋을 결정한다(s233).Thereafter, the
상기 제어부(120)는 상기 위치가 추정된 특징점(520')을 기초로 곡선 방정식의 계수 중 차선의 오프셋을 나타내는 상수를 결정한다. The
예를 들어, 곡선인 차선에 대하여 2차 방정식, 즉 y=ax2+bx+c를 이용하여 곡선 적합을 수행할 때, 차선의 오프셋을 나타내는 c값을 상기 위치가 추정된 특징점(520')의 위치에 따른 좌표값으로 결정할 수 있다.For example, when curve fitting is performed using a quadratic equation, i.e., y = ax 2 + bx + c, for a curve that is a curve, the c value indicating the offset of the lane is calculated as the feature point 520 ' As shown in FIG.
이로써, 곡률이 심한 실제 차선(910)이 점선으로 이루어져 상기 차선 인식 장치(100)의 전방에서 끊김으로 인해 정확한 오프셋을 추정하기 어려운 경우라도, 상기 제어부(120)는 과거 시점에서의 정보와 상기 차선 인식 장치(100)의 주행 정보를 기초로 차선의 오프셋을 정확하게 결정할 수 있다.Accordingly, even when the
본 명세서에 개시된 일 실시 예에 따르면, 상기 제어부(120)는 상기 위치가 추정된 특징점(520')이 아닌 과거 시점에서의 차선 적합 결과를 기초로 오프셋을 결정할 수 있다. 예를 들어, 상기 제어부(120)는 과거 시점에서 차선 적합 결과로부터 인식된 차선을 나타내는 방정식에서, 차선의 오프셋을 나타내는 c값을 취하여 상기 주행 정보를 기초로 c값의 변화를 추정하고, 변화된 추정 값을 현재 시점에서의 오프셋으로 결정할 수 있다.According to the embodiment disclosed herein, the
마지막으로, 상기 차선 인식 장치(100)는 현재 시점에서의 곡선 적합을 수행한다(s234).Finally, the
상기 제어부(120)는 상기 결정된 오프셋을 기초로 차선의 현재 시점에서의 차선에 대한 곡선 적합을 수행하여 곡선 방정식의 나머지 계수를 구할 수 있다.The
예를 들어, 현재 시점에서의 곡선 도로에 대하여 2차원 방정식, 즉 y=ax2+bx+c을 이용하여 곡선 적합을 수행할 경우, 상기 c값은 곡선 적합과 무관하게 위치가 추정된 특징점(520')을 기초로 기 결정된 오프셋으로 결정하고, 추출된 복수의 특징점(510)을 기초로 곡선 적합을 수행하여 나머지 상수 a와 b의 값을 결정할 수 있다.For example, when curve fitting is performed using a two-dimensional equation, that is, y = ax 2 + bx + c, for a curved road at the current point, the c value is a feature point 520 ', and determines the values of the remaining constants a and b by performing a curve fit based on the extracted plurality of feature points 510. [0050] FIG.
따라서, 도 13에 도시된 바와 같이, 곡선 적합 결과 차선의 일부가 끊기거나 소실되어 실제로 상기 차선 인식 장치(100)의 우측에 위치하는 차선이 좌측에 위치하는 것으로 잘못 인식될 수 있더라도, 상기 제어부(120)는 과거 시점에서 추출된 특징점(520) 정보를 이용하여 실제 차선(910)의 정확한 오프셋을 결정할 수 있다(도 9 참조). 또한, 올바르게 결정된 오프셋을 기초로 곡선 적합하여 현재 시점에서의 차선 적합 결과(930), 정확하게 차선을 인식할 수 있다.
13, even if a portion of the curve fitting result lane is cut off or lost, and the lane located on the right side of the
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100: 차선 인식 장치 110: 카메라 모듈
120: 제어부 130: 저장부
140: 출력부 150: 센서부100: lane recognition device 110: camera module
120: control unit 130:
140: output unit 150: sensor unit
Claims (19)
상기 획득된 영상으로부터 복수의 특징점을 추출하고, 상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하고, 상기 적합 된 차선을 추적하는 제어부; 및
상기 추적된 차선을 표시하는 표시부를 포함하되,
상기 차선 적합은,
임의의 과거 시점에서의 차선 적합 결과의 차선의 횡방향 치우침을 나타내는 오프셋을 획득하고, 상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 오프셋에 대한 현재 시점의 오프셋을 추정하고, 상기 추정된 현재 시점의 오프셋을 기초로 곡선 적합을 수행하는 것을 특징으로 하는 차선 인식 장치.A camera module for acquiring an image;
A controller for extracting a plurality of feature points from the obtained image, performing lane fitting to connect the extracted plurality of feature points with one line, and tracking the adapted lane; And
And a display unit for displaying the tracked lane,
The lane-
Obtaining an offset indicating a lateral deviation of a lane of a lane adaptation result at an arbitrary past time point and estimating an offset of a current time point with respect to an offset based on the traveling information from the arbitrary past time point, And performs curve fitting based on the offset of the current point of time.
임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 것을 특징으로 하는 차선 인식 장치.2. The method of claim 1,
Wherein the coefficients of the curve equation are determined based on a curve equation having an arbitrary dimension.
속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 하는 차선 인식 장치.The information processing apparatus according to claim 1,
Speed information, acceleration information, and steering information.
동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치된 적어도 한 쌍의 카메라 또는 단일 카메라를 포함하여 구성되는 것을 특징으로 하는 차선 인식 장치.The camera module according to claim 1,
And at least one pair of cameras or a single camera provided at equal intervals on the same central axis of the same plane.
상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하고, 상기 관심 영역에 대하여만 추출되는 것을 특징으로 하는 차선 인식 장치.The image processing apparatus according to claim 1,
Wherein only the road portion corresponding to the lower end of the horizon in the obtained image is set as a region of interest and extracted only for the region of interest.
상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 하는 차선 인식 장치.The image processing apparatus according to claim 1,
Wherein the extracted lane recognition information is extracted based on gradient information or color information of the obtained image.
상기 추출된 복수의 특징점을 월드 좌표계로 변환하고, 상기 변환된 복수의 특징점을 기초로 차선을 적합하는 것을 특징으로 하는 차선 인식 장치.The apparatus of claim 1,
Converts the extracted plurality of feature points into a world coordinate system, and fits the lane based on the converted plurality of feature points.
상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 하는 차선 인식 장치.2. The method according to claim 1,
Wherein the lane identification is performed with respect to all of the adapted lanes.
상기 추출된 특징점에 대한 정보를 저장하는 저장부를 더 포함하고,
상기 제어부는,
상기 저장부에 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 하는 차선 인식 장치.The method according to claim 1,
And a storage unit for storing information on the extracted minutiae,
Wherein,
Wherein the lane recognizing unit matches the lane based on the information about the minutiae stored in the storage unit.
상기 획득된 영상으로부터 복수의 특징점을 추출하는 단계;
상기 추출된 복수의 특징점을 하나의 선으로 연결하는 차선 적합을 수행하는 단계;
상기 적합 된 차선을 추적하는 단계; 및
상기 추적된 차선을 표시하는 단계를 포함하되,
상기 차선 적합을 수행하는 단계는,
임의의 과거 시점에서 차선 적합 결과의 차선의 횡방향 치우침을 나타내는 오프셋을 획득하는 단계;
상기 임의의 과거 시점으로부터 현재까지의 주행 정보를 기초로 오프셋에 대한 현재 시점의 오프셋을 추정하는 단계; 및
상기 추정된 현재 시점의 오프셋을 기초로 곡선 적합을 수행하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.Acquiring an image;
Extracting a plurality of feature points from the acquired image;
Performing lane fitting to connect the extracted plurality of feature points by one line;
Tracking the adapted lane; And
And displaying the tracked lane,
Wherein performing the lane fitting comprises:
Obtaining an offset indicative of a lateral deviation of a lane of lane fitting result at any past time point;
Estimating an offset of the current point of time with respect to the offset based on the traveling information from the arbitrary past point of time; And
And performing a curve fitting based on the estimated offset of the current time point.
임의의 차원을 갖는 곡선 방정식을 기초로 상기 곡선 방정식의 계수들을 결정하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.12. The method of claim 11, wherein performing curve fitting comprises:
Determining coefficients of the curvilinear equation based on a curvilinear equation having an arbitrary dimension.
속도 정보, 가속도 정보 및 스티어링 정보 중 하나 이상인 것을 특징으로 하는 차선 인식 방법.12. The method according to claim 11,
Speed information, acceleration information, and steering information.
상기 획득된 영상 내의 지평선을 중심으로 하단에 해당하는 도로 부분만을 관심 영역으로 설정하는 단계; 및
상기 관심 영역에 대하여만 복수의 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.The method of claim 11, wherein the extracting of the plurality of feature points comprises:
Setting only a road portion corresponding to a lower end of the obtained image centered on the horizon as a region of interest; And
And extracting a plurality of minutiae only for the area of interest.
상기 획득된 영상의 그레디언트 정보 또는 색상 정보를 기초로 추출되는 것을 특징으로 하는 차선 인식 방법.12. The image processing apparatus according to claim 11,
Wherein the extracted lane recognition information is extracted based on gradient information or color information of the obtained image.
상기 추출된 복수의 특징점을 월드 좌표계로 변환하는 단계; 및
상기 변환된 복수의 특징점을 기초로 차선을 적합하는 단계를 포함하는 것을 특징으로 하는 차선 인식 방법.12. The method of claim 11, wherein fitting the lane comprises:
Converting the extracted plurality of feature points into a world coordinate system; And
And fitting the lane based on the converted plurality of feature points.
상기 적합 된 차선 전부에 대하여 수행되는 것을 특징으로 하는 차선 인식 방법.12. The method of claim 11, wherein tracking the lane comprises:
Wherein the step of performing the lane recognition is performed for all of the adapted lanes.
상기 추출된 특징점에 대한 정보를 저장하는 단계를 더 포함하고,
상기 차선을 적합하는 단계는,
상기 저장된 특징점에 대한 정보를 기초로 차선을 적합하는 것을 특징으로 하는 차선 인식 방법.12. The method of claim 11, wherein extracting the feature points comprises:
Further comprising storing information on the extracted feature points,
The step of fitting the lane comprises:
And wherein the lane recognition unit fits the lane based on the information about the stored feature points.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110077912A KR101578434B1 (en) | 2011-08-04 | 2011-08-04 | Apparatus for detecting lane and method thereof |
PCT/KR2011/009801 WO2013018961A1 (en) | 2011-08-04 | 2011-12-19 | Apparatus and method for detecting lane |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110077912A KR101578434B1 (en) | 2011-08-04 | 2011-08-04 | Apparatus for detecting lane and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130015738A KR20130015738A (en) | 2013-02-14 |
KR101578434B1 true KR101578434B1 (en) | 2015-12-17 |
Family
ID=47629458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110077912A KR101578434B1 (en) | 2011-08-04 | 2011-08-04 | Apparatus for detecting lane and method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101578434B1 (en) |
WO (1) | WO2013018961A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101565007B1 (en) * | 2014-05-30 | 2015-11-02 | 엘지전자 주식회사 | Driver assistance apparatus and Vehicle including the same |
CN107472134A (en) * | 2016-07-07 | 2017-12-15 | 宝沃汽车(中国)有限公司 | Auxiliary image system, control method and the vehicle of vehicle |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264714A (en) * | 2006-03-27 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane recognition device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3424334B2 (en) * | 1994-06-21 | 2003-07-07 | 日産自動車株式会社 | Roadway detection device |
JP4659631B2 (en) * | 2005-04-26 | 2011-03-30 | 富士重工業株式会社 | Lane recognition device |
KR20110001427A (en) * | 2009-06-30 | 2011-01-06 | 태성전장주식회사 | High speed road lane detection method based on extraction of roi-lb |
-
2011
- 2011-08-04 KR KR1020110077912A patent/KR101578434B1/en active IP Right Grant
- 2011-12-19 WO PCT/KR2011/009801 patent/WO2013018961A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264714A (en) * | 2006-03-27 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane recognition device |
Also Published As
Publication number | Publication date |
---|---|
KR20130015738A (en) | 2013-02-14 |
WO2013018961A1 (en) | 2013-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11967109B2 (en) | Vehicle localization using cameras | |
US20200293058A1 (en) | Data processing method, apparatus and terminal | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
JP6241422B2 (en) | Driving support device, driving support method, and recording medium for storing driving support program | |
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
EP3349143B1 (en) | Nformation processing device, information processing method, and computer-readable medium | |
US20120257056A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
EP3449327A1 (en) | Method and device for capturing image of traffic sign | |
KR20160123668A (en) | Device and method for recognition of obstacles and parking slots for unmanned autonomous parking | |
KR101612822B1 (en) | Apparatus for detecting lane and method thereof | |
US10108866B2 (en) | Method and system for robust curb and bump detection from front or rear monocular cameras | |
KR101748780B1 (en) | Method for detection of the road sign using stereo camera and apparatus thereof | |
US9373175B2 (en) | Apparatus for estimating of vehicle movement using stereo matching | |
KR20130053980A (en) | Obstacle detection method using image data fusion and apparatus | |
JP2005217883A (en) | Method for detecting flat road area and obstacle by using stereo image | |
JP2011103058A (en) | Erroneous recognition prevention device | |
KR101578434B1 (en) | Apparatus for detecting lane and method thereof | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
Hwang et al. | Vision-based vehicle detection and tracking algorithm design | |
WO2014050285A1 (en) | Stereo camera device | |
US20230168688A1 (en) | Sequential mapping and localization (smal) for navigation | |
CN108416305B (en) | Pose estimation method and device for continuous road segmentation object and terminal | |
Horani et al. | A framework for vision-based lane line detection in adverse weather conditions using vehicle-to-infrastructure (V2I) communication | |
JP5024165B2 (en) | Visual object estimation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181114 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191114 Year of fee payment: 5 |