KR20150117555A - Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information - Google Patents
Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information Download PDFInfo
- Publication number
- KR20150117555A KR20150117555A KR1020140043211A KR20140043211A KR20150117555A KR 20150117555 A KR20150117555 A KR 20150117555A KR 1020140043211 A KR1020140043211 A KR 1020140043211A KR 20140043211 A KR20140043211 A KR 20140043211A KR 20150117555 A KR20150117555 A KR 20150117555A
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- information
- vehicle
- detecting
- lane information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000007796 conventional method Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
- B60Y2300/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/18—Propelling the vehicle
- B60Y2300/18008—Propelling the vehicle related to particular drive situations
- B60Y2300/18166—Overtaking, changing lanes
Abstract
Description
본 발명은 차선 감지 방법 및 장치에 관한 것으로서, 특히, 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보를 융합하여 차량 주행 도로의 전후방 차선을 인지할 수 있는 차선 감지 방법 및 장치에 관한 것이다. The present invention relates to a lane detecting method and apparatus, and more particularly, to a lane detecting method and apparatus capable of recognizing front and rear lanes of a vehicle traveling road by fusing vehicle information such as camera image information and vehicle speed / heading information.
기존 차선 인지 방법은 차량 전방 영상만을 이용하여 주행 도로 차선의 직선 성분을 추출하여 차선을 추정해 나가는 방법으로서, 도로 환경의 특성상 급변하는 구간에서 차선 검출 성능이 저하될 수 있다. The conventional lane recognition method is a method of estimating a lane by extracting a straight line component of a lane of a driving lane using only the front image of the vehicle, and the lane detection performance may be degraded in a rapidly varying section due to characteristics of the road environment.
예를 들어, 직선/곡선에서 곡선/직선으로 주행 도로가 변경되는 경우나 분기점, 합류점 등에서는 도로의 곡률이나 기울기가 갑자기 변동될 수 있기 때문에 일부분의 영상을 가지고 차선을 추정하면 나머지 부분에서 왜곡이 발생할 수 있는 문제가 있다. For example, when a road is changed from a straight line / curve to a curve / straight line, curvature or slope of a road may suddenly change at a branch point or a confluence point, so estimating a lane with a partial image may cause distortion There is a problem.
국내등록특허 제10-1339255호 (2013년12월09일 공고)Domestic Registration No. 10-1339255 (issued on December 09, 2013)
따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보를 이용하여 차선 인지 성능을 향상시키고 구간별로 차선을 추정하여 도로 특성을 반영한 정확한 차선 정보를 제공할 수 있는 차선 감지 방법 및 장치를 제공하는 데 있다.SUMMARY OF THE INVENTION It is therefore an object of the present invention to improve lane recognition performance by using vehicle information such as camera image information, The present invention provides a lane detection method and apparatus capable of providing accurate lane information reflecting characteristics of a lane.
먼저, 본 발명의 특징을 요약하면, 상기의 목적을 달성하기 위한 본 발명의일면에 따른 차량 운행 중 주행 도로의 차선을 감지하기 위한 차선 감지 장치는, 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 전방차선 검출부; 자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 이동거리 추정부; 상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 후방 차선 추정부; 및 상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 차선 정보 제공부를 포함한다.According to another aspect of the present invention, there is provided a lane detecting apparatus for detecting a lane on a driving road, the apparatus comprising: A front lane detecting unit detecting the front lane information by relative position and updating the lane information by a predetermined period; A moving distance estimating unit that receives the vehicle speed and heading information and estimates a moving distance of the vehicle in the corresponding path at every predetermined period; A backward lane estimator for estimating the rear lane information for each moving distance of the vehicle using information corresponding to a rear position according to a moving position of the vehicle in the front lane information; And a lane information providing unit for performing forward road modeling using the front lane information and backward road modeling using the rear lane information for the present vehicle position for each moving distance of the vehicle.
상기 후방 차선 추정부는, 상기 전방 차선 정보 중 후방위치에 대응되는 정보를 현재 자차 위치에서의 후방으로의 상대적인 위치별 차선 정보로 보정하여 상기 후방 차선 정보를 추정할 수 있다.The rear lane estimator may estimate the rear lane information by correcting the information corresponding to the backward position in the front lane information to lane information for the relative position to the rear in the current child position.
상기 이동거리 추정부는, 상기 자차 속도 및 헤딩 정보 이외에, 상기 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 상기 이동 거리의 추정 주기를 변동시킬 수도 있다.The moving distance estimating unit may vary the estimation period of the moving distance in accordance with the lane curvature or slope estimated from the camera image information, in addition to the vehicle speed and heading information.
상기 차선 정보 제공부는, 상기 차선 곡률이나 기울기가 동일한 구간별로 상기 모델링을 수행할 수 있다.The lane information providing unit may perform the modeling for each section having the same lane curvature or slope.
그리고 본 발명의 다른 일면에 따른 차량에서 주행 도로의 차선을 감지하기 위한 차선 감지 방법은, 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 단계; 자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 단계; 상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 단계; 및 상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 단계를 포함한다.According to another aspect of the present invention, there is provided a lane detection method for detecting a lane on a driving road in a vehicle, the method comprising: detecting a front lane information by a relative position with respect to a vehicle from camera image information about a front lane of the vehicle; ; Estimating a moving distance of the vehicle on the corresponding path at predetermined intervals by receiving the vehicle speed and the heading information; Estimating the rear lane information for each moving distance of the vehicle using the information corresponding to the rear position according to the moving position of the vehicle in the front lane information; And performing forward road modeling using the front lane information and backward road modeling using the rear lane information for a current child position for each moving distance of the vehicle.
본 발명의 차선 감지 방법 및 장치에 따르면, 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보 융합 방식에 따라 합류점이나 분기점과 같이 도로가 특성이 갑자기 변하는 경우 등에 있어서 종래 보다 차선을 더 정확하게 추정할 수 있다.According to the lane detecting method and apparatus of the present invention, it is possible to estimate the lane more accurately than in the past, for example, when the road suddenly changes in characteristics such as a confluence point or a turning point depending on the vehicle information fusion method such as the camera image information and the vehicle speed / have.
또한, 본 발명의 차선 감지 방법 및 장치에 따르면, 전방/후방 차선을 더 정확하게 인지할 수 있기 때문에 차후 차선 기반 자율 주행 시스템에서 차선 유지 자율주행, 차선 변경 자율 주행 등을 위하여 위험도 판단 등에서 좀 더 정확한 처리가 가능하게 한다.Further, according to the lane detecting method and apparatus of the present invention, it is possible to more precisely recognize the front / rear lane, so that it is more accurate in determining the risk for lane keeping autonomous driving, Thereby enabling processing.
또한, 이외에도 차선 이탈 경고 시스템, 차선 유지 시스템 등 차선 정보가 필요한 다양한 시스템에 활용되어 정확한 차선 정보를 제공할 수 있다. In addition, the lane departure warning system and the lane keeping system can be utilized in various systems requiring lane information to provide accurate lane information.
도 1은 본 발명의 일 실시예에 따른 전후방 차선을 인지하는 차선 감지 장치를 설명하기 위한 도면이다.
도 2는 도 1의 차선 감지 장치의 동작 설명을 위한 흐름도이다.
도 3은 도 2에서 전방 차선 정보 검출을 설명하기 위한 도면이다.
도 4는 도 2에서 후방 차선 정보 검출을 설명하기 위한 도면이다.
도 5는 도 2에서 도로 모델링을 설명하기 위한 도면이다.
도 6은 종래의 기술과 본 발명의 차선 추출의 정확성을 비교하여 설명하기 위한 도면이다.FIG. 1 is a view for explaining a lane detecting apparatus for recognizing front and rear lanes according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the lane detecting apparatus of FIG. 1. FIG.
3 is a diagram for explaining front lane information detection in FIG.
FIG. 4 is a diagram for explaining rear lane information detection in FIG. 2. FIG.
Fig. 5 is a diagram for explaining road modeling in Fig. 2. Fig.
FIG. 6 is a diagram for explaining the accuracy of extraction of the lane of the present invention from the conventional technique.
이하에서는 첨부된 도면들을 참조하여 본 발명에 대해서 자세히 설명한다. 이때, 각각의 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타낸다. 또한, 이미 공지된 기능 및/또는 구성에 대한 상세한 설명은 생략한다. 이하에 개시된 내용은, 다양한 실시 예에 따른 동작을 이해하는데 필요한 부분이 중점적으로 설명하며, 그 설명의 요지를 흐릴 수 있는 요소들에 대한 설명은 생략한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same components are denoted by the same reference symbols as possible. In addition, detailed descriptions of known functions and / or configurations are omitted. The following description will focus on the parts necessary for understanding the operation according to various embodiments, and a description of elements that may obscure the gist of the description will be omitted.
또한 도면의 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다. 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니며, 따라서 각각의 도면에 그려진 구성요소들의 상대적인 크기나 간격에 의해 여기에 기재되는 내용들이 제한되는 것은 아니다.Also, some of the elements of the drawings may be exaggerated, omitted, or schematically illustrated. The size of each component does not entirely reflect the actual size, and therefore the contents described herein are not limited by the relative sizes or spacings of the components drawn in the respective drawings.
도 1은 본 발명의 일 실시예에 따른 전후방 차선을 인지하는 차선 감지 장치(100)를 설명하기 위한 도면이다.FIG. 1 is a view for explaining a
도 1을 참조하면, 본 발명의 일 실시예에 따른 차선 감지 장치(100)는, 차선 기반 자율 주행 시스템, 차선 이탈 경고 시스템, 차선 유지 시스템 등에 적용되어 차량 운행 중 주행 도로의 차선을 감지하기 위하여, 전방차선 검출부(110), 이동거리 추정부(120), 후방 차선 추정부(130), 및 차선정보 제공부(140)를 포함할 수 있다. 이외에도, 전방차선 검출부(110)에 자차 전방에 대한 영상 정보를 제공하기 위한 카메라가 더 포함될 수도 있다. 다만, 자차 전방을 향하도록 차량 지붕 위나 앞면 유리 내외 등 적절한 위치에 설치될 수 있는 카메라는 차선 감지 장치(100)와 별도로 제작되고 설치되어 외부 기기로서 동작하여 차선 감지 장치(100)의 전방차선 검출부(110)에 자차 전방에 대한 영상 정보를 제공할 수도 있다.1, the
위와 같은 본 발명의 일 실시예에 따른 차선 감지 장치(100)의 각부 구성요소들은 하드웨어, 소프트웨어, 또는 이들의 결합으로 이루질 수 있다. 예를 들어, 소프트웨어 형태의 소정의 응용 프로그램이 소정의 메모리에 저장되고 실행되어, 위와 같은 차선 감지 장치(100)의 각부 구성요소들과 연동하여 해당 기능을 수행하거나 보조할 수 있다. The components of the
전방차선 검출부(110)는 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선(예, 자차 주행 차선) 정보를 검출하고(하기의 도 3 설명 참조) 소정의 주기 마다 업데이트하여 상대적인 위치별 전방 차선 정보를 제공할 수 있다.The front
이동거리 추정부(120)는 자차 속도 및 헤딩 정보를 포함하는 차량정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정한다. 운행 중인 자차의 속도에 대한 정보는 차량의 CAN(Controller Area Network) 신호로부터 추출되어 이용될 수 있으며, 경우에 따라서는 CAN 신호 대신에 차량에 장착된 차량 속도 또는 RPM 센서로부터 해당 정보를 직접 수신하는 것도 가능하다. 또한, 자차 헤딩(heading) 정보는 북쪽을 기준으로 하는 시계방향으로의 자차의 주행 방향을 나타내는 각도 등의 정보로서, 자차 운행 중 자이로 센서, 관성센서, 지자기 센서, 또는 GPS(Global Positioning System) 등 측위 시스템을 어느 하나 이상 조합하여 작동시켜 획득될 수 있으며, 또는 이와 같은 센서의 2 이상 조합으로 획득될 수도 있다. 경우에 따라 자차 헤딩(heading) 정보 역시 CAN 신호에 포함되어 이로부터 추출되어 이용될 수도 있다.The travel
후방 차선 추정부(130)는 전방차선 검출부(110)가 검출하는 상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 자차의 이동 거리 마다 추정한다(하기의 도 4 설명 참조).The backward
차선정보 제공부(140)는 자차의 이동 거리 마다 현재 자차 위치에 대하여, 전방차선 검출부(110)가 검출하는 전방 차선 정보를 이용한 전방 도로 모델링과 후방 차선 추정부(130)가 추정하는 후방 차선 정보를 이용하여 소정의 후방 도로 모델링을 수행한다. 차선정보 제공부(140)는 도로 모델링을 통하여 전방 도로와 후방 도로 각각에 대하여 소정의 함수 형태로 차선정보를 제공할 수 있다(하기의 도 5 설명 참조).The lane
이하 이와 같은 본 발명의 일 실시예에 따른 차선 감지 장치(100)의 동작에 대하여 도 2의 흐름도를 참조하여 좀 더 자세히 설명한다. Hereinafter, the operation of the
전방차선 검출부(110)는 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하여 상대적인 위치별 전방 차선 정보(L0,.. LN,.. LN +M)를 검출하여 메모리(도시되지 않음)에 저장하고 제공할 수 있다(S110).Lane ahead
예를 들어, 전방차선 검출부(110)는 카메라 영상 정보의 휘도, 각도 등을 분석하여 차선을 검출할 수 있으며, 자차 전방의 차선에 대하여 소정의 상대적인 거리(예, 도 3에서 각 시간 인덱스의 d0~d1,.. dN~dN +1,.. dN +M~dN +M+1)로 구분된 위치별로 전방 차선 정보를 검출한다. 도 3과 같이, 업데이트하는 주기(예, 수~수십msec) 간격의 각 시간 인덱스(time index)(t=0,1,2,..)에서 상대적인 위치별 전방 차선 정보 Lt ,0(또는 L0),.. Lt ,N(또는 LN),.. Lt ,N+M(또는 LN +M)를 검출하여 제공할 수 있다.For example, the front
이동거리 추정부(120)는 자차 속도 및 헤딩 정보를 포함하는 차량정보를 수신하여 소정의 업데이트 주기(예, 수~수십msec) 마다 해당 경로에서의 자차의 이동 거리 Δdt - 1를 추정하여 메모리(도시되지 않음)에 저장하고 제공할 수 있다(S120). 자차의 이동 거리 Δdt - 1는 자차 속도에 해당 시간 간격을 곱하여 헤딩 정보에 따른 해당 방향 경로 상으로의 거리값으로 산출될 수 있다. 여기서, 자차의 이동 거리 Δdt- 1를 추정하는 주기는 전방차선 검출부(110)가 위치별 전방 차선 정보를 업데이트하는 주기와 같은 것을 예로 들어 설명하지만, 이에 한정되는 것은 아니며 해당 주기가 반드시 동일할 필요는 없고 서로 다르게 설정될 수도 있다. 또한, 이동거리 추정부(120)는 위와 같은 자차 속도 및 헤딩 정보 이외에, 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 이동 거리 Δdt -1의 추정 주기를 변동시킬 수도 있다. 예를 들어, 차선 곡률이나 기울기의 변화가 큰 경우에 좀 더 정확한(또는 세밀한) 추정을 위하여 추정 주기를 작게 할 수 있고, 그렇지 않은 경우에는 추정 주기를 크게 하는 것도 가능하다.
후방 차선 추정부(130)는 이전 위치와 현재 위치를 비교해 전방차선 검출부(110)가 검출하는 전방 차선 정보(L0,.. LN,.. LN +M) 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 자차의 이동 거리 Δdt-1마다 추정한다(S130). The backward
먼저, 각 시간 인덱스(t=0,1,2,..)의 상대 거리들 dt ,i에 대하여 주기적 이동 거리 Δdt - 1를 이용하여 차량의 위치를 구하기 위한 소정의 함수 f(dt ,i, Δdt -1)를 적용하여, 기준 시점에 상대적인 어느 시점에서의 차량의 위치를 산출할 수 있다. 예를 들어, 기준 시점 t=0으로부터 각 시간 인덱스(t=0,1,2,..)에서, 도 5와 같이 자차 속도 및 헤딩 정보 등 차량 정보(Vt)와 차량의 위치 Dt ,0 ~ Dt ,1가 변하는 변한다고 가정한다. 이때, 예를 들어, 차량의 위치 Dt ,0 ~ Dt ,1의 변화를 살펴보면, 각 시간 인덱스(t=0,1,2,..)에서, [수학식1]과 같이, 각각에서 Δdt -1가 누적되어 합산된 값으로 각각의 현재 차량의 위치 Dt ,0 ~ Dt ,1가 추정될 수 있다. First, each time index (t = 0,1,2, ..) the relative distance of the periodic movement with respect to the distance d t, i t Δd of 1 predetermined function for determining the position of the vehicle using the f (d t , i ,? d t -1 ) is applied to calculate the position of the vehicle at a certain point relative to the reference point. For example, in each time index (t = 0, 1, 2, ..) from the reference time t = 0, vehicle information V t such as the vehicle speed and heading information and the vehicle position D t , 0 to D t , 1 is changed. At this time, for example, as for the change of the vehicle position D t , 0 to D t , 1 , in each time index (t = 0, 1, 2, The position D t , 0 to D t , 1 of each current vehicle can be estimated by accumulating Δd t -1 .
[수학식1][Equation 1]
이와 같이 각 시간 인덱스(t=0,1,2,..)에서, 현재 차량의 위치 Dt ,0 ~ Dt ,1가 추정되는 경우, 메모리에 저장된 전방차선 검출부(110)가 검출하는 전방 차선 정보(L0,.. LN,.. LN +M) 중 자차의 이동 위치에 따라 후방위치가 된 해당 소정의 위치들(예, 도 4에서, 시간 인덱스 t=2에서 L0 ,2)에 각각 대응되는 정보(예, L0 ,2..)를 후방 차선 정보로 대체하되, 이는 전방에 대한 정보였으므로 현재 자차 위치에서의 후방으로의 상대적인 위치별 차선 정보로 보정한다. 이와 같은 방식은 이동 거리 Δdt-1마다 전방 차선 정보 Lt ,i가 후방 차선 정보로 대체하여 후방으로의 상대적인 위치별 차선 정보로 보정하기 위한 함수 f(Δdt -1,Lt ,i)를 이용하여 후방위치가 된 해당 소정의 복수의 위치들에 대하여 이루어질 수 있다. When the position D t , 0 to D t , 1 of the current vehicle is estimated at each time index (t = 0, 1, 2, ..), the front
차선정보 제공부(140)는 자차의 이동 거리 Δdt -1 마다 현재 자차 위치에 대하여, 전방차선 검출부(110)가 검출하는 전방 차선 정보를 이용한 전방 도로 모델링과 후방 차선 추정부(130)가 추정하는 후방 차선 정보를 이용하여 소정의 후방 도로 모델링을 수행한다(S140). 도 5와 같이, 차선정보 제공부(140)는 도로 모델링을 통하여 전방 도로와 후방 도로 각각에 대하여 소정의 함수 형태로 차선정보를 제공할 수 있다.Lane
예를 들어, 위에서 기술한 방식에 따라 전방 또는 후방 차선 정보는, [수학식2]와 같이, 상대적 위치별(i) 시간 인덱스(t)에 대한 함수 f(dt ,i, Δdt -1,Lt ,i)에 의해 결정되는 위치 정보가 해당 차선 정보 It ,i가 되며, 이와 같이 산출된 차선 정보 It,i에 대한 소정의 다항식 함수 f(It ,i)를 이용하여 상대적 위치별(i) 시간 인덱스(t)에 대하여 복수의 위치들에 대하여 합산하면 커브 피팅 방식 등으로 일정 거리에 대하여 전방 또는 후방 차선 정보 I를 산출할 수 있다. For example, according to the manner described above, the front or back lane information, Equation (2) and the like, the function f (d t, i, t -1 Δd of the relative position by (i) the time index (t) , to the location information that is determined by the L t, i) using the lane information i t, i is, and, given a polynomial function of the thus calculated lane information i t, i f (i t, i) relatively By summing a plurality of positions with respect to the time index (t) by position (i), the front or rear lane information I can be calculated for a certain distance by a curve fitting method or the like.
[수학식2] &Quot; (2) "
이와 같은 도로 모델링 방식에 따라 차선정보 제공부(140)는 전방에 대한 자차 속도 및 헤딩 정보 등 차량정보(예, V0, V1,.. VN)에 대응되는 전방 차선 정보(예, L0, L1,.. LN)를 이용하여 전방 도로에 대하여 도 5와 같이 자차로부터의 전방으로 상대적 위치(또는 거리)(xF)에 따른 차선 위치값을 나타내는 소정의 다항식 함수 형태로 전방차선정보 yF를 제공할 수 있다. 마찬가지로, 차선정보 제공부(140)는 후방에 대한 자차 속도 및 헤딩 정보 등 차량정보(예, VN, VN +1,.. VN +M)에 대응되는 후방 차선 정보(예, LN, LN +1,.. LN +M)를 이용하여 후방 도로에 대하여 도 5와 같이 자차로부터의 후방으로 상대적 거리나 위치(xR)에 따른 차선 위치값을 나타내는 소정의 다항식 함수 형태로 후방차선정보 yR를 제공할 수 있다. 이때, 차선정보 제공부(140)는 자차 속도 및 헤딩 정보 등 차량정보(V0, V1,..) 이외에, 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 차선 곡률이나 기울기가 동일한 구간별로 도로 모델링을 수행하여 구간별 함수의 커브피팅 방식으로 위와 같은 소정의 다항식 함수 형태의 전방차선정보 yF 와 후방차선정보 yR를 제공할 수 있다. In accordance with the road modeling method as described above, the lane
도 6과 같이, 특히 후방 차선에 대하여 추정된 후방차선 정보의 종래의 기술과 본 발명의 비교 결과에서, 직선형의 도로에 대하여는 어느 정도 유사한 결과가 나올 수도 있지만, 곡률이 있는 도로에 있어서는 본 발명의 결과가 종래 기술에 따른 결과 보다도 더 정확한 결과가 제공될 수 있음을 확인하였다. As shown in FIG. 6, in the conventional technique of the rear lane information estimated for the rear lane and the comparison result of the present invention, there may be some similar results for the straight road, but in the curved road, It was confirmed that the result can provide a more accurate result than the result according to the prior art.
상술한 바와 같이, 본 발명의 차선 감지 장치(100)에서는, 위와 같이 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보 융합 방식에 따라 합류점이나 분기점과 같이 도로가 특성이 갑자기 변하는 경우 등에 있어서 종래 보다 차선을 더 정확하게 추정할 수 있으며, 전방/후방 차선을 더 정확하게 인지할 수 있기 때문에 차후 차선 기반 자율 주행 시스템에서 차선 유지 자율주행, 차선 변경 자율 주행 등을 위하여 위험도 판단 등에서 좀 더 정확한 처리가 가능하게 한다. 이외에도 차선 이탈 경고 시스템, 차선 유지 시스템 등 차선 정보가 필요한 다양한 시스템에 활용되어 정확한 차선 정보를 제공할 수 있다. As described above, in the
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the essential characteristics of the invention. Therefore, the spirit of the present invention should not be construed as being limited to the embodiments described, and all technical ideas which are equivalent to or equivalent to the claims of the present invention are included in the scope of the present invention .
전방차선 검출부(110)
이동거리 추정부(120)
후방 차선 추정부(130)
차선정보 제공부(140)The front
The movement
The backward-
The lane
Claims (5)
자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 전방차선 검출부;
자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 이동거리 추정부;
상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 후방 차선 추정부; 및
상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 차선 정보 제공부
를 포함하는 것을 특징으로 하는 차선 감지 장치.A lane detecting device for detecting a lane on a traveling road during a vehicle operation,
A front lane detecting unit detecting the front lane information by relative position with respect to the vehicle from the camera image information about the front lane of the vehicle and updating the lane lane information at every predetermined period;
A moving distance estimating unit that receives the vehicle speed and heading information and estimates a moving distance of the vehicle in the corresponding path at every predetermined period;
A backward lane estimator for estimating the rear lane information for each moving distance of the vehicle using information corresponding to a rear position according to a moving position of the vehicle in the front lane information; And
A lane information providing unit for performing forward road modeling using the forward lane information and backward road modeling using the rear lane information for a current vehicle position for each moving distance of the vehicle,
Wherein the lane detection device comprises:
상기 후방 차선 추정부는,
상기 전방 차선 정보 중 후방위치에 대응되는 정보를 현재 자차 위치에서의 후방으로의 상대적인 위치별 차선 정보로 보정하여 상기 후방 차선 정보를 추정하는 것을 특징으로 하는 차선 감지 장치.The method according to claim 1,
Wherein the rear lane estimator comprises:
And estimates the rear lane information by correcting the information corresponding to the rear position of the front lane information to the lane information of the rear position relative to the current lane position.
상기 이동거리 추정부는,
상기 자차 속도 및 헤딩 정보 이외에, 상기 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 상기 이동 거리의 추정 주기를 변동시키는 것을 특징으로 하는 차선 감지 장치.The method according to claim 1,
The movement distance estimating unit estimates,
And changes the estimation period of the travel distance according to the lane curvature or slope estimated from the camera image information, in addition to the vehicle speed and heading information.
상기 차선 정보 제공부는,
상기 차선 곡률이나 기울기가 동일한 구간별로 상기 모델링을 수행하는 것을 특징으로 하는 차선 감지 장치.The method of claim 3,
The lane information providing unit,
Wherein the modeling is performed for each section having the same lane curvature or slope.
자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 단계;
자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 단계;
상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 단계; 및
상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 단계
를 포함하는 것을 특징으로 하는 차선 감지 방법.A lane detection method for detecting a lane on a driving road in a vehicle,
Detecting the front lane information by position relative to the vehicle from the camera image information about the front of the vehicle, and updating the detected lane information at every predetermined period;
Estimating a moving distance of the vehicle on the corresponding path at predetermined intervals by receiving the vehicle speed and the heading information;
Estimating the rear lane information for each moving distance of the vehicle using the information corresponding to the rear position according to the moving position of the vehicle in the front lane information; And
Performing forward road modeling using the forward lane information and backward road modeling using the rear lane information for a current child position for each moving distance of the vehicle;
And detecting the lane of the lane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140043211A KR101573610B1 (en) | 2014-04-10 | 2014-04-10 | Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140043211A KR101573610B1 (en) | 2014-04-10 | 2014-04-10 | Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150117555A true KR20150117555A (en) | 2015-10-20 |
KR101573610B1 KR101573610B1 (en) | 2015-12-01 |
Family
ID=54399875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140043211A KR101573610B1 (en) | 2014-04-10 | 2014-04-10 | Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101573610B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112888604A (en) * | 2018-10-03 | 2021-06-01 | 金泰克斯公司 | Backward lane detection coverage |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4733545B2 (en) * | 2006-03-27 | 2011-07-27 | 富士重工業株式会社 | Lane recognition device |
-
2014
- 2014-04-10 KR KR1020140043211A patent/KR101573610B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112888604A (en) * | 2018-10-03 | 2021-06-01 | 金泰克斯公司 | Backward lane detection coverage |
CN112888604B (en) * | 2018-10-03 | 2024-02-02 | 金泰克斯公司 | Backward lane detection coverage |
Also Published As
Publication number | Publication date |
---|---|
KR101573610B1 (en) | 2015-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102483649B1 (en) | Vehicle localization method and vehicle localization apparatus | |
US10204277B2 (en) | Electronic device, traveling lane identifying system, and traveling lane identifying method | |
KR102558055B1 (en) | Suboptimal estimation method | |
US11193782B2 (en) | Vehicle position estimation apparatus | |
JP5747787B2 (en) | Lane recognition device | |
KR102086270B1 (en) | Control method and traveling control device of the traveling control device | |
US10127460B2 (en) | Lane boundary line information acquiring device | |
US10289120B2 (en) | Self-position estimation device and self-position estimation method | |
KR101558756B1 (en) | Lane Detecting Method and Apparatus for Estimating Lane Based on Camera Image and Sensor Information | |
CN106463051B (en) | Traffic signal recognition device and traffic signal recognition method | |
JP6838285B2 (en) | Lane marker recognition device, own vehicle position estimation device | |
US8862326B2 (en) | Vehicle travel assisting device | |
JP2019108116A (en) | Device and method for controlling speed of vehicle in longitudinal direction | |
JP5946420B2 (en) | Navigation device, own vehicle position correction program, and own vehicle position correction method | |
JP2018048949A (en) | Object recognition device | |
JP6941178B2 (en) | Automatic operation control device and method | |
CN107735826B (en) | Signal machine detecting device and semaphore detection method | |
EP3339808B1 (en) | Positioning objects in an augmented reality display | |
KR101573610B1 (en) | Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information | |
JP5490633B2 (en) | Vehicle traveling path estimation device | |
KR101826628B1 (en) | Preceding vehicle recognizing method and apparatus | |
JP5682302B2 (en) | Traveling road estimation device, method and program | |
KR102385907B1 (en) | Method And Apparatus for Autonomous Vehicle Navigation System | |
KR101673716B1 (en) | Apparatus and Method for Recognition of Drive Lane of Vehicle | |
KR101485043B1 (en) | Gps coordinate correcting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181030 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191029 Year of fee payment: 5 |