KR20150117555A - Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information - Google Patents

Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information Download PDF

Info

Publication number
KR20150117555A
KR20150117555A KR1020140043211A KR20140043211A KR20150117555A KR 20150117555 A KR20150117555 A KR 20150117555A KR 1020140043211 A KR1020140043211 A KR 1020140043211A KR 20140043211 A KR20140043211 A KR 20140043211A KR 20150117555 A KR20150117555 A KR 20150117555A
Authority
KR
South Korea
Prior art keywords
lane
information
vehicle
detecting
lane information
Prior art date
Application number
KR1020140043211A
Other languages
Korean (ko)
Other versions
KR101573610B1 (en
Inventor
권수림
오영철
유병용
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140043211A priority Critical patent/KR101573610B1/en
Publication of KR20150117555A publication Critical patent/KR20150117555A/en
Application granted granted Critical
Publication of KR101573610B1 publication Critical patent/KR101573610B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes

Abstract

The present invention relates to a method and an apparatus for detecting a lane, further accurately estimating a lane and recognizing a front/rear lane in comparison with a conventional technique that depends on a method that combines vehicle information such as camera image information, deviation speed/heading information or the like in case of a sudden change of characteristics of a road such as a junction or an interchange, thereby more accurately performing the process of determining the degree of danger to achieve a lane maintaining autonomous drive, a lane changing autonomous drive or the like in a lane-based autonomous drive system. The apparatus for detecting a lane comprises: a front lane detection part; a movement distance estimation part; a rear lane estimation part; and a lane information providing part.

Description

카메라 영상정보와 차량정보를 융합하여 전후방 차선을 인지하는 차선 감지 방법 및 장치{Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a lane detecting method and apparatus for detecting a front lane by combining camera image information and vehicle information,

본 발명은 차선 감지 방법 및 장치에 관한 것으로서, 특히, 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보를 융합하여 차량 주행 도로의 전후방 차선을 인지할 수 있는 차선 감지 방법 및 장치에 관한 것이다. The present invention relates to a lane detecting method and apparatus, and more particularly, to a lane detecting method and apparatus capable of recognizing front and rear lanes of a vehicle traveling road by fusing vehicle information such as camera image information and vehicle speed / heading information.

기존 차선 인지 방법은 차량 전방 영상만을 이용하여 주행 도로 차선의 직선 성분을 추출하여 차선을 추정해 나가는 방법으로서, 도로 환경의 특성상 급변하는 구간에서 차선 검출 성능이 저하될 수 있다. The conventional lane recognition method is a method of estimating a lane by extracting a straight line component of a lane of a driving lane using only the front image of the vehicle, and the lane detection performance may be degraded in a rapidly varying section due to characteristics of the road environment.

예를 들어, 직선/곡선에서 곡선/직선으로 주행 도로가 변경되는 경우나 분기점, 합류점 등에서는 도로의 곡률이나 기울기가 갑자기 변동될 수 있기 때문에 일부분의 영상을 가지고 차선을 추정하면 나머지 부분에서 왜곡이 발생할 수 있는 문제가 있다. For example, when a road is changed from a straight line / curve to a curve / straight line, curvature or slope of a road may suddenly change at a branch point or a confluence point, so estimating a lane with a partial image may cause distortion There is a problem.

국내등록특허 제10-1339255호 (2013년12월09일 공고)Domestic Registration No. 10-1339255 (issued on December 09, 2013)

따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보를 이용하여 차선 인지 성능을 향상시키고 구간별로 차선을 추정하여 도로 특성을 반영한 정확한 차선 정보를 제공할 수 있는 차선 감지 방법 및 장치를 제공하는 데 있다.SUMMARY OF THE INVENTION It is therefore an object of the present invention to improve lane recognition performance by using vehicle information such as camera image information, The present invention provides a lane detection method and apparatus capable of providing accurate lane information reflecting characteristics of a lane.

먼저, 본 발명의 특징을 요약하면, 상기의 목적을 달성하기 위한 본 발명의일면에 따른 차량 운행 중 주행 도로의 차선을 감지하기 위한 차선 감지 장치는, 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 전방차선 검출부; 자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 이동거리 추정부; 상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 후방 차선 추정부; 및 상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 차선 정보 제공부를 포함한다.According to another aspect of the present invention, there is provided a lane detecting apparatus for detecting a lane on a driving road, the apparatus comprising: A front lane detecting unit detecting the front lane information by relative position and updating the lane information by a predetermined period; A moving distance estimating unit that receives the vehicle speed and heading information and estimates a moving distance of the vehicle in the corresponding path at every predetermined period; A backward lane estimator for estimating the rear lane information for each moving distance of the vehicle using information corresponding to a rear position according to a moving position of the vehicle in the front lane information; And a lane information providing unit for performing forward road modeling using the front lane information and backward road modeling using the rear lane information for the present vehicle position for each moving distance of the vehicle.

상기 후방 차선 추정부는, 상기 전방 차선 정보 중 후방위치에 대응되는 정보를 현재 자차 위치에서의 후방으로의 상대적인 위치별 차선 정보로 보정하여 상기 후방 차선 정보를 추정할 수 있다.The rear lane estimator may estimate the rear lane information by correcting the information corresponding to the backward position in the front lane information to lane information for the relative position to the rear in the current child position.

상기 이동거리 추정부는, 상기 자차 속도 및 헤딩 정보 이외에, 상기 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 상기 이동 거리의 추정 주기를 변동시킬 수도 있다.The moving distance estimating unit may vary the estimation period of the moving distance in accordance with the lane curvature or slope estimated from the camera image information, in addition to the vehicle speed and heading information.

상기 차선 정보 제공부는, 상기 차선 곡률이나 기울기가 동일한 구간별로 상기 모델링을 수행할 수 있다.The lane information providing unit may perform the modeling for each section having the same lane curvature or slope.

그리고 본 발명의 다른 일면에 따른 차량에서 주행 도로의 차선을 감지하기 위한 차선 감지 방법은, 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 단계; 자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 단계; 상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 단계; 및 상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 단계를 포함한다.According to another aspect of the present invention, there is provided a lane detection method for detecting a lane on a driving road in a vehicle, the method comprising: detecting a front lane information by a relative position with respect to a vehicle from camera image information about a front lane of the vehicle; ; Estimating a moving distance of the vehicle on the corresponding path at predetermined intervals by receiving the vehicle speed and the heading information; Estimating the rear lane information for each moving distance of the vehicle using the information corresponding to the rear position according to the moving position of the vehicle in the front lane information; And performing forward road modeling using the front lane information and backward road modeling using the rear lane information for a current child position for each moving distance of the vehicle.

본 발명의 차선 감지 방법 및 장치에 따르면, 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보 융합 방식에 따라 합류점이나 분기점과 같이 도로가 특성이 갑자기 변하는 경우 등에 있어서 종래 보다 차선을 더 정확하게 추정할 수 있다.According to the lane detecting method and apparatus of the present invention, it is possible to estimate the lane more accurately than in the past, for example, when the road suddenly changes in characteristics such as a confluence point or a turning point depending on the vehicle information fusion method such as the camera image information and the vehicle speed / have.

또한, 본 발명의 차선 감지 방법 및 장치에 따르면, 전방/후방 차선을 더 정확하게 인지할 수 있기 때문에 차후 차선 기반 자율 주행 시스템에서 차선 유지 자율주행, 차선 변경 자율 주행 등을 위하여 위험도 판단 등에서 좀 더 정확한 처리가 가능하게 한다.Further, according to the lane detecting method and apparatus of the present invention, it is possible to more precisely recognize the front / rear lane, so that it is more accurate in determining the risk for lane keeping autonomous driving, Thereby enabling processing.

또한, 이외에도 차선 이탈 경고 시스템, 차선 유지 시스템 등 차선 정보가 필요한 다양한 시스템에 활용되어 정확한 차선 정보를 제공할 수 있다. In addition, the lane departure warning system and the lane keeping system can be utilized in various systems requiring lane information to provide accurate lane information.

도 1은 본 발명의 일 실시예에 따른 전후방 차선을 인지하는 차선 감지 장치를 설명하기 위한 도면이다.
도 2는 도 1의 차선 감지 장치의 동작 설명을 위한 흐름도이다.
도 3은 도 2에서 전방 차선 정보 검출을 설명하기 위한 도면이다.
도 4는 도 2에서 후방 차선 정보 검출을 설명하기 위한 도면이다.
도 5는 도 2에서 도로 모델링을 설명하기 위한 도면이다.
도 6은 종래의 기술과 본 발명의 차선 추출의 정확성을 비교하여 설명하기 위한 도면이다.
FIG. 1 is a view for explaining a lane detecting apparatus for recognizing front and rear lanes according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the lane detecting apparatus of FIG. 1. FIG.
3 is a diagram for explaining front lane information detection in FIG.
FIG. 4 is a diagram for explaining rear lane information detection in FIG. 2. FIG.
Fig. 5 is a diagram for explaining road modeling in Fig. 2. Fig.
FIG. 6 is a diagram for explaining the accuracy of extraction of the lane of the present invention from the conventional technique.

이하에서는 첨부된 도면들을 참조하여 본 발명에 대해서 자세히 설명한다. 이때, 각각의 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타낸다. 또한, 이미 공지된 기능 및/또는 구성에 대한 상세한 설명은 생략한다. 이하에 개시된 내용은, 다양한 실시 예에 따른 동작을 이해하는데 필요한 부분이 중점적으로 설명하며, 그 설명의 요지를 흐릴 수 있는 요소들에 대한 설명은 생략한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same components are denoted by the same reference symbols as possible. In addition, detailed descriptions of known functions and / or configurations are omitted. The following description will focus on the parts necessary for understanding the operation according to various embodiments, and a description of elements that may obscure the gist of the description will be omitted.

또한 도면의 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다. 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니며, 따라서 각각의 도면에 그려진 구성요소들의 상대적인 크기나 간격에 의해 여기에 기재되는 내용들이 제한되는 것은 아니다.Also, some of the elements of the drawings may be exaggerated, omitted, or schematically illustrated. The size of each component does not entirely reflect the actual size, and therefore the contents described herein are not limited by the relative sizes or spacings of the components drawn in the respective drawings.

도 1은 본 발명의 일 실시예에 따른 전후방 차선을 인지하는 차선 감지 장치(100)를 설명하기 위한 도면이다.FIG. 1 is a view for explaining a lane sensing apparatus 100 recognizing front and rear lanes according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차선 감지 장치(100)는, 차선 기반 자율 주행 시스템, 차선 이탈 경고 시스템, 차선 유지 시스템 등에 적용되어 차량 운행 중 주행 도로의 차선을 감지하기 위하여, 전방차선 검출부(110), 이동거리 추정부(120), 후방 차선 추정부(130), 및 차선정보 제공부(140)를 포함할 수 있다. 이외에도, 전방차선 검출부(110)에 자차 전방에 대한 영상 정보를 제공하기 위한 카메라가 더 포함될 수도 있다. 다만, 자차 전방을 향하도록 차량 지붕 위나 앞면 유리 내외 등 적절한 위치에 설치될 수 있는 카메라는 차선 감지 장치(100)와 별도로 제작되고 설치되어 외부 기기로서 동작하여 차선 감지 장치(100)의 전방차선 검출부(110)에 자차 전방에 대한 영상 정보를 제공할 수도 있다.1, the lane detecting apparatus 100 according to an embodiment of the present invention is applied to a lane-based autonomous driving system, a lane departure warning system, a lane keeping system, and the like, A forward lane detecting unit 110, a moving distance estimating unit 120, a backward lane estimating unit 130, and a lane information providing unit 140. In addition, the front lane detecting unit 110 may further include a camera for providing image information on the front of the vehicle. However, a camera that can be installed at an appropriate position such as on the vehicle roof or on the front glass so as to face the front of the vehicle is manufactured separately from the lane detecting device 100 and operates as an external device to detect the front lane of the lane detecting device 100, And may provide the image information of the vehicle ahead to the vehicle 110.

위와 같은 본 발명의 일 실시예에 따른 차선 감지 장치(100)의 각부 구성요소들은 하드웨어, 소프트웨어, 또는 이들의 결합으로 이루질 수 있다. 예를 들어, 소프트웨어 형태의 소정의 응용 프로그램이 소정의 메모리에 저장되고 실행되어, 위와 같은 차선 감지 장치(100)의 각부 구성요소들과 연동하여 해당 기능을 수행하거나 보조할 수 있다. The components of the lane detecting apparatus 100 according to an embodiment of the present invention may be hardware, software, or a combination thereof. For example, a predetermined application program in the form of software may be stored in a predetermined memory and executed to interoperate with each component of the lane detecting apparatus 100 to perform or assist the corresponding function.

전방차선 검출부(110)는 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선(예, 자차 주행 차선) 정보를 검출하고(하기의 도 3 설명 참조) 소정의 주기 마다 업데이트하여 상대적인 위치별 전방 차선 정보를 제공할 수 있다.The front lane detecting unit 110 detects information of a front lane (e.g., lane driving lane) by position relative to the vehicle from the camera image information about the front lane of the vehicle (see FIG. 3) Can provide star front lane information.

이동거리 추정부(120)는 자차 속도 및 헤딩 정보를 포함하는 차량정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정한다. 운행 중인 자차의 속도에 대한 정보는 차량의 CAN(Controller Area Network) 신호로부터 추출되어 이용될 수 있으며, 경우에 따라서는 CAN 신호 대신에 차량에 장착된 차량 속도 또는 RPM 센서로부터 해당 정보를 직접 수신하는 것도 가능하다. 또한, 자차 헤딩(heading) 정보는 북쪽을 기준으로 하는 시계방향으로의 자차의 주행 방향을 나타내는 각도 등의 정보로서, 자차 운행 중 자이로 센서, 관성센서, 지자기 센서, 또는 GPS(Global Positioning System) 등 측위 시스템을 어느 하나 이상 조합하여 작동시켜 획득될 수 있으며, 또는 이와 같은 센서의 2 이상 조합으로 획득될 수도 있다. 경우에 따라 자차 헤딩(heading) 정보 역시 CAN 신호에 포함되어 이로부터 추출되어 이용될 수도 있다.The travel distance estimating unit 120 receives the vehicle information including the vehicle speed and the heading information, and estimates the travel distance of the vehicle in the corresponding route at predetermined intervals. Information on the speed of the running vehicle can be extracted from the CAN (Controller Area Network) signal of the vehicle, and in some cases, it is possible to directly receive the information from the vehicle speed or RPM sensor mounted on the vehicle instead of the CAN signal It is also possible. The heading information is information such as an angle indicating the traveling direction of the vehicle in the clockwise direction with respect to the north, and may be a gyro sensor, an inertial sensor, a geomagnetic sensor, or a GPS (Global Positioning System) Or may be obtained by operating one or more positioning systems in combination, or may be obtained by combining two or more such sensors. In some cases, heading information may also be included in the CAN signal and extracted from it.

후방 차선 추정부(130)는 전방차선 검출부(110)가 검출하는 상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 자차의 이동 거리 마다 추정한다(하기의 도 4 설명 참조).The backward lane estimating unit 130 estimates the backward lane information for each moving distance of the vehicle using the information corresponding to the rear position according to the moving position of the vehicle among the front lane information detected by the front lane detecting unit 110 4).

차선정보 제공부(140)는 자차의 이동 거리 마다 현재 자차 위치에 대하여, 전방차선 검출부(110)가 검출하는 전방 차선 정보를 이용한 전방 도로 모델링과 후방 차선 추정부(130)가 추정하는 후방 차선 정보를 이용하여 소정의 후방 도로 모델링을 수행한다. 차선정보 제공부(140)는 도로 모델링을 통하여 전방 도로와 후방 도로 각각에 대하여 소정의 함수 형태로 차선정보를 제공할 수 있다(하기의 도 5 설명 참조).The lane information providing unit 140 performs a lane information modeling based on the front lane information detected by the front lane detecting unit 110 and the back lane information estimated by the rear lane estimating unit 130, To perform a predetermined rearward road modeling. The lane information providing unit 140 can provide the lane information in the form of a predetermined function for the front road and the rear road through road modeling (refer to FIG. 5, described below).

이하 이와 같은 본 발명의 일 실시예에 따른 차선 감지 장치(100)의 동작에 대하여 도 2의 흐름도를 참조하여 좀 더 자세히 설명한다. Hereinafter, the operation of the lane detecting apparatus 100 according to an embodiment of the present invention will be described in detail with reference to the flowchart of FIG.

전방차선 검출부(110)는 자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하여 상대적인 위치별 전방 차선 정보(L0,.. LN,.. LN +M)를 검출하여 메모리(도시되지 않음)에 저장하고 제공할 수 있다(S110).Lane ahead detection unit 110 the camera image information detected by the relative position information of the front lane deviation, and L 0, the front-specific relative position and updated every predetermined period lane information (for deviation from the front L N .., .. L N + M ) may be detected and stored in a memory (not shown) and provided (S110).

예를 들어, 전방차선 검출부(110)는 카메라 영상 정보의 휘도, 각도 등을 분석하여 차선을 검출할 수 있으며, 자차 전방의 차선에 대하여 소정의 상대적인 거리(예, 도 3에서 각 시간 인덱스의 d0~d1,.. dN~dN +1,.. dN +M~dN +M+1)로 구분된 위치별로 전방 차선 정보를 검출한다. 도 3과 같이, 업데이트하는 주기(예, 수~수십msec) 간격의 각 시간 인덱스(time index)(t=0,1,2,..)에서 상대적인 위치별 전방 차선 정보 Lt ,0(또는 L0),.. Lt ,N(또는 LN),.. Lt ,N+M(또는 LN +M)를 검출하여 제공할 수 있다.For example, the front lane detecting unit 110 may detect the lane by analyzing the brightness, angle, and the like of the camera image information. The lane detecting unit 110 may detect a lane in front of the lane of the lane ahead of the lane by a predetermined relative distance 0 to d 1 , d N to d N +1 , d N + M to d N + M + 1 . As shown in FIG. 3, the relative lane-by-position lane information L t , 0 (or 0, 1, 2, ...) at each time index L 0 , L t , N (or L N ), L t , N + M (or L N + M )

이동거리 추정부(120)는 자차 속도 및 헤딩 정보를 포함하는 차량정보를 수신하여 소정의 업데이트 주기(예, 수~수십msec) 마다 해당 경로에서의 자차의 이동 거리 Δdt - 1를 추정하여 메모리(도시되지 않음)에 저장하고 제공할 수 있다(S120). 자차의 이동 거리 Δdt - 1는 자차 속도에 해당 시간 간격을 곱하여 헤딩 정보에 따른 해당 방향 경로 상으로의 거리값으로 산출될 수 있다. 여기서, 자차의 이동 거리 Δdt- 1를 추정하는 주기는 전방차선 검출부(110)가 위치별 전방 차선 정보를 업데이트하는 주기와 같은 것을 예로 들어 설명하지만, 이에 한정되는 것은 아니며 해당 주기가 반드시 동일할 필요는 없고 서로 다르게 설정될 수도 있다. 또한, 이동거리 추정부(120)는 위와 같은 자차 속도 및 헤딩 정보 이외에, 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 이동 거리 Δdt -1의 추정 주기를 변동시킬 수도 있다. 예를 들어, 차선 곡률이나 기울기의 변화가 큰 경우에 좀 더 정확한(또는 세밀한) 추정을 위하여 추정 주기를 작게 할 수 있고, 그렇지 않은 경우에는 추정 주기를 크게 하는 것도 가능하다. Distance estimation section 120 receives the vehicle information including a deviation speed and heading information to a predetermined update period (for example, the number to several tens msec) for each deviation movement distance Δd t of in the path to estimate the first memory (Not shown) (S120). The moving distance Δd t - 1 of the vehicle can be calculated as a distance value on the corresponding direction path according to the heading information by multiplying the vehicle speed by the corresponding time interval. Here, the period for estimating the moving distance? D t- 1 of the vehicle is described as an example of the period in which the front lane detecting unit 110 updates the front lane information for each position, but the present invention is not limited thereto, There is no need and can be set differently. Further, in addition to the moving distance estimation unit 120 is the above deviation speed and heading information, in accordance with the lane curvature and the slope estimated from the camera image information, it is also possible to change the moving distance of the estimated period Δd t -1. For example, when the variation of the lane curvature or the slope is large, the estimation period can be reduced for more accurate (or fine) estimation, and if not, the estimation period can be increased.

후방 차선 추정부(130)는 이전 위치와 현재 위치를 비교해 전방차선 검출부(110)가 검출하는 전방 차선 정보(L0,.. LN,.. LN +M) 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 자차의 이동 거리 Δdt-1마다 추정한다(S130). The backward lane estimating unit 130 compares the previous position and the current position and calculates a backward lane based on the moving position of the lane of the front lane information L 0 , .., L N , .., L N + M detected by the front lane detecting unit 110 The rear lane information is estimated for each moving distance DELTA dt -1 of the vehicle using the information corresponding to the rear position (S130).

먼저, 각 시간 인덱스(t=0,1,2,..)의 상대 거리들 dt ,i에 대하여 주기적 이동 거리 Δdt - 1를 이용하여 차량의 위치를 구하기 위한 소정의 함수 f(dt ,i, Δdt -1)를 적용하여, 기준 시점에 상대적인 어느 시점에서의 차량의 위치를 산출할 수 있다. 예를 들어, 기준 시점 t=0으로부터 각 시간 인덱스(t=0,1,2,..)에서, 도 5와 같이 자차 속도 및 헤딩 정보 등 차량 정보(Vt)와 차량의 위치 Dt ,0 ~ Dt ,1가 변하는 변한다고 가정한다. 이때, 예를 들어, 차량의 위치 Dt ,0 ~ Dt ,1의 변화를 살펴보면, 각 시간 인덱스(t=0,1,2,..)에서, [수학식1]과 같이, 각각에서 Δdt -1가 누적되어 합산된 값으로 각각의 현재 차량의 위치 Dt ,0 ~ Dt ,1가 추정될 수 있다. First, each time index (t = 0,1,2, ..) the relative distance of the periodic movement with respect to the distance d t, i t Δd of 1 predetermined function for determining the position of the vehicle using the f (d t , i ,? d t -1 ) is applied to calculate the position of the vehicle at a certain point relative to the reference point. For example, in each time index (t = 0, 1, 2, ..) from the reference time t = 0, vehicle information V t such as the vehicle speed and heading information and the vehicle position D t , 0 to D t , 1 is changed. At this time, for example, as for the change of the vehicle position D t , 0 to D t , 1 , in each time index (t = 0, 1, 2, The position D t , 0 to D t , 1 of each current vehicle can be estimated by accumulating Δd t -1 .

[수학식1][Equation 1]

Figure pat00001
Figure pat00001

이와 같이 각 시간 인덱스(t=0,1,2,..)에서, 현재 차량의 위치 Dt ,0 ~ Dt ,1가 추정되는 경우, 메모리에 저장된 전방차선 검출부(110)가 검출하는 전방 차선 정보(L0,.. LN,.. LN +M) 중 자차의 이동 위치에 따라 후방위치가 된 해당 소정의 위치들(예, 도 4에서, 시간 인덱스 t=2에서 L0 ,2)에 각각 대응되는 정보(예, L0 ,2..)를 후방 차선 정보로 대체하되, 이는 전방에 대한 정보였으므로 현재 자차 위치에서의 후방으로의 상대적인 위치별 차선 정보로 보정한다. 이와 같은 방식은 이동 거리 Δdt-1마다 전방 차선 정보 Lt ,i가 후방 차선 정보로 대체하여 후방으로의 상대적인 위치별 차선 정보로 보정하기 위한 함수 f(Δdt -1,Lt ,i)를 이용하여 후방위치가 된 해당 소정의 복수의 위치들에 대하여 이루어질 수 있다. When the position D t , 0 to D t , 1 of the current vehicle is estimated at each time index (t = 0, 1, 2, ..), the front lane detecting section 110, which is stored in the memory, lane information (L 0, .. L N, L .. N + M) of the deviation in the movement of the position of the corresponding predetermined rear position according to the position (e.g., Fig. 4, at time index t = 2 L 0, 2) but replacing the information (for example, L 0, 2 ..) each corresponding to a rear lane information, which corrects the relative position information of a specific lane rearward of the deviation from the current position because it was about the front. Such a method is the moving distance Δd t-1 each front lane information L t, i, the function f (Δd t -1, L t , i) for correcting the relative position information of a specific lane rearward by replacing the rear lane information For example, to a predetermined plurality of positions that are located in a rearward position.

차선정보 제공부(140)는 자차의 이동 거리 Δdt -1 마다 현재 자차 위치에 대하여, 전방차선 검출부(110)가 검출하는 전방 차선 정보를 이용한 전방 도로 모델링과 후방 차선 추정부(130)가 추정하는 후방 차선 정보를 이용하여 소정의 후방 도로 모델링을 수행한다(S140). 도 5와 같이, 차선정보 제공부(140)는 도로 모델링을 통하여 전방 도로와 후방 도로 각각에 대하여 소정의 함수 형태로 차선정보를 제공할 수 있다.Lane information providing unit 140 is connected to a distance Δd t is detected ahead lane information for the front and rear road modeling lane estimation unit 130 using the front lane detector 110 to the current deviation for each position -1 of the estimated deviation The backward lane information is used to perform a predetermined rear road modeling (S140). As shown in FIG. 5, the lane information providing unit 140 may provide lane information in the form of a predetermined function for the front road and the rear road through road modeling.

예를 들어, 위에서 기술한 방식에 따라 전방 또는 후방 차선 정보는, [수학식2]와 같이, 상대적 위치별(i) 시간 인덱스(t)에 대한 함수 f(dt ,i, Δdt -1,Lt ,i)에 의해 결정되는 위치 정보가 해당 차선 정보 It ,i가 되며, 이와 같이 산출된 차선 정보 It,i에 대한 소정의 다항식 함수 f(It ,i)를 이용하여 상대적 위치별(i) 시간 인덱스(t)에 대하여 복수의 위치들에 대하여 합산하면 커브 피팅 방식 등으로 일정 거리에 대하여 전방 또는 후방 차선 정보 I를 산출할 수 있다. For example, according to the manner described above, the front or back lane information, Equation (2) and the like, the function f (d t, i, t -1 Δd of the relative position by (i) the time index (t) , to the location information that is determined by the L t, i) using the lane information i t, i is, and, given a polynomial function of the thus calculated lane information i t, i f (i t, i) relatively By summing a plurality of positions with respect to the time index (t) by position (i), the front or rear lane information I can be calculated for a certain distance by a curve fitting method or the like.

[수학식2] &Quot; (2) "

Figure pat00002
Figure pat00002

이와 같은 도로 모델링 방식에 따라 차선정보 제공부(140)는 전방에 대한 자차 속도 및 헤딩 정보 등 차량정보(예, V0, V1,.. VN)에 대응되는 전방 차선 정보(예, L0, L1,.. LN)를 이용하여 전방 도로에 대하여 도 5와 같이 자차로부터의 전방으로 상대적 위치(또는 거리)(xF)에 따른 차선 위치값을 나타내는 소정의 다항식 함수 형태로 전방차선정보 yF를 제공할 수 있다. 마찬가지로, 차선정보 제공부(140)는 후방에 대한 자차 속도 및 헤딩 정보 등 차량정보(예, VN, VN +1,.. VN +M)에 대응되는 후방 차선 정보(예, LN, LN +1,.. LN +M)를 이용하여 후방 도로에 대하여 도 5와 같이 자차로부터의 후방으로 상대적 거리나 위치(xR)에 따른 차선 위치값을 나타내는 소정의 다항식 함수 형태로 후방차선정보 yR를 제공할 수 있다. 이때, 차선정보 제공부(140)는 자차 속도 및 헤딩 정보 등 차량정보(V0, V1,..) 이외에, 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 차선 곡률이나 기울기가 동일한 구간별로 도로 모델링을 수행하여 구간별 함수의 커브피팅 방식으로 위와 같은 소정의 다항식 함수 형태의 전방차선정보 yF 와 후방차선정보 yR를 제공할 수 있다. In accordance with the road modeling method as described above, the lane information providing unit 140 generates the lane information corresponding to the vehicle information (e.g., V 0 , V 1 , ... V N ) such as the vehicle speed and heading information about the front 0, L 1, .. front using the L N) in a predetermined polynomial function type that indicates a lane position value corresponding to the relative position in the forward direction (or the distance) (F x) from the deviation, as shown in FIG. 5 with respect to the road ahead Lane information y F can be provided. Similarly, the lane information providing unit 140 the vehicle information such as speed and heading deviation information on the rear (e.g., V N, V N +1, N .. V + M), the rear lane information (for example, L corresponding to N , L N + 1 , L N + M ), a relative distance from the vehicle to the rear as shown in FIG. 5 for the rear road, or a predetermined polynomial function representing the lane position value along the position (x R ) And can provide the rear lane information y R. At this time, the lane information providing unit 140 may set a lane curvature or a slope of the lane according to the lane curvature or slope estimated from the camera image information, in addition to the vehicle information (V 0 , V 1 , ..) It is possible to provide the front lane information y F and the rear lane information y R in the form of a predetermined polynomial function as the curve fitting method of the section function.

도 6과 같이, 특히 후방 차선에 대하여 추정된 후방차선 정보의 종래의 기술과 본 발명의 비교 결과에서, 직선형의 도로에 대하여는 어느 정도 유사한 결과가 나올 수도 있지만, 곡률이 있는 도로에 있어서는 본 발명의 결과가 종래 기술에 따른 결과 보다도 더 정확한 결과가 제공될 수 있음을 확인하였다. As shown in FIG. 6, in the conventional technique of the rear lane information estimated for the rear lane and the comparison result of the present invention, there may be some similar results for the straight road, but in the curved road, It was confirmed that the result can provide a more accurate result than the result according to the prior art.

상술한 바와 같이, 본 발명의 차선 감지 장치(100)에서는, 위와 같이 카메라 영상정보와 자차 속도/헤딩 정보 등 차량정보 융합 방식에 따라 합류점이나 분기점과 같이 도로가 특성이 갑자기 변하는 경우 등에 있어서 종래 보다 차선을 더 정확하게 추정할 수 있으며, 전방/후방 차선을 더 정확하게 인지할 수 있기 때문에 차후 차선 기반 자율 주행 시스템에서 차선 유지 자율주행, 차선 변경 자율 주행 등을 위하여 위험도 판단 등에서 좀 더 정확한 처리가 가능하게 한다. 이외에도 차선 이탈 경고 시스템, 차선 유지 시스템 등 차선 정보가 필요한 다양한 시스템에 활용되어 정확한 차선 정보를 제공할 수 있다. As described above, in the lane detecting apparatus 100 according to the present invention, when the characteristics of the road suddenly change, such as a confluence point or a bifurcation point, according to the vehicle information fusion method such as the camera image information and the vehicle speed / It is possible to estimate the lane more precisely and to recognize the forward / rear lane more accurately. Therefore, it is possible to more precisely handle the lane keeping autonomous driving and the lane changing autonomous driving in the subsequent lane based autonomous driving system do. In addition, it can be applied to various systems requiring lane information such as lane departure warning system, lane keeping system, and accurate lane information can be provided.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the essential characteristics of the invention. Therefore, the spirit of the present invention should not be construed as being limited to the embodiments described, and all technical ideas which are equivalent to or equivalent to the claims of the present invention are included in the scope of the present invention .

전방차선 검출부(110)
이동거리 추정부(120)
후방 차선 추정부(130)
차선정보 제공부(140)
The front lane detecting unit 110 detects the front lane,
The movement distance estimating unit 120
The backward-
The lane information providing unit 140

Claims (5)

차량 운행 중 주행 도로의 차선을 감지하기 위한 차선 감지 장치에 있어서,
자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 전방차선 검출부;
자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 이동거리 추정부;
상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 후방 차선 추정부; 및
상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 차선 정보 제공부
를 포함하는 것을 특징으로 하는 차선 감지 장치.
A lane detecting device for detecting a lane on a traveling road during a vehicle operation,
A front lane detecting unit detecting the front lane information by relative position with respect to the vehicle from the camera image information about the front lane of the vehicle and updating the lane lane information at every predetermined period;
A moving distance estimating unit that receives the vehicle speed and heading information and estimates a moving distance of the vehicle in the corresponding path at every predetermined period;
A backward lane estimator for estimating the rear lane information for each moving distance of the vehicle using information corresponding to a rear position according to a moving position of the vehicle in the front lane information; And
A lane information providing unit for performing forward road modeling using the forward lane information and backward road modeling using the rear lane information for a current vehicle position for each moving distance of the vehicle,
Wherein the lane detection device comprises:
제1항에 있어서,
상기 후방 차선 추정부는,
상기 전방 차선 정보 중 후방위치에 대응되는 정보를 현재 자차 위치에서의 후방으로의 상대적인 위치별 차선 정보로 보정하여 상기 후방 차선 정보를 추정하는 것을 특징으로 하는 차선 감지 장치.
The method according to claim 1,
Wherein the rear lane estimator comprises:
And estimates the rear lane information by correcting the information corresponding to the rear position of the front lane information to the lane information of the rear position relative to the current lane position.
제1항에 있어서,
상기 이동거리 추정부는,
상기 자차 속도 및 헤딩 정보 이외에, 상기 카메라 영상 정보로부터 추정한 차선 곡률이나 기울기에 따라, 상기 이동 거리의 추정 주기를 변동시키는 것을 특징으로 하는 차선 감지 장치.
The method according to claim 1,
The movement distance estimating unit estimates,
And changes the estimation period of the travel distance according to the lane curvature or slope estimated from the camera image information, in addition to the vehicle speed and heading information.
제3항에 있어서,
상기 차선 정보 제공부는,
상기 차선 곡률이나 기울기가 동일한 구간별로 상기 모델링을 수행하는 것을 특징으로 하는 차선 감지 장치.
The method of claim 3,
The lane information providing unit,
Wherein the modeling is performed for each section having the same lane curvature or slope.
차량에서 주행 도로의 차선을 감지하기 위한 차선 감지 방법에 있어서,
자차 전방에 대한 카메라 영상 정보로부터 자차에 대한 상대적인 위치별 전방 차선 정보를 검출하고 소정의 주기 마다 업데이트하는 단계;
자차 속도 및 헤딩 정보를 수신하여 소정의 주기 마다 해당 경로에서의 자차의 이동 거리를 추정하는 단계;
상기 전방 차선 정보 중 자차의 이동 위치에 따라 후방위치에 대응되는 정보를 이용하여 해당 후방 차선 정보를 상기 자차의 이동 거리 마다 추정하는 단계; 및
상기 자차의 이동 거리 마다 현재 자차 위치에 대하여, 상기 전방 차선 정보를 이용한 전방 도로 모델링과 상기 후방 차선 정보를 이용한 후방 도로 모델링을 수행하는 단계
를 포함하는 것을 특징으로 하는 차선 감지 방법.
A lane detection method for detecting a lane on a driving road in a vehicle,
Detecting the front lane information by position relative to the vehicle from the camera image information about the front of the vehicle, and updating the detected lane information at every predetermined period;
Estimating a moving distance of the vehicle on the corresponding path at predetermined intervals by receiving the vehicle speed and the heading information;
Estimating the rear lane information for each moving distance of the vehicle using the information corresponding to the rear position according to the moving position of the vehicle in the front lane information; And
Performing forward road modeling using the forward lane information and backward road modeling using the rear lane information for a current child position for each moving distance of the vehicle;
And detecting the lane of the lane.
KR1020140043211A 2014-04-10 2014-04-10 Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information KR101573610B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140043211A KR101573610B1 (en) 2014-04-10 2014-04-10 Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140043211A KR101573610B1 (en) 2014-04-10 2014-04-10 Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information

Publications (2)

Publication Number Publication Date
KR20150117555A true KR20150117555A (en) 2015-10-20
KR101573610B1 KR101573610B1 (en) 2015-12-01

Family

ID=54399875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140043211A KR101573610B1 (en) 2014-04-10 2014-04-10 Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information

Country Status (1)

Country Link
KR (1) KR101573610B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112888604A (en) * 2018-10-03 2021-06-01 金泰克斯公司 Backward lane detection coverage

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4733545B2 (en) * 2006-03-27 2011-07-27 富士重工業株式会社 Lane recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112888604A (en) * 2018-10-03 2021-06-01 金泰克斯公司 Backward lane detection coverage
CN112888604B (en) * 2018-10-03 2024-02-02 金泰克斯公司 Backward lane detection coverage

Also Published As

Publication number Publication date
KR101573610B1 (en) 2015-12-01

Similar Documents

Publication Publication Date Title
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
US10204277B2 (en) Electronic device, traveling lane identifying system, and traveling lane identifying method
KR102558055B1 (en) Suboptimal estimation method
US11193782B2 (en) Vehicle position estimation apparatus
JP5747787B2 (en) Lane recognition device
KR102086270B1 (en) Control method and traveling control device of the traveling control device
US10127460B2 (en) Lane boundary line information acquiring device
US10289120B2 (en) Self-position estimation device and self-position estimation method
KR101558756B1 (en) Lane Detecting Method and Apparatus for Estimating Lane Based on Camera Image and Sensor Information
CN106463051B (en) Traffic signal recognition device and traffic signal recognition method
JP6838285B2 (en) Lane marker recognition device, own vehicle position estimation device
US8862326B2 (en) Vehicle travel assisting device
JP2019108116A (en) Device and method for controlling speed of vehicle in longitudinal direction
JP5946420B2 (en) Navigation device, own vehicle position correction program, and own vehicle position correction method
JP2018048949A (en) Object recognition device
JP6941178B2 (en) Automatic operation control device and method
CN107735826B (en) Signal machine detecting device and semaphore detection method
EP3339808B1 (en) Positioning objects in an augmented reality display
KR101573610B1 (en) Lane Detecting Method and Apparatus for Estimating Front and Rear Lane Based on Camera Image and Vehicle Information
JP5490633B2 (en) Vehicle traveling path estimation device
KR101826628B1 (en) Preceding vehicle recognizing method and apparatus
JP5682302B2 (en) Traveling road estimation device, method and program
KR102385907B1 (en) Method And Apparatus for Autonomous Vehicle Navigation System
KR101673716B1 (en) Apparatus and Method for Recognition of Drive Lane of Vehicle
KR101485043B1 (en) Gps coordinate correcting method

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191029

Year of fee payment: 5