KR101339255B1 - Lane detecting method for vehicle and system thereof - Google Patents

Lane detecting method for vehicle and system thereof Download PDF

Info

Publication number
KR101339255B1
KR101339255B1 KR1020120130278A KR20120130278A KR101339255B1 KR 101339255 B1 KR101339255 B1 KR 101339255B1 KR 1020120130278 A KR1020120130278 A KR 1020120130278A KR 20120130278 A KR20120130278 A KR 20120130278A KR 101339255 B1 KR101339255 B1 KR 101339255B1
Authority
KR
South Korea
Prior art keywords
lane
information
image
camera
vehicle
Prior art date
Application number
KR1020120130278A
Other languages
Korean (ko)
Inventor
양석열
권수림
최은진
Original Assignee
현대자동차 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차 주식회사 filed Critical 현대자동차 주식회사
Priority to KR1020120130278A priority Critical patent/KR101339255B1/en
Application granted granted Critical
Publication of KR101339255B1 publication Critical patent/KR101339255B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping

Abstract

A lane detection method of the vehicle is disclosed, which is capable of effectively selecting a region of interest for lane detection and providing lane detection using a precision map when lanes are not detected from images collected by a camera. The lane detection method of the present invention comprises the steps of: collecting the location information of a differential global positioning system, collecting image information by a camera and matching the collected information to a precision map including lane information stored in a database to confirm whether the vehicle is located at any lane on the road; converting the lane information of the precision map based on the view criteria of the camera; setting a region of interest for lane detection based on the lane information of the precision map and an average positioning error of the differential global positioning system; and calculating and correcting an error between differential global positioning system-based lane information and image-based lane information and repeatedly setting a region of interest smaller than that first set to detect lanes. [Reference numerals] (102) Camera;(103) Database;(104) Control unit;(AA) Lane detection information

Description

차량의 차선 감지방법 및 장치{LANE DETECTING METHOD FOR VEHICLE AND SYSTEM THEREOF}Lane detection method and apparatus of vehicle {LANE DETECTING METHOD FOR VEHICLE AND SYSTEM THEREOF}

본 발명은 차량의 차선 감지방법에 관한 것으로, 보다 상세하게는 차선감지를 위한 관심영역(Region Of Interest ; ROI)을 효과적으로 선택하고, 카메라로 수집되는 영상에서 차선이 감지되지 않을 때 정밀지도를 이용하여 차선감지가 제공될 수 있도록 하는 차량의 차선 감지방법 및 장치에 관한 것이다.The present invention relates to a lane detection method of a vehicle, and more particularly, to effectively select a region of interest (ROI) for lane detection, and to use a precision map when a lane is not detected from an image collected by a camera. The present invention relates to a lane detection method and apparatus for a vehicle to provide lane detection.

차량의 운행에서 편의성과 안전을 제공하기 위해 운전자의 조작이 없는 상태에서 주행차선유지, 인접차량과의 안전거리 확보, 근접 장애물과의 충돌회피, 교통상황이나 도로환경에 따른 속도제어 등이 제공되는 지능형 차량이 제공되고 있다.In order to provide convenience and safety in the operation of the vehicle, it is possible to maintain driving lanes without driver's operation, to secure a safety distance from adjacent vehicles, to avoid collisions with adjacent obstacles, and to control speed according to traffic conditions or road environments. Intelligent vehicles are being provided.

지능형 차량에 적용되는 시스템 중에서 차선유지 보조시스템(Lane Keeping Assistant System ; LKAS)과 차선이탈 경보시스템(Lane Departure Warning System ; LDWS)은 차량의 전방에 장착된 하나 이상의 카메라에서 수집되는 영상을 이용하여 차선을 감지한다.Among the systems applied to intelligent vehicles, Lane Keeping Assistant System (LKAS) and Lane Departure Warning System (LDWS) are lanes using images collected from one or more cameras mounted in front of the vehicle. Detect.

차선을 감지할 때 카메라에서 수집되는 영상의 모든 영역에서 차선을 찾는 것은 프로세서의 계산처리에 있어 비효율적이기 때문에 수집되는 영상에서 관심영역(ROI)를 설정한 다음 관심영역(ROI)에서만 차선을 찾는 계산을 실행하고 있다.Finding lanes in all areas of the image collected by the camera when detecting lanes is inefficient for the processor's computational process, so it is necessary to set a region of interest (ROI) in the collected image and then find lanes only in the ROI. Is running.

따라서, 차선유지 보조시스템(LKAS) 및 차선이탈 경보시스템(LDWS)은 상기한 바와 같이 관심영역(ROI)을 설정하여 찾은 차선을 바탕으로 차선유지 제어 및 차선 이탈을 경고할 수 있다.Accordingly, the lane keeping assistance system LKAS and the lane departure warning system LDWS may warn the lane keeping control and lane departure based on the lane found by setting the ROI as described above.

이러한 차선감지는 실시간 영상에서 차선을 찾아내야 하기 때문에 하드웨어(H/W)의 경제성 뿐아니라 프로세서의 계산처리 속도가 매우 중요하다고 볼 수 있으며, 계산 효율을 증가시키는 방법의 하나는 최소한의 관심영역(ROI)을 설정하는 기술이다. Since lane detection has to find lanes in real-time images, not only the economics of hardware (H / W) but also the computational processing speed of the processor is very important. ROI) is a technology for setting.

도 5는 종래 차량에 적용된 차선 감지시스템에서 차선감지 영상처리 절차를 도시한 도면이다.5 is a diagram illustrating a lane detection image processing procedure in a lane detection system applied to a conventional vehicle.

차량의 전방에 장착된 적어도 하 나 이상의 카메라로부터 도 5(a)와 같은 영상이 수집된다고 가정할 때 영상처리 프로세서는 도 5(b)에서 알 수 있는 바와 같이 큰 사각형으로 관심영역(A)을 설정한 다음 가까운 차선을 찾아낸다.Assuming that an image as shown in FIG. 5 (a) is collected from at least one or more cameras mounted in front of the vehicle, the image processor processes the region of interest A in a large rectangle as shown in FIG. 5 (b). After setting, find the nearest lane.

그리고, 영상처리 프로세서는 찾아낸 차선의 연장선 방향(↑)으로 이전의 사각형보다 작은 크기의 사각형으로 관심영역(A1)을 설정하여 가까운 차선을 찾아내며, 이러한 방법을 하나씩 순차적으로 실행하여 관심영역을 설정하고, 차선을 찾아내는 직렬적 방법이 사용되고 있다.The image processing processor finds a nearby lane by setting the region of interest A1 to a rectangle smaller in size than the previous square in the extension line direction (↑) of the found lane, and executes these methods one by one to set the region of interest. A serial method of finding lanes is used.

그러나, 통상적으로 차량의 위치를 실질적으로 수집 미터의 오차를 포함하고 있는 GPS(Global Positioning System)에서 제공되는 좌표정보로부터 추출하므로, 현재의 위치에서 차선을 감지할 때 오차가 포함되어 정확성이 떨어지며, 심한 경우 차선을 감지할 수 없는 상황이 발생될 수 있다.However, since the vehicle's position is typically extracted from the coordinate information provided by the GPS (Global Positioning System), which includes the error of the collection meter, the accuracy is reduced because the error is included when detecting the lane at the current position. In extreme cases, a situation may arise in which the lane cannot be detected.

공개특허공보 제10-2012-0057458호(2012.06.05.)Publication No. 10-2012-0057458 (2012.06.05.) 공개특허공보 제10-2011-0001427호(2011.01.06.)Publication No. 10-2011-0001427 (2011.01.06.)

본 발명은 이러한 문제점을 해결하고자 개발된 것으로, 그 목적은 정밀위성 위치확인 시스템(Differential Global Positioning System ; 이하, 'DGPS'라 한다.)에서 제공되는 위치정보와 차선정보가 포함된 정밀지도를 이용하여 차선감지의 관심영역(ROI)을 효과적으로 선택하고, 카메라로 수집되는 영상에서 차선을 감지하지 못하는 경우에는 정밀지도를 이용하여 차선감지를 제공하고자 한다.The present invention was developed to solve such a problem, the purpose of which is to use a precision map including the location information and lane information provided in the differential global positioning system (hereinafter referred to as 'DGPS') Therefore, the ROI of the lane detection is effectively selected, and when the lane is not detected from the image collected by the camera, the lane detection is provided using a precise map.

본 발명의 실시예에 따르는 특징은 정밀위성 위치확인시스템의 위치정보를 수집하고, 카메라에서 영상정보를 수집하여 데이터베이스에 저장된 차선정보가 포함되는 정밀지도와 매칭시켜 차량이 도로의 어느 차선에 위치되어 있는 확인하는 과정; 정밀지도의 차선정보를 카메라의 시각 기준으로 변환하는 과정; 정밀지도의 차선정보와 정밀위성 위치확인시스템의 평균 측위오차를 기준으로 차선감지를 위한 관심영역을 설정하는 과정; 정밀위성 위치확인시스템 기반의 차선정보와 영상기반 차선정보의 오차를 계산하여 보상하고 처음에 설정한 관심영역 보다 작은 관심영역을 반복적으로 설정하여 차선감지를 실행하는 과정을 포함하는 차량의 차선 감지방법이 제공된다.A feature according to an embodiment of the present invention is to collect location information of a precision satellite positioning system, collect image information from a camera and match it with a precision map including lane information stored in a database so that the vehicle is located in any lane of the road. Process of identifying that; Converting lane information of the precision map to a visual reference of a camera; Setting a region of interest for lane detection based on the lane information of the precision map and the average positioning error of the satellite positioning system; The lane detection method of a vehicle including the process of performing lane detection by repeatedly calculating a region of interest smaller than the region of interest initially set by calculating and compensating errors of lane information based on a precision satellite positioning system and image based lane information. This is provided.

상기 영상기반에서 차선을 감지하지 못하는 오동작이 발생되는 경우 영상 차선정보의 오차를 보정하고, 정밀지도 기반의 차선정보를 일시적으로 차선정보로 감지할 수 있다.When a malfunction that does not detect the lane is generated based on the image, the error of the image lane information may be corrected and the precise map based lane information may be temporarily detected as the lane information.

이와 같이 본 발명은 지능형 차량에서 차선유지 보조나 차선이탈 경보 등의 기능을 수행하기 위해 차선감지를 실행할 때 카메라의 수집 영상에서 관심영역을 효과적으로 선택할 수 있어 차선감지를 위한 연산에 효율을 제공할 수 있다.As described above, the present invention can effectively select a region of interest in the collected image of the camera when performing lane detection to perform a lane maintenance assistant or lane departure warning in an intelligent vehicle, thereby providing efficiency in calculation for lane detection. have.

또한, 카메라로 수집되는 영상에서 차선을 감지하지 못하는 경우 차선정보가 포함된 정밀지도를 이용하여 차선감지를 제공할 수 있어 지능형 차량에서 차선유지 보조 기능 및 차선이탈 경보 기능의 제공에 안정성 및 신뢰성을 제공할 수 있다.In addition, when the lanes are not detected in the image collected by the camera, lane detection can be provided using a precise map including lane information, thereby providing stability and reliability in providing lane keeping assistance function and lane departure warning function in an intelligent vehicle. Can provide.

도 1은 본 발명의 실시예에 따른 차선 감지장치를 도시한 구성도이다.
도 2 및 도 3은 본 발명의 실시예에 따른 차량에서 차선 감지 절차를 도시한 흐름도이다.
도 4는 본 발명의 실시예에 따른 차량에서 위치정보와 영상정보를 기반으로 차선인식을 실행하는 개념도이다.
도 5는 종래 차량에 적용된 차선 감지시스템에서 차선 감지 영상처리 절차를 도시한 도면이다.
1 is a block diagram showing a lane detection apparatus according to an embodiment of the present invention.
2 and 3 are flowcharts illustrating a lane detection procedure in a vehicle according to an exemplary embodiment of the present invention.
4 is a conceptual diagram of performing lane recognition based on location information and image information in a vehicle according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a lane detection image processing procedure in a lane detection system applied to a conventional vehicle.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세하게 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.

본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 부여한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are given the same reference numerals throughout the specification.

또한, 도면에서 나타난 각 구성은 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도면에 도시된 바에 한정되지 않는다.In addition, since each configuration shown in the drawings is arbitrarily shown for convenience of description, the present invention is not necessarily limited to those shown in the drawings.

도 1은 본 발명의 실시예에 따른 차선 감지장치를 도시한 구성도이다.1 is a block diagram showing a lane detection apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명은 DGPS(101)와 카메라(102), 데이터베이스(103), 제어부(104)를 포함한다.Referring to FIG. 1, the present invention includes a DGPS 101, a camera 102, a database 103, and a controller 104.

DGPS(101)는 정밀위성 위치확인시스템으로, 적어도 하나 이상의 위성에서 제공되는 측위정보를 기반으로 현재의 위치를 추출하여 그에 대한 정보를 제어부(103)에 제공한다.The DGPS 101 is a precision satellite positioning system that extracts a current position based on positioning information provided from at least one satellite and provides the information to the controller 103.

카메라(102)는 차량의 전방에 적어도 한 개 이상으로 장착되며, 주행 상태에서 전방의 영상을 수집하여 제어부(103)에 제공한다.At least one camera 102 is mounted at the front of the vehicle, and collects the front image in the driving state and provides the collected image to the controller 103.

데이터베이스(103)는 차선정보가 포함되는 정밀지도가 저장된다.The database 103 stores a precise map including lane information.

제어부(104)는 영상처리 프로세서로, 상기 DGPS(101)에서 제공되는 위치 정보와 카메라(102)에서 수집되는 영상을 수신하여 데이터베이스(103)에 저장된 차선정보가 포함된 정밀지도와 매칭시켜 차량의 현재 위치를 확인한다.The controller 104 is an image processing processor that receives the location information provided by the DGPS 101 and the image collected by the camera 102 and matches the precision map including the lane information stored in the database 103. Check your current location.

즉, 차량이 현재 도로상에서 어느 차선에 위치되어 있는지를 확인한다.In other words, it checks in which lane on the current road.

그리고, 상기 제어부(104)는 평면으로 제공되는 정밀지도의 차선정보를 카메라(102)가 보는 시각 기준(정면을 보는 시각)으로 변환하고, 정밀지도의 차선정보와 DGPS(101)의 평균 측위오차를 기준으로 차선감지를 위한 관심영역을 설정한다.In addition, the controller 104 converts lane information of the precision map provided in the plane into a visual reference (a view of the front view) viewed by the camera 102, and calculates the lane information of the precision map and the average positioning error of the DGPS 101. Set the area of interest for lane detection based on.

이후, 상기 제어부(104)는 DGPS(101)에서 제공되는 위치정보와 카메라(102)에서 수집되는 영상기반의 위치정보에 대하여 오차를 계산하여 보상하고 차선감지를 위해 처음에 설정한 관심영역 보다 작은 관심영역을 설정한다.Thereafter, the controller 104 calculates and compensates an error with respect to the position information provided from the DGPS 101 and the image based position information collected by the camera 102, and is smaller than the region of interest initially set for the lane detection. Set the region of interest.

상기 계산된 측정 오차 정보는 업 데이트되어 이후의 오차 보정에 적용될 수 있도록 한다.The calculated measurement error information is updated so that it can be applied to subsequent error correction.

상기 제어부(104)는 카메라(102)에서 수집되는 영상기반에서 차선을 감지하지 못하는 오동작이 발생되는 경우 영상기반 차선정보의 오차를 보정하고, 정밀지도 기반의 차선정보를 일시적으로 차선정보로 감지한다.The controller 104 corrects an error of image-based lane information and detects precise map-based lane information temporarily as lane information when a malfunction that does not detect a lane is generated based on the image collected by the camera 102. .

전술한 바와 같은 기능을 포함하는 본 발명에서 차선감지를 실행하는 동작을 도 2 및 도 3을 참조하여 설명하면 다음과 같다.Referring to FIGS. 2 and 3, an operation of performing lane detection in the present invention including the function described above is as follows.

본 발명이 적용되는 차량이 운행되면 영상처리 프로세서인 제어부(104)는 정밀위성 위치확인시스템인 DGPS(101)에서 제공되는 측위정보로부터 추출된 위치 정보와 카메라(102)로부터 수집되는 전방의 영상을 수신한다(S101)(도 3의 A).When the vehicle to which the present invention is applied operates, the control unit 104, which is an image processing processor, displays the position information extracted from the positioning information provided from the DGPS 101, which is a precision satellite positioning system, and the front image collected from the camera 102. It receives (S101) (A of FIG. 3).

이후, 상기 제어부(104)는 데이터베이스(103)에 저장된 차선정보가 포함된 정밀지도와 매칭시켜 차량이 현재 도로상에서 어느 차선에 위치되어 있는지를 확인한다(S102)(도 3의 B).Thereafter, the controller 104 checks which lane on the current road is matched with a precision map including lane information stored in the database 103 (S102) (B).

그리고, 상기 제어부(104)는 평면으로 제공되는 정밀지도의 차선정보를 카메라(102)가 보는 시각 기준(정면을 보는 시각)으로 변환한다(S103)(도 3의 C).The control unit 104 converts the lane information of the precision map provided in the plane into a visual reference (the time of viewing the front view) viewed by the camera 102 (S103) (C in FIG. 3).

상기 정밀지도의 차선정보를 카메라(102)가 보는 시각 기준으로 변환하는 방법은 하기의 수학식 1과 같이 행렬 H를 구하여 변환할 수 있다.The method of converting lane information of the precision map to a visual reference viewed by the camera 102 may be obtained by converting a matrix H as shown in Equation 1 below.

Figure 112012094513289-pat00001
Figure 112012094513289-pat00001

Figure 112012094513289-pat00002
Figure 112012094513289-pat00002

Figure 112012094513289-pat00003
Figure 112012094513289-pat00003

Figure 112012094513289-pat00004
Figure 112012094513289-pat00004

상기 정밀지도의 정보를 카메라(102)가 보는 시각 기준(정면을 보는 시각)으로 변환한 다음 정밀지도의 차선정보와 DGPS(101)의 평균 측위오차를 기준으로 차선감지를 위한 관심영역을 설정한다(S104).After converting the information of the precision map to the visual reference (viewing the front view) viewed by the camera 102, a region of interest for the lane detection is set based on the lane information of the precise map and the average positioning error of the DGPS 101. (S104).

그리고, 상기 제어부(104)는 DGPS(101)에서 제공되는 측정위치와 카메라(102)에서 수집되는 영상기반 차선정보의 실제위치에 대한 오차를 계산하여 보상한다(S105).The controller 104 compensates by calculating an error between a measurement position provided by the DGPS 101 and an actual position of the image-based lane information collected by the camera 102 (S105).

즉, 도 4에서 알 수 있는 바와 같이 상기 DGPS(101)에서 제공되는 위치정보 기반으로 측정된 위치(B)와 카메라(102)에서 제공되는 영상기반의 차선정보로 추출되는 실제위치(C)에 대한 오차(L)를 보상하여 차선의 중심에서 관심영역(C1)이 설정될 수 있도록 한다.That is, as can be seen in Figure 4 to the location (B) measured based on the location information provided from the DGPS 101 and the actual location (C) extracted from the image-based lane information provided from the camera 102 Compensating for the error (L) for the region of interest (C1) can be set at the center of the lane.

상기와 같이 차량의 측정위치와 실제 위치에 대한 오차가 보정되면 차선감지를 위해 처음에 설정한 관심영역 보다 작은 관심영역을 설정한다(S106)(도 3의 D).As described above, when the error between the measured position and the actual position of the vehicle is corrected, a region of interest smaller than the region of interest initially set for lane detection is set (S106) (FIG. 3D).

상기한 절차를 반복하여 전방의 차선을 감지하여 차선유지 보조 제어 및 차선이탈을 경보하는 상태에서 상기 제어부(104)는 카메라(102)에서 수집되는 영상기반의 차선을 감지하지 못하는 오동작이 발생되는지 판단한다(S107).By repeating the above procedure, the controller 104 determines whether a malfunction that does not detect the image-based lanes collected by the camera 102 occurs in a state of detecting lane maintenance assistance and lane departure by detecting a lane ahead. (S107).

상기 제어부(104)는 상기 S107에서 영상기반의 차선을 감지하지 못하는 오동작이 발생되면 영상기반의 차선정보 오차를 보정하고, 정밀지도 기반의 차선정보를 일시적으로 차선정보로 감지한다(S108).The controller 104 corrects an image-based lane information error when a malfunction that does not detect an image-based lane occurs in S107 and temporarily detects accurate map-based lane information as lane information (S108).

그러나, 상기 제어부(104)는 상기 S107에서 영상기반의 차선을 정상적으로 감지하는 상태이면 병렬적 처리를 통해 관심영역을 설정하는 동작을 반복적으로 실행하여 차선감지를 실행한다(S109).However, if the controller 104 normally detects an image-based lane in step S107, the controller 104 repeatedly performs an operation of setting a region of interest through parallel processing to perform lane detection (S109).

이상에서 설명한 바와 같이 정밀위성 위치확인 시스템인 DGPS에서 제공되는 위치정보와 차선정보가 포함된 정밀지도를 이용하여 차선감지의 관심영역을 효과적으로 선택할 수 있으며, 카메라로 수집되는 영상기반에서 차선을 감지하지 못하는 경우에는 정밀지도를 이용하여 차선감지를 제공함으로써, 차선유지 보조기능과 차선이탈 경보 기능을 실행함에 있어 보다 안전성 및 신뢰성이 제공될 수 있다.As described above, it is possible to effectively select a region of interest for lane detection by using a precision map including location information and lane information provided by DGPS, a precision satellite positioning system, and do not detect lanes based on the image collected by the camera. In case of failure, by providing the lane detection using the precise map, more safety and reliability may be provided in executing the lane keeping assistance function and the lane departure warning function.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It will be understood that various modifications and changes may be made without departing from the scope of the appended claims.

101 : DGPS(Differential Global Positioning System)
102 : 카메라 103 : 데이터베이스
104 : 제어부 105 : 표시부
101: DGPS (Differential Global Positioning System)
102: camera 103: database
104 control unit 105 display unit

Claims (3)

정밀위성 위치확인시스템의 위치정보를 수집하고, 카메라에서 영상정보를 수집하여 데이터베이스에 저장된 차선정보가 포함되는 정밀지도와 매칭시켜 차량이 도로의 어느 차선에 위치되어 있는 확인하는 과정;
정밀지도의 차선정보를 카메라의 시각 기준으로 변환하는 과정;
정밀지도의 차선정보와 정밀위성 위치확인시스템의 평균 측위오차를 기준으로 차선감지를 위한 관심영역을 설정하는 과정;
정밀위성 위치확인시스템 기반의 차선정보와 영상기반 차선정보의 오차를 계산하여 보상하고 처음에 설정한 관심영역 보다 작은 관심영역을 반복적으로 설정하여 차선감지를 실행하는 과정;
을 포함하는 차량의 차선 감지방법.
Collecting position information of the precision satellite positioning system, collecting image information from the camera, and matching the precision map including the lane information stored in the database to identify which vehicle is located in which lane of the road;
Converting lane information of the precision map to a visual reference of a camera;
Setting a region of interest for lane detection based on the lane information of the precision map and the average positioning error of the satellite positioning system;
Calculating and compensating an error between the lane information based on the precision satellite positioning system and the lane information based on the image, and repeatedly performing a lane detection by repeatedly setting a region of interest smaller than the region of interest initially set;
Lane detection method of a vehicle comprising a.
제1항에 있어서,
상기 영상기반에서 차선을 감지하지 못하는 오동작이 발생되는 경우 영상 차선정보의 오차를 보정하고, 정밀지도 기반의 차선정보를 일시적으로 차선정보로 감지하는 차량의 차선 감지방법.
The method of claim 1,
The vehicle lane detection method of correcting the error of the image lane information, and detecting the precise map-based lane information as lane information temporarily when a malfunction that does not detect the lane on the image based.
위성에서 제공되는 측위정보를 기반으로 위치를 추출하는 정밀위성 위치확인시스템;
전방의 영상을 수집하는 카메라;
차선정보가 포함되는 정밀지도가 저장되는 데이터베이스;
카메라에서 수집되는 영상정보에서 관심영역을 설정하여 차선감지를 실행하는 영상처리 프로세서;
를 포함하고,
상기 영상처리 프로세서는 설정된 프로그램에 따라 동작되어 상기 제1항 내지 제2항 중 어느 하나의 방법으로 차선감지를 실행하는 차량의 차선 감지시스템.
Precision satellite positioning system for extracting the location based on the positioning information provided by the satellite;
A camera collecting the front image;
A database storing a precision map including lane information;
An image processing processor configured to perform lane detection by setting a region of interest in image information collected by a camera;
Lt; / RTI >
The image processing processor is a lane detection system of a vehicle which is operated according to a set program to perform lane detection by any one of the method of claim 1.
KR1020120130278A 2012-11-16 2012-11-16 Lane detecting method for vehicle and system thereof KR101339255B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120130278A KR101339255B1 (en) 2012-11-16 2012-11-16 Lane detecting method for vehicle and system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120130278A KR101339255B1 (en) 2012-11-16 2012-11-16 Lane detecting method for vehicle and system thereof

Publications (1)

Publication Number Publication Date
KR101339255B1 true KR101339255B1 (en) 2013-12-09

Family

ID=49987805

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120130278A KR101339255B1 (en) 2012-11-16 2012-11-16 Lane detecting method for vehicle and system thereof

Country Status (1)

Country Link
KR (1) KR101339255B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667484B1 (en) * 2015-04-22 2016-10-18 한양대학교 산학협력단 Method and Device for Estimating position of Vehicle Using Digital Map
KR20160128077A (en) * 2015-04-28 2016-11-07 한국전자통신연구원 Auto calibration apparatus for vihicle sensor and method thereof
US9766344B2 (en) 2015-12-22 2017-09-19 Honda Motor Co., Ltd. Multipath error correction
KR20180066605A (en) * 2016-12-09 2018-06-19 현대자동차주식회사 Apparatus for minimizing an image data of vehicle, system having the same and method for minimizing the image data, and method for recovering the image data
KR20210002390A (en) * 2020-12-14 2021-01-08 현대모비스 주식회사 Apparatus and Method for Estimating Lane

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010019759A (en) 2008-07-11 2010-01-28 Mazda Motor Corp Traveling lane detector for vehicle
KR20110051531A (en) * 2009-11-10 2011-05-18 한국전자통신연구원 Apparatus for keeping a traffic lane for a vehicle and method thereof
KR101240499B1 (en) 2011-10-28 2013-03-11 인하대학교 산학협력단 Device and method for real time lane recogniton and car detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010019759A (en) 2008-07-11 2010-01-28 Mazda Motor Corp Traveling lane detector for vehicle
KR20110051531A (en) * 2009-11-10 2011-05-18 한국전자통신연구원 Apparatus for keeping a traffic lane for a vehicle and method thereof
KR101240499B1 (en) 2011-10-28 2013-03-11 인하대학교 산학협력단 Device and method for real time lane recogniton and car detection

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667484B1 (en) * 2015-04-22 2016-10-18 한양대학교 산학협력단 Method and Device for Estimating position of Vehicle Using Digital Map
KR20160128077A (en) * 2015-04-28 2016-11-07 한국전자통신연구원 Auto calibration apparatus for vihicle sensor and method thereof
KR102325334B1 (en) * 2015-04-28 2021-11-12 한국전자통신연구원 Auto calibration apparatus for vihicle sensor and method thereof
US9766344B2 (en) 2015-12-22 2017-09-19 Honda Motor Co., Ltd. Multipath error correction
US10338230B2 (en) 2015-12-22 2019-07-02 Honda Motor Co., Ltd. Multipath error correction
KR20180066605A (en) * 2016-12-09 2018-06-19 현대자동차주식회사 Apparatus for minimizing an image data of vehicle, system having the same and method for minimizing the image data, and method for recovering the image data
KR102429484B1 (en) * 2016-12-09 2022-08-05 현대자동차주식회사 Apparatus for minimizing an image data of vehicle, system having the same and method for minimizing the image data, and method for recovering the image data
KR20210002390A (en) * 2020-12-14 2021-01-08 현대모비스 주식회사 Apparatus and Method for Estimating Lane
KR102213263B1 (en) 2020-12-14 2021-02-08 현대모비스 주식회사 Apparatus and Method for Estimating Lane

Similar Documents

Publication Publication Date Title
CN106503653B (en) Region labeling method and device and electronic equipment
US10169667B2 (en) External environment recognizing device for vehicle and vehicle behavior control device
CN107567412B (en) Object position measurement using vehicle motion data with automotive camera
EP3644294A1 (en) Vehicle information storage method, vehicle travel control method, and vehicle information storage device
EP2034271B1 (en) Positioning device
JP4392389B2 (en) Vehicle and lane recognition device
KR101339255B1 (en) Lane detecting method for vehicle and system thereof
CN110530372B (en) Positioning method, path determining device, robot and storage medium
US11599121B2 (en) Method for localizing a more highly automated vehicle (HAF), in particular a highly automated vehicle, and a vehicle system
CN106289159B (en) Vehicle distance measurement method and device based on distance measurement compensation
EP3147884B1 (en) Traffic-light recognition device and traffic-light recognition method
EP2323098A1 (en) Vehicle periphery monitoring device
JP2013097714A (en) Lane recognition device
JP2008026282A (en) Positioning device and navigation system
US20190072970A1 (en) Travel assist apparatus
WO2020097512A2 (en) Lane marking localization and fusion
US20170103271A1 (en) Driving assistance system and driving assistance method for vehicle
EP2981073B1 (en) Parking assistance system and parking assistance method
US20220113139A1 (en) Object recognition device, object recognition method and program
WO2019073024A1 (en) Lane sensing method
JP2007085909A (en) Device for detecting position of other vehicle
KR20130089068A (en) Apparatus and method correcting location of car using camera
EP3813020A1 (en) Camera orientation estimation
US11256930B2 (en) Road surface management system and road surface management method thereof
JP4770367B2 (en) Vehicle position detection system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171129

Year of fee payment: 5