KR20200141871A - Apparatus and method for obtaining lane information - Google Patents

Apparatus and method for obtaining lane information Download PDF

Info

Publication number
KR20200141871A
KR20200141871A KR1020190068972A KR20190068972A KR20200141871A KR 20200141871 A KR20200141871 A KR 20200141871A KR 1020190068972 A KR1020190068972 A KR 1020190068972A KR 20190068972 A KR20190068972 A KR 20190068972A KR 20200141871 A KR20200141871 A KR 20200141871A
Authority
KR
South Korea
Prior art keywords
lane
effective
vehicle
information
surrounding image
Prior art date
Application number
KR1020190068972A
Other languages
Korean (ko)
Inventor
이성수
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190068972A priority Critical patent/KR20200141871A/en
Publication of KR20200141871A publication Critical patent/KR20200141871A/en

Links

Images

Classifications

    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

According to one embodiment of the present invention, a method for obtaining lane information includes the steps of: estimating the location of a vehicle based on the surrounding image of the vehicle; matching a lane corresponding to the estimated location of the vehicle in a precision map with the lane in the surrounding image; determining the matched lane as an effective lane using matching information of the lane; fitting the determined effective lane; acquiring polynomial coefficients for the fitted effective lanes as correct answer data of the valid lanes used for learning to generate a lane information acquisition model; and labeling the polynomial coefficient on the fitted effective lane in the surrounding image. According to the present invention, a more accurate lane information can be obtained by excluding a user′s experience or intuition when fitting the lane.

Description

차선 정보 획득 장치 및 방법{APPARATUS AND METHOD FOR OBTAINING LANE INFORMATION} Device and method for obtaining lane information {APPARATUS AND METHOD FOR OBTAINING LANE INFORMATION}

본 발명은 차량이 주행하는 도로 상의 차선에 대한 정보를 획득하는 차선 정보 획득 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for obtaining lane information for obtaining information on a lane on a road on which a vehicle is traveling.

일반적으로 차량은 화석 연료, 전기 등을 동력원으로 하여 도로 또는 선로를 주행하는 운송 장치를 의미한다.In general, a vehicle refers to a transportation device that travels on a road or track using fossil fuel, electricity, or the like as a power source.

차량은 기술의 발달에 따라 운전자에게 다양한 기능을 제공할 수 있도록 발전해왔다. 특히, 차량의 전장화 추세에 따라, 사고 직전 또는 사고 순간에 사고를 방지하기 위해 동작하는 능동형 안전 시스템(ASS: Active Safety System)을 구비하는 차량이 등장하였다.Vehicles have been developed to provide various functions to drivers according to the development of technology. In particular, according to the trend of electrification of vehicles, vehicles having an active safety system (ASS) that operate to prevent accidents just before or at the moment of accidents have appeared.

나아가, 최근에는 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태, 및 주변 환경과 같은 주행 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assist System)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다. Furthermore, in recent years, an advanced driver assistance system (ADAS: Advanced Driver Assist System) that actively provides information on the driving environment such as vehicle status, driver status, and surrounding environment in order to reduce the burden on the driver and improve convenience. Research on this equipped vehicle is actively underway.

첨단 운전자 지원 시스템 중 차선 이탈 경보 시스템(LDWS: Lane Departure Warning System)과 차선 유지 지원 시스템(LKAS: Lane Keeping Assist System)은 차량의 주변 영상을 기초로 차선 정보를 획득하고, 획득된 주행 차선 정보를 이용하여 차량의 주행을 제어할 수 있다. Among the advanced driver assistance systems, the Lane Departure Warning System (LDWS) and the Lane Keeping Assist System (LKAS) acquire lane information based on the surrounding images of the vehicle and collect the acquired driving lane information. Can be used to control the driving of the vehicle.

한국공개특허공보, 제 10-2017-0097435호 (2017.08.28. 공개)Korean Patent Laid-Open Publication No. 10-2017-0097435 (published on August 28, 2017)

본 발명이 해결하고자 하는 과제는, 차량의 주변 영상과 정밀 지도 내 차선의 매칭 결과에 따라 결정되는 유효 차선의 다항함수 피팅 결과를 학습하여 차선 정보 획득 모델을 생성하는 차선 정보 획득 장치 및 방법을 제공하는 것이다. The problem to be solved by the present invention is to provide a lane information acquisition device and method for generating a lane information acquisition model by learning a polynomial function fitting result of an effective lane determined according to a matching result of a lane in a precision map with an image around a vehicle. Is to do.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

본 발명의 일 실시예에 따른 차선 정보 획득 방법은, 차량의 주변 영상을 기초로 상기 차량의 위치를 추정하는 단계; 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하는 단계; 상기 차선의 매칭 정보를 이용하여 상기 매칭된 차선을 유효 차선으로 결정하는 단계; 상기 결정된 유효 차선을 피팅(Fitting)하는 단계; 차선 정보 획득 모델의 생성을 위한 학습에 이용되는 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 단계; 및 상기 주변 영상 내 상기 피팅된 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하는 단계를 포함한다. A method of obtaining lane information according to an embodiment of the present invention includes: estimating a location of the vehicle based on an image around the vehicle; Matching (Matching) a lane corresponding to the position of the estimated vehicle in a precision map with a lane in the surrounding image; Determining the matched lane as an effective lane using matching information of the lane; Fitting the determined effective lane; Acquiring polynomial coefficients for the fitted effective lanes as correct answer data of the valid lanes used for learning to generate a lane information acquisition model; And labeling the polynomial coefficient on the fitted effective lane in the surrounding image.

또한, 상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는, 상기 매칭된 차선 중 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 평균 픽셀 좌표 오차가 제 1 임계값 이하인 후보 차선으로부터 상기 평균 픽셀 좌표 오차가 최소인 상기 유효 차선을 결정할 수 있다.In addition, in the determining of the matched lane as the effective lane, an average pixel coordinate error between a lane corresponding to the estimated vehicle position in the precision map among the matched lanes and a lane in the surrounding image is a first threshold. The effective lane having the minimum average pixel coordinate error may be determined from a candidate lane less than or equal to the value.

또한, 상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는, 상기 평균 픽셀 좌표 오차가 최소인 상기 후보 차선으로부터 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 좌표 오차가 제 2 임계값 이상인 픽셀의 개수가 제 3 임계값 이하인 상기 유효 차선을 결정할 수 있다.In addition, determining the matched lane as the effective lane may include coordinates between a lane corresponding to the estimated vehicle position in the precision map from the candidate lane having the minimum average pixel coordinate error and a lane in the surrounding image The effective lane in which the number of pixels having an error equal to or greater than the second threshold value is equal to or lower than the third threshold value may be determined.

또한, 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는, 상기 피팅된 다항함수에 대한 평균 피팅 오차가 제 4 임계값 이하인 경우, 상기 다항함수 계수를 획득할 수 있다.In addition, obtaining the polynomial coefficient for the fitted effective lane as correct answer data for the effective lane may include obtaining the polynomial coefficient when the average fitting error for the fitted polynomial function is less than or equal to a fourth threshold. can do.

또한, 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는, 상기 평균 피팅 오차가 상기 제 4 임계값 이하인 상기 피팅된 다항함수 중 피팅 오차가 제 5 임계값 이상인 픽셀의 개수가 제 6 임계값 이하인 상기 다항함수의 계수를 획득할 수 있다.In addition, obtaining the polynomial function coefficient for the fitted effective lane as correct answer data of the effective lane may include a fitting error among the fitted polynomial functions having the average fitting error equal to or less than the fourth threshold value. A coefficient of the polynomial function in which the number of pixels above the sixth threshold value is less than or equal to the sixth threshold value may be obtained.

또한, 상기 레이블링된 상기 유효 차선을 학습하여 상기 차선 정보 획득 모델을 생성하는 단계를 더 포함하고, 상기 차선 정보 획득 모델을 생성하는 단계는, 상기 유효 차선이 입력된 상기 차선 정보 획득 모델에 의해 출력된 출력 데이터와 상기 유효 차선에 레이블링된 상기 다항함수 계수 사이의 오차가 작아지도록 상기 유효 차선을 학습할 수 있다.Further, the step of generating the lane information acquisition model by learning the labeled valid lanes, wherein the step of generating the lane information acquisition model, the effective lane is output by the inputted lane information acquisition model The effective lane may be learned so that an error between the obtained output data and the polynomial function coefficient labeled on the effective lane decreases.

또한, 상기 유효 차선에 상기 다항함수 계수를 레이블링하는 단계는, 제 1 시점에 획득된 상기 주변 영상 내 상기 유효 차선을 상기 제 1 시점 이전의 제 2 시점에 획득된 상기 주변 영상 내 상기 유효 차선 및 상기 제 1 시점 이후의 제 3 시점에 획득된 상기 주변 영상 내 상기 유효 차선 중 적어도 하나를 병합하여 상기 다항함수 계수를 레이블링할 수 있다.In addition, the labeling of the polynomial coefficient on the effective lane may include: the effective lane in the surrounding image acquired at a first view point and the effective lane in the surrounding image acquired at a second view point before the first view point. The polynomial coefficient may be labeled by merging at least one of the effective lanes in the surrounding image acquired at a third view after the first view.

또한, 상기 차선 정보 획득 모델을 생성하는 단계는, 상기 레이블링된 상기 유효 차선과 함께 상기 차량의 위치 정보를 학습하여 상기 차선 정보 획득 모델을 생성할 수 있다.In addition, in the generating the lane information acquisition model, the lane information acquisition model may be generated by learning the location information of the vehicle together with the labeled valid lane.

또한, 상기 차량의 위치를 추정하는 단계는, GPS 기반 상기 차량의 초기 위치 정보에 대응되는 상기 정밀 지도의 랜드마크를 상기 차량의 카메라에 의해 촬영된 상기 주변 영상에 매칭하여 상기 카메라의 초기 위치 정보를 획득하는 단계; 상기 카메라의 초기 위치 정보 및 상기 차량의 주행 정보를 기초로 샘플링된 복수의 후보 위치 정보 각각에 대응되는 상기 정밀 지도의 랜드마크와 상기 영상 간 매칭 정보에 기초하여 상기 카메라의 위치를 추정하는 단계; 및 상기 추정된 카메라의 위치를 기초로 상기 차량의 위치를 추정하는 단계를 포함할 수 있다.In addition, the step of estimating the location of the vehicle may include matching the landmark of the precision map corresponding to the initial location information of the vehicle based on GPS with the surrounding image captured by the camera of the vehicle to provide initial location information of the camera. Obtaining a; Estimating the location of the camera based on matching information between the image and the landmark of the precision map corresponding to each of the plurality of candidate location information sampled based on the initial location information of the camera and the driving information of the vehicle; And estimating the location of the vehicle based on the estimated location of the camera.

또한, 주변 영상으로부터 상기 타겟 차선을 추출하는 단계; 및 상기 추출된 타겟 차선을 상기 차선 정보 획득 모델에 입력하여 상기 다항함수 계수를 획득하는 단계를 더 포함할 수 있다.Further, extracting the target lane from the surrounding image; And inputting the extracted target lane into the lane information obtaining model to obtain the polynomial coefficient.

본 발명의 다른 실시예에 따른 차선 정보 획득 방법은, 차량의 타겟 주변 영상으로부터 타겟 차선을 추출하는 단계; 및 상기 추출된 타겟 차선을 차선 정보 획득 모델에 입력하여 상기 타겟 차선의 피팅 결과로서의 다항함수 계수를 획득하는 단계를 포함하고, 상기 차선 정보 획득 모델은, 상기 차량의 주변 영상 내 차선과 정밀 지도 내 상기 차량의 위치에 대응되는 차선 간 매칭 정보에 따라 결정된 유효 차선의 피팅 결과를 학습함으로써 생성된다.According to another embodiment of the present invention, a method for obtaining lane information includes: extracting a target lane from an image around a target of a vehicle; And inputting the extracted target lane into a lane information acquisition model to obtain a polynomial coefficient as a result of fitting the target lane, wherein the lane information acquisition model includes lanes in the surrounding image of the vehicle and in a precision map It is generated by learning a fitting result of an effective lane determined according to matching information between lanes corresponding to the location of the vehicle.

본 발명의 일 실시예에 따른 차선 정보 획득 장치는, 차량의 주변 영상을 기초로 상기 차량의 위치를 추정하고, 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하고, 상기 차선의 매칭 정보를 기초로 결정된 유효 차선을 피팅(Fitting)하여, 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 피팅부; 및 상기 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하고, 상기 레이블링된 상기 유효 차선을 학습하여 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성하는 모델 생성부를 포함한다.The apparatus for obtaining lane information according to an embodiment of the present invention estimates the location of the vehicle based on the surrounding image of the vehicle, and matches a lane corresponding to the estimated location of the vehicle in a precision map with a lane in the surrounding image. A fitting unit configured to obtain a polynomial function coefficient for the fitted effective lane by (Matching) and fitting an effective lane determined based on matching information of the lane; And a model generator for generating a lane information acquisition model for labeling the polynomial coefficient on the effective lane, learning the labeled effective lane, and outputting a polynomial function coefficient for a target lane.

본 발명의 실시예에 의하면, 차선의 피팅 시 사용자의 경험 또는 직관을 배제함으로써 보다 정확한 차선 정보를 획득할 수 있다. 특히, 기계 학습을 통해 차선 정보 획득 모델을 생성하여 이용하므로, 학습 DB가 많아질수록 출력하는 차선 정보의 정확도가 높아질 수 있다. According to an exemplary embodiment of the present invention, more accurate lane information can be obtained by excluding user experience or intuition when fitting a lane. In particular, since the lane information acquisition model is generated and used through machine learning, the accuracy of the output lane information may increase as the number of training DBs increases.

또한, 검출된 주행 차선 정보를 차선 이탈 경보 시스템과 차선 유지 지원 시스템의 입력 값으로서 이용함으로써, 보다 정밀한 차량의 제어가 가능할 수 있다.Further, by using the detected driving lane information as input values of the lane departure warning system and the lane maintenance support system, more precise vehicle control may be possible.

도 1 및 2 는 여러 가지 실시예에 따른 차선 정보 획득 시스템의 제어 블록도이다.
도 3은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 유효 차선에 대한 다항함수의 계수 획득 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 정밀 지도로부터 추출되는 차선의 범위와 주변 영상으로부터 추출되는 차선의 범위를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 주변 영상으로부터 추출된 차선을 예시하는 도면이다.
도 6는 도 5의 주변 영상에 정밀 지도로부터 추출된 차선을 매칭하는 경우를 예시하는 도면이다.
도 7은 도 6의 매칭에 따른 매칭 오차를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 차량으로부터의 거리를 기준으로 피팅 범위를 결정하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 차선 정보 획득 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명하기 위한 도면이다.
1 and 2 are control block diagrams of a system for obtaining lane information according to various embodiments.
3 is a flowchart of a method of obtaining a coefficient of a polynomial function for an effective lane among a method of obtaining lane information according to an embodiment of the present invention.
4 is a diagram illustrating a range of a lane extracted from a precision map and a range of a lane extracted from a surrounding image according to an embodiment of the present invention.
5 is a diagram illustrating lanes extracted from surrounding images according to an embodiment of the present invention.
6 is a diagram illustrating a case of matching lanes extracted from a precision map with the surrounding image of FIG. 5.
7 is a diagram for describing a matching error according to the matching of FIG. 6.
8 is a diagram illustrating a method of determining a fitting range based on a distance from a vehicle according to an exemplary embodiment of the present invention.
9 is a diagram illustrating a method of generating a lane information acquisition model among a method of obtaining lane information according to an embodiment of the present invention.
10 is a diagram illustrating a method of obtaining a coefficient of a polynomial function for a target lane among a method of obtaining lane information according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

도 1 및 2 는 여러 가지 실시예에 따른 차선 정보 획득 시스템의 제어 블록도이다. 1 and 2 are control block diagrams of a system for obtaining lane information according to various embodiments.

도 1을 참조하면, 일 실시예에 따른 차선 정보 획득 시스템(1)은 차량(V) 및 차선 정보 획득 장치(100)로 구성될 수 있다.Referring to FIG. 1, a system 1 for obtaining lane information according to an embodiment may include a vehicle V and a device 100 for obtaining lane information.

차량(V)은 도로나 선로를 따라 주행하면서 인간, 물건 또는 동물 등을 하나의 위치에서 다른 위치로 이동시킬 수 있는 운송 수단을 의미할 수 있다. 일 실시예에 따른 차량(V)은 삼륜 또는 사륜 자동차, 모터사이클 등의 이륜 자동차, 건설 기계, 원동기장치자전거, 자전거 및 선로를 주행하는 열차 등을 포함할 수 있다.The vehicle V may refer to a transportation means capable of moving humans, objects, animals, etc. from one location to another while driving along a road or track. The vehicle V according to an exemplary embodiment may include a three-wheeled or four-wheeled vehicle, a two-wheeled vehicle such as a motorcycle, a construction machine, a prime mover bicycle, a bicycle, and a train running on a track.

도 1의 차량(V)은 GPS 모듈을 구비하여, 적어도 하나의 GPS(Global Position System) 위성으로부터 항법 데이터(Navigation Data)를 포함하는 위성 신호를 수신할 수 있다. 차량(V)은 위성 신호에 기초하여 GPS 기반 차량(V)의 현재 위치 및 차량(V)의 진행 방향 등을 획득할 수 있다. 이 때, GPS 모듈은 복수의 GPS 위성 각각으로부터 복수의 위성 신호를 수신할 수 있다.The vehicle V of FIG. 1 includes a GPS module and may receive a satellite signal including navigation data from at least one Global Position System (GPS) satellite. The vehicle V may acquire a current location of the GPS-based vehicle V and a traveling direction of the vehicle V based on a satellite signal. In this case, the GPS module may receive a plurality of satellite signals from each of the plurality of GPS satellites.

또한, 도 1의 차량(V)은 일반 지도 및/또는 정밀 지도를 미리 저장할 수 있다. 여기서, 일반 지도는 링크와 노드로 표현되는 도로 정보를 포함하는 지도를 의미할 수 있다. 또한, 정밀 지도는 일반 지도보다 더 많은 정보를 포함하는 지도로서, 안전하고 정밀한 차량(V)제어를 위해 높은 정확도를 가지며, 도로의 평면 위치뿐만 아니라 고도, 경사, 곡률 등에 대한 정보를 포함하는 지도를 의미할 수 있다. 또한, 정밀 지도는 차선, 표지판, 신호등, 가드레일과 같은 도로 시설물에 대한 정보를 더 포함하는 지도를 의미할 수 있다. In addition, the vehicle V of FIG. 1 may store a general map and/or a precision map in advance. Here, the general map may refer to a map including road information represented by links and nodes. In addition, a precision map is a map that includes more information than a general map, and has high accuracy for safe and precise vehicle (V) control, and a map that includes information on altitude, slope, curvature, etc. Can mean Also, the precision map may mean a map further including information on road facilities such as lanes, signs, traffic lights, and guard rails.

아울러, 도 1의 차량(V)은 첨단 운전자 보조 시스템(ADAS: Advanced Driver Assistance System)이 탑재될 수 있다. 여기서, 첨단 운전자 보조 시스템이란 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위해 차량(V) 상태, 운전자 상태, 주변 환경 정보와 같은 주행 환경 정보를 제공하거나 능동적으로 차량(V)을 제어하는 시스템을 의미할 수 있다.In addition, the vehicle V of FIG. 1 may be equipped with an Advanced Driver Assistance System (ADAS). Here, the advanced driver assistance system is a system that provides driving environment information such as vehicle (V) status, driver status, and surrounding environment information or actively controls the vehicle (V) in order to reduce the burden on the driver and improve convenience. Can mean

예를 들어, 차량(V)은 차선 이탈 경보 시스템(LDWS: Lane Departure Warning System) 및 차선 유지 지원 시스템(LKAS: Lane Keeping Assist System) 중 적어도 하나가 탑재될 수 있다. 다만, 차량(V)에 탑재되는 첨단 운전자 보조 시스템이 상술한 예에 한정되지는 않는다.For example, the vehicle V may be equipped with at least one of a Lane Departure Warning System (LDWS) and a Lane Keeping Assist System (LKAS). However, the advanced driver assistance system mounted on the vehicle V is not limited to the above-described example.

차량(V)에 탑재된 첨단 운전자 보조 시스템은 차량(V)의 주행 환경을 감지하기 위한 감지 수단을 포함할 수 있다. 일 실시예에 따른 감지 수단은 차량(V) 주변으로 펄스를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 펄스를 수신하여 주행 환경을 감지하는 레이더(Radar), 차량(V) 주변으로 레이저를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 레이저를 수신하는 라이다(LiDAR), 및/또는 차량(V) 주변으로 초음파를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 초음파를 수신하는 초음파 센서 등을 포함할 수 있다. The advanced driver assistance system mounted on the vehicle V may include a sensing means for detecting a driving environment of the vehicle V. The sensing means according to an embodiment is a radar that detects a driving environment by irradiating a pulse around the vehicle V and receiving an echo pulse reflected from an object located in a corresponding direction, and a laser around the vehicle V. And/or a LiDAR that receives a laser reflected from an object located in a corresponding direction, and/or an ultrasonic wave is irradiated around the vehicle (V), and an echo ultrasound reflected from an object located in the corresponding direction is received. It may include an ultrasonic sensor and the like.

또한, 첨단 운전자 보조 시스템은 감지 수단으로서 카메라를 포함할 수 있다. 카메라는 차량(V)의 전방, 측방, 및/또는 후방을 향하도록 마련되어, 해당 방향으로의 주변 영상을 촬영할 수 있다. 촬영된 주변 영상은 영상처리 과정을 통해 차량(V) 주변의 물체뿐만 아니라 차선이나 표지판 등의 정보를 획득하는 기초가 될 수 있다. In addition, advanced driver assistance systems may include cameras as sensing means. The camera is provided to face the front, side, and/or rear of the vehicle V, and the surrounding images in the corresponding direction may be photographed. The captured surrounding image may be a basis for acquiring information such as lanes or signs as well as objects around the vehicle V through an image processing process.

한편, 상술한 차선 이탈 경보 시스템 및/또는 차선 유지 지원 시스템은 차량 주변의 차선 정보를 기초로 차량(V)의 주행을 제어할 수 있다. 이 때, 차량(V)의 주행 제어에 이용되는 차선 정보는 차량(V)에 탑재된 카메라에 의해 촬영되는 차량(V)의 주변 영상으로부터 획득될 수 있다.Meanwhile, the lane departure warning system and/or the lane maintenance support system described above may control the driving of the vehicle V based on lane information around the vehicle. In this case, lane information used for driving control of the vehicle V may be obtained from an image around the vehicle V photographed by a camera mounted on the vehicle V.

이와 같은 방법 중 하나로 전방 영상으로부터 딥러닝과 같은 기계학습을 통해 차선을 검출하고, 차량 주변 영역을 평지로 가정한 후, 차량 좌표계로 차선 좌표를 변환하고, 피팅된 차선에 대한 다항함수 계수를 계산하는 방법이 있다. 이 때, 다항함수 계수의 정확도를 높이기 위해 복수 개의 연속 영상에서 검출된 차선 결과를 병합할 수 있다. As one of these methods, the lane is detected from the front image through machine learning such as deep learning, the area around the vehicle is assumed to be flat, and then the lane coordinates are converted to the vehicle coordinate system, and the polynomial coefficient for the fitted lane is calculated. There is a way to do it. In this case, in order to increase the accuracy of the coefficients of the polynomial function, the lane results detected from the plurality of consecutive images may be merged.

그러나, 지면 상태에 따라 차체가 떨리면서 카메라 자세각이 실시간으로 변하게 되어, 각각의 연속 영상에 대하여 온라인 카메라 캘리브레이션과 같은 복잡한 과정을 수행해야 하는 번거로움이 있다.However, as the vehicle body trembles according to the ground condition, the camera's attitude angle changes in real time, and it is cumbersome to perform a complicated process such as online camera calibration for each continuous image.

또한, 주변 영상 학습을 통한 차선 검출 모델의 생성을 위해 학습 데이터에 레이블링(Labeling)되는 정답 데이터를 생성할 필요가 있는데, 이러한 정답 데이터는 사람이 주변 영상을 직접 육안으로 확인하여 차선 영역을 마킹할 수 있다. 이 경우, 획득되는 차선 정보의 정확도 및 신뢰도가 낮아질 수 있다. In addition, in order to generate a lane detection model through learning surrounding images, it is necessary to generate correct answer data that is labeled on the training data. This data is used by a person to directly check the surrounding images with the naked eye to mark the lane area. I can. In this case, the accuracy and reliability of the acquired lane information may be lowered.

이를 해결하기 위해, 본 발명의 일 실시예에 따른 차선 정보 획득 시스템(1)은 차량(V)의 주변 영상과 정밀 지도 내 차선의 매칭(Matching) 결과에 따라 결정되는 유효 차선의 다항함수 피팅(Fitting) 결과를 학습하여 차선 정보 획득 모델을 생성할 수 있다.To solve this, the lane information acquisition system 1 according to an embodiment of the present invention is a polynomial function fitting of an effective lane determined according to a result of matching the surrounding image of the vehicle V and the lane in the precision map ( Fitting) results can be learned to generate a lane information acquisition model.

구체적으로, 차선 정보 획득 장치(100)는 차량(V)으로부터 수신한 정보를 이용하여 차선 정보를 획득할 수 있다. 여기서, 차선 정보는 주변 영상 내의 차선을 다항함수로 피팅한 결과를 의미하며, 피팅된 다항함수의 계수를 포함할 수 있다. Specifically, the apparatus 100 for obtaining lane information may acquire lane information using information received from the vehicle V. Here, the lane information means a result of fitting a lane in the surrounding image with a polynomial function, and may include coefficients of the fitted polynomial function.

차선 정보 획득을 위해, 차선 정보 획득 장치(100)는 공지된 여러 가지 통신 방법으로 차량(V)과 통신함으로써 정보를 교환할 수 있다. 일 실시예에 따른 차량(V)의 추정 위치 획득 장치(100)는 CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC 등의 공지된 통신 방법을 채택하여 기지국을 거쳐 차량(V)과 통신할 수 있다. 이와는 달리, 다른 실시예에 따른 차량(V)의 추정 위치 획득 장치(100)는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication)와 같은 통신 방법을 채택하여 소정 거리 이내에서 차량(V)과 통신할 수도 있다. 다만, 차선 정보 획득 장치(100)가 차량(V)과 통신하는 방법은 상술한 실시예에 한정되지 않는다.In order to acquire lane information, the lane information acquisition device 100 may exchange information by communicating with the vehicle V through various known communication methods. The apparatus 100 for obtaining the estimated position of the vehicle V according to an embodiment adopts a known communication method such as CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC, etc. ) And communicate. In contrast, the device 100 for obtaining the estimated location of the vehicle V according to another embodiment includes a wireless LAN, Wi-Fi, Bluetooth, Zigbee, and WFD (Wi-Fi). Direct), UWB (Ultra wideband), infrared communication (IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC (Near Field Communication) communication method to communicate with the vehicle (V) within a certain distance. May be. However, the method for the lane information acquisition device 100 to communicate with the vehicle V is not limited to the above-described embodiment.

차선 정보 획득 장치(100)는 차량(V)의 주변 영상 내 차선과 정밀 지도 내 차선을 매칭하고, 매칭 결과에 따라 결정되는 유효 차선을 다항함수 피팅한 후, 피팅된 다항함수 계수를 학습하여 차선 정보 획득 모델을 생성할 수 있다. 또한, 차선 정보 획득 장치(100)는 생성된 차선 정보 획득 모델에 주변 영상으로부터 추출된 타겟 차선을 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다.The lane information acquisition device 100 matches the lane in the surrounding image of the vehicle V and the lane in the precision map, fits the effective lane determined according to the matching result with a polynomial function, and then learns the fitted polynomial function coefficient to learn the lane. You can create an information acquisition model. In addition, the lane information obtaining apparatus 100 may obtain a polynomial function coefficient for the target lane by inputting a target lane extracted from a surrounding image into the generated lane information obtaining model.

이를 위해, 차선 정보 획득 장치(100)는 학습부(110) 및 추론부(120)를 포함할 수 있다. To this end, the lane information acquisition device 100 may include a learning unit 110 and an inference unit 120.

학습부(110)는 차량(V)의 주변 영상과 정밀 지도 내 차선의 매칭 결과에 따라 결정되는 유효 차선의 다항함수 피팅 결과를 학습하여 차선 정보 획득 모델을 생성할 수 있다. 도 1을 참조하면, 학습부(110)는 피팅부(111)와 모델 생성부(112)를 포함할 수 있다.The learning unit 110 may generate a lane information acquisition model by learning a polynomial function fitting result of an effective lane determined according to a matching result of a lane around the vehicle V and a lane in the precision map. Referring to FIG. 1, the learning unit 110 may include a fitting unit 111 and a model generation unit 112.

피팅부(111)는 차량(V)의 주변 영상과 정밀 지도 내 차선의 매칭 결과에 따라 결정되는 유효 차선의 다항함수 피팅 결과로부터 다항함수 계수를 획득할 수 있다. 구체적으로, 피팅부(111)는 차량(V)의 주변 영상을 기초로 차량(V)의 위치를 추정하고, 정밀 지도 내 추정된 차량(V)의 위치에 대응되는 차선을 주변 영상 내 차선에 매칭하고, 차선의 매칭 정보를 기초로 결정된 유효 차선을 피팅하여, 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득할 수 있다.The fitting unit 111 may obtain a polynomial function coefficient from a polynomial function fitting result of an effective lane determined according to a result of matching the surrounding image of the vehicle V and the lane in the precision map. Specifically, the fitting unit 111 estimates the location of the vehicle V based on the surrounding image of the vehicle V, and assigns a lane corresponding to the estimated location of the vehicle V in the precision map to the lane within the surrounding image. By matching and fitting an effective lane determined based on matching information of the lane, a polynomial function coefficient for the fitted effective lane may be obtained.

모델 생성부(112)는 피팅 결과를 학습하여 차선 정보 획득 모델을 생성할 수 있다. 유효 차선에 다항함수 계수를 레이블링하고, 레이블링된 유효 차선을 학습하여 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수 있다.The model generator 112 may generate a lane information acquisition model by learning a fitting result. A lane information acquisition model may be generated that labels a polynomial function coefficient on an effective lane and learns the labeled effective lane to output a polynomial function coefficient for a target lane.

추론부(120)는 생성된 차선 정보 획득 모델에 주변 영상으로부터 추출된 타겟 차선을 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다. 도 1을 참조하면, 추론부(120)는 차선 추출부(121)와 계수 획득부(122)를 포함할 수 있다.The inference unit 120 may obtain a polynomial function coefficient for the target lane by inputting the target lane extracted from the surrounding image into the generated lane information acquisition model. Referring to FIG. 1, the inference unit 120 may include a lane extraction unit 121 and a coefficient acquisition unit 122.

차선 추출부(121)는 외부로부터 입력된 주변 영상으로부터 타겟 차선을 추출할 수 있다. 또한, 계수 획득부(122)는 추출된 타겟 차선을 차선 정보 획득 모델에 입력하여 다항함수 계수를 획득할 수 있다.The lane extraction unit 121 may extract a target lane from a surrounding image input from the outside. In addition, the coefficient obtaining unit 122 may obtain a polynomial coefficient by inputting the extracted target lane into the lane information obtaining model.

상술한 실시예에 따른 차선 정보 획득 장치(100)의 각 구성은 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있고, 예를 들어 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphic Processing Unit, GPU) 등으로 구현될 수 있다. 이와는 달리, 차선 정보 획득 장치(100)를 구성하는 복수의 구성이 하나의 SOC(System On Chip)으로 구현되는 것도 가능할 수 있다.Each configuration of the lane information acquisition device 100 according to the above-described embodiment may be implemented as a computing device including a microprocessor, for example, a central processing unit (CPU), a graphic processing device (Graphic Processing Unit, GPU) can be implemented. Alternatively, a plurality of components constituting the lane information obtaining apparatus 100 may be implemented as one SOC (System On Chip).

한편, 도 1에서는 차선 정보 획득 장치(100)가 차량(V)과 별개로 마련되어 차선 정보 획득 시스템(1)을 구성하는 경우에 대하여 예시하고 있으나, 이와는 달리 차선 정보 획득 장치(100)가 차량(V) 내부에 마련되는 것도 가능할 수 있다.Meanwhile, in FIG. 1, a case in which the lane information acquisition device 100 is provided separately from the vehicle V to configure the lane information acquisition system 1 is illustrated, but unlike this, the lane information acquisition device 100 is a vehicle ( V) It may also be possible to be provided inside.

도 2를 참조하면, 다른 실시예에 따른 차선 정보 획득 시스템(1)은 차선 정보 획득 장치(100)를 포함하는 차량(V)으로 구성될 수 있다. 다만, 차선 정보 획득 장치(100)가 마련되는 방식을 제외하고는, 도 2의 차선 정보 획득 시스템(1)과 도 2의 차량(V)의 차선 정보 획득 시스템(1)의 동작 방식을 동일하다.Referring to FIG. 2, a system 1 for obtaining lane information according to another embodiment may be configured with a vehicle V including a device 100 for obtaining lane information. However, the operation method of the lane information acquisition system 1 of FIG. 2 and the lane information acquisition system 1 of the vehicle V of FIG. 2 is the same except for the method in which the lane information acquisition device 100 is provided. .

이하에서는 도 3 내지 10을 참조하여, 상술한 차선 정보 획득 장치(100)에 의해 수행되는 본 발명의 일 실시예에 따른 차선 정보 획득 방법을 설명한다. 먼저, 도 3 내지 8을 통해 상술한 피팅부(111)에 의해 수행되는 유효 차선에 대한 다항함수의 계수 획득 방법을 설명하고, 도 9를 통해 상술한 학습부(110)에 의해 수행되는 차선 정보 획득 모델을 생성하는 방법을 설명한 후, 도 10을 통해 상술한 추론부(120)에 의해 수행되는 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명한다.Hereinafter, a method for obtaining lane information according to an embodiment of the present invention performed by the above-described lane information obtaining apparatus 100 will be described with reference to FIGS. 3 to 10. First, a method of obtaining coefficients of a polynomial function for an effective lane performed by the fitting unit 111 described above through FIGS. 3 to 8 will be described, and lane information performed by the learning unit 110 described above through FIG. 9 After a method of generating an acquisition model is described, a method of acquiring coefficients of a polynomial function for a target lane performed by the inference unit 120 described above with reference to FIG. 10 will be described.

도 3은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 유효 차선에 대한 다항함수의 계수 획득 방법의 흐름도이고, 도 4는 본 발명의 일 실시예에 따른 정밀 지도로부터 추출되는 차선의 범위와 주변 영상으로부터 추출되는 차선의 범위를 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 주변 영상으로부터 추출된 차선을 예시하는 도면이고, 도 6는 도 5의 주변 영상에 정밀 지도로부터 추출된 차선을 매칭하는 경우를 예시하는 도면이고, 도 7은 도 6의 매칭에 따른 매칭 오차를 설명하기 위한 도면이며, 도 8은 본 발명의 일 실시예에 따른 차량으로부터의 거리를 기준으로 피팅 범위를 결정하는 방법을 설명하기 위한 도면이다.3 is a flowchart of a method of obtaining a coefficient of a polynomial function for an effective lane among a method of obtaining lane information according to an embodiment of the present invention, and FIG. 4 is a flowchart illustrating a range of lanes extracted from a precision map according to an embodiment of the present invention. A diagram for explaining a range of lanes extracted from a surrounding image, FIG. 5 is a diagram illustrating a lane extracted from a surrounding image according to an embodiment of the present invention, and FIG. 6 is a detailed map of the surrounding image of FIG. A diagram illustrating a case of matching the extracted lanes, FIG. 7 is a diagram for explaining a matching error according to the matching of FIG. 6, and FIG. 8 is a fitting based on a distance from a vehicle according to an embodiment of the present invention. It is a diagram for explaining a method of determining a range.

상술한 바와 같이, 일 실시예에 따른 차선 정보 획득 장치(100)의 피팅부(111)는 차선 정보 획득 모델을 생성하기 위해, 유효 차선의 피팅에 따른 다항함수 계수를 획득할 수 있다.As described above, in order to generate a lane information acquisition model, the fitting unit 111 of the lane information acquisition apparatus 100 according to an exemplary embodiment may acquire a polynomial function coefficient according to the fitting of an effective lane.

이를 위해, 피팅부(111)는 위성 신호 및 주변 영상을 기초로 차량(V)의 위치를 추정할 수 있다(S100). 차량(V)의 위치를 추정하기 위한 실시예로서, 피팅부(111)는 우선 GPS 기반 차량(V)의 초기 위치 정보에 대응되는 정밀 지도의 랜드마크를 차량(V)의 카메라에 의해 촬영된 상기 주변 영상에 매칭하여 카메라의 초기 위치 정보를 획득할 수 있다. To this end, the fitting unit 111 may estimate the position of the vehicle V based on the satellite signal and the surrounding image (S100). As an embodiment for estimating the location of the vehicle V, the fitting unit 111 first captures a landmark of a precision map corresponding to the initial location information of the GPS-based vehicle V by the camera of the vehicle V. Initial position information of the camera may be obtained by matching the surrounding image.

카메라의 초기 위치 정보를 획득하기 위해, 피팅부(111)는 차량(V)으로부터 수신된 GPS 기반 차량(V)의 초기 위치를 이용하여 차량(V)의 초기 자세각을 획득할 수 있다. 그 다음, 피팅부(111)는 정밀 지도에서 GPS 기반 차량(V)의 초기 위치 정보를 기초로 제 1 관심 영역을 결정할 수 있다. 제 1 관심 영역이 결정되면, 피팅부(111)는 제 1 관심 영역 내에 존재하는 차선에 대한 제 1 랜드마크를 카메라에 의해 촬영된 영상에 매칭하여 카메라의 초기 자세각에 대한 회전 행렬 R을 획득할 수 있다. 또한, 피팅부(111)는 정밀 지도에서 GPS 기반 차량(V)의 초기 위치 정보를 기초로 제 2 관심 영역을 결정하고, 제 2 관심 영역 내에 존재하는 차선 이외의 제 2 랜드마크를 카메라의 초기 자세각을 기준으로 영상에 매칭하여 카메라의 초기 위치에 대한 이동 행렬 T를 획득할 수 있다.In order to obtain the initial position information of the camera, the fitting unit 111 may acquire the initial attitude angle of the vehicle V by using the initial position of the GPS-based vehicle V received from the vehicle V. Then, the fitting unit 111 may determine the first ROI based on initial location information of the GPS-based vehicle V on the precision map. When the first region of interest is determined, the fitting unit 111 obtains a rotation matrix R for the initial posture angle of the camera by matching the first landmark of the lane existing in the first region of interest with the image captured by the camera. can do. In addition, the fitting unit 111 determines a second region of interest based on the initial location information of the GPS-based vehicle V on the precision map, and selects a second landmark other than the lane existing in the second region of interest. The movement matrix T for the initial position of the camera may be obtained by matching the image based on the attitude angle.

카메라의 초기 위치 정보를 획득한 후, 피팅부(111)는 카메라의 초기 위치를 입력값으로하여 카메라의 추정 위치 정보를 획득할 수 있다. 이를 위해, 피팅부(111)는 카메라의 초기 위치 정보 주변에 복수의 후보 위치 정보를 샘플링 하고, Particle Filter를 이용하여 카메라의 추정 위치 정보를 획득할 수 있다. 그 다음, 피팅부(111)는 복수의 후보 위치 정보 각각에 대응되는 정밀 지도의 랜드마크와 영상 간 매칭 오차에 기초하여 복수의 후보 위치 정보 각각에 가중치를 부여할 수 있다. 가중치 부여 후, 피팅부(111)는 가중치가 부여된 복수의 후보 위치 정보를 이용하여 복수의 후보 위치 정보를 새롭게 샘플링 하고, 새롭게 샘플링된 복수의 후보 위치 정보의 표준편차가 기준 표준편차 이하이면, 새롭게 샘플링된 복수의 후보 위치 정보의 평균값을 카메라의 추정 위치 정보로서 획득할 수 있다.After obtaining the initial position information of the camera, the fitting unit 111 may obtain the estimated position information of the camera by using the initial position of the camera as an input value. To this end, the fitting unit 111 may sample a plurality of candidate position information around the initial position information of the camera, and obtain the estimated position information of the camera using a particle filter. Then, the fitting unit 111 may assign a weight to each of the plurality of candidate location information based on a matching error between the landmark of the precision map and the image corresponding to each of the plurality of candidate location information. After weighting, the fitting unit 111 newly samples the plurality of candidate position information using the plurality of weighted candidate position information, and if the standard deviation of the newly sampled plurality of candidate position information is less than or equal to the reference standard deviation, The average value of the plurality of newly sampled candidate location information may be obtained as the estimated location information of the camera.

카메라의 추정 위치 정보가 획득되면, 피팅부(111)는 카메라의 추정 위치 정보의 유효성을 검증한 후, 유효한 카메라의 추정 위치 정보를 기초로 차량(V)의 추정 위치 정보를 획득할 수 있다. 이를 위해, 피팅부(111)는 먼저 카메라의 추정 위치 정보에 대응되는 정밀 지도의 랜드마크 중 차선 이외의 제 2 랜드마크를 확인하여, 제 2 랜드마크 각각의 매칭 오차에 대응되는 카메라 추정 위치 정보의 가중치를 획득할 수 있다. 제 2 랜드마크 각각의 매칭 오차에 대응되는 가중치가 획득되면, 피팅부(111)는 기준치 이상의 가중치의 수가 기준 개수 이상인지 판단하여 추정된 카메라의 위치 정보를 유효한 것으로 결정할 수 있다. 이를 통해, 피팅부(111)는 카메라 추정 위치 정보를 이용하여 차량(V)의 추정 위치 정보를 획득할 수 있다.When the estimated location information of the camera is obtained, the fitting unit 111 may obtain the estimated location information of the vehicle V based on the estimated location information of the valid camera after verifying the validity of the estimated location information of the camera. To this end, the fitting unit 111 first checks a second landmark other than the lane among the landmarks of the precision map corresponding to the estimated position information of the camera, and the camera estimated position information corresponding to the matching error of each of the second landmarks. The weight of can be obtained. When a weight corresponding to the matching error of each of the second landmarks is obtained, the fitting unit 111 may determine whether the number of weights equal to or greater than the reference value is equal to or greater than the reference number and determine the estimated location information of the camera as valid. Through this, the fitting unit 111 may obtain the estimated location information of the vehicle V by using the camera estimated location information.

도 3에서는 위성 신호 및 주변 영상을 기초로 차량(V)의 위치를 추정하는 경우를 예시하였으나, 다른 실시예에 따른 차선 정보 획득 방법은 RTK/INS 장비를 이용하여 고정밀 지도에서 현재 차량(V)의 위치 정보를 추정할 수도 있다.3 illustrates a case of estimating the location of the vehicle V based on satellite signals and surrounding images, but the method for obtaining lane information according to another embodiment uses an RTK/INS device to determine the current vehicle V on a high-precision map. You can also estimate the location information of.

차량(V)의 추정 위치 정보에 따라 차량(V)의 위치가 추정되면, 피팅부(111)는 추정된 차량(V)의 위치에 대응되는 차선을 정밀 지도로부터 추출할 수 있다(S110). 도 4를 참조하면, 피팅부(111)는 차량(V)의 뒷범퍼를 포함하고, 차량(V)의 전륜으로부터 차량(V)의 전방, 즉 종축 방향으로 미리 정해진 최대 임계 거리까지의 제 1 관심 영역 SM을 설정하고, 제 1 관심 영역 SM 내 차선의 픽셀 좌표를 추출할 수 있다.When the location of the vehicle V is estimated according to the estimated location information of the vehicle V, the fitting unit 111 may extract a lane corresponding to the estimated location of the vehicle V from the precision map (S110). Referring to FIG. 4, the fitting part 111 includes a rear bumper of the vehicle V, and is a first from the front wheel of the vehicle V to the front of the vehicle V, that is, a predetermined maximum critical distance in the longitudinal direction. A region of interest S M may be set, and pixel coordinates of a lane within the first region of interest S M may be extracted.

그 다음, 피팅부(111)는 추출된 차선을 주변 영상에 매칭하여 차선을 피팅할 수 있다(S120). 이에 앞서, 피팅부(111)는 차량(V)에 탑재된 카메라에 의해 촬영된 주변 영상 내 차선을 추출할 수 있다. 일 실시예에 따른 피팅부(111)는 학습 영상에 차선 영역의 위치가 레이블링된 학습 데이터를 학습하여 생성된 차선 추출 모델을 이용하여 주변 영상으로부터 차선을 추출할 수 있다. 도 5는 피팅부(111)에 의해 주변 영상으로부터 추출된 4개의 차선을 예시한다.Then, the fitting unit 111 may fit the lane by matching the extracted lane to the surrounding image (S120). Prior to this, the fitting unit 111 may extract a lane within the surrounding image captured by the camera mounted on the vehicle V. The fitting unit 111 according to an embodiment may extract a lane from a surrounding image using a lane extraction model generated by learning training data in which a position of a lane region is labeled in a training image. 5 illustrates four lanes extracted from surrounding images by the fitting unit 111.

다시 도 4를 참조하면, 차량(V)에 탑재된 카메라는 화각에 의해 형성된는 제 2 관심 영역 SC에 대한 주변 영상을 획득하고, 피팅부(111)는 주변 영상으로부터 제 2 관심 영역 SC 내 차선의 픽셀 좌표를 추출할 수 있다. 이 때, 제 1 관심 영역 SM과 제 2 관심 영역 SC는 일부 중첩되는 영역이 존재하므로, 동일한 차선이 정밀 지도와 주변 영상 각각으로부터 추출된 것일 수 있다.Referring back to FIG. 4, the camera mounted on the vehicle V acquires a surrounding image for the second ROI S C formed by the angle of view, and the fitting unit 111 is in the second ROI S C from the surrounding image. The pixel coordinates of the lane can be extracted. In this case, since the first ROI S M and the second ROI S C partially overlap each other, the same lane may be extracted from each of the precision map and the surrounding images.

따라서, 피팅부(111)는 정밀 지도로부터 추출된 차선을 주변 영상의 차선에 매칭할 수 있다. 구체적으로, 피팅부(111)는 수학식 1에 따라 정밀 지도로부터 추출된 차선의 픽셀 좌표를 주변 영상에 투영시켜 차선 매칭을 수행할 수 있다.Accordingly, the fitting unit 111 may match the lane extracted from the precision map with the lane of the surrounding image. Specifically, the fitting unit 111 may perform lane matching by projecting the pixel coordinates of the lane extracted from the precision map onto the surrounding image according to Equation 1.

Figure pat00001
Figure pat00001

여기서, m은 주변 영상으로 투영된 차선의 픽셀 좌표 값이고, K는 카메라 내부 파라미터 행렬이고, R은 정밀 지도 상의 차선에 대한 3차원 픽셀 좌표를 카메라 좌표계로 변환시키는 회전 행렬이고, T는 정밀 지도 상의 차선에 대한 3차원 픽셀 좌표를 카메라 좌표계로 변환시키는 이동 행렬이다. 또한, R과 T는 단계 S100에서 수행된 차량(V)의 위치 추정 결과와, 카메라-차량(V) 좌표계 간 회전/이동 변환 행렬을 기초로 획득될 수 있다.Here, m is the pixel coordinate value of the lane projected into the surrounding image, K is the camera internal parameter matrix, R is the rotation matrix that converts the 3D pixel coordinates of the lane on the precision map into the camera coordinate system, and T is the precision map. It is a movement matrix that converts the 3D pixel coordinates of the image lane into the camera coordinate system. Further, R and T may be obtained based on the result of estimating the position of the vehicle V performed in step S100 and a rotation/movement transformation matrix between the camera-vehicle V coordinate system.

도 6에서는 주변 영상 내 추출된 4개의 차선 상에 정밀 지도로부터 추출된 복수의 차선이 매칭되는 경우를 예시한다. 이 때, 주변 영상 내 4번 차선에 대하여 정밀 지도 내 차선과의 매칭 결과 오차가 발생함을 확인할 수 있다. 매칭 오차가 존재할 경우, 매칭된 차선에 대하여 피팅 결과 역시 부정확할 수 있으므로, 피팅부(111)는 피팅에 앞서 매칭된 차선의 유효성을 판단할 수 있다.6 illustrates a case where a plurality of lanes extracted from a precision map are matched on four lanes extracted in a surrounding image. In this case, it can be confirmed that an error occurs as a result of matching the lane 4 in the surrounding image with the lane in the precision map. If there is a matching error, the fitting result for the matched lane may also be inaccurate, so the fitting unit 111 may determine the validity of the matched lane prior to fitting.

구체적으로, 일 실시예에 따른 피팅부(111)는 매칭된 차선 중 정밀 지도 내 추정된 차량(V)의 위치에 대응되는 차선과 주변 영상 내 차선 간 평균 픽셀 좌표 오차가 제 1 임계값 이하인지 확인하여, 유효 차선을 결정할 수 있다. 도 7을 참조하면, 피팅부(111)는 정밀 지도로부터 추출된 차선의 어느 하나의 픽셀 PM과 주변 영상으로부터 추출된 차선의 대응 픽섹 PI 간의 매칭 오차 de를 확인할 수 있다. Specifically, the fitting unit 111 according to an embodiment determines whether the average pixel coordinate error between the lane corresponding to the estimated location of the vehicle V in the precision map among the matched lanes and the lane in the surrounding image is less than or equal to the first threshold. By checking, you can determine the effective lane. Referring to FIG. 7, the fitting unit 111 may check a matching error d e between a pixel P M of a lane extracted from a precision map and a corresponding pixel P I of a lane extracted from a surrounding image.

그 다음, 피팅부(111)는 정밀 지도로부터 추출된 차선의 나머지 픽셀과 주변 영상으로부터 추출된 차선의 대응 픽셀 각각의 매칭 오차를 확인한 후, 이들의 평균인 평균 픽셀 좌표 오차를 획득할 수 있다. 평균 픽셀 좌표 오차를 획득한 후, 피팅부(111)는 획득된 평균 픽셀 좌표 오차가 제 1 임계값 이하인지 확인하여, 평균 픽셀 좌표 오차가 제 1 임계값 이하인 매칭된 차선을 유효 차선으로 결정할 수 있다. 여기서, 제 1 임계값이란 유효 차선으로 결정할 수 있는 매칭된 차선에 대한 평균 픽셀 좌표 오차의 최대값을 의미할 수 있다.Then, the fitting unit 111 may check the matching errors of the remaining pixels of the lane extracted from the precision map and the corresponding pixels of the lane extracted from the surrounding image, and then obtain an average pixel coordinate error, which is an average of these. After obtaining the average pixel coordinate error, the fitting unit 111 may determine whether the obtained average pixel coordinate error is less than or equal to the first threshold value, and determine a matched lane with the average pixel coordinate error less than or equal to the first threshold value as the effective lane. have. Here, the first threshold value may mean a maximum value of an average pixel coordinate error for a matched lane that can be determined as an effective lane.

상술한 과정에 부가하여, 다른 실시예에 따른 피팅부(111)는 평균 픽셀 좌표 오차가 최소인 후보 차선 각각에 대하여 정밀 지도로부터 추출된 차선과 주변 영상으로부터 추출된 차선 간 픽셀 좌표 오차가 제 2 임계값 이상인 픽셀의 개수를 확인할 수 있다. 여기서, 제 2 임계값은 차선의 픽셀 좌표를 유효하지 않은 것으로 결정할 수 있는 매칭된 차선에 대한 픽셀 좌표 오차의 최소값을 의미할 수 있다. In addition to the above-described process, the fitting unit 111 according to another embodiment has a second pixel coordinate error between the lane extracted from the precision map and the lane extracted from the surrounding image for each candidate lane having the minimum average pixel coordinate error. You can check the number of pixels above the threshold. Here, the second threshold value may mean a minimum value of a pixel coordinate error for a matched lane that may determine the pixel coordinates of the lane as invalid.

그 다음, 피팅부(111)는 픽셀 좌표 오차가 제 2 임계값 이상인 픽셀의 개수가 제 3 임계값 이하인 매칭 차선을 유효 차선으로 결정할 수도 있다. 여기서, 제 3 임계값은 유효 차선으로 결정할 수 있는 매칭된 차선에 대한 유효하지 않은 픽셀 개수의 최대값을 의미할 수 있다.Then, the fitting unit 111 may determine a matching lane in which the number of pixels having a pixel coordinate error equal to or greater than the second threshold value is equal to or lower than the third threshold value as the effective lane. Here, the third threshold value may mean a maximum value of the number of invalid pixels for a matched lane that can be determined as an effective lane.

상술한 과정을 통해 유효 차선이 결정되면, 피팅부(111)는 유효 차선을 피팅할 수 있다(S120). 여기서, 유효 차선이란 유효한 것으로 판단되는 매칭 차선 중 정밀 지도로부터 추출된 차선을 의미할 수 있다. 추후 차선 피팅 결과로부터 획득되는 다항함수 계수는 딥러닝과 같은 기계학습에서의 정답 데이터로서 입력 데이터에 레이블링 되므로, 피팅부(111)는 주변 영상으로부터 추출된 차선 보다 정확도가 높은 정밀 지도로부터 추출된 차선을 유효 차선으로 선택할 수 있다.When the effective lane is determined through the above-described process, the fitting unit 111 may fit the effective lane (S120). Here, the effective lane may mean a lane extracted from a precision map among matching lanes determined to be valid. Since the polynomial coefficient obtained from the result of the next lane fitting is labeled on the input data as correct answer data in machine learning such as deep learning, the fitting unit 111 is the lane extracted from the precision map with higher accuracy than the lane extracted from the surrounding image. Can be selected as the effective lane.

구체적으로, 피팅부(111)는 유효 차선을 구성하는 각각의 픽셀 좌표를 차량(V) 좌표계로 변환한 후 커브 피팅(Curve Fitting)을 수행할 수 있다. 구체적으로, 피팅부(111)는 수학식 2에 따라 유효 차선을 피팅할 수 있다.Specifically, the fitting unit 111 may perform curve fitting after converting the coordinates of pixels constituting the effective lane into the vehicle V coordinate system. Specifically, the fitting unit 111 may fit the effective lane according to Equation 2.

Figure pat00002
Figure pat00002

수학식 2에 따른 다항함수로 유효 차선을 피팅한 다음, 피팅부(111)는 피팅된 유효 차선에 대한 다항함수의 계수를 획득할 수 있다(S130). 구체적으로, 피팅부(111)는 수학식 2의 계수인 a, b, c, 및 d를 획득할 수 있다. 획득된 계수와 관련하여, 6a는 차선의 곡률 미분값을 의미하고, 2b는 곡률을 의미하고, arctan(c)는 방향값을 의미하고, d는 오프셋값을 의미할 수 있다. 그 결과, 획득된 다항함수 계수는 차선 이탈 경보 시스템(1), 차선 유지 지원 시스템(1) 등의 입력값으로 이용될 수 있다.After fitting the effective lane with the polynomial function according to Equation 2, the fitting unit 111 may obtain the coefficient of the polynomial function for the fitted effective lane (S130). Specifically, the fitting unit 111 may obtain the coefficients a, b, c, and d of Equation 2. Regarding the obtained coefficient, 6a may denote a differential curvature value of the lane, 2b denote a curvature, arctan(c) denote a direction value, and d denote an offset value. As a result, the obtained polynomial function coefficient can be used as an input value for the lane departure warning system 1, the lane maintenance support system 1, and the like.

또한, 일 실시예에 따른 피팅부(111)는 피팅된 다항함수의 유효성을 판단하고, 유효한 다항함수에 대하여만 계수를 획득할 수도 있다. 도 4에서 설명한 바와 같이, 피팅부(111)는 차량(V)의 전륜으로부터 차량(V)의 전방, 즉 종축 방향으로 미리 정해진 최대 임계 거리까지의 관심 영역을 설정하고, 관심 영역 내 차선 좌표를 추출할 수 있다. 피팅부(111)는 이렇게 추출된 차선 좌표를 주변 영상 내 차선에 매칭할 수 있다. In addition, the fitting unit 111 according to an embodiment may determine the validity of the fitted polynomial function and obtain coefficients only for the valid polynomial function. As described in FIG. 4, the fitting unit 111 sets a region of interest from the front wheel of the vehicle V to the front of the vehicle V, that is, a predetermined maximum critical distance in the vertical axis direction, and sets the lane coordinates within the region of interest. Can be extracted. The fitting unit 111 may match the extracted lane coordinates with the lanes in the surrounding image.

이 때, 피팅부(111)는 차량(V)으로부터 먼 차선의 픽셀일수록 매칭 오차가 증가할 수 있다. 도 8에서는 최대 임계 거리 d1 내에서 차선 Lf를 따라 배치되는 매칭된 차선의 픽셀 좌표 중 빗금 영역을 가지는 픽셀 좌표의 매칭 오차가 큰 경우를 예시한다. In this case, the matching error may increase as the pixels of the fitting unit 111 are in a lane farther from the vehicle V. 8 illustrates a case in which a matching error of pixel coordinates having a hatched area among pixel coordinates of a matched lane disposed along a lane L f within a maximum threshold distance d 1 is large.

이를 고려하여, 피팅부(111)는 먼저 최대 임계 거리 d1 내의 차선의 픽셀을 기초로 다항함수 피팅을 수행한 후, 실제 차선의 픽셀 좌표 각각으로부터 해당 다항함수의 출력값의 오차를 확인할 수 있다. 피팅부(111)는 차선의 픽셀 좌표 각각에 대한 평균 오차가 제 4 임계값 이하인 경우에 피팅된 다항함수를 유효한 것으로 판단할 수 있다. In consideration of this, the fitting unit 111 may first perform a polynomial function fitting based on a pixel of a lane within the maximum threshold distance d 1 , and then check an error of an output value of the corresponding polynomial function from each pixel coordinate of an actual lane. The fitting unit 111 may determine that the fitted polynomial function is valid when the average error of each of the pixel coordinates of the lane is equal to or less than the fourth threshold.

반면, 차선의 픽셀 좌표 각각에 대한 평균 오차가 제 4 임계값보다 큰 경우, 피팅부(111)는 최대 임계 거리 이하의 범위 내 차선의 픽셀에 대해서만 다시 피팅을 수행하고, 피팅 결과의 유효성을 판단할 수 있다. 여기서, 제 4 임계값이란 피팅된 다항함수를 유효한 것으로 결정할 수 있는 실제 차선의 픽셀에 대한 평균 오차의 최대값을 의미할 수 있다.On the other hand, when the average error for each of the pixel coordinates of the lane is greater than the fourth threshold value, the fitting unit 111 performs re-fitting only for the pixels of the lane within the range less than the maximum threshold distance, and determines the validity of the fitting result. can do. Here, the fourth threshold value may mean a maximum value of an average error of an actual lane pixel that can determine that the fitted polynomial function is valid.

도 8에서는 피팅에 이용하는 차선의 픽셀 범위를 최대 임계 거리인 d1으로부터 d2로 제한하여 다항함수 피팅을 수행하는 경우를 예시한다.8 illustrates a case in which polynomial function fitting is performed by limiting the pixel range of the lane used for fitting from d 1 to d 2 , which is the maximum critical distance.

상술한 과정에 부가하여, 다른 실시예에 따른 피팅부(111)는 차선의 픽셀 좌표 각각에 대한 평균 오차가 제 4 임계값 이하인 후보 다항함수에 대하여 각각의 차선의 픽셀 좌표에 대한 오차가 제 5 임계값 이상인 픽셀의 개수가 제 6 임계값 이하인 다항함수를 유효한 것으로 판단할 수도 있다. 여기서, 제 5 임계값은 다항함수를 유효하지 않은 것으로 결정할 수 있는 실제 차선의 픽셀 각각에 대한 오차의 최소값을 의미하고, 제 6 임계값은 다항함수를 유효한 것으로 결정할 수 있는 실제 차선의 픽셀 각각에 대한 유효하지 않은 픽셀 개수의 최대값을 의미할 수 있다.In addition to the above-described process, the fitting unit 111 according to another embodiment has an error with respect to a pixel coordinate of each lane with respect to a candidate polynomial function having an average error of each pixel coordinate of a lane equal to or less than the fourth threshold. It may be determined that a polynomial function in which the number of pixels equal to or larger than the threshold value is equal to or smaller than the sixth threshold value is valid. Here, the fifth threshold means the minimum value of the error for each pixel of the actual lane for which the polynomial function is determined to be invalid, and the sixth threshold value is for each pixel of the actual lane that can determine the polynomial function as valid. This may mean the maximum number of pixels that are not valid for.

상술한 과정에 따라 피팅된 다항함수가 유효한 것으로 판단되면, 피팅부(111)는 해당 다항함수의 계수를 획득할 수 있다.If it is determined that the polynomial function fitted according to the above-described process is valid, the fitting unit 111 may obtain the coefficient of the polynomial function.

지금까지는 피팅부(111)에 의해 수행되는 유효 차선에 대한 다항함수의 계수 획득 방법을 설명하였다. 이하에서는 도 9를 참조하여, 상술한 학습부(110)에 의해 수행되는 차선 정보 획득 모델을 생성하는 방법을 설명한다.Until now, the method of obtaining the coefficients of the polynomial function for the effective lane performed by the fitting unit 111 has been described. Hereinafter, a method of generating a lane information acquisition model performed by the learning unit 110 will be described with reference to FIG. 9.

도 9는 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 차선 정보 획득 모델을 생성하는 방법을 설명하기 위한 도면이다.9 is a diagram illustrating a method of generating a lane information acquisition model among a method of obtaining lane information according to an embodiment of the present invention.

상술한 바와 같이, 일 실시예에 따른 차선 정보 획득 장치(100)의 학습부(110)는 피팅부(111)에 의해 획득된 피팅에 따른 다항함수 계수를 기초로 유효 차선을 학습하여 차선 정보 획득 모델을 생성할 수 있다.As described above, the learning unit 110 of the apparatus 100 for obtaining lane information according to an embodiment learns an effective lane based on a polynomial function coefficient according to a fitting obtained by the fitting unit 111 to obtain lane information You can create a model.

이를 위해, 학습부(110)는 제 1 시점에 획득한 주변 영상, 제 1 시점 이전의 제 2 시점에 획득한 주변 영상 및 제 1 시점 이후의 제 3 시점에 획득한 주변 영상으로부터 동일한 유효 차선을 추출할 수 있다(S200). 구체적으로, 일 실시예에 따른 학습부(110)는 제 1 시점에 획득한 주변 영상으로부터 유효 차선을 추출하고, 제 1 시점 이전의 제 2 시점에 획득한 주변 영상으로부터 앞서 추출한 유효 차선과 동일한 유효 차선을 추출하고, 제 1 시점 이후의 제 3 시점에 획득한 주변 영상으로부터 앞서 추출한 유효 차선과 동일한 유효 차선을 추출한 후, 서로 다른 시점에 획득된 주변 영상으로부터 추출된 유효 차선을 병합할 수 있다. To this end, the learning unit 110 selects the same effective lane from the surrounding image acquired at the first view point, the surrounding image acquired at the second view point before the first view point, and the surrounding image acquired at the third view point after the first view point. It can be extracted (S200). Specifically, the learning unit 110 according to an embodiment extracts the effective lane from the surrounding image acquired at the first view point, and the same valid lane as the previously extracted effective lane from the surrounding image acquired at the second view point before the first view point. After extracting the lane, extracting the same effective lane as the previously extracted effective lane from the surrounding image acquired at the third view point after the first view point, the effective lanes extracted from the surrounding image acquired at different views may be merged.

도 9에서는 제 1 시점에 대응되는 유효 차선을 제 2 시점에 대응되는 유효 차선 및 제 3 시점에 대응되는 유효 차선과 병합하는 경우를 예시하였으나, 제 1 시점에 대응되는 유효 차선을 제 2 시점에 대응되는 유효 차선 및 제 3 시점에 대응되는 유효 차선 중 적어도 하나와 병합하는 것도 가능할 수 있다.9 illustrates a case in which the valid lane corresponding to the first viewpoint is merged with the valid lane corresponding to the second viewpoint and the valid lane corresponding to the third viewpoint, but the valid lane corresponding to the first viewpoint is combined with the second viewpoint. It may be possible to merge with at least one of a corresponding effective lane and an effective lane corresponding to the third viewpoint.

그 다음, 학습부(110)는 추출된 유효 차선에 다항함수 계수를 레이블링할 수 있다(S210). 구체적으로, 학습부(110)는 추출되어 병합된 유효 차선에 해당 유효 차선의 피팅에 따라 획득된 다항함수 계수를 레이블링 할 수 있다. 상술한 바와 같이, 유효 차선의 피팅에 따라 획득된 다항함수 계수는 정밀 지도로부터 획득된 값으로서 신뢰할 수 있으므로, 학습부(110)는 다항함수 계수를 정답 데이터로서 유효 차선에 레이블링할 수 있다.Then, the learning unit 110 may label the polynomial coefficient on the extracted effective lane (S210). Specifically, the learning unit 110 may label the extracted and merged effective lanes with a polynomial coefficient obtained according to fitting of the corresponding effective lane. As described above, since the polynomial coefficient obtained according to the fitting of the effective lane is reliable as a value obtained from the precision map, the learning unit 110 may label the polynomial function coefficient as correct answer data on the effective lane.

만약, 학습부(110)가 지도 학습(Supervised Learning)을 따르는 경우, 학습부(110)는 추출된 유효 차선 전부에 다함함수 계수를 레이블링 할 수 있다. 이와는 달리, 학습부(110)가 반지도 학습(Semisupervised Learning)을 따르는 경우라면, 학습부(110)는 추출된 유효 차선 중 일부에 대해서만 다항함수 계수를 레이블링하고, 레이블링 된 유효 차선과 레이블링 되지 않은 유효 차선을 함께 이용하여 학습할 수도 있다.If the learning unit 110 follows supervised learning, the learning unit 110 may label the multifunction coefficients on all of the extracted effective lanes. On the contrary, if the learning unit 110 follows Semisupervised Learning, the learning unit 110 labels the polynomial coefficients for only some of the extracted effective lanes, and the labeled effective lanes and unlabeled You can also learn by using effective lanes together.

마지막으로, 학습부(110)는 레이블링된 유효 차선을 학습하여 차선 정보 획득 모델을 생성할 수 있다(S220). 여기서, 차선 정보 획득 모델이란 주변 영상 내 타겟 차선이 입력되면 해당 차선의 다항함수 피팅에 따른 다항함수 계수를 출력하는 모델을 의미하고, 일 실시예에 따른 차선 정보 획득 모델은 신경망 기반의 모델일 수 있다. 신경망 기반의 차선 정보 획득 모델은 CNN(Convolution Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 신경망 모델로 구현될 수 있다.Finally, the learning unit 110 may generate a lane information acquisition model by learning labeled valid lanes (S220). Here, the lane information acquisition model means a model that outputs a polynomial coefficient according to a polynomial function fitting of a corresponding lane when a target lane in the surrounding image is input, and the lane information acquisition model according to an embodiment may be a neural network-based model. have. The neural network-based lane information acquisition model may be implemented as a neural network model such as a convolution neural network (CNN), a deep neural network (DNN), a recurrent neural network (RNN), and a bidirectional recurrent deep neural network (BRDNN).

일 실시예에 따른 차선 정보 획득 모델은 유효 차선이 입력되는 입력층, 입력된 유효 차선에 대응되는 다항함수 계수가 출력되는 출력층, 및 입력층과 출력층 사이에 마련되는 복수의 은닉층으로 구성될 수 있다. 출력층은 복수의 은닉층 중 가장 마지막 은닉층과 완전 연결 네트워크(Fully Connected Network)를 형성할 수 있다. 이 때, 인공 신경망의 출력층은 N차 다항함수의 계수에 대한 노드로 구성되고, 각각의 노드는 다항함수 계수에서의 각각의 계수를 의미할 수 있다. The lane information acquisition model according to an embodiment may include an input layer into which an effective lane is input, an output layer through which a polynomial function coefficient corresponding to the input effective lane is output, and a plurality of hidden layers provided between the input layer and the output layer. . The output layer may form a fully connected network with the last hidden layer among the plurality of hidden layers. In this case, the output layer of the artificial neural network is composed of nodes for coefficients of the N-th order polynomial function, and each node may mean each coefficient in the coefficient of the polynomial function.

만약, 차선 정보 획득 모델이 CNN 모델로 구현되는 경우, 복수의 은닉층은 복수의 컨볼루션층(Convolution Layer)과 서브 샘플링층(Subsampling Layer)로 구성될 수 있다. 컨볼루션층은 입력되는 유효 차선에 다양한 컨볼루션 커널(Convolution Kunnel)을 적용하여, 유효 차선에 대한 특징화 벡터를 획득할 수 있다. 이처럼, 컨볼루션은 고차원의 유효 차선에 대해서 특징을 추출하는 일종의 템플릿과 같은 역할을 수행할 수 있다. 서브 샘플링층은 획득된 특징화 벡터의 차원을 축소하는 뉴런층으로서, 컨볼루션 층에 의해 생성된 특징화 벡터에 대한 공간적 해상도를 낮출 수 있다. 이와 같은 과정을 통해, 차선 정보 획득 모델은 문제의 복잡도를 줄일 수 있다. 은닉층에는 컨볼루션 층과 서브 샘플링 층은 반복하여 배치됨으로써 상술한 과정이 반복 수행될 수 있다. 학습부(110)는 출력과 정답 간의 오차를 최소화 하는 방향으로 Back Propagation을 이용하여 인공 신경망의 파라미터를 재조정하고, 출력이 정답에 수렴할 때까지 상술한 입력을 이용하여 인공 신경망을 반복 학습 시킬 수 있다. If the lane information acquisition model is implemented as a CNN model, the plurality of hidden layers may include a plurality of convolution layers and subsampling layers. The convolutional layer may obtain a characterization vector for the effective lane by applying various convolution kernels to the input effective lane. In this way, convolution can serve as a template for extracting features for high-dimensional effective lanes. The sub-sampling layer is a neuron layer that reduces the dimension of the obtained characterization vector, and can lower the spatial resolution of the characterization vector generated by the convolutional layer. Through this process, the lane information acquisition model can reduce the complexity of the problem. The convolutional layer and the sub-sampling layer are repeatedly disposed in the hidden layer, so that the above-described process may be repeatedly performed. The learning unit 110 readjusts the parameters of the artificial neural network using Back Propagation in the direction of minimizing the error between the output and the correct answer, and repeatedly learns the artificial neural network using the above-described input until the output converges to the correct answer. have.

예를 들어, 일 실시예에 따른 학습부(110)는 k번째 주변 영상에서 검출된 i번째 유효 차선과, i번째 유효 차선과 동일한 k번째 주변 영상의 이전 또는 이후 주변 영상 내 유효 차선을 입력 데이터로 하여, 인공 신경망을 학습시킬 수 있다. 또한, 다른 실시에에 따른 학습부(110)는 상술한 입력 데이터에 k번째 차량 좌표계 기준으로 k번째 주변 영상의 이전 또는 이후 주변 영상에 대응되는 차량의 위치/자세 정보를 부가하여, 인공 신경망을 학습시킬 수 있다.For example, the learning unit 110 according to an embodiment inputs the i-th effective lane detected in the k-th surrounding image and the effective lane in the surrounding image before or after the k-th surrounding image identical to the i-th effective lane. As a result, an artificial neural network can be trained. In addition, the learning unit 110 according to another embodiment adds location/position information of the vehicle corresponding to the surrounding image before or after the k-th surrounding image based on the k-th vehicle coordinate system to the above-described input data, and generates an artificial neural network. You can learn.

또한, 또 다른 실시예에 따른 학습부(110)는 인공 신경망에 의해 출력되는 출력 데이터가 k번째 주변 영상에서 검출된 i 번째 유효 차선에 대한 다항함수 계수를 포함하도록, 인공 신경망을 학습시킬 수 있다. 뿐만 아니라, 또 다른 실시예에 따른 학습부(110)는 인공 신경망에 의해 상술한 출력 데이터에 부가하여 k번째 주변 영상의 이전 또는 이후 주변 영상에서 검출된 유효 차선에 대한 다항함수 계수를 출력하도록, 인공 신경망을 학습시킬 수 있다.In addition, the learning unit 110 according to another embodiment may train the artificial neural network so that the output data output by the artificial neural network includes a polynomial coefficient for the i-th effective lane detected in the k-th neighboring image. . In addition, the learning unit 110 according to another embodiment outputs a polynomial function coefficient for an effective lane detected in a surrounding image before or after the k-th surrounding image in addition to the above-described output data by an artificial neural network, Artificial neural networks can be trained.

이 때, 학습부(110)는 수학식 3의 손실함수에 대하여 손실 loss를 최소로 하는 다항함수 계수를 획득할 수 있다.In this case, the learning unit 110 may obtain a polynomial function coefficient that minimizes loss loss with respect to the loss function of Equation (3).

Figure pat00003
Figure pat00003

여기서, ag, bg, cg, 및 dg는 다항함수 계수에 대한 정답 데이터를 의미하고, a, b, c, 및 d는 출력 데이터를 의미할 수 있다.Here, a g , b g , c g , and d g may mean correct answer data for a polynomial coefficient, and a, b, c, and d may mean output data.

일 실시예에 따른 학습부(110)는 지도 학습 방법에 따라, 유효 차선을 입력으로 하고, 해당 유효 차선의 피팅 결과에 따른 다항함수 계수를 대응시킴으로써 유효 차선을 학습할 수 있다. 즉, 학습부(110)는 입력인 유효 차선과 정답인 다항함수 계수 사이의 관계를 학습함으로써, 입력되는 유효 차선의 피팅 결과에 따른 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수 있다.The learning unit 110 according to an embodiment may learn the effective lane by inputting an effective lane as an input and matching a polynomial function coefficient according to a fitting result of a corresponding effective lane according to a supervised learning method. That is, the learning unit 110 may generate a lane information acquisition model that outputs a polynomial coefficient according to a fitting result of an input effective lane by learning a relationship between an input effective lane and a correct answer polynomial function coefficient.

이와는 달리, 다른 실시예에 따른 학습부(110)는 레이블링이 된 일부 유효 차선과 레이블링이 되지 않은 나머지 유효 차선을 함께 이용하여 학습하는 In contrast, the learning unit 110 according to another embodiment learns by using a part of the labeled valid lanes and the remaining valid lanes that are not labeled.

반지도 학습(Semisupervised Learning)에 의해 차선 정보 획득 모델을 생성할 수도 있다. 또는, 또 다른 실시예에 따른 학습부(110) 학습 결과가 올바른지에 대한 피드백을 이용하는 강화 학습(Reinforcement Learning)에 따라 차선 정보 생성 모델을 생성할 수도 있다.It is also possible to create a suboptimal information acquisition model by semisupervised learning. Alternatively, the learning unit 110 according to another embodiment may generate a lane information generation model according to reinforcement learning using feedback on whether a learning result is correct.

학습 완료 후, 학습부(110)는 추론 과정을 통해 학습 과정에서 이용된 입력 데이터의 형식과 동일하게 신경망에 After completing the learning, the learning unit 110 sends the neural network in the same format as the input data used in the learning process through the inference process.

또한, 학습부(110)는 유효 차선 이외에 입력으로서 추정된 차량(V)의 위치 정보를 함께 학습할 수도 있다. 즉, 학습부(110)는 추정된 차량(V)의 위치 정보, 및 해당 위치 정보에 대응되는 유효 차선을 입력으로 하고, 해당 유효 차선의 피팅 결과에 따른 다항함수 계수를 출력으로 하는 차선 정보 획득 모델을 생성할 수 있다.In addition, the learning unit 110 may also learn the location information of the vehicle V estimated as an input in addition to the effective lane. That is, the learning unit 110 obtains lane information by inputting the estimated location information of the vehicle V and the effective lane corresponding to the corresponding location information, and outputting the polynomial function coefficient according to the fitting result of the corresponding effective lane. You can create a model.

또한, 제 1 시점에 대응되는 유효 차선이 제 2 시점에 대응되는 유효 차선 및 제 3 시점에 대응되는 유효 차선 중 적어도 하나와 병합되는 경우, 학습부(110)는 차선 정보 획득 모델이 제 1 시점뿐만 아니라, 제 2 시점 및 제 3 시점 중 적어도 하나에 대응되는 유효 차선에 대한 다항함수 계수를 출력할 수 있도록, 유효 차선을 학습할 수도 있다. 예를 들어, 제 1 시점에 대응되는 유효 차선이 제 2 시점에 대응되는 유효 차선과 병합되는 경우, 학습부(110)는 병합된 유효 차선을 학습하여, 제 1 시점에 대응되는 유효 차선에 대한 다항함수 계수 및 제 2 시점에 대응되는 유효 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수 있다. 이와는 달리, 제 1 시점에 대응되는 유효 차선이 제 3 시점에 대응되는 유효 차선과 병합되는 경우, 학습부(110)는 병합된 유효 차선을 학습하여, 제 1 시점에 대응되는 유효 차선에 대한 다항함수 계수 및 제 3 시점에 대응되는 유효 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수도 있다.In addition, when the effective lane corresponding to the first viewpoint is merged with at least one of the valid lane corresponding to the second viewpoint and the valid lane corresponding to the third viewpoint, the learning unit 110 determines the lane information acquisition model to the first viewpoint. In addition, the effective lane may be learned to output a polynomial function coefficient for an effective lane corresponding to at least one of the second and third viewpoints. For example, when the effective lane corresponding to the first viewpoint is merged with the effective lane corresponding to the second viewpoint, the learning unit 110 learns the merged valid lane, and the effective lane corresponding to the first viewpoint A lane information acquisition model that outputs a polynomial function coefficient and a polynomial function coefficient for an effective lane corresponding to the second viewpoint may be generated. Contrary to this, when the effective lane corresponding to the first viewpoint is merged with the valid lane corresponding to the third viewpoint, the learning unit 110 learns the merged valid lane, and the polynomial for the valid lane corresponding to the first viewpoint A lane information acquisition model that outputs a function coefficient and a polynomial function coefficient for an effective lane corresponding to the third viewpoint may be generated.

지금까지는 학습부(110)에 의해 수행되는 차선 정보 획득 모델을 생성하는 방법을 설명하였다. 이하에서는, 도 10을 참조하여, 상술한 추론부(120)에 의해 수행되는 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명한다.Until now, a method of generating a lane information acquisition model performed by the learning unit 110 has been described. Hereinafter, a method of obtaining a coefficient of a polynomial function for a target lane performed by the inference unit 120 will be described with reference to FIG. 10.

도 10은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of obtaining a coefficient of a polynomial function for a target lane among a method of obtaining lane information according to an embodiment of the present invention.

상술한 바와 같이, 차선 정보 획득 장치(100)의 추론부(120)는 생성된 차선 정보 획득 모델에 주변 영상으로부터 추출된 타겟 차선을 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다.As described above, the inference unit 120 of the lane information acquisition device 100 may obtain a polynomial function coefficient for the target lane by inputting the target lane extracted from the surrounding image into the generated lane information acquisition model.

이를 위해, 추론부(120)는 먼저 차량(V)의 주변 영상을 획득할 수 있다(S300). 차선 정보 획득 장치(100)가 차량(V)과 별개로 마련되는 경우, 추론부(120)는 차선 정보 획득 장치(100)의 통신 수단에 의해 수신된 차량(V)의 주변 영상을 획득할 수 있다. 이와는 달리, 차선 정보 획득 장치(100)가 차량(V)과 일체로 마련되는 경우, 추론부(120)는 차량(V)의 카메라로부터 직접 주변 영상을 획득하거나, 카메라에 의해 획득된 주변 영상을 차량(V) 내부 통신수단에 의해 획득할 수 있다.To this end, the reasoning unit 120 may first acquire an image around the vehicle V (S300). When the lane information acquisition device 100 is provided separately from the vehicle V, the reasoning unit 120 may acquire the surrounding image of the vehicle V received by the communication means of the lane information acquisition device 100. have. In contrast, when the lane information acquisition device 100 is provided integrally with the vehicle V, the inference unit 120 directly acquires the surrounding image from the camera of the vehicle V, or the surrounding image obtained by the camera. It can be obtained by means of communication inside the vehicle (V).

주변 영상을 획득한 후, 추론부(120)는 획득된 주변 영상으로부터 타겟 차선을 추출할 수 있다(S310). 여기서, 타겟 차선이란 주변 영상 내 정보를 획득하고자 하는 차선을 의미할 수 있고, 일 실시예에 따른 타겟 차선은 단수 또는 복수 개 일 수 있다.After obtaining the surrounding image, the inference unit 120 may extract the target lane from the obtained surrounding image (S310). Here, the target lane may mean a lane for which information in the surrounding image is to be obtained, and the target lane according to an embodiment may be singular or plural.

구체적으로, 추론부(120)의 차선 추출부(121)는 학습 영상에 차선 영역의 위치가 레이블링된 학습 데이터를 학습하여 생성된 차선 추출 모델을 이용하여 주변 영상으로부터 타겟 차선을 추출할 수 있다. 이 때, 일 실시예에 따른 추론부(120)는 피팅부(111)와는 별개의 차선 추출 모델을 이용할 수 있다. 이와는 달리, 다른 실시예에 따른 추론부(120)는 피팅부(111)와 차선 추출 모델을 공유할 수 있고, 나아가 피팅부(111)와 일체로 구현될 수도 있다.Specifically, the lane extraction unit 121 of the inference unit 120 may extract the target lane from the surrounding image using the lane extraction model generated by learning training data in which the position of the lane region is labeled on the training image. In this case, the inference unit 120 according to an embodiment may use a lane extraction model separate from the fitting unit 111. Unlike this, the inference unit 120 according to another embodiment may share a lane extraction model with the fitting unit 111, and may further be implemented integrally with the fitting unit 111.

마지막으로, 추론부(120)는 타겟 차선을 차선 정보 획득 모델에 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다(S320). 구체적으로, 추론부(120)의 계수 획득부(122)는 주변 영상으로부터 추출된 타겟 차선을 학습부(110)에 의해 생성된 차선 정보 획득 모델에 입력하고, 차선 정보 획득 모델로부터 출력되는 다항함수 계수를 획득할 수 있다.Finally, the inference unit 120 may obtain a polynomial function coefficient for the target lane by inputting the target lane into the lane information acquisition model (S320). Specifically, the coefficient acquisition unit 122 of the inference unit 120 inputs the target lane extracted from the surrounding image into the lane information acquisition model generated by the learning unit 110, and a polynomial function output from the lane information acquisition model. You can get the coefficient.

만약, 학습부(110)가 유효 차선뿐만 아니라 추정된 차량(V)의 위치 정보를 함께 학습하여 차선 정보 획득 모델을 생성한 경우, 계수 획득부(122)는 타겟 차선과 함께 현재 차량(V)의 위치 정보를 차선 정보 획득 모델에 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다. 이렇게 획득된 다항함수 계수는 타겟 차선의 곡률 미분값, 타겟 차선의 곡률, 타겟 차선의 방향값, 및 오프셋값에 대한 정보를 포함하므로, 추후 차선 이탈 경보 시스템(1), 차선 유지 지원 시스템(1) 등의 입력값으로 이용될 수 있다.If the learning unit 110 learns the location information of the estimated vehicle V as well as the effective lane to generate a lane information acquisition model, the coefficient acquisition unit 122 generates the current vehicle V along with the target lane. It is possible to obtain a polynomial function coefficient for a target lane by inputting the location information of the lane information into the lane information acquisition model. Since the obtained polynomial coefficient includes information on the curvature differential value of the target lane, the curvature of the target lane, the direction value of the target lane, and the offset value, the lane departure warning system (1) and the lane maintenance support system (1) ) Can be used as an input value.

상술한 실시예에 따른 차선 정보 획득 장치 및 방법은, 차선의 피팅 시 사용자의 경험 또는 직관을 배제함으로써 보다 정확한 차선 정보를 획득할 수 있다. 특히, 기계 학습을 통해 차선 정보 획득 모델을 생성하여 이용하므로, 학습 DB가 많아질수록 출력하는 차선 정보의 정확도가 높아질 수 있다. The apparatus and method for obtaining lane information according to the above-described embodiment may obtain more accurate lane information by excluding user experience or intuition when fitting a lane. In particular, since the lane information acquisition model is generated and used through machine learning, the accuracy of the output lane information may increase as the number of training DBs increases.

또한, 검출된 주행 차선 정보를 차선 이탈 경보 시스템과 차선 유지 지원 시스템의 입력 값으로서 이용함으로써, 보다 정밀한 차량의 제어가 가능할 수 있다.Further, by using the detected driving lane information as input values of the lane departure warning system and the lane maintenance support system, more precise vehicle control may be possible.

한편, 상술한 일 실시예에 따른 차선 정보 획득 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the method for obtaining lane information according to the above-described embodiment may be implemented in a computer-readable recording medium for recording a computer program programmed to perform such a step.

또한, 상술한 일 실시예에 따른 차선 정보 획득 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램으로 구현될 수도 있다.In addition, each step included in the method for obtaining lane information according to the above-described embodiment may be implemented as a computer program programmed to perform these steps.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

일 실시예에 따르면, 상술한 차선 정보 획득 장치 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.According to an embodiment, since the above-described apparatus and method for obtaining lane information can be used in various fields such as indoors or industrial sites, there is a possibility of industrial use.

1: 차선 정보 획득 시스템
100: 차선 정보 획득 장치
V: 차량
1: lane information acquisition system
100: lane information acquisition device
V: vehicle

Claims (13)

차량의 주변 영상을 기초로 상기 차량의 위치를 추정하는 단계;
정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하는 단계;
상기 차선의 매칭 정보를 이용하여 상기 매칭된 차선을 유효 차선으로 결정하는 단계;
상기 결정된 유효 차선을 피팅(Fitting)하는 단계;
차선 정보 획득 모델의 생성을 위한 학습에 이용되는 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 단계; 및
상기 주변 영상 내 상기 피팅된 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하는 단계를 포함하는
차선 정보 획득 방법.
Estimating the location of the vehicle based on the surrounding image of the vehicle;
Matching (Matching) a lane corresponding to the position of the estimated vehicle in a precision map with a lane in the surrounding image;
Determining the matched lane as an effective lane using matching information of the lane;
Fitting the determined effective lane;
Acquiring a polynomial function coefficient for the fitted effective lane as correct answer data of the effective lane used for learning to generate a lane information acquisition model; And
And labeling the polynomial coefficient on the fitted effective lane in the surrounding image.
How to get lane information.
제 1 항에 있어서,
상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는,
상기 매칭된 차선 중 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 평균 픽셀 좌표 오차가 제 1 임계값 이하인 후보 차선으로부터 상기 평균 픽셀 좌표 오차가 최소인 상기 유효 차선을 결정하는
차선 정보 획득 방법.
The method of claim 1,
The step of determining the matched lane as the effective lane,
The effective lane in which the average pixel coordinate error is minimum from a candidate lane in which an average pixel coordinate error between a lane corresponding to the estimated vehicle position in the precision map and a lane in the surrounding image among the matched lanes is less than a first threshold value To determine
How to get lane information.
제 2 항에 있어서,
상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는,
상기 평균 픽셀 좌표 오차가 최소인 상기 후보 차선으로부터 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 좌표 오차가 제 2 임계값 이상인 픽셀의 개수가 제 3 임계값 이하인 상기 유효 차선을 결정하는
차선 정보 획득 방법.
The method of claim 2,
The step of determining the matched lane as the effective lane,
The number of pixels in which a coordinate error between a lane corresponding to the estimated vehicle position in the precision map and a lane in the surrounding image from the candidate lane having the minimum average pixel coordinate error is equal to or greater than a second threshold value is equal to or less than a third threshold value. To determine the effective lane
How to get lane information.
제 1 항에 있어서,
상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는,
상기 피팅된 다항함수에 대한 평균 피팅 오차가 제 4 임계값 이하인 경우, 상기 다항함수 계수를 획득하는
차선 정보 획득 방법.
The method of claim 1,
Obtaining the polynomial function coefficient for the fitted effective lane as correct answer data of the effective lane,
When the average fitting error for the fitted polynomial function is less than or equal to a fourth threshold value, obtaining the polynomial function coefficient
How to get lane information.
제 4 항에 있어서,
상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는,
상기 평균 피팅 오차가 상기 제 4 임계값 이하인 상기 피팅된 다항함수 중 피팅 오차가 제 5 임계값 이상인 픽셀의 개수가 제 6 임계값 이하인 상기 다항함수의 계수를 획득하는
차선 정보 획득 방법.
The method of claim 4,
Obtaining the polynomial function coefficient for the fitted effective lane as correct answer data of the effective lane,
Obtaining a coefficient of the polynomial function in which the number of pixels having a fitting error equal to or greater than a fifth threshold value among the fitted polynomial functions having the average fitting error equal to or lower than the fourth threshold value is equal to or lower than a sixth threshold value
How to get lane information.
제 1 항에 있어서,
상기 레이블링된 상기 유효 차선을 학습하여 상기 차선 정보 획득 모델을 생성하는 단계를 더 포함하고,
상기 차선 정보 획득 모델을 생성하는 단계는,
상기 유효 차선이 입력된 상기 차선 정보 획득 모델에 의해 출력된 출력 데이터와 상기 유효 차선에 레이블링된 상기 다항함수 계수 사이의 오차가 작아지도록 상기 유효 차선을 학습하는
차선 정보 획득 방법.
The method of claim 1,
Further comprising the step of generating the lane information acquisition model by learning the labeled effective lane,
The step of generating the lane information acquisition model,
Learning the effective lane so that an error between the output data output by the lane information acquisition model in which the effective lane is input and the polynomial coefficient labeled on the effective lane decreases
How to get lane information.
제 1 항에 있어서,
상기 유효 차선에 상기 다항함수 계수를 레이블링하는 단계는,
제 1 시점에 획득된 상기 주변 영상 내 상기 유효 차선을 상기 제 1 시점 이전의 제 2 시점에 획득된 상기 주변 영상 내 상기 유효 차선 및 상기 제 1 시점 이후의 제 3 시점에 획득된 상기 주변 영상 내 상기 유효 차선 중 적어도 하나를 병합하여 상기 다항함수 계수를 레이블링하는
차선 정보 획득 방법.
The method of claim 1,
Labeling the polynomial coefficient on the effective lane,
The effective lane in the surrounding image acquired at a first view point is in the surrounding image acquired at a second view point before the first view point, and the effective lane in the surrounding image acquired at a third view point after the first view point. Labeling the polynomial coefficient by merging at least one of the effective lanes
How to get lane information.
제 1 항에 있어서,
상기 차선 정보 획득 모델을 생성하는 단계는,
상기 레이블링된 상기 유효 차선과 함께 상기 차량의 위치 정보를 학습하여 상기 차선 정보 획득 모델을 생성하는
차선 정보 획득 방법.
The method of claim 1,
The step of generating the lane information acquisition model,
Generating the lane information acquisition model by learning the location information of the vehicle together with the labeled valid lane
How to get lane information.
제 1 항에 있어서,
상기 차량의 위치를 추정하는 단계는,
GPS 기반 상기 차량의 초기 위치 정보에 대응되는 상기 정밀 지도의 랜드마크를 상기 차량의 카메라에 의해 촬영된 상기 주변 영상에 매칭하여 상기 카메라의 초기 위치 정보를 획득하는 단계;
상기 카메라의 초기 위치 정보 및 상기 차량의 주행 정보를 기초로 샘플링된 복수의 후보 위치 정보 각각에 대응되는 상기 정밀 지도의 랜드마크와 상기 영상 간 매칭 정보에 기초하여 상기 카메라의 위치를 추정하는 단계; 및
상기 추정된 카메라의 위치를 기초로 상기 차량의 위치를 추정하는 단계를 포함하는
차선 정보 획득 방법.
The method of claim 1,
The step of estimating the location of the vehicle,
Obtaining initial location information of the camera by matching the landmark of the precision map corresponding to the initial location information of the vehicle based on GPS with the surrounding image captured by the camera of the vehicle;
Estimating the location of the camera based on matching information between the image and the landmark of the precision map corresponding to each of the plurality of candidate location information sampled based on the initial location information of the camera and the driving information of the vehicle; And
Including the step of estimating the position of the vehicle based on the estimated position of the camera
How to get lane information.
차량의 타겟 주변 영상으로부터 타겟 차선을 추출하는 단계; 및
상기 추출된 타겟 차선을 차선 정보 획득 모델에 입력하여 상기 타겟 차선의 피팅 결과로서의 다항함수 계수를 획득하는 단계를 포함하고,
상기 차선 정보 획득 모델은,
상기 차량의 주변 영상 내 차선과 정밀 지도 내 상기 차량의 위치에 대응되는 차선 간 매칭 정보에 따라 결정된 유효 차선의 피팅 결과를 학습함으로써 생성되는
차선 정보 획득 방법.
Extracting a target lane from an image around a target of the vehicle; And
Including the step of obtaining a polynomial coefficient as a result of fitting the target lane by inputting the extracted target lane into a lane information acquisition model,
The lane information acquisition model,
Generated by learning the fitting result of the effective lane determined according to matching information between the lane in the surrounding image of the vehicle and the lane corresponding to the location of the vehicle in the precision map
How to get lane information.
차량의 주변 영상을 기초로 상기 차량의 위치를 추정하고, 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하고, 상기 차선의 매칭 정보를 기초로 결정된 유효 차선을 피팅(Fitting)하여, 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 피팅부; 및
상기 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하고, 상기 레이블링된 상기 유효 차선을 학습하여 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성하는 모델 생성부를 포함하는
차선 정보 획득 장치.
The vehicle location is estimated based on the surrounding image of the vehicle, the lane corresponding to the estimated vehicle location in the precision map is matched with the lane in the surrounding image, and is determined based on the matching information of the lane. A fitting unit that fits an effective lane and obtains a polynomial function coefficient for the fitted effective lane; And
And a model generation unit for generating a lane information acquisition model for labeling the polynomial coefficient on the effective lane, learning the labeled effective lane, and outputting a polynomial function coefficient for a target lane.
Lane information acquisition device.
제 1 항 내지 제 10 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하도록 프로그램된 컴퓨터 판독 가능 기록매체에 저장된 프로그램. A program stored on a computer-readable recording medium programmed to perform each step according to the method according to any one of claims 1 to 10. 제 1 항 내지 제 10 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 프로그램이 기록된 컴퓨터 판독 가능 기록매체.A computer-readable recording medium on which a program including instructions for performing each step according to the method according to any one of claims 1 to 10 is recorded.
KR1020190068972A 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information KR20200141871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190068972A KR20200141871A (en) 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190068972A KR20200141871A (en) 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information

Publications (1)

Publication Number Publication Date
KR20200141871A true KR20200141871A (en) 2020-12-21

Family

ID=74090504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190068972A KR20200141871A (en) 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information

Country Status (1)

Country Link
KR (1) KR20200141871A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112782661A (en) * 2021-01-05 2021-05-11 广州小鹏自动驾驶科技有限公司 Method and related device for detecting motor vehicle road guardrail

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170097435A (en) 2016-02-18 2017-08-28 한국전자통신연구원 Apparatus and method for decision making for right turn in intersection for autonomous driving system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170097435A (en) 2016-02-18 2017-08-28 한국전자통신연구원 Apparatus and method for decision making for right turn in intersection for autonomous driving system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112782661A (en) * 2021-01-05 2021-05-11 广州小鹏自动驾驶科技有限公司 Method and related device for detecting motor vehicle road guardrail

Similar Documents

Publication Publication Date Title
US10976741B2 (en) Safety and comfort constraints for navigation
CN110531753B (en) Control system, control method and controller for autonomous vehicle
US10943355B2 (en) Systems and methods for detecting an object velocity
KR102420476B1 (en) Apparatus and method for estimating location of vehicle and computer recordable medium storing computer program thereof
CN108572663B (en) Target tracking
KR102146451B1 (en) Apparatus and method for acquiring conversion information of coordinate system
KR102071418B1 (en) Apparatus and method for providing camera calibration for vehicle
US11321950B2 (en) Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method
US20200284591A1 (en) Aligning road information for navigation
Chen et al. Pseudo-image and sparse points: Vehicle detection with 2D LiDAR revisited by deep learning-based methods
KR101797818B1 (en) Apparatus and method for providing road information based on deep learnig
CN110930323A (en) Method and device for removing light reflection of image
US20210165413A1 (en) Safe traversable area estimation in unstructured free-space using deep convolutional neural network
US20220315062A1 (en) Information processing apparatus, control apparatus for moving body, method of controlling information processing apparatus, and method of controlling moving body
KR20200120402A (en) Apparatus and method for obtaining estimated location of vehicle
KR102604821B1 (en) Apparatus and method for estimating location of vehicle
US20210396527A1 (en) Apparatus and method for determining of correction information of vehicle sensor
KR20200141871A (en) Apparatus and method for obtaining lane information
KR20210041969A (en) Apparatus and method for providing on-line camera calibration by using map matching
Rana et al. The perception systems used in fully automated vehicles: a comparative analysis
KR20200142716A (en) Method for providing navigation information, server and method for providing vehicle map
US20220284623A1 (en) Framework For 3D Object Detection And Depth Prediction From 2D Images
KR102129498B1 (en) Apparatus and method for estimating position of vehicle
US20240161398A1 (en) Late-to-early temporal fusion for point clouds
EP4266261A1 (en) 3d road surface estimation for automated driving systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal