KR20210029323A - Apparatus and method for improving cognitive performance of sensor fusion using precise map - Google Patents

Apparatus and method for improving cognitive performance of sensor fusion using precise map Download PDF

Info

Publication number
KR20210029323A
KR20210029323A KR1020190109937A KR20190109937A KR20210029323A KR 20210029323 A KR20210029323 A KR 20210029323A KR 1020190109937 A KR1020190109937 A KR 1020190109937A KR 20190109937 A KR20190109937 A KR 20190109937A KR 20210029323 A KR20210029323 A KR 20210029323A
Authority
KR
South Korea
Prior art keywords
location
vehicle
target
precision map
lane
Prior art date
Application number
KR1020190109937A
Other languages
Korean (ko)
Other versions
KR102596297B1 (en
Inventor
김학구
김제석
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190109937A priority Critical patent/KR102596297B1/en
Publication of KR20210029323A publication Critical patent/KR20210029323A/en
Application granted granted Critical
Publication of KR102596297B1 publication Critical patent/KR102596297B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed

Abstract

Disclosed are an apparatus and a method for improving the cognitive performance of a sensor fusion using a precise map. According to an aspect of the present invention, the apparatus for improving the cognitive performance of the sensor fusion using the precise map comprises: a position search unit which acquires the position data of a vehicle; a camera unit which takes a surrounding video of the vehicle; a surrounding situation collection unit which collects the surrounding situation data of the vehicle; a storage unit which stores the precise map including the navigation information and a geographic feature on the driven road; and a control unit which map-matches the position data of the vehicle and the camera lane data received from the camera unit with the precise map, estimates the precise position of the vehicle, pre-processes the surrounding situation data received from the surrounding situation collection unit, outputs integrated target information, maps the integrated target information on the precise map with special emphasis on the precise position of the vehicle, and estimates the position based on the lane of the precise map. The present invention aims to provide an apparatus and a method for improving the cognitive performance of a sensor fusion using a precise map, which is able to delete an incorrectly recognized target and to trace an un-recognized target.

Description

정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법{APPARATUS AND METHOD FOR IMPROVING COGNITIVE PERFORMANCE OF SENSOR FUSION USING PRECISE MAP}Device and method for improving cognitive performance of sensor fusion using precision map {APPARATUS AND METHOD FOR IMPROVING COGNITIVE PERFORMANCE OF SENSOR FUSION USING PRECISE MAP}

본 발명은 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법에 관한 것으로서, 보다 상세하게는 정밀 지도와 정밀 측위 기술을 접목하여, 센서 퓨전의 성능을 향상시킬 수 있는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for improving the cognitive performance of sensor fusion using a precision map, and more particularly, a sensor using a precision map capable of improving the performance of sensor fusion by combining precision map and precision positioning technology. It relates to an apparatus and a method for improving the cognitive performance of fusion.

자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다. 자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.An autonomous vehicle refers to a vehicle that independently determines a driving route by recognizing the surrounding environment through a function of detecting and processing external information during driving, and driving independently using its own power. Autonomous vehicles can travel to their destination by preventing collisions with obstacles on the driving path and adjusting the vehicle speed and driving direction according to the shape of the road, even if the driver does not operate the steering wheel, accelerator pedal, or brake. have. For example, acceleration may be performed on a straight road, and deceleration may be performed while changing a driving direction in response to a curvature of the road on a curved road.

자율 주행 차량에 적용되는 측위 시스템은 GPS(Global Positioning System) 및 각종 센서(Radar, LiDAR, Camera 등)를 이용하여 구축한 도로맵 정보를 바탕으로, 주행 중 획득되는 GPS 위치데이터 및 차량에 탑재된 센서를 통해 획득되는 센서 데이터 등을 통해 차량의 현재 위치를 결정한다. 자율 주행의 안정성을 확보하기 위해서는 차량의 현재 위치를 정확하게 파악하는 것이 중요하며, 출발지부터 목적지까지의 전체 주행 경로에서 주행 구간 내의 장애물을 검출하여 회피하기 위한 기능이 필요하게 된다.The positioning system applied to autonomous vehicles is based on road map information built using GPS (Global Positioning System) and various sensors (Radar, LiDAR, Camera, etc.). The current position of the vehicle is determined through sensor data acquired through the sensor. In order to secure the stability of autonomous driving, it is important to accurately grasp the current position of the vehicle, and a function for detecting and avoiding obstacles in the driving section in the entire driving route from the starting point to the destination is required.

상술한 바와 같이 자율 주행 차량은 각종 센서(예를 들면, 레이다(radar), 라이다(lidar), 영상 센서 등)에서 인지된 데이터를 통합하고, 각 대상물을 추적 처리하여 하나의 센서에서 인지된 정보인 것처럼 출력하는 센서 퓨전 기술을 이용하고 있다. 자율 주행 차량은 센서 퓨전 기술을 통해 출력된 정보를 바탕으로 주행상황을 판단하고 차량의 제어를 수행하므로 신뢰성 높은 센서 퓨전 기술은 자율주행 기술 개발에 선행되어야 하는 핵심적인 기술이다.As described above, the autonomous vehicle integrates data recognized by various sensors (for example, radar, lidar, image sensor, etc.), and tracks each object to be recognized by one sensor. It uses sensor fusion technology that outputs information as if it were information. Since autonomous vehicles judge driving conditions and control the vehicle based on information output through sensor fusion technology, highly reliable sensor fusion technology is a key technology that must precede the development of autonomous driving technology.

그러나, 종래에는 센서 퓨전을 인지된 센서 데이터에만 의존함으로써 미인지 혹은 오인지로 인한 신뢰성 향상에 어려움을 겪었다.However, conventionally, sensor fusion has been difficult to improve reliability due to unrecognized or misrecognized by relying only on perceived sensor data.

이에, 센서 퓨전 로직에 정밀 지도와 정밀 측위 기술을 접목함으로써 센서 퓨전의 성능을 향상시킬 수 있는 기술 개발이 요구되고 있다.Accordingly, there is a need to develop a technology capable of improving the performance of sensor fusion by incorporating precision maps and precise positioning technologies into sensor fusion logic.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2017-0098071호(2017.08.29. 공개)에 개시되어 있다.Background art of the present invention is disclosed in Korean Patent Application Publication No. 10-2017-0098071 (published on August 29, 2017).

본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 정밀 지도와 정밀 측위 기술을 접목함으로써 센서 퓨전의 성능을 향상시킬 수 있는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법을 제공하는 것이다. The present invention was conceived to improve the above problems, and an object of the present invention is to improve the cognitive performance of sensor fusion using a precision map that can improve the performance of sensor fusion by combining precision map and precision positioning technology. It is to provide an apparatus and method.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and another problem(s) not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치는, 차량의 위치 데이터를 획득하는 위치 탐색부, 상기 차량의 주변 영상을 촬영하는 카메라부, 상기 차량의 주변상황을 수집하는 주변상황 수집부, 주행도로에 대한 항법정보 및 지형지물을 포함하는 정밀지도를 저장하는 저장부 및 상기 위치 탐색부 및 상기 카메라부로부터 전달받은 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 주변상황 수집부로부터 전달받은 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하며, 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 제어부를 포함한다. An apparatus for improving perception performance of sensor fusion using a precision map according to an aspect of the present invention includes: a location search unit for obtaining location data of a vehicle, a camera unit for photographing an image around the vehicle, and a surrounding situation of the vehicle. The surrounding situation collecting unit to be collected, a storage unit for storing a precision map including navigation information and topographical features on the driving road, and the location data and camera lane data of the vehicle received from the location search unit and the camera unit are accurately processed. Map and map matching to estimate the precise location of the vehicle, pre-processing the surrounding situation data received from the surrounding situation collecting unit to output the integration target information, and the integration target information based on the precise location of the vehicle After mapping on the map, it includes a control unit for estimating a location based on the lane of the precision map.

본 발명에서 상기 제어부는, 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 제1 전처리부, 상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 제2 전처리부, 상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하고, 상기 통합 대상 정보 중에서 추적 대상을 선정하며, 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하며, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 센서 퓨전부를 포함할 수 있다. In the present invention, the control unit is a first pre-process of estimating the precise location of the vehicle by mapping the location data of the vehicle and the camera lane data with the precision map, and converting the surrounding map data of the vehicle into the host vehicle center coordinate system. Second, a second preprocessing unit that preprocesses the surrounding situation data to output the integration target information, displays the preprocessed integration target information on a precision map around the host vehicle coordinate system, and selects a tracking target from the integration target information And a sensor fusion unit that predicts the location of the tracking target based on the lane of the precision map and estimates the location of the tracking target based on the predicted location and the measured location.

본 발명에서 상기 제2 전처리부는, 상기 통합 대상 정보의 좌표계 및 단위를 상기 제1 전처리부에 의한 좌표계 및 단위와 일치시킬 수 있다. In the present invention, the second preprocessor may match the coordinate system and unit of the information to be integrated with the coordinate system and unit of the first preprocessor.

본 발명에서 상기 센서 퓨전부는, 상기 정밀지도의 차선 및 차선 중심선을 상기 자차량 중심 좌표계로 변환하고, 상기 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링하는 맵핑 모듈, 상기 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 상기 정밀지도의 차선에 기초하여 상기 추적 대상을 분류하는 추적 대상 선정 모듈, 상기 정밀지도 차선의 궤적과 추정 위치를 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 실제 위치를 추정하는 위치 예측 모듈을 포함할 수 있다. In the present invention, the sensor fusion unit converts the lane and the lane center line of the precision map into the own vehicle center coordinate system, displays the integration target information on the converted precision map, and integrates displayed on the converted precision map. A mapping module for clustering the same target from target information, a tracking target selection module for selecting at least one tracking target from among the clustered targets and classifying the tracking target based on the lane of the precision map, and the precision map lane And a position prediction module that predicts a location of the tracking target based on a trajectory and an estimated location, and estimates an actual location of the tracking target based on the predicted location and the measured location.

본 발명에서 상기 맵핑 모듈은, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링할 수 있다. In the present invention, the mapping module may cluster the same target within a predetermined distance from the integrated target information displayed on the converted precision map as a single target.

본 발명에서 상기 추적 대상 선정 모듈은, 상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류할 수 있다. In the present invention, the tracking target selection module includes a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding the selected tracking target based on the lane of the precision map and the relative position in the longitudinal/transverse direction with the vehicle. It can be classified as at least one of a target and an out-of-range deletion target.

본 발명에서 상기 위치 예측 모듈은, 상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측할 수 있다. In the present invention, the position prediction module may predict the current position using an existing estimated position under the assumption that the target to be tracked moves on a lane center line.

본 발명에서 상기 위치 예측 모듈은, 상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. In the present invention, the location prediction module may predict a location by applying a weight for a horizontal direction on the precision map of the tracking target.

본 발명에서 상기 센서 퓨전부는 상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 후처리 모듈을 더 포함할 수 있다. In the present invention, the sensor fusion unit further includes a post-processing module for selecting at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes based on the estimated position of the tracking target. can do.

본 발명의 다른 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법은, 제어부가 차량의 위치 데이터, 카메라 차선 데이터 및 주변상황 인지 데이터를 입력받아 상기 차량의 정밀 위치를 추정하고 통합 대상 정보를 생성하는 단계, 상기 제어부가 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계를 포함한다. According to another aspect of the present invention, a method for improving recognition performance of sensor fusion using a precision map is provided by a control unit receiving vehicle location data, camera lane data, and surrounding situation recognition data, estimating the precise location of the vehicle, and an integration target. Generating information, the controller mapping the integrated target information on the precision map based on the precise location of the vehicle, and estimating the location based on the lane of the precision map.

본 발명에서 상기 통합 대상 정보를 생성하는 단계는, 상기 제어부가 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 단계, 상기 제어부가 상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 단계를 포함할 수 있다. In the present invention, the step of generating the integrated target information includes, by the control unit, matching the location data of the vehicle and the camera lane data with the precision map to estimate the precise location of the vehicle, and to determine the surrounding map data of the vehicle. Converting to a vehicle center coordinate system, the control unit pre-processing the surrounding situation data may include the step of outputting the integration target information.

본 발명에서 상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계는, 상기 제어부가 상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하는 단계, 상기 제어부가 상기 통합 대상 정보 중에서 추적 대상을 선정하는 단계, 상기 제어부가 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 단계를 포함할 수 있다. In the present invention, the step of estimating a location based on the lanes of the precision map may include, by the control unit, displaying the preprocessed integration target information on a precision map around the host vehicle coordinate system, and the control unit Selecting a tracking target from among, the control unit predicting the location of the tracking target based on the lane of the precision map, and estimating the location of the tracking target based on the predicted location and the measured location can do.

본 발명의 상기 전처리된 통합 대상 정보를 표시하는 단계에서, 상기 제어부는 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링할 수 있다. In the step of displaying the preprocessed integration target information of the present invention, the control unit may cluster the same target within a predetermined distance from the integration target information displayed on the converted precision map into a single target.

본 발명의 상기 추적 대상을 선정하는 단계에서, 상기 제어부는 상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류할 수 있다. In the step of selecting the tracking target of the present invention, the control unit determines the selected target to be tracked based on the lane of the precision map and the relative position of the vehicle in the vertical/transverse direction as a left lane target, a right lane target, and a vehicle tail. It may be classified as at least one of a target, a vehicle preceding target, and an out-of-range deletion target.

본 발명의 상기 추적 대상의 위치를 추정하는 단계에서, 상기 제어부는 상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측할 수 있다. In the step of estimating the location of the tracking target according to the present invention, the controller may predict the current location using the existing estimated location on the assumption that the tracking target moves on a lane center line.

본 발명의 상기 추적 대상의 위치를 추정하는 단계에서, 상기 제어부는 상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. In the step of estimating the location of the tracking target according to the present invention, the control unit may predict the location by applying a weight in the horizontal direction on the precision map of the tracking target.

본 발명에서 상기 제어부가 상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 단계를 더 포함할 수 있다. In the present invention, the control unit may further include selecting at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes, based on the estimated position of the tracking target. .

본 발명의 일 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀지도의 차선을 기반으로 주변상황 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있고, 미인지 대상을 추적할 수 있다. An apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to an aspect of the present invention can delete a misrecognized object by correcting the surrounding situation data based on the lane of the precision map, and track an unrecognized object. can do.

본 발명의 다른 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀 지도와 정밀 측위 기술을 접목하여, 센서 퓨전의 성능을 향상시킬 수 있다. An apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to another aspect of the present invention may improve the performance of sensor fusion by combining a precision map and a precision positioning technology.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. Meanwhile, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within a range that is apparent to a person skilled in the art from the contents to be described below.

도 1은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치를 나타낸 블록도이다.
도 2는 도 1에 도시된 제어부를 상세히 설명하기 위한 블록도이다.
도 3은 도 2에 도시된 센서 퓨전부를 상세히 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 제어부의 동작을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 팹핑 모듈의 동작을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 추적 대상 선정 모듈의 동작을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 본 발명의 일 실시예에 따른 위치 예측 모듈의 동작을 설명하기 위한 예시도이다.
도 8은 본 발명의 일 실시예에 따른 차선 기반 위치 예측을 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 후처리 모듈의 동작을 설명하기 위한 예시도이다.
도 10은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법을 설명하기 위한 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 통합 대상 정보의 위치를 추정하는 방법을 설명하기 위한 흐름도이다.
1 is a block diagram showing an apparatus for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention.
FIG. 2 is a block diagram for explaining in detail the control unit illustrated in FIG. 1.
3 is a block diagram illustrating in detail the sensor fusion unit shown in FIG. 2.
4 is an exemplary diagram for explaining an operation of a control unit according to an embodiment of the present invention.
5 is an exemplary view for explaining the operation of the fapping module according to an embodiment of the present invention.
6 is an exemplary diagram for explaining the operation of the tracking target selection module according to an embodiment of the present invention.
7 is an exemplary diagram for explaining an operation of a position prediction module according to an embodiment of the present invention according to an embodiment of the present invention.
8 is an exemplary diagram for explaining lane-based position prediction according to an embodiment of the present invention.
9 is an exemplary diagram for explaining an operation of a post-processing module according to an embodiment of the present invention.
10 is a flowchart illustrating a method for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention.
11 is a flowchart illustrating a method of estimating a location of information to be integrated according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, an apparatus and method for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description.

또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.

또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Further, the implementation described herein may be implemented in, for example, a method or process, an apparatus, a software program, a data stream or a signal. Although discussed only in the context of a single form of implementation (eg, only as a method), the implementation of the discussed features may also be implemented in other forms (eg, an apparatus or program). The device may be implemented with appropriate hardware, software and firmware. The method may be implemented in an apparatus such as a processor, which generally refers to a processing device including, for example, a computer, a microprocessor, an integrated circuit or a programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.

도 1은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치를 나타낸 블록도, 도 2는 도 1에 도시된 제어부를 상세히 설명하기 위한 블록도, 도 3은 도 2에 도시된 센서 퓨전부를 상세히 설명하기 위한 블록도, 도 4는 본 발명의 일 실시예에 따른 제어부의 동작을 설명하기 위한 예시도, 도 5는 본 발명의 일 실시예에 따른 팹핑 모듈의 동작을 설명하기 위한 예시도, 도 6은 본 발명의 일 실시예에 따른 추적 대상 선정 모듈의 동작을 설명하기 위한 예시도, 도 7은 본 발명의 일 실시예에 따른 본 발명의 일 실시예에 따른 위치 예측 모듈의 동작을 설명하기 위한 예시도, 도 8은 본 발명의 일 실시예에 따른 차선 기반 위치 예측을 설명하기 위한 예시도, 도 9는 본 발명의 일 실시예에 따른 후처리 모듈의 동작을 설명하기 위한 예시도이다. 1 is a block diagram showing an apparatus for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention, FIG. 2 is a block diagram for explaining in detail the control unit shown in FIG. 1, and FIG. 3 is A block diagram for explaining the sensor fusion unit shown in 2 in detail, FIG. 4 is an exemplary view for explaining the operation of a control unit according to an embodiment of the present invention, and FIG. 5 is an operation of a fapping module according to an embodiment of the present invention. 6 is an exemplary view for explaining the operation of the tracking target selection module according to an embodiment of the present invention, and FIG. 7 is an exemplary view for explaining the operation of the tracking target selection module according to an embodiment of the present invention. An exemplary diagram for explaining the operation of the position prediction module, FIG. 8 is an exemplary diagram for explaining lane-based position prediction according to an embodiment of the present invention, and FIG. 9 is an operation of a post-processing module according to an embodiment of the present invention. It is an exemplary diagram for explaining

도 1을 참조하면, 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치는 위치 탐색부(110), 카메라부(120), 차량상태 수집부(130), 주변환경 수집부(140), 저장부(150) 및 제어부(160)를 포함한다. Referring to FIG. 1, an apparatus for improving the cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention includes a location search unit 110, a camera unit 120, a vehicle state collection unit 130, and a surrounding area. It includes an environment collection unit 140, a storage unit 150, and a control unit 160.

위치 탐색부(110)는 차량의 위치 데이터를 획득하여 제어부(160)에 제공할 수 있다. 여기서, 위치 탐색부(110)는 위성항법과 추측항법 중 어느 하나 이상을 통해 차량의 위치 데이터를 탐색할 수 있다. The location search unit 110 may obtain the location data of the vehicle and provide it to the control unit 160. Here, the location search unit 110 may search for location data of the vehicle through one or more of satellite navigation and guessing navigation.

이때, 위성항법은 GNSS(Global Navigation Satellite System)를 기반으로 차량의 위치 데이터를 획득하는 것으로, GPS(Global Positioning System), GLONASS(Global Navigation Satellite System), 갈릴레오(Galileo), 베이더우(Beidou) 등의 시스템으로부터 차량의 절대 좌표를 전달받을 수 있으며, 이를 기반으로 위치 데이터(위경도 좌표, 방향, 속도, quality 등)를 생성할 수 있다. 또한, 추측항법은 차량의 속도계(미도시), 자이로센서(미도시), 및 지자기센서(미도시) 등으로부터 획득한 속도 및 차량의 DR(Dead Reckoning) 정보를 기반으로 차량의 위치 데이터를 생성할 수 있다. At this time, satellite navigation is to acquire vehicle location data based on GNSS (Global Navigation Satellite System), such as GPS (Global Positioning System), GLONASS (Global Navigation Satellite System), Galileo, Beidou, etc. It is possible to receive the absolute coordinates of the vehicle from the system of, and based on this, it is possible to generate location data (latitude and longitude coordinates, direction, speed, quality, etc.). In addition, speculative navigation creates vehicle location data based on the speed acquired from the vehicle's speedometer (not shown), gyro sensor (not shown), and geomagnetic sensor (not shown), and the vehicle's DR (Dead Reckoning) information. can do.

카메라부(120)는 차량의 주변 영상을 촬영하여, 차선, 신호등, 주변차량, 보행자 및 장애물 등의 카메라 데이터를 검출할 수 있다. 카메라부(120)는 검출된 카메라 데이터를 제어부(160)에 제공하고, 카메라 데이터는 카메라 차선 데이터를 포함할 수 있다. The camera unit 120 may capture an image around the vehicle and detect camera data such as lanes, traffic lights, surrounding vehicles, pedestrians, and obstacles. The camera unit 120 provides the detected camera data to the controller 160, and the camera data may include camera lane data.

차량상태 수집부(130)는 차량의 구동상태를 수집하여 제어부(160)에 제공한다. 예를 들어, 차량상태 수집부(130)는 차량의 조향상태, 제동상태, 가속상태 및 주행상태를 수집하여 제공할 수 있다. The vehicle state collection unit 130 collects the driving state of the vehicle and provides it to the control unit 160. For example, the vehicle state collection unit 130 may collect and provide a steering state, a braking state, an acceleration state, and a driving state of the vehicle.

주변환경 수집부(140)는 차량의 주변상황을 수집하여 제어부(160)에 제공한다. 여기서 차량상태 수집부(130)는 레이더(미도시), 라이더(미도시) 등의 다양한 센서를 포함할 수 있고, 차선, 신호등, 주변차량, 보행자 및 장애물 등을 포함하는 주변상황 인지 데이터를 검출하고, 검출된 주변상황 인지 데이터를 제어부(160)에 제공할 수 있다. The surrounding environment collection unit 140 collects the surrounding situation of the vehicle and provides it to the control unit 160. Here, the vehicle state collection unit 130 may include various sensors such as a radar (not shown) and a rider (not shown), and detect surrounding situation awareness data including lanes, traffic lights, surrounding vehicles, pedestrians, and obstacles. And, the detected surrounding situation recognition data may be provided to the control unit 160.

저장부(150)는 자율주행을 위한 주행도로에 대한 항법정보 및 지형지물을 포함하는 정밀지도를 저장한다. 여기서, 항법정보에는 지도버전, 링크 ID, 링크거리, 회전링크 여부, 도로등급 및 도로등급별 규정 속도 등이 포함될 수 있다. The storage unit 150 stores a precision map including navigation information and topographic features for a driving road for autonomous driving. Here, the navigation information may include a map version, a link ID, a link distance, whether a rotating link, a road grade, and a prescribed speed for each road grade.

또한, 저장부(150)는 도로에 대한 고정밀 지도를 저장하여 차선, 신호등, 표지판, 연석, 노면마크 및 각종 구조물에 대한 정보를 제공할 수 있다. In addition, the storage unit 150 may store a high-precision map of a road and provide information on lanes, traffic lights, signs, curbs, road marks, and various structures.

제어부(160)는 위치 탐색부(110) 및 카메라부(120)로부터 전달받은 차량의 위치 데이터 및 카메라 차선 데이터를 저장부(150)에 저장된 정밀지도와 맵매칭하여 차량의 정밀 위치를 추정하고, 차량상태 수집부(130)로부터 전달받은 주변상황 인지 데이터를 전처리하여 통합 대상 정보를 출력하며, 통합 대상 정보를 차량의 정밀 위치를 중심으로 정밀지도 상에 맵핑한 후, 정밀지도의 차선을 기반으로 위치를 추정한다. The controller 160 estimates the precise location of the vehicle by matching the map with the precision map stored in the storage unit 150 with the location data of the vehicle and the camera lane data transmitted from the location search unit 110 and the camera unit 120, Pre-processing the surrounding situation perception data received from the vehicle state collection unit 130 to output the integrated target information, map the integrated target information on a precision map centering on the precise location of the vehicle, and then based on the lanes of the precision map. Estimate the location.

즉, 제어부(160)는 차량의 위치 데이터를 정밀지도와 맵 매칭하여 차량의 정밀 위치를 추정하고, 차량의 정밀 위치를 중심으로 주변상황 데이터를 맵핑하며, 정밀지도의 차선을 기반으로 주변상황 인지 데이터를 보정한다. 이때, 제어부(160)는 정밀지도의 차선을 기반으로 주변상황 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있고, 미인지 대상을 추적할 수 있다. 예를 들면, 제어부(160)는 도 4에 도시된 바와 같이 고정밀 지도에 주변상황 인지 데이터를 맵핑함으로써, 센서 퓨전의 성능을 향상시킬 수 있다. That is, the control unit 160 estimates the precise location of the vehicle by matching the vehicle location data with the precision map, maps the surrounding situation data around the precise location of the vehicle, and recognizes the surrounding situation based on the lane of the precision map. Correct the data. At this time, the control unit 160 can delete the falsely recognized object and track the unrecognized object by correcting the surrounding situation data based on the lane of the precision map. For example, as illustrated in FIG. 4, the controller 160 may improve sensor fusion performance by mapping the surrounding situation perception data to a high-precision map.

이러한 제어부(160)는 도 2에 도시된 바와 같이 제1 전처리부(161a), 제2 전처리부(161b) 및 센서 퓨전부(162)를 포함한다. As shown in FIG. 2, the control unit 160 includes a first preprocessor 161a, a second preprocessor 161b, and a sensor fusion unit 162.

제1 전처리부(161a)는 차량의 위치 데이터 및 카메라 차선 데이터를 정밀지도와 맵매칭하여 차량의 정밀 위치를 추정하고, 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환한다. The first preprocessor 161a estimates the precise location of the vehicle by matching the vehicle location data and the camera lane data with a precision map, and converts the surrounding map data of the vehicle into the host vehicle center coordinate system.

즉, 제1 전처리부(161a)는 차량의 위치 데이터, 카메라 차선 데이터 및 정밀지도를 활용하여 차량의 위치를 정확하게 추정할 수 있다. 그런 후, 제1 전처리부(161a)는 차량의 주변 지도 데이터를 차량 중심 좌표계로 변환하여 제어부(160)에 제공할 수 있다. That is, the first preprocessor 161a may accurately estimate the location of the vehicle by using the vehicle location data, camera lane data, and a precision map. Thereafter, the first preprocessor 161a may convert the map data around the vehicle into a vehicle center coordinate system and provide it to the control unit 160.

제2 전처리부(161b)는 주변상황 인지 데이터를 전처리하여 통합 대상 정보를 출력한다. 즉, 제2 전처리부(161b)는 주변상황 인지 데이터를 전처리하여, 센서 퓨전에 필요한 통합 대상 정보를 출력할 수 있다. 여기서, 통합 대상 정보는 주변 차량, 보행자, 장애물 등을 포함할 수 있다. The second preprocessing unit 161b preprocesses the surrounding situation-aware data and outputs integration target information. That is, the second preprocessor 161b may pre-process the surrounding situation perception data and output integrated target information required for sensor fusion. Here, the information to be integrated may include surrounding vehicles, pedestrians, and obstacles.

또한, 제2 전처리부(161b)는 주변상황 인지 데이터를 센서퓨전에서 활용 가능한 데이터로 형식을 변환할 수 있다. 이때, 제2 전처리부(161b)는 통합 대상 정보의 좌표계 및 단위를 제1 전처리부(161a)에 의한 좌표계 및 단위와 일치시킬 수 있다. In addition, the second pre-processing unit 161b may convert the surrounding situation perception data into data that can be used in sensor fusion. In this case, the second preprocessor 161b may match the coordinate system and unit of the information to be integrated with the coordinate system and unit of the first preprocessor 161a.

예를 들면, 차량상태 수집부(130)는 각종 센서로 구성됨으로써, 센서마다 검출된 대상의 크기, 길이, 좌표계 등이 다를 수 있다. 이에, 제2 전처리부(161b)는 각종 센서로부터 입력받은 주변상황 인지 데이터를 센서 퓨전에서 활용 가능하도록 크기, 길이 등의 단위, 좌표계를 일치시킬 수 있다.For example, since the vehicle state collection unit 130 is composed of various sensors, the size, length, and coordinate system of the detected object may be different for each sensor. Accordingly, the second preprocessor 161b may match units such as size and length, and a coordinate system so that the surrounding situation perception data received from various sensors can be utilized in sensor fusion.

센서 퓨전부(162)는 자차량 좌표계 주변에 대한 정밀지도 상에 제2 전처리부(161b)에서 전처리된 통합 대상 정보를 표시하고, 정밀지도 상에 표시된 통합 대상 정보 중에서 추적 대상을 선정하며, 정밀지도의 차선을 기반으로 추적 대상의 위치를 예측하며, 예측된 위치와 측정된 위치를 기반으로 추적 대상의 위치를 추정한다. The sensor fusion unit 162 displays the integrated target information preprocessed by the second preprocessor 161b on a precision map around the own vehicle's coordinate system, selects a tracking target from the integrated target information displayed on the precision map, and The location of the target to be tracked is predicted based on the lanes of the map, and the location of the target to be tracked is estimated based on the predicted and measured locations.

센서 퓨전부(162)는 정밀 지도 상에 통합 대상 정보를 맵핑한 후 차선을 기반으로 추적 대상의 위치를 추정할 수 있다. The sensor fusion unit 162 may estimate the location of the tracking target based on the lane after mapping the integrated target information on the precision map.

이러한 센서 퓨전부(162)는 도 3에 도시된 바와 같이 맵핑 모듈(163), 추적 대상 선정 모듈(164), 위치 예측 모듈(165) 및 후처리 모듈(166)을 포함한다. As shown in FIG. 3, the sensor fusion unit 162 includes a mapping module 163, a tracking target selection module 164, a location prediction module 165, and a post-processing module 166.

맵핑 모듈(163)은 정밀지도의 차선 및 차선 중심선을 차량 중심 좌표계로 변환하고, 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링한다.The mapping module 163 converts the lanes and the lane center lines of the precision map into the vehicle center coordinate system, displays the integrated target information on the converted precision map, and selects the same target from the integrated target information displayed on the converted precision map. Cluster.

구체적으로, 맵핑 모듈(163)은 차량의 정밀 위치를 중심으로 정밀지도의 차선 및 차선 중심선을 차량중심좌표계로 변환한다. 예를 들면, 맵핑 모듈(163)은 도 5의 (a)에 도시된 바와 같이 차량의 정밀 위치(A)를 중심으로 정밀지도의 차선 및 차선 중심선을 표시할 수 있다. Specifically, the mapping module 163 converts the lane and the lane center line of the precision map into the vehicle center coordinate system based on the precise location of the vehicle. For example, the mapping module 163 may display the lane and the lane center line of the precision map around the precise location A of the vehicle as shown in FIG. 5A.

그런 후, 맵핑 모듈(163)은 통합 대상 정보를 차량의 정밀 위치를 중심으로 정밀지도 상에 표시한다. 예를 들어, 맵핑 모듈(163)은 도 5의 (b)와 같은 통합 대상 정보를 도 5의 (a)에 표시하면, 도 5의 (c)와 같이 표시될 수 있다. Then, the mapping module 163 displays the information to be integrated on the precision map centering on the precise location of the vehicle. For example, when the mapping module 163 displays the integration target information as shown in FIG. 5(b) in FIG. 5(a), it may be displayed as in FIG. 5(c).

그런 후, 맵핑 모듈(163)은 차량의 정밀 위치를 중심으로 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링한다. 여기서, 클럭스터링은 동일 대상을 묶고 단일 대상으로 분류하는 것을 의미할 수 있다. 예를 들면, 맵핑 모듈(163)은 도 5의 (c)에 표시된 바와 같이 동일 대상을 클러스터링 할 수 있다. Thereafter, the mapping module 163 clusters the same object within a predetermined distance from the integrated object information displayed on the precision map as a single object based on the precise location of the vehicle. Here, clockstering may mean grouping the same objects and classifying them into a single object. For example, the mapping module 163 may cluster the same object as shown in (c) of FIG. 5.

추적 대상 선정 모듈(164)은 맵핑 모듈(163)에서 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 정밀지도의 차선에 기초하여 추적 대상을 분류한다. 이때, 추적 대상 선정 모듈(164)은 센서 특성(예컨대, 측정 범위, 종/횡방향 측정 정확도 및 추적 신뢰성 등을 포함함)을 고려하고, 기 설정된 일정 시간 전의 추적 대상 정보에 기초하여 추적 대상을 선정할 수 있다. 여기서, 기 설정된 일정 시간 전의 추적 대상 정보는 예컨대, 0.5초 전의 추적 대상 정보를 의미할 수 있다. The tracking target selection module 164 selects at least one tracking target from among targets clustered by the mapping module 163 and classifies the tracking target based on a lane of the precision map. At this time, the tracking target selection module 164 considers sensor characteristics (eg, measurement range, vertical/horizontal measurement accuracy, tracking reliability, etc.), and selects the tracking target based on the tracking target information before a predetermined time. Can be selected. Here, the tracking target information before a preset predetermined time may mean, for example, tracking target information 0.5 seconds before.

추적 대상 선정 모듈(164)은 자차량을 중심으로 자차량에 위험을 줄 수 있는 대상을 추적 대상으로 선정할 수 있다. 예컨대, 추적 대상 선정 모듈(164)은 선행 차량, 보행자, 좌측 자량, 우측 차량 등을 추적 대상으로 선정할 수 있다. The tracking target selection module 164 may select a target that may pose a risk to the host vehicle as a tracking target, centering on the host vehicle. For example, the tracking target selection module 164 may select a preceding vehicle, a pedestrian, a left vehicle, a right vehicle, and the like as a tracking target.

추적 대상이 선정되면, 추적 대상 선정 모듈(164)은 정밀지도의 차선 및 자차량과의 종/횡 방향 상대위치에 기초하여 선정된 추적 대상을 분류할 수 있다. 예컨대, 추적 대상 선정 모듈(164)은 기 설정된 일정 거리 이상의 추적 대상(자차량에 위험을 줄 가능성이 낮은 대상)을 범위밖 대상으로 분류할 수 있다. 또한, 추적 대상 선정 모듈(164)은 일정 거리 이내의 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상 각각을 분류할 수도 있다. When the tracking target is selected, the tracking target selection module 164 may classify the selected tracking target based on the lane of the precision map and the relative position of the vehicle in the longitudinal/lateral directions. For example, the tracking target selection module 164 may classify a tracking target of a predetermined distance or more (a target with a low possibility of giving a risk to the host vehicle) as an out-of-range target. In addition, the tracking target selection module 164 may classify each of a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding target within a predetermined distance.

예를 들어, 도 6과 같이 자차량(A)과 통합 대상 정보가 표시된 경우, 추적 대상 선정 모듈(164)은 E 이상의 거리에 있는 대상은 범위밖의 대상이므로 추적 대상에서 삭제할 수 있다. 또한, 추적 대상 선정 모듈(164)은 추적 대상을 좌측 차선 대상(B), 우측 차선 대상(C), 차량 후미 대상(D), 및 차량 선행 대상(미도시) 등으로 분류할 수 있다. For example, as shown in FIG. 6, when the host vehicle A and the integrated target information are displayed, the tracking target selection module 164 may delete the target at a distance E or more from the target to be tracked because the target is outside the range. In addition, the tracking target selection module 164 may classify the tracking target into a left lane target (B), a right lane target (C), a vehicle rear target (D), and a vehicle preceding target (not shown).

위치 예측 모듈(165)은 정밀지도 차선의 궤적과 추정 위치를 기반으로 추적 대상 선정 모듈(164)에서 분류된 추적 대상의 위치를 예측하고, 예측된 위치와 측정된 위치를 기반으로 추적 대상의 실제 위치를 추정한다. 이때, 위치 예측 모듈(165)은 추적 대상이 차선 중심선 상을 이동한다는 가정하에 기존 추정 위치를 근거로 현위치를 예측할 수 있다. The location prediction module 165 predicts the location of the tracking target classified in the tracking target selection module 164 based on the trajectory and the estimated location of the precision map lane, and the actual tracking target is based on the predicted location and the measured location. Estimate the location. At this time, the location prediction module 165 may predict the current location based on the existing estimated location on the assumption that the tracking target moves on the lane center line.

즉, 위치 예측 모듈(165)은 정밀지도 차선의 궤적과 기존 추정위치를 기반으로 추적 대상의 특정 시간 이후의 위치를 예측할 수 있다. 이때, 범위 밖 대상은 추정 대상에서 제외함으로써 계산 시간을 단축시킬 수 있다. 그런 후, 위치 예측 모듈(165)은 예측된 위치와 측정된 위치를 기반으로 실제 대상의 위치를 추정할 수 있다. That is, the location prediction module 165 may predict a location after a specific time of the tracking target based on the trajectory of the precision map lane and the existing estimated location. At this time, the calculation time can be shortened by excluding the object outside the range from the estimation object. Then, the location prediction module 165 may estimate the location of the actual target based on the predicted location and the measured location.

예를 들어, 도 7의 (a)에서 F의 실제 위치를 추정하는 경우에 대해 설명하기로 한다. 이 경우, 위치 예측 모듈(165)은 도 7의 (b)와 같이 F의 기존 추정 위치인 a를 이용하여 특정 시간 이후의 위치인 b를 예측할 수 있다. 이때, 위치 예측 모듈(165)은 F가 차선 중심선 상을 이동한다는 가정하에 기존 위치 a를 근거로 위치를 예측할 수 있다. 그런 후, 위치 예측 모듈(165)은 예측 위치 b와 측정 위치 c를 이용하여 d와 같이 위치를 추정할 수 있다. For example, a case of estimating the actual position of F in FIG. 7A will be described. In this case, the location prediction module 165 may predict a location b after a specific time by using the existing estimated location a of F as shown in FIG. 7B. In this case, the position prediction module 165 may predict the position based on the existing position a on the assumption that F moves on the lane center line. Then, the location prediction module 165 may estimate the location as shown by d by using the predicted location b and the measured location c.

또한, 위치 예측 모듈(165)은 측정 위치를 이용하여 예측 위치를 보정하여, 실제 위치를 추정할 수 있다. 이때, 위치 예측 모듈(165)은 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. 즉, 위치 예측 모듈(165)은 차선 중심선의 경로를 이용하여 추적 대상의 위치를 예측하므로, 차선 중심선을 기준으로 횡방향에 대한 오차 분산이 종방향에 대한 오차 분산보다 클 수 있다. 이에, 위치 예측 모듈(165)은 횡방향에 대한 오차 분산을 줄이기 위해, 정밀지도 상 횡방향에 대한 가중치를 부가하여 추적 대상의 위치를 예측할 수 있다. In addition, the position prediction module 165 may estimate the actual position by correcting the predicted position using the measured position. In this case, the location prediction module 165 may predict a location by applying a weight for a horizontal direction on a precision map of the tracking target. That is, since the position prediction module 165 predicts the location of the target to be tracked using the path of the lane centerline, the error variance in the lateral direction based on the lane centerline may be greater than the error variance in the vertical direction. Accordingly, the position prediction module 165 may predict the location of the target to be tracked by adding a weight for the horizontal direction on the precision map in order to reduce the error variance in the horizontal direction.

또한, 위치 예측 모듈(165)은 곡선로 등에서 부정확한 횡방향 정보의 가중치를 줄이고 차선 중심선의 경로를 이용하여 위치를 예측할 수 있다. 특히, 위치 예측 모듈(165)은 도로의 곡률변화가 심한 경우 도로 경로를 이용하여 위치를 예측할 수 있다. In addition, the position prediction module 165 may reduce the weight of inaccurate lateral information on a curved road or the like and predict a position using a path of a lane centerline. In particular, the location prediction module 165 may predict a location using a road path when the curvature change of the road is severe.

예를 들어, 도 8에서 e가 기존 위치인 경우, 측정값을 이용하여 위치를 예측하면 g의 위치일 수 있고, 지도의 경로를 이용하여 예측하면 f의 위치일 수 있다.For example, in FIG. 8, if e is an existing location, if the location is predicted using the measured value, it may be the location of g, and if predicted using the path of the map, it may be the location of f.

또한, 위치 예측 모듈(165)은 예측된 현위치와 측정된 현위치를 통합하여 추적 대상의 위치와 속도 등을 추정할 수 있다. In addition, the location prediction module 165 may estimate the location and speed of the target to be tracked by integrating the predicted current location and the measured current location.

한편, 본 발명에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치는 주변 대상의 추적 정보를 제어기(예컨대, ECU 등)에서 원하는 형태 및 정보 등으로 제공할 필요가 있다. On the other hand, the apparatus for improving the cognitive performance of sensor fusion using a precision map according to the present invention needs to provide tracking information of surrounding objects in a desired form and information from a controller (eg, ECU, etc.).

이에, 후처리 모듈(166)은 위치 예측 모듈(165)에서 추정된 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별한다. Accordingly, the post-processing module 166 selects at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes, based on the position estimated by the position prediction module 165. .

즉, 후처리 모듈(166)은 추적 대상의 추정 정보를 근거로 주변상황 인지 데이터 단독으로는 판단이 어려운 선별된 정보를 송출할 수 있다. 예컨대, 도 9와 같이 후처리 모듈(166)은 종방향 속도 제어에 필요한 최우선 대상(선행차량) 정보, 끼어들기 가능 대상 정보, 차선 변경 가능 여부 판단에 필요한 대상 정보(좌/우측 차선 대상) 등을 선별할 수 있다. That is, the post-processing module 166 may transmit selected information that is difficult to determine with the surrounding situation recognition data alone, based on the estimated information of the tracking target. For example, as shown in FIG. 9, the post-processing module 166 includes information on the highest priority target (preceding vehicle) required for longitudinal speed control, information on the target for interruption, target information necessary for determining whether a lane change is possible (target information on the left/right lane), etc. Can be selected.

상술한 바와 같이 제어부(160)는 정밀지도의 차선을 기반으로 센서 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있으며, 미인지 대상을 추적할 수 있다. 또한, 제어부(160)는 차선 정보를 바탕으로 인지 대상 정보를 보정할 수 있다. As described above, by correcting sensor data based on the lane of the precision map, the controller 160 can delete the falsely recognized object and track the unrecognized object. Also, the controller 160 may correct the recognition target information based on the lane information.

도 10은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법을 설명하기 위한 흐름도이다. 10 is a flowchart illustrating a method for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention.

도 10을 참조하면, 제어부(160)는 차량의 위치 데이터, 카메라 차선 데이터 및 주변상황 인지 데이터를 입력받으면(S1000), 입력받은 데이터를 이용하여 차량의 정밀 위치를 추정하고 통합 대상 정보를 생성한다(S1010). 이때, 제어부(160)는 차량의 위치 데이터 및 카메라 차선 데이터를 정밀지도와 맵매칭하여 차량의 정밀 위치를 추정할 수 있고, 주변상황 인지 데이터를 전처리하여 통합 대상 정보를 생성할 수 있다. Referring to FIG. 10, when receiving vehicle location data, camera lane data, and surrounding situation recognition data (S1000), the controller 160 estimates the precise location of the vehicle using the received data and generates integrated target information. (S1010). In this case, the control unit 160 may estimate the precise location of the vehicle by matching the vehicle location data and the camera lane data with the precision map, and may pre-process the surrounding situation recognition data to generate the integrated target information.

단계 S1010이 수행되면, 제어부(160)는 차량의 정밀 위치를 중심으로 통합 대상 정보를 정밀지도 상에 맵핑한 후, 정밀지도의 차선을 기반으로 통합 대상 정보의 위치를 추정한다(S1020). When step S1010 is performed, the controller 160 maps the integrated target information on the precision map based on the precise location of the vehicle, and then estimates the location of the integrated target information based on the lane of the precision map (S1020).

제어부(160)가 통합 대상 정보의 위치를 추정하는 방법에 대한 상세한 설명은 도 11을 참조하기로 한다. For a detailed description of how the control unit 160 estimates the location of the information to be integrated, refer to FIG. 11.

도 11은 본 발명의 일 실시예에 따른 통합 대상 정보의 위치를 추정하는 방법을 설명하기 위한 흐름도이다. 11 is a flowchart illustrating a method of estimating a location of information to be integrated according to an embodiment of the present invention.

도 11을 참조하면, 제어부(160)는 차량의 정밀 위치를 중심으로 통합 대상 정보를 정밀지도 상에 맵핑하고, 동일 대상을 클러스터링한다(S1100). 즉, 제어부(160)는 정밀지도의 차선 및 차선 중심선을 차량 중심 좌표계로 변환하고, 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링한다.Referring to FIG. 11, the controller 160 maps integrated target information on a precision map based on a precise location of a vehicle, and clusters the same target (S1100). That is, the control unit 160 converts the lane and the lane center line of the precision map into the vehicle center coordinate system, displays the integrated target information on the converted precision map, and displays the same target from the integrated target information displayed on the converted precision map. Is clustered.

단계 S1100이 수행되면, 제어부(160)는 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 정밀지도의 차선에 기초하여 추적 대상을 분류한다(S1110). 즉, 제어부(160)는 센서 특성(예컨대, 측정 범위, 종/횡방향 측정 정확도 및 추적 신뢰성 등을 포함함)을 고려하고, 기 설정된 일정 시간 전의 추적 대상 정보에 기초하여 추적 대상을 선정하고, 정밀지도의 차선 및 자차량과의 종/횡 방향 상대위치에 기초하여 선정된 추적 대상을 분류할 수 있다. When step S1100 is performed, the controller 160 selects at least one tracking target from among the clustered targets, and classifies the tracking target based on the lane of the precision map (S1110). That is, the controller 160 considers sensor characteristics (eg, measurement range, vertical/lateral measurement accuracy, tracking reliability, etc.), and selects a tracking target based on tracking target information before a predetermined time, Selected tracking targets can be classified based on the lanes of the precision map and the relative position of the vehicle in the longitudinal/transverse directions.

단계 S1110이 수행되면, 제어부(160)는 정밀지도 차선의 궤적과 추정 위치를 기반으로 추적 대상의 위치를 예측한다(S1120). 이때, 위치 예측 모듈(165)은 추적 대상이 차선 중심선 상을 이동한다는 가정하에 기존 추정 위치를 근거로 현위치를 예측할 수 있다. When step S1110 is performed, the controller 160 predicts the location of the tracking target based on the trajectory and the estimated location of the precision map lane (S1120). At this time, the location prediction module 165 may predict the current location based on the existing estimated location on the assumption that the tracking target moves on the lane center line.

단계 S1120이 수행되면, 제어부(160)는 측정 위치를 이용하여 예측 위치를 보정하여, 실제 위치를 추정한다(S1130). 이때, 제어부(160)는 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. When step S1120 is performed, the controller 160 corrects the predicted position using the measured position and estimates the actual position (S1130). In this case, the controller 160 may predict a location by applying a weight for a horizontal direction on the precision map of the tracking target.

단계 S1130이 수행되면, 제어부(160)는 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별한다(S1140). When step S1130 is performed, the control unit 160 selects at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes based on the estimated position of the tracking target (S1140). .

상술한 바와 같이, 본 발명의 일 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀지도의 차선을 기반으로 주변상황 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있고, 미인지 대상을 추적할 수 있다. As described above, in the apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to an aspect of the present invention, by correcting the surrounding situation data based on the lane of the precision map, it is possible to delete a misrecognized object, You can track unknown objects.

본 발명의 다른 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀 지도와 정밀 측위 기술을 접목하여, 센서 퓨전의 성능을 향상시킬 수 있다. An apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to another aspect of the present invention may improve the performance of sensor fusion by combining a precision map and a precision positioning technology.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, this is only illustrative, and those of ordinary skill in the field to which the technology pertains, various modifications and other equivalent embodiments are possible. I will understand.

따라서 본 발명의 진정한 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the following claims.

110 : 위치 탐색부
120 : 카메라부
130 : 차량상태 수집부
140 : 주변황경 수집부
150 : 저장부
160 : 제어부
110: location search unit
120: camera unit
130: vehicle state collection unit
140: surrounding landscape collection unit
150: storage unit
160: control unit

Claims (17)

차량의 위치 데이터를 획득하는 위치 탐색부;
상기 차량의 주변 영상을 촬영하는 카메라부;
상기 차량의 주변상황을 수집하는 주변상황 수집부;
주행도로에 대한 항법정보 및 지형지물을 포함하는 정밀지도를 저장하는 저장부; 및
상기 위치 탐색부 및 상기 카메라부로부터 전달받은 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 주변상황 수집부로부터 전달받은 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하며, 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 제어부
를 포함하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
A location search unit for obtaining location data of the vehicle;
A camera unit for capturing an image around the vehicle;
A surrounding situation collecting unit for collecting the surrounding situation of the vehicle;
A storage unit for storing a precision map including navigation information and topographic features for the driving road; And
Map-matching the location data and camera lane data of the vehicle received from the location search unit and the camera unit with the precision map to estimate the precise location of the vehicle, and pre-process the surrounding situation data received from the surrounding situation collection unit. The control unit outputs the integration target information, maps the integration target information on the precision map based on the precise location of the vehicle, and estimates the location based on the lane of the precision map
Device for improving cognitive performance of sensor fusion using a precision map comprising a.
제1항에 있어서,
상기 제어부는,
상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 제1 전처리부;
상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 제2 전처리부; 및
상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하고, 상기 통합 대상 정보 중에서 추적 대상을 선정하며, 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하며, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 센서 퓨전부를 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 1,
The control unit,
A first preprocessing unit for estimating the precise location of the vehicle by mapping the location data of the vehicle and the camera lane data with the precision map, and converting the surrounding map data of the vehicle into the own vehicle center coordinate system;
A second preprocessing unit preprocessing the surrounding situation data and outputting information to be integrated; And
Displaying the preprocessed integrated target information on a precision map around the own vehicle coordinate system, selecting a tracking target from the integrated target information, predicting the location of the tracking target based on the lane of the precision map, and the An apparatus for improving cognitive performance of sensor fusion using a precision map, comprising: a sensor fusion unit that estimates the location of the target to be tracked based on the predicted location and the measured location.
제2항에 있어서,
상기 제2 전처리부는,
상기 통합 대상 정보의 좌표계 및 단위를 상기 제1 전처리부에 의한 좌표계 및 단위와 일치시키는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 2,
The second pretreatment unit,
An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that the coordinate system and unit of the integrated target information are matched with the coordinate system and unit of the first preprocessor.
제2항에 있어서,
상기 센서 퓨전부는,
상기 정밀지도의 차선 및 차선 중심선을 상기 자차량 중심 좌표계로 변환하고, 상기 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링하는 맵핑 모듈;
상기 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 상기 정밀지도의 차선에 기초하여 상기 추적 대상을 분류하는 추적 대상 선정 모듈; 및
상기 정밀지도 차선의 궤적과 추정 위치를 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 실제 위치를 추정하는 위치 예측 모듈을 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 2,
The sensor fusion unit,
Converting the lane and the lane center line of the precision map into the own vehicle center coordinate system, displaying the integrated object information on the converted precision map, and clustering the same object in the integrated object information displayed on the converted precision map Mapping module;
A tracking target selection module for selecting at least one tracking target from among the clustered targets and classifying the tracking target based on a lane of the precision map; And
And a location prediction module that predicts the location of the tracking target based on the trajectory and the estimated location of the precision map lane, and estimates the actual location of the tracking target based on the predicted location and the measured location. A device for improving the cognitive performance of sensor fusion using precision maps.
제4항에 있어서,
상기 맵핑 모듈은,
상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The mapping module,
An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that the same object within a predetermined distance from the integrated object information displayed on the converted precision map is clustered as a single object.
제4항에 있어서,
상기 추적 대상 선정 모듈은,
상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The tracking target selection module,
Classify the selected tracking target into at least one of a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding target, and an out-of-range deletion target based on the lane of the precision map and the relative position of the vehicle in the longitudinal/lateral direction An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that.
제4항에 있어서,
상기 위치 예측 모듈은,
상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The position prediction module,
An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that the current location is predicted using an existing estimated location under the assumption that the tracking target moves on a lane center line.
제4항에 있어서,
상기 위치 예측 모듈은,
상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The position prediction module,
A device for improving cognitive performance of sensor fusion using a precision map, characterized in that the position is predicted by applying a weight in a horizontal direction on the precision map of the tracking target.
제4항에 있어서,
상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 후처리 모듈을 더 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
Based on the estimated position of the tracking target, the precision map further comprises a post-processing module for selecting at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes. Device for improving cognitive performance of sensor fusion using.
제어부가 차량의 위치 데이터, 카메라 차선 데이터 및 주변상황 인지 데이터를 입력받아 상기 차량의 정밀 위치를 추정하고 통합 대상 정보를 생성하는 단계; 및
상기 제어부가 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계
를 포함하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
Receiving, by a controller, vehicle location data, camera lane data, and surrounding situation recognition data, estimating a precise location of the vehicle, and generating integrated target information; And
Mapping, by the controller, the integrated target information on the precision map based on the precise location of the vehicle, and estimating the location based on the lane of the precision map.
Method for improving cognitive performance of sensor fusion using a precision map comprising a.
제10항에 있어서,
상기 통합 대상 정보를 생성하는 단계는,
상기 제어부가 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 단계; 및
상기 제어부가 상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 단계를 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 10,
Generating the integration target information,
Estimating the precise location of the vehicle by mapping the vehicle location data and camera lane data with the precision map, and converting the surrounding map data of the vehicle into a coordinate system of the host vehicle; And
And outputting, by the control unit, pre-processing the surrounding situation data and outputting information to be integrated.
제11항에 있어서,
상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계는,
상기 제어부가 상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하는 단계;
상기 제어부가 상기 통합 대상 정보 중에서 추적 대상을 선정하는 단계; 및
상기 제어부가 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 11,
The step of estimating a location based on the lane of the precision map,
Displaying, by the control unit, the preprocessed integrated target information on a precision map around the coordinate system of the own vehicle;
Selecting, by the control unit, a tracking target from the integration target information; And
The control unit predicts the location of the tracking target based on the lane of the precision map, and estimates the location of the tracking target based on the predicted location and the measured location. A method for improving cognitive performance of sensor fusion using.
제12항에 있어서,
상기 전처리된 통합 대상 정보를 표시하는 단계에서,
상기 제어부는 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of displaying the preprocessed integration target information,
The control unit clusters the same object within a predetermined distance from the integrated object information displayed on the converted precision map into a single object.
제12항에 있어서,
상기 추적 대상을 선정하는 단계에서
상기 제어부는 상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of selecting the tracking target
The control unit selects the selected tracking target based on the lane of the precision map and the relative position of the vehicle in the vertical/transverse direction, among a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding target, and an out of range deletion target. A method for improving cognitive performance of sensor fusion using a precision map, which is classified into at least one.
제12항에 있어서,
상기 추적 대상의 위치를 추정하는 단계에서,
상기 제어부는 상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of estimating the location of the tracking target,
The control unit predicts the current position using an existing estimated position on the assumption that the target to be tracked moves on a lane center line.
제12항에 있어서,
상기 추적 대상의 위치를 추정하는 단계에서,
상기 제어부는 상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of estimating the location of the tracking target,
The control unit predicts a location by applying a weight in a horizontal direction on the precision map of the target to be tracked.
제12항에 있어서,
상기 제어부가 상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 단계를 더 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
The control unit further comprises the step of selecting at least one of a top priority object required for longitudinal speed control, an interruptible object, and an object to be considered when changing lanes, based on the estimated position of the tracking object. A method for improving cognitive performance of sensor fusion using maps.
KR1020190109937A 2019-09-05 2019-09-05 Apparatus and method for improving cognitive performance of sensor fusion using precise map KR102596297B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190109937A KR102596297B1 (en) 2019-09-05 2019-09-05 Apparatus and method for improving cognitive performance of sensor fusion using precise map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190109937A KR102596297B1 (en) 2019-09-05 2019-09-05 Apparatus and method for improving cognitive performance of sensor fusion using precise map

Publications (2)

Publication Number Publication Date
KR20210029323A true KR20210029323A (en) 2021-03-16
KR102596297B1 KR102596297B1 (en) 2023-11-01

Family

ID=75224057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109937A KR102596297B1 (en) 2019-09-05 2019-09-05 Apparatus and method for improving cognitive performance of sensor fusion using precise map

Country Status (1)

Country Link
KR (1) KR102596297B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536446B1 (en) * 2021-11-29 2023-05-26 주식회사 와이즈오토모티브 Apparatus and method for evaluating obstacle recognition performance of an autonomous vehicle using plurality of evaluation devices in real road environment
KR102614378B1 (en) * 2022-09-30 2023-12-15 한국전자기술연구원 Autonomous vehicle location fine asynchronization method based on CCTV video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503473B1 (en) * 2014-01-10 2015-03-18 한양대학교 산학협력단 System and method for deciding driving situation of vehicle
KR20180106417A (en) * 2017-03-20 2018-10-01 현대자동차주식회사 System and Method for recognizing location of vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101503473B1 (en) * 2014-01-10 2015-03-18 한양대학교 산학협력단 System and method for deciding driving situation of vehicle
KR20180106417A (en) * 2017-03-20 2018-10-01 현대자동차주식회사 System and Method for recognizing location of vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102536446B1 (en) * 2021-11-29 2023-05-26 주식회사 와이즈오토모티브 Apparatus and method for evaluating obstacle recognition performance of an autonomous vehicle using plurality of evaluation devices in real road environment
KR102614378B1 (en) * 2022-09-30 2023-12-15 한국전자기술연구원 Autonomous vehicle location fine asynchronization method based on CCTV video

Also Published As

Publication number Publication date
KR102596297B1 (en) 2023-11-01

Similar Documents

Publication Publication Date Title
US10262234B2 (en) Automatically collecting training data for object recognition with 3D lidar and localization
US10816984B2 (en) Automatic data labelling for autonomous driving vehicles
US11636760B2 (en) Detection and estimation of variable speed signs
US11205342B2 (en) Traffic information processing device
CN108688660B (en) Operating range determining device
KR20180106417A (en) System and Method for recognizing location of vehicle
US11740093B2 (en) Lane marking localization and fusion
KR20190082712A (en) Method for providing information about a anticipated driving intention of a vehicle
JP7310313B2 (en) POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE
JP7047824B2 (en) Vehicle control unit
EP3671547A1 (en) Automatic 3d positioning of road signs detected in 2d images
CN113997950A (en) Vehicle control device and vehicle control method
US11780448B2 (en) Vehicle behavior estimation method, vehicle control method, and vehicle behavior estimation device
KR102596297B1 (en) Apparatus and method for improving cognitive performance of sensor fusion using precise map
US11938972B2 (en) Vehicle controller and method for controlling vehicle
US20210048819A1 (en) Apparatus and method for determining junction
JP7355930B2 (en) Time determination of inertial navigation systems in automated driving systems
AU2019210682B2 (en) Probe information processing apparatus
US11670090B2 (en) Automatic detection and positioning of structure faces
US20230242102A1 (en) Position estimation system
JP6933069B2 (en) Pathfinding device
US20240067233A1 (en) Controller, method, and computer program for vehicle control
US20220262244A1 (en) Control device, moving body, control method, and storage medium
US20230408264A1 (en) Lane marking localization and fusion
US20240010242A1 (en) Signal processing device and signal processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant