KR20210029323A - Apparatus and method for improving cognitive performance of sensor fusion using precise map - Google Patents
Apparatus and method for improving cognitive performance of sensor fusion using precise map Download PDFInfo
- Publication number
- KR20210029323A KR20210029323A KR1020190109937A KR20190109937A KR20210029323A KR 20210029323 A KR20210029323 A KR 20210029323A KR 1020190109937 A KR1020190109937 A KR 1020190109937A KR 20190109937 A KR20190109937 A KR 20190109937A KR 20210029323 A KR20210029323 A KR 20210029323A
- Authority
- KR
- South Korea
- Prior art keywords
- location
- vehicle
- target
- precision map
- lane
- Prior art date
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000003931 cognitive performance Effects 0.000 title claims abstract description 31
- 230000008569 process Effects 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims description 21
- 230000010354 integration Effects 0.000 claims description 18
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000012805 post-processing Methods 0.000 claims description 8
- 238000012217 deletion Methods 0.000 claims description 4
- 230000037430 deletion Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 12
- 230000008447 perception Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/22—
-
- B60K35/28—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0022—Gains, weighting coefficients or weighting functions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0026—Lookup tables or parameter maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
Abstract
Description
본 발명은 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법에 관한 것으로서, 보다 상세하게는 정밀 지도와 정밀 측위 기술을 접목하여, 센서 퓨전의 성능을 향상시킬 수 있는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for improving the cognitive performance of sensor fusion using a precision map, and more particularly, a sensor using a precision map capable of improving the performance of sensor fusion by combining precision map and precision positioning technology. It relates to an apparatus and a method for improving the cognitive performance of fusion.
자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다. 자율 주행 차량은 운전자가 조향휠, 가속페달 또는 브레이크 등을 조작하지 않아도, 주행 경로 상에 존재하는 장애물과의 충돌을 방지하고 도로의 형상에 따라 차속과 주행 방향을 조절하면서 스스로 목적지까지 주행할 수 있다. 예를 들어, 직선 도로에서는 가속을 수행하고, 곡선 도로에서는 도로의 곡률에 대응하여 주행 방향을 변경하면서 감속을 수행할 수 있다.An autonomous vehicle refers to a vehicle that independently determines a driving route by recognizing the surrounding environment through a function of detecting and processing external information during driving, and driving independently using its own power. Autonomous vehicles can travel to their destination by preventing collisions with obstacles on the driving path and adjusting the vehicle speed and driving direction according to the shape of the road, even if the driver does not operate the steering wheel, accelerator pedal, or brake. have. For example, acceleration may be performed on a straight road, and deceleration may be performed while changing a driving direction in response to a curvature of the road on a curved road.
자율 주행 차량에 적용되는 측위 시스템은 GPS(Global Positioning System) 및 각종 센서(Radar, LiDAR, Camera 등)를 이용하여 구축한 도로맵 정보를 바탕으로, 주행 중 획득되는 GPS 위치데이터 및 차량에 탑재된 센서를 통해 획득되는 센서 데이터 등을 통해 차량의 현재 위치를 결정한다. 자율 주행의 안정성을 확보하기 위해서는 차량의 현재 위치를 정확하게 파악하는 것이 중요하며, 출발지부터 목적지까지의 전체 주행 경로에서 주행 구간 내의 장애물을 검출하여 회피하기 위한 기능이 필요하게 된다.The positioning system applied to autonomous vehicles is based on road map information built using GPS (Global Positioning System) and various sensors (Radar, LiDAR, Camera, etc.). The current position of the vehicle is determined through sensor data acquired through the sensor. In order to secure the stability of autonomous driving, it is important to accurately grasp the current position of the vehicle, and a function for detecting and avoiding obstacles in the driving section in the entire driving route from the starting point to the destination is required.
상술한 바와 같이 자율 주행 차량은 각종 센서(예를 들면, 레이다(radar), 라이다(lidar), 영상 센서 등)에서 인지된 데이터를 통합하고, 각 대상물을 추적 처리하여 하나의 센서에서 인지된 정보인 것처럼 출력하는 센서 퓨전 기술을 이용하고 있다. 자율 주행 차량은 센서 퓨전 기술을 통해 출력된 정보를 바탕으로 주행상황을 판단하고 차량의 제어를 수행하므로 신뢰성 높은 센서 퓨전 기술은 자율주행 기술 개발에 선행되어야 하는 핵심적인 기술이다.As described above, the autonomous vehicle integrates data recognized by various sensors (for example, radar, lidar, image sensor, etc.), and tracks each object to be recognized by one sensor. It uses sensor fusion technology that outputs information as if it were information. Since autonomous vehicles judge driving conditions and control the vehicle based on information output through sensor fusion technology, highly reliable sensor fusion technology is a key technology that must precede the development of autonomous driving technology.
그러나, 종래에는 센서 퓨전을 인지된 센서 데이터에만 의존함으로써 미인지 혹은 오인지로 인한 신뢰성 향상에 어려움을 겪었다.However, conventionally, sensor fusion has been difficult to improve reliability due to unrecognized or misrecognized by relying only on perceived sensor data.
이에, 센서 퓨전 로직에 정밀 지도와 정밀 측위 기술을 접목함으로써 센서 퓨전의 성능을 향상시킬 수 있는 기술 개발이 요구되고 있다.Accordingly, there is a need to develop a technology capable of improving the performance of sensor fusion by incorporating precision maps and precise positioning technologies into sensor fusion logic.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2017-0098071호(2017.08.29. 공개)에 개시되어 있다.Background art of the present invention is disclosed in Korean Patent Application Publication No. 10-2017-0098071 (published on August 29, 2017).
본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 정밀 지도와 정밀 측위 기술을 접목함으로써 센서 퓨전의 성능을 향상시킬 수 있는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법을 제공하는 것이다. The present invention was conceived to improve the above problems, and an object of the present invention is to improve the cognitive performance of sensor fusion using a precision map that can improve the performance of sensor fusion by combining precision map and precision positioning technology. It is to provide an apparatus and method.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and another problem(s) not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치는, 차량의 위치 데이터를 획득하는 위치 탐색부, 상기 차량의 주변 영상을 촬영하는 카메라부, 상기 차량의 주변상황을 수집하는 주변상황 수집부, 주행도로에 대한 항법정보 및 지형지물을 포함하는 정밀지도를 저장하는 저장부 및 상기 위치 탐색부 및 상기 카메라부로부터 전달받은 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 주변상황 수집부로부터 전달받은 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하며, 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 제어부를 포함한다. An apparatus for improving perception performance of sensor fusion using a precision map according to an aspect of the present invention includes: a location search unit for obtaining location data of a vehicle, a camera unit for photographing an image around the vehicle, and a surrounding situation of the vehicle. The surrounding situation collecting unit to be collected, a storage unit for storing a precision map including navigation information and topographical features on the driving road, and the location data and camera lane data of the vehicle received from the location search unit and the camera unit are accurately processed. Map and map matching to estimate the precise location of the vehicle, pre-processing the surrounding situation data received from the surrounding situation collecting unit to output the integration target information, and the integration target information based on the precise location of the vehicle After mapping on the map, it includes a control unit for estimating a location based on the lane of the precision map.
본 발명에서 상기 제어부는, 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 제1 전처리부, 상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 제2 전처리부, 상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하고, 상기 통합 대상 정보 중에서 추적 대상을 선정하며, 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하며, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 센서 퓨전부를 포함할 수 있다. In the present invention, the control unit is a first pre-process of estimating the precise location of the vehicle by mapping the location data of the vehicle and the camera lane data with the precision map, and converting the surrounding map data of the vehicle into the host vehicle center coordinate system. Second, a second preprocessing unit that preprocesses the surrounding situation data to output the integration target information, displays the preprocessed integration target information on a precision map around the host vehicle coordinate system, and selects a tracking target from the integration target information And a sensor fusion unit that predicts the location of the tracking target based on the lane of the precision map and estimates the location of the tracking target based on the predicted location and the measured location.
본 발명에서 상기 제2 전처리부는, 상기 통합 대상 정보의 좌표계 및 단위를 상기 제1 전처리부에 의한 좌표계 및 단위와 일치시킬 수 있다. In the present invention, the second preprocessor may match the coordinate system and unit of the information to be integrated with the coordinate system and unit of the first preprocessor.
본 발명에서 상기 센서 퓨전부는, 상기 정밀지도의 차선 및 차선 중심선을 상기 자차량 중심 좌표계로 변환하고, 상기 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링하는 맵핑 모듈, 상기 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 상기 정밀지도의 차선에 기초하여 상기 추적 대상을 분류하는 추적 대상 선정 모듈, 상기 정밀지도 차선의 궤적과 추정 위치를 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 실제 위치를 추정하는 위치 예측 모듈을 포함할 수 있다. In the present invention, the sensor fusion unit converts the lane and the lane center line of the precision map into the own vehicle center coordinate system, displays the integration target information on the converted precision map, and integrates displayed on the converted precision map. A mapping module for clustering the same target from target information, a tracking target selection module for selecting at least one tracking target from among the clustered targets and classifying the tracking target based on the lane of the precision map, and the precision map lane And a position prediction module that predicts a location of the tracking target based on a trajectory and an estimated location, and estimates an actual location of the tracking target based on the predicted location and the measured location.
본 발명에서 상기 맵핑 모듈은, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링할 수 있다. In the present invention, the mapping module may cluster the same target within a predetermined distance from the integrated target information displayed on the converted precision map as a single target.
본 발명에서 상기 추적 대상 선정 모듈은, 상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류할 수 있다. In the present invention, the tracking target selection module includes a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding the selected tracking target based on the lane of the precision map and the relative position in the longitudinal/transverse direction with the vehicle. It can be classified as at least one of a target and an out-of-range deletion target.
본 발명에서 상기 위치 예측 모듈은, 상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측할 수 있다. In the present invention, the position prediction module may predict the current position using an existing estimated position under the assumption that the target to be tracked moves on a lane center line.
본 발명에서 상기 위치 예측 모듈은, 상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. In the present invention, the location prediction module may predict a location by applying a weight for a horizontal direction on the precision map of the tracking target.
본 발명에서 상기 센서 퓨전부는 상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 후처리 모듈을 더 포함할 수 있다. In the present invention, the sensor fusion unit further includes a post-processing module for selecting at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes based on the estimated position of the tracking target. can do.
본 발명의 다른 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법은, 제어부가 차량의 위치 데이터, 카메라 차선 데이터 및 주변상황 인지 데이터를 입력받아 상기 차량의 정밀 위치를 추정하고 통합 대상 정보를 생성하는 단계, 상기 제어부가 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계를 포함한다. According to another aspect of the present invention, a method for improving recognition performance of sensor fusion using a precision map is provided by a control unit receiving vehicle location data, camera lane data, and surrounding situation recognition data, estimating the precise location of the vehicle, and an integration target. Generating information, the controller mapping the integrated target information on the precision map based on the precise location of the vehicle, and estimating the location based on the lane of the precision map.
본 발명에서 상기 통합 대상 정보를 생성하는 단계는, 상기 제어부가 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 단계, 상기 제어부가 상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 단계를 포함할 수 있다. In the present invention, the step of generating the integrated target information includes, by the control unit, matching the location data of the vehicle and the camera lane data with the precision map to estimate the precise location of the vehicle, and to determine the surrounding map data of the vehicle. Converting to a vehicle center coordinate system, the control unit pre-processing the surrounding situation data may include the step of outputting the integration target information.
본 발명에서 상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계는, 상기 제어부가 상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하는 단계, 상기 제어부가 상기 통합 대상 정보 중에서 추적 대상을 선정하는 단계, 상기 제어부가 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 단계를 포함할 수 있다. In the present invention, the step of estimating a location based on the lanes of the precision map may include, by the control unit, displaying the preprocessed integration target information on a precision map around the host vehicle coordinate system, and the control unit Selecting a tracking target from among, the control unit predicting the location of the tracking target based on the lane of the precision map, and estimating the location of the tracking target based on the predicted location and the measured location can do.
본 발명의 상기 전처리된 통합 대상 정보를 표시하는 단계에서, 상기 제어부는 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링할 수 있다. In the step of displaying the preprocessed integration target information of the present invention, the control unit may cluster the same target within a predetermined distance from the integration target information displayed on the converted precision map into a single target.
본 발명의 상기 추적 대상을 선정하는 단계에서, 상기 제어부는 상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류할 수 있다. In the step of selecting the tracking target of the present invention, the control unit determines the selected target to be tracked based on the lane of the precision map and the relative position of the vehicle in the vertical/transverse direction as a left lane target, a right lane target, and a vehicle tail. It may be classified as at least one of a target, a vehicle preceding target, and an out-of-range deletion target.
본 발명의 상기 추적 대상의 위치를 추정하는 단계에서, 상기 제어부는 상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측할 수 있다. In the step of estimating the location of the tracking target according to the present invention, the controller may predict the current location using the existing estimated location on the assumption that the tracking target moves on a lane center line.
본 발명의 상기 추적 대상의 위치를 추정하는 단계에서, 상기 제어부는 상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. In the step of estimating the location of the tracking target according to the present invention, the control unit may predict the location by applying a weight in the horizontal direction on the precision map of the tracking target.
본 발명에서 상기 제어부가 상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 단계를 더 포함할 수 있다. In the present invention, the control unit may further include selecting at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes, based on the estimated position of the tracking target. .
본 발명의 일 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀지도의 차선을 기반으로 주변상황 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있고, 미인지 대상을 추적할 수 있다. An apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to an aspect of the present invention can delete a misrecognized object by correcting the surrounding situation data based on the lane of the precision map, and track an unrecognized object. can do.
본 발명의 다른 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀 지도와 정밀 측위 기술을 접목하여, 센서 퓨전의 성능을 향상시킬 수 있다. An apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to another aspect of the present invention may improve the performance of sensor fusion by combining a precision map and a precision positioning technology.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. Meanwhile, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within a range that is apparent to a person skilled in the art from the contents to be described below.
도 1은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치를 나타낸 블록도이다.
도 2는 도 1에 도시된 제어부를 상세히 설명하기 위한 블록도이다.
도 3은 도 2에 도시된 센서 퓨전부를 상세히 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 제어부의 동작을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 팹핑 모듈의 동작을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 추적 대상 선정 모듈의 동작을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 본 발명의 일 실시예에 따른 위치 예측 모듈의 동작을 설명하기 위한 예시도이다.
도 8은 본 발명의 일 실시예에 따른 차선 기반 위치 예측을 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 후처리 모듈의 동작을 설명하기 위한 예시도이다.
도 10은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법을 설명하기 위한 흐름도이다.
도 11은 본 발명의 일 실시예에 따른 통합 대상 정보의 위치를 추정하는 방법을 설명하기 위한 흐름도이다. 1 is a block diagram showing an apparatus for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention.
FIG. 2 is a block diagram for explaining in detail the control unit illustrated in FIG. 1.
3 is a block diagram illustrating in detail the sensor fusion unit shown in FIG. 2.
4 is an exemplary diagram for explaining an operation of a control unit according to an embodiment of the present invention.
5 is an exemplary view for explaining the operation of the fapping module according to an embodiment of the present invention.
6 is an exemplary diagram for explaining the operation of the tracking target selection module according to an embodiment of the present invention.
7 is an exemplary diagram for explaining an operation of a position prediction module according to an embodiment of the present invention according to an embodiment of the present invention.
8 is an exemplary diagram for explaining lane-based position prediction according to an embodiment of the present invention.
9 is an exemplary diagram for explaining an operation of a post-processing module according to an embodiment of the present invention.
10 is a flowchart illustrating a method for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention.
11 is a flowchart illustrating a method of estimating a location of information to be integrated according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, an apparatus and method for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Further, the implementation described herein may be implemented in, for example, a method or process, an apparatus, a software program, a data stream or a signal. Although discussed only in the context of a single form of implementation (eg, only as a method), the implementation of the discussed features may also be implemented in other forms (eg, an apparatus or program). The device may be implemented with appropriate hardware, software and firmware. The method may be implemented in an apparatus such as a processor, which generally refers to a processing device including, for example, a computer, a microprocessor, an integrated circuit or a programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.
도 1은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치를 나타낸 블록도, 도 2는 도 1에 도시된 제어부를 상세히 설명하기 위한 블록도, 도 3은 도 2에 도시된 센서 퓨전부를 상세히 설명하기 위한 블록도, 도 4는 본 발명의 일 실시예에 따른 제어부의 동작을 설명하기 위한 예시도, 도 5는 본 발명의 일 실시예에 따른 팹핑 모듈의 동작을 설명하기 위한 예시도, 도 6은 본 발명의 일 실시예에 따른 추적 대상 선정 모듈의 동작을 설명하기 위한 예시도, 도 7은 본 발명의 일 실시예에 따른 본 발명의 일 실시예에 따른 위치 예측 모듈의 동작을 설명하기 위한 예시도, 도 8은 본 발명의 일 실시예에 따른 차선 기반 위치 예측을 설명하기 위한 예시도, 도 9는 본 발명의 일 실시예에 따른 후처리 모듈의 동작을 설명하기 위한 예시도이다. 1 is a block diagram showing an apparatus for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention, FIG. 2 is a block diagram for explaining in detail the control unit shown in FIG. 1, and FIG. 3 is A block diagram for explaining the sensor fusion unit shown in 2 in detail, FIG. 4 is an exemplary view for explaining the operation of a control unit according to an embodiment of the present invention, and FIG. 5 is an operation of a fapping module according to an embodiment of the present invention. 6 is an exemplary view for explaining the operation of the tracking target selection module according to an embodiment of the present invention, and FIG. 7 is an exemplary view for explaining the operation of the tracking target selection module according to an embodiment of the present invention. An exemplary diagram for explaining the operation of the position prediction module, FIG. 8 is an exemplary diagram for explaining lane-based position prediction according to an embodiment of the present invention, and FIG. 9 is an operation of a post-processing module according to an embodiment of the present invention. It is an exemplary diagram for explaining
도 1을 참조하면, 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치는 위치 탐색부(110), 카메라부(120), 차량상태 수집부(130), 주변환경 수집부(140), 저장부(150) 및 제어부(160)를 포함한다. Referring to FIG. 1, an apparatus for improving the cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention includes a
위치 탐색부(110)는 차량의 위치 데이터를 획득하여 제어부(160)에 제공할 수 있다. 여기서, 위치 탐색부(110)는 위성항법과 추측항법 중 어느 하나 이상을 통해 차량의 위치 데이터를 탐색할 수 있다. The
이때, 위성항법은 GNSS(Global Navigation Satellite System)를 기반으로 차량의 위치 데이터를 획득하는 것으로, GPS(Global Positioning System), GLONASS(Global Navigation Satellite System), 갈릴레오(Galileo), 베이더우(Beidou) 등의 시스템으로부터 차량의 절대 좌표를 전달받을 수 있으며, 이를 기반으로 위치 데이터(위경도 좌표, 방향, 속도, quality 등)를 생성할 수 있다. 또한, 추측항법은 차량의 속도계(미도시), 자이로센서(미도시), 및 지자기센서(미도시) 등으로부터 획득한 속도 및 차량의 DR(Dead Reckoning) 정보를 기반으로 차량의 위치 데이터를 생성할 수 있다. At this time, satellite navigation is to acquire vehicle location data based on GNSS (Global Navigation Satellite System), such as GPS (Global Positioning System), GLONASS (Global Navigation Satellite System), Galileo, Beidou, etc. It is possible to receive the absolute coordinates of the vehicle from the system of, and based on this, it is possible to generate location data (latitude and longitude coordinates, direction, speed, quality, etc.). In addition, speculative navigation creates vehicle location data based on the speed acquired from the vehicle's speedometer (not shown), gyro sensor (not shown), and geomagnetic sensor (not shown), and the vehicle's DR (Dead Reckoning) information. can do.
카메라부(120)는 차량의 주변 영상을 촬영하여, 차선, 신호등, 주변차량, 보행자 및 장애물 등의 카메라 데이터를 검출할 수 있다. 카메라부(120)는 검출된 카메라 데이터를 제어부(160)에 제공하고, 카메라 데이터는 카메라 차선 데이터를 포함할 수 있다. The
차량상태 수집부(130)는 차량의 구동상태를 수집하여 제어부(160)에 제공한다. 예를 들어, 차량상태 수집부(130)는 차량의 조향상태, 제동상태, 가속상태 및 주행상태를 수집하여 제공할 수 있다. The vehicle
주변환경 수집부(140)는 차량의 주변상황을 수집하여 제어부(160)에 제공한다. 여기서 차량상태 수집부(130)는 레이더(미도시), 라이더(미도시) 등의 다양한 센서를 포함할 수 있고, 차선, 신호등, 주변차량, 보행자 및 장애물 등을 포함하는 주변상황 인지 데이터를 검출하고, 검출된 주변상황 인지 데이터를 제어부(160)에 제공할 수 있다. The surrounding environment collection unit 140 collects the surrounding situation of the vehicle and provides it to the
저장부(150)는 자율주행을 위한 주행도로에 대한 항법정보 및 지형지물을 포함하는 정밀지도를 저장한다. 여기서, 항법정보에는 지도버전, 링크 ID, 링크거리, 회전링크 여부, 도로등급 및 도로등급별 규정 속도 등이 포함될 수 있다. The
또한, 저장부(150)는 도로에 대한 고정밀 지도를 저장하여 차선, 신호등, 표지판, 연석, 노면마크 및 각종 구조물에 대한 정보를 제공할 수 있다. In addition, the
제어부(160)는 위치 탐색부(110) 및 카메라부(120)로부터 전달받은 차량의 위치 데이터 및 카메라 차선 데이터를 저장부(150)에 저장된 정밀지도와 맵매칭하여 차량의 정밀 위치를 추정하고, 차량상태 수집부(130)로부터 전달받은 주변상황 인지 데이터를 전처리하여 통합 대상 정보를 출력하며, 통합 대상 정보를 차량의 정밀 위치를 중심으로 정밀지도 상에 맵핑한 후, 정밀지도의 차선을 기반으로 위치를 추정한다. The
즉, 제어부(160)는 차량의 위치 데이터를 정밀지도와 맵 매칭하여 차량의 정밀 위치를 추정하고, 차량의 정밀 위치를 중심으로 주변상황 데이터를 맵핑하며, 정밀지도의 차선을 기반으로 주변상황 인지 데이터를 보정한다. 이때, 제어부(160)는 정밀지도의 차선을 기반으로 주변상황 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있고, 미인지 대상을 추적할 수 있다. 예를 들면, 제어부(160)는 도 4에 도시된 바와 같이 고정밀 지도에 주변상황 인지 데이터를 맵핑함으로써, 센서 퓨전의 성능을 향상시킬 수 있다. That is, the
이러한 제어부(160)는 도 2에 도시된 바와 같이 제1 전처리부(161a), 제2 전처리부(161b) 및 센서 퓨전부(162)를 포함한다. As shown in FIG. 2, the
제1 전처리부(161a)는 차량의 위치 데이터 및 카메라 차선 데이터를 정밀지도와 맵매칭하여 차량의 정밀 위치를 추정하고, 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환한다. The
즉, 제1 전처리부(161a)는 차량의 위치 데이터, 카메라 차선 데이터 및 정밀지도를 활용하여 차량의 위치를 정확하게 추정할 수 있다. 그런 후, 제1 전처리부(161a)는 차량의 주변 지도 데이터를 차량 중심 좌표계로 변환하여 제어부(160)에 제공할 수 있다. That is, the
제2 전처리부(161b)는 주변상황 인지 데이터를 전처리하여 통합 대상 정보를 출력한다. 즉, 제2 전처리부(161b)는 주변상황 인지 데이터를 전처리하여, 센서 퓨전에 필요한 통합 대상 정보를 출력할 수 있다. 여기서, 통합 대상 정보는 주변 차량, 보행자, 장애물 등을 포함할 수 있다. The
또한, 제2 전처리부(161b)는 주변상황 인지 데이터를 센서퓨전에서 활용 가능한 데이터로 형식을 변환할 수 있다. 이때, 제2 전처리부(161b)는 통합 대상 정보의 좌표계 및 단위를 제1 전처리부(161a)에 의한 좌표계 및 단위와 일치시킬 수 있다. In addition, the
예를 들면, 차량상태 수집부(130)는 각종 센서로 구성됨으로써, 센서마다 검출된 대상의 크기, 길이, 좌표계 등이 다를 수 있다. 이에, 제2 전처리부(161b)는 각종 센서로부터 입력받은 주변상황 인지 데이터를 센서 퓨전에서 활용 가능하도록 크기, 길이 등의 단위, 좌표계를 일치시킬 수 있다.For example, since the vehicle
센서 퓨전부(162)는 자차량 좌표계 주변에 대한 정밀지도 상에 제2 전처리부(161b)에서 전처리된 통합 대상 정보를 표시하고, 정밀지도 상에 표시된 통합 대상 정보 중에서 추적 대상을 선정하며, 정밀지도의 차선을 기반으로 추적 대상의 위치를 예측하며, 예측된 위치와 측정된 위치를 기반으로 추적 대상의 위치를 추정한다. The
센서 퓨전부(162)는 정밀 지도 상에 통합 대상 정보를 맵핑한 후 차선을 기반으로 추적 대상의 위치를 추정할 수 있다. The
이러한 센서 퓨전부(162)는 도 3에 도시된 바와 같이 맵핑 모듈(163), 추적 대상 선정 모듈(164), 위치 예측 모듈(165) 및 후처리 모듈(166)을 포함한다. As shown in FIG. 3, the
맵핑 모듈(163)은 정밀지도의 차선 및 차선 중심선을 차량 중심 좌표계로 변환하고, 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링한다.The
구체적으로, 맵핑 모듈(163)은 차량의 정밀 위치를 중심으로 정밀지도의 차선 및 차선 중심선을 차량중심좌표계로 변환한다. 예를 들면, 맵핑 모듈(163)은 도 5의 (a)에 도시된 바와 같이 차량의 정밀 위치(A)를 중심으로 정밀지도의 차선 및 차선 중심선을 표시할 수 있다. Specifically, the
그런 후, 맵핑 모듈(163)은 통합 대상 정보를 차량의 정밀 위치를 중심으로 정밀지도 상에 표시한다. 예를 들어, 맵핑 모듈(163)은 도 5의 (b)와 같은 통합 대상 정보를 도 5의 (a)에 표시하면, 도 5의 (c)와 같이 표시될 수 있다. Then, the
그런 후, 맵핑 모듈(163)은 차량의 정밀 위치를 중심으로 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링한다. 여기서, 클럭스터링은 동일 대상을 묶고 단일 대상으로 분류하는 것을 의미할 수 있다. 예를 들면, 맵핑 모듈(163)은 도 5의 (c)에 표시된 바와 같이 동일 대상을 클러스터링 할 수 있다. Thereafter, the
추적 대상 선정 모듈(164)은 맵핑 모듈(163)에서 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 정밀지도의 차선에 기초하여 추적 대상을 분류한다. 이때, 추적 대상 선정 모듈(164)은 센서 특성(예컨대, 측정 범위, 종/횡방향 측정 정확도 및 추적 신뢰성 등을 포함함)을 고려하고, 기 설정된 일정 시간 전의 추적 대상 정보에 기초하여 추적 대상을 선정할 수 있다. 여기서, 기 설정된 일정 시간 전의 추적 대상 정보는 예컨대, 0.5초 전의 추적 대상 정보를 의미할 수 있다. The tracking
추적 대상 선정 모듈(164)은 자차량을 중심으로 자차량에 위험을 줄 수 있는 대상을 추적 대상으로 선정할 수 있다. 예컨대, 추적 대상 선정 모듈(164)은 선행 차량, 보행자, 좌측 자량, 우측 차량 등을 추적 대상으로 선정할 수 있다. The tracking
추적 대상이 선정되면, 추적 대상 선정 모듈(164)은 정밀지도의 차선 및 자차량과의 종/횡 방향 상대위치에 기초하여 선정된 추적 대상을 분류할 수 있다. 예컨대, 추적 대상 선정 모듈(164)은 기 설정된 일정 거리 이상의 추적 대상(자차량에 위험을 줄 가능성이 낮은 대상)을 범위밖 대상으로 분류할 수 있다. 또한, 추적 대상 선정 모듈(164)은 일정 거리 이내의 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상 각각을 분류할 수도 있다. When the tracking target is selected, the tracking
예를 들어, 도 6과 같이 자차량(A)과 통합 대상 정보가 표시된 경우, 추적 대상 선정 모듈(164)은 E 이상의 거리에 있는 대상은 범위밖의 대상이므로 추적 대상에서 삭제할 수 있다. 또한, 추적 대상 선정 모듈(164)은 추적 대상을 좌측 차선 대상(B), 우측 차선 대상(C), 차량 후미 대상(D), 및 차량 선행 대상(미도시) 등으로 분류할 수 있다. For example, as shown in FIG. 6, when the host vehicle A and the integrated target information are displayed, the tracking
위치 예측 모듈(165)은 정밀지도 차선의 궤적과 추정 위치를 기반으로 추적 대상 선정 모듈(164)에서 분류된 추적 대상의 위치를 예측하고, 예측된 위치와 측정된 위치를 기반으로 추적 대상의 실제 위치를 추정한다. 이때, 위치 예측 모듈(165)은 추적 대상이 차선 중심선 상을 이동한다는 가정하에 기존 추정 위치를 근거로 현위치를 예측할 수 있다. The
즉, 위치 예측 모듈(165)은 정밀지도 차선의 궤적과 기존 추정위치를 기반으로 추적 대상의 특정 시간 이후의 위치를 예측할 수 있다. 이때, 범위 밖 대상은 추정 대상에서 제외함으로써 계산 시간을 단축시킬 수 있다. 그런 후, 위치 예측 모듈(165)은 예측된 위치와 측정된 위치를 기반으로 실제 대상의 위치를 추정할 수 있다. That is, the
예를 들어, 도 7의 (a)에서 F의 실제 위치를 추정하는 경우에 대해 설명하기로 한다. 이 경우, 위치 예측 모듈(165)은 도 7의 (b)와 같이 F의 기존 추정 위치인 a를 이용하여 특정 시간 이후의 위치인 b를 예측할 수 있다. 이때, 위치 예측 모듈(165)은 F가 차선 중심선 상을 이동한다는 가정하에 기존 위치 a를 근거로 위치를 예측할 수 있다. 그런 후, 위치 예측 모듈(165)은 예측 위치 b와 측정 위치 c를 이용하여 d와 같이 위치를 추정할 수 있다. For example, a case of estimating the actual position of F in FIG. 7A will be described. In this case, the
또한, 위치 예측 모듈(165)은 측정 위치를 이용하여 예측 위치를 보정하여, 실제 위치를 추정할 수 있다. 이때, 위치 예측 모듈(165)은 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. 즉, 위치 예측 모듈(165)은 차선 중심선의 경로를 이용하여 추적 대상의 위치를 예측하므로, 차선 중심선을 기준으로 횡방향에 대한 오차 분산이 종방향에 대한 오차 분산보다 클 수 있다. 이에, 위치 예측 모듈(165)은 횡방향에 대한 오차 분산을 줄이기 위해, 정밀지도 상 횡방향에 대한 가중치를 부가하여 추적 대상의 위치를 예측할 수 있다. In addition, the
또한, 위치 예측 모듈(165)은 곡선로 등에서 부정확한 횡방향 정보의 가중치를 줄이고 차선 중심선의 경로를 이용하여 위치를 예측할 수 있다. 특히, 위치 예측 모듈(165)은 도로의 곡률변화가 심한 경우 도로 경로를 이용하여 위치를 예측할 수 있다. In addition, the
예를 들어, 도 8에서 e가 기존 위치인 경우, 측정값을 이용하여 위치를 예측하면 g의 위치일 수 있고, 지도의 경로를 이용하여 예측하면 f의 위치일 수 있다.For example, in FIG. 8, if e is an existing location, if the location is predicted using the measured value, it may be the location of g, and if predicted using the path of the map, it may be the location of f.
또한, 위치 예측 모듈(165)은 예측된 현위치와 측정된 현위치를 통합하여 추적 대상의 위치와 속도 등을 추정할 수 있다. In addition, the
한편, 본 발명에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치는 주변 대상의 추적 정보를 제어기(예컨대, ECU 등)에서 원하는 형태 및 정보 등으로 제공할 필요가 있다. On the other hand, the apparatus for improving the cognitive performance of sensor fusion using a precision map according to the present invention needs to provide tracking information of surrounding objects in a desired form and information from a controller (eg, ECU, etc.).
이에, 후처리 모듈(166)은 위치 예측 모듈(165)에서 추정된 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별한다. Accordingly, the
즉, 후처리 모듈(166)은 추적 대상의 추정 정보를 근거로 주변상황 인지 데이터 단독으로는 판단이 어려운 선별된 정보를 송출할 수 있다. 예컨대, 도 9와 같이 후처리 모듈(166)은 종방향 속도 제어에 필요한 최우선 대상(선행차량) 정보, 끼어들기 가능 대상 정보, 차선 변경 가능 여부 판단에 필요한 대상 정보(좌/우측 차선 대상) 등을 선별할 수 있다. That is, the
상술한 바와 같이 제어부(160)는 정밀지도의 차선을 기반으로 센서 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있으며, 미인지 대상을 추적할 수 있다. 또한, 제어부(160)는 차선 정보를 바탕으로 인지 대상 정보를 보정할 수 있다. As described above, by correcting sensor data based on the lane of the precision map, the
도 10은 본 발명의 일 실시예에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법을 설명하기 위한 흐름도이다. 10 is a flowchart illustrating a method for improving cognitive performance of sensor fusion using a precision map according to an embodiment of the present invention.
도 10을 참조하면, 제어부(160)는 차량의 위치 데이터, 카메라 차선 데이터 및 주변상황 인지 데이터를 입력받으면(S1000), 입력받은 데이터를 이용하여 차량의 정밀 위치를 추정하고 통합 대상 정보를 생성한다(S1010). 이때, 제어부(160)는 차량의 위치 데이터 및 카메라 차선 데이터를 정밀지도와 맵매칭하여 차량의 정밀 위치를 추정할 수 있고, 주변상황 인지 데이터를 전처리하여 통합 대상 정보를 생성할 수 있다. Referring to FIG. 10, when receiving vehicle location data, camera lane data, and surrounding situation recognition data (S1000), the
단계 S1010이 수행되면, 제어부(160)는 차량의 정밀 위치를 중심으로 통합 대상 정보를 정밀지도 상에 맵핑한 후, 정밀지도의 차선을 기반으로 통합 대상 정보의 위치를 추정한다(S1020). When step S1010 is performed, the
제어부(160)가 통합 대상 정보의 위치를 추정하는 방법에 대한 상세한 설명은 도 11을 참조하기로 한다. For a detailed description of how the
도 11은 본 발명의 일 실시예에 따른 통합 대상 정보의 위치를 추정하는 방법을 설명하기 위한 흐름도이다. 11 is a flowchart illustrating a method of estimating a location of information to be integrated according to an embodiment of the present invention.
도 11을 참조하면, 제어부(160)는 차량의 정밀 위치를 중심으로 통합 대상 정보를 정밀지도 상에 맵핑하고, 동일 대상을 클러스터링한다(S1100). 즉, 제어부(160)는 정밀지도의 차선 및 차선 중심선을 차량 중심 좌표계로 변환하고, 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링한다.Referring to FIG. 11, the
단계 S1100이 수행되면, 제어부(160)는 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 정밀지도의 차선에 기초하여 추적 대상을 분류한다(S1110). 즉, 제어부(160)는 센서 특성(예컨대, 측정 범위, 종/횡방향 측정 정확도 및 추적 신뢰성 등을 포함함)을 고려하고, 기 설정된 일정 시간 전의 추적 대상 정보에 기초하여 추적 대상을 선정하고, 정밀지도의 차선 및 자차량과의 종/횡 방향 상대위치에 기초하여 선정된 추적 대상을 분류할 수 있다. When step S1100 is performed, the
단계 S1110이 수행되면, 제어부(160)는 정밀지도 차선의 궤적과 추정 위치를 기반으로 추적 대상의 위치를 예측한다(S1120). 이때, 위치 예측 모듈(165)은 추적 대상이 차선 중심선 상을 이동한다는 가정하에 기존 추정 위치를 근거로 현위치를 예측할 수 있다. When step S1110 is performed, the
단계 S1120이 수행되면, 제어부(160)는 측정 위치를 이용하여 예측 위치를 보정하여, 실제 위치를 추정한다(S1130). 이때, 제어부(160)는 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측할 수 있다. When step S1120 is performed, the
단계 S1130이 수행되면, 제어부(160)는 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별한다(S1140). When step S1130 is performed, the
상술한 바와 같이, 본 발명의 일 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀지도의 차선을 기반으로 주변상황 데이터를 보정함으로써, 오인지 대상을 삭제할 수 있고, 미인지 대상을 추적할 수 있다. As described above, in the apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to an aspect of the present invention, by correcting the surrounding situation data based on the lane of the precision map, it is possible to delete a misrecognized object, You can track unknown objects.
본 발명의 다른 측면에 따른 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법은 정밀 지도와 정밀 측위 기술을 접목하여, 센서 퓨전의 성능을 향상시킬 수 있다. An apparatus and method for improving the cognitive performance of sensor fusion using a precision map according to another aspect of the present invention may improve the performance of sensor fusion by combining a precision map and a precision positioning technology.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, this is only illustrative, and those of ordinary skill in the field to which the technology pertains, various modifications and other equivalent embodiments are possible. I will understand.
따라서 본 발명의 진정한 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the following claims.
110 : 위치 탐색부
120 : 카메라부
130 : 차량상태 수집부
140 : 주변황경 수집부
150 : 저장부
160 : 제어부110: location search unit
120: camera unit
130: vehicle state collection unit
140: surrounding landscape collection unit
150: storage unit
160: control unit
Claims (17)
상기 차량의 주변 영상을 촬영하는 카메라부;
상기 차량의 주변상황을 수집하는 주변상황 수집부;
주행도로에 대한 항법정보 및 지형지물을 포함하는 정밀지도를 저장하는 저장부; 및
상기 위치 탐색부 및 상기 카메라부로부터 전달받은 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 주변상황 수집부로부터 전달받은 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하며, 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 제어부
를 포함하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
A location search unit for obtaining location data of the vehicle;
A camera unit for capturing an image around the vehicle;
A surrounding situation collecting unit for collecting the surrounding situation of the vehicle;
A storage unit for storing a precision map including navigation information and topographic features for the driving road; And
Map-matching the location data and camera lane data of the vehicle received from the location search unit and the camera unit with the precision map to estimate the precise location of the vehicle, and pre-process the surrounding situation data received from the surrounding situation collection unit. The control unit outputs the integration target information, maps the integration target information on the precision map based on the precise location of the vehicle, and estimates the location based on the lane of the precision map
Device for improving cognitive performance of sensor fusion using a precision map comprising a.
상기 제어부는,
상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 제1 전처리부;
상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 제2 전처리부; 및
상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하고, 상기 통합 대상 정보 중에서 추적 대상을 선정하며, 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하며, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 센서 퓨전부를 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 1,
The control unit,
A first preprocessing unit for estimating the precise location of the vehicle by mapping the location data of the vehicle and the camera lane data with the precision map, and converting the surrounding map data of the vehicle into the own vehicle center coordinate system;
A second preprocessing unit preprocessing the surrounding situation data and outputting information to be integrated; And
Displaying the preprocessed integrated target information on a precision map around the own vehicle coordinate system, selecting a tracking target from the integrated target information, predicting the location of the tracking target based on the lane of the precision map, and the An apparatus for improving cognitive performance of sensor fusion using a precision map, comprising: a sensor fusion unit that estimates the location of the target to be tracked based on the predicted location and the measured location.
상기 제2 전처리부는,
상기 통합 대상 정보의 좌표계 및 단위를 상기 제1 전처리부에 의한 좌표계 및 단위와 일치시키는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 2,
The second pretreatment unit,
An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that the coordinate system and unit of the integrated target information are matched with the coordinate system and unit of the first preprocessor.
상기 센서 퓨전부는,
상기 정밀지도의 차선 및 차선 중심선을 상기 자차량 중심 좌표계로 변환하고, 상기 통합 대상 정보를 상기 변환된 정밀지도 상에 표시하며, 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 동일 대상을 클러스터링하는 맵핑 모듈;
상기 클러스터링된 대상들 중에서 적어도 하나 이상의 추적 대상을 선정하고, 상기 정밀지도의 차선에 기초하여 상기 추적 대상을 분류하는 추적 대상 선정 모듈; 및
상기 정밀지도 차선의 궤적과 추정 위치를 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 실제 위치를 추정하는 위치 예측 모듈을 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 2,
The sensor fusion unit,
Converting the lane and the lane center line of the precision map into the own vehicle center coordinate system, displaying the integrated object information on the converted precision map, and clustering the same object in the integrated object information displayed on the converted precision map Mapping module;
A tracking target selection module for selecting at least one tracking target from among the clustered targets and classifying the tracking target based on a lane of the precision map; And
And a location prediction module that predicts the location of the tracking target based on the trajectory and the estimated location of the precision map lane, and estimates the actual location of the tracking target based on the predicted location and the measured location. A device for improving the cognitive performance of sensor fusion using precision maps.
상기 맵핑 모듈은,
상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The mapping module,
An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that the same object within a predetermined distance from the integrated object information displayed on the converted precision map is clustered as a single object.
상기 추적 대상 선정 모듈은,
상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The tracking target selection module,
Classify the selected tracking target into at least one of a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding target, and an out-of-range deletion target based on the lane of the precision map and the relative position of the vehicle in the longitudinal/lateral direction An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that.
상기 위치 예측 모듈은,
상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The position prediction module,
An apparatus for improving cognitive performance of sensor fusion using a precision map, characterized in that the current location is predicted using an existing estimated location under the assumption that the tracking target moves on a lane center line.
상기 위치 예측 모듈은,
상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
The position prediction module,
A device for improving cognitive performance of sensor fusion using a precision map, characterized in that the position is predicted by applying a weight in a horizontal direction on the precision map of the tracking target.
상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 후처리 모듈을 더 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치.
The method of claim 4,
Based on the estimated position of the tracking target, the precision map further comprises a post-processing module for selecting at least one of a top priority target required for longitudinal speed control, a cut-in target, and a target to be considered when changing lanes. Device for improving cognitive performance of sensor fusion using.
상기 제어부가 상기 통합 대상 정보를 상기 차량의 정밀 위치를 중심으로 상기 정밀지도 상에 맵핑한 후, 상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계
를 포함하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
Receiving, by a controller, vehicle location data, camera lane data, and surrounding situation recognition data, estimating a precise location of the vehicle, and generating integrated target information; And
Mapping, by the controller, the integrated target information on the precision map based on the precise location of the vehicle, and estimating the location based on the lane of the precision map.
Method for improving cognitive performance of sensor fusion using a precision map comprising a.
상기 통합 대상 정보를 생성하는 단계는,
상기 제어부가 상기 차량의 위치 데이터 및 카메라 차선 데이터를 상기 정밀지도와 맵매칭하여 상기 차량의 정밀 위치를 추정하고, 상기 차량의 주변 지도 데이터를 자차량 중심 좌표계로 변환하는 단계; 및
상기 제어부가 상기 주변상황 데이터를 전처리하여 통합 대상 정보를 출력하는 단계를 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 10,
Generating the integration target information,
Estimating the precise location of the vehicle by mapping the vehicle location data and camera lane data with the precision map, and converting the surrounding map data of the vehicle into a coordinate system of the host vehicle; And
And outputting, by the control unit, pre-processing the surrounding situation data and outputting information to be integrated.
상기 정밀지도의 차선을 기반으로 위치를 추정하는 단계는,
상기 제어부가 상기 자차량 좌표계 주변에 대한 정밀지도 상에 상기 전처리된 통합 대상 정보를 표시하는 단계;
상기 제어부가 상기 통합 대상 정보 중에서 추적 대상을 선정하는 단계; 및
상기 제어부가 상기 정밀지도의 차선을 기반으로 상기 추적 대상의 위치를 예측하고, 상기 예측된 위치와 측정된 위치를 기반으로 상기 추적 대상의 위치를 추정하는 단계를 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 11,
The step of estimating a location based on the lane of the precision map,
Displaying, by the control unit, the preprocessed integrated target information on a precision map around the coordinate system of the own vehicle;
Selecting, by the control unit, a tracking target from the integration target information; And
The control unit predicts the location of the tracking target based on the lane of the precision map, and estimates the location of the tracking target based on the predicted location and the measured location. A method for improving cognitive performance of sensor fusion using.
상기 전처리된 통합 대상 정보를 표시하는 단계에서,
상기 제어부는 상기 변환된 정밀지도 상에 표시된 통합 대상 정보에서 기 설정된 일정거리 이내의 동일 대상을 단일 대상으로 클러스터링하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of displaying the preprocessed integration target information,
The control unit clusters the same object within a predetermined distance from the integrated object information displayed on the converted precision map into a single object.
상기 추적 대상을 선정하는 단계에서
상기 제어부는 상기 정밀지도의 차선 및 상기 차량과의 종/횡 방향 상대위치에 기초하여 상기 선정된 추적 대상을 좌측 차선 대상, 우측 차선 대상, 차량 후미 대상, 및 차량 선행 대상, 범위밖 삭제 대상 중 적어도 하나로 분류하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of selecting the tracking target
The control unit selects the selected tracking target based on the lane of the precision map and the relative position of the vehicle in the vertical/transverse direction, among a left lane target, a right lane target, a vehicle rear target, and a vehicle preceding target, and an out of range deletion target. A method for improving cognitive performance of sensor fusion using a precision map, which is classified into at least one.
상기 추적 대상의 위치를 추정하는 단계에서,
상기 제어부는 상기 추적 대상이 차선 중심선 상을 이동한다는 가정하에, 기존 추정 위치를 이용하여 현위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of estimating the location of the tracking target,
The control unit predicts the current position using an existing estimated position on the assumption that the target to be tracked moves on a lane center line.
상기 추적 대상의 위치를 추정하는 단계에서,
상기 제어부는 상기 추적 대상의 정밀지도 상 횡방향에 대한 가중치를 적용하여 위치를 예측하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.
The method of claim 12,
In the step of estimating the location of the tracking target,
The control unit predicts a location by applying a weight in a horizontal direction on the precision map of the target to be tracked.
상기 제어부가 상기 추적 대상의 추정 위치에 기초하여, 종방향 속도 제어에 필요한 최우선 대상, 끼어들기 가능 대상, 및 차선 변경시 고려 대상 중 중 적어도 하나를 선별하는 단계를 더 포함하는 것을 특징으로 하는 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 방법.The method of claim 12,
The control unit further comprises the step of selecting at least one of a top priority object required for longitudinal speed control, an interruptible object, and an object to be considered when changing lanes, based on the estimated position of the tracking object. A method for improving cognitive performance of sensor fusion using maps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190109937A KR102596297B1 (en) | 2019-09-05 | 2019-09-05 | Apparatus and method for improving cognitive performance of sensor fusion using precise map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190109937A KR102596297B1 (en) | 2019-09-05 | 2019-09-05 | Apparatus and method for improving cognitive performance of sensor fusion using precise map |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210029323A true KR20210029323A (en) | 2021-03-16 |
KR102596297B1 KR102596297B1 (en) | 2023-11-01 |
Family
ID=75224057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190109937A KR102596297B1 (en) | 2019-09-05 | 2019-09-05 | Apparatus and method for improving cognitive performance of sensor fusion using precise map |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102596297B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102536446B1 (en) * | 2021-11-29 | 2023-05-26 | 주식회사 와이즈오토모티브 | Apparatus and method for evaluating obstacle recognition performance of an autonomous vehicle using plurality of evaluation devices in real road environment |
KR102614378B1 (en) * | 2022-09-30 | 2023-12-15 | 한국전자기술연구원 | Autonomous vehicle location fine asynchronization method based on CCTV video |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101503473B1 (en) * | 2014-01-10 | 2015-03-18 | 한양대학교 산학협력단 | System and method for deciding driving situation of vehicle |
KR20180106417A (en) * | 2017-03-20 | 2018-10-01 | 현대자동차주식회사 | System and Method for recognizing location of vehicle |
-
2019
- 2019-09-05 KR KR1020190109937A patent/KR102596297B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101503473B1 (en) * | 2014-01-10 | 2015-03-18 | 한양대학교 산학협력단 | System and method for deciding driving situation of vehicle |
KR20180106417A (en) * | 2017-03-20 | 2018-10-01 | 현대자동차주식회사 | System and Method for recognizing location of vehicle |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102536446B1 (en) * | 2021-11-29 | 2023-05-26 | 주식회사 와이즈오토모티브 | Apparatus and method for evaluating obstacle recognition performance of an autonomous vehicle using plurality of evaluation devices in real road environment |
KR102614378B1 (en) * | 2022-09-30 | 2023-12-15 | 한국전자기술연구원 | Autonomous vehicle location fine asynchronization method based on CCTV video |
Also Published As
Publication number | Publication date |
---|---|
KR102596297B1 (en) | 2023-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10262234B2 (en) | Automatically collecting training data for object recognition with 3D lidar and localization | |
US10816984B2 (en) | Automatic data labelling for autonomous driving vehicles | |
US11636760B2 (en) | Detection and estimation of variable speed signs | |
US11205342B2 (en) | Traffic information processing device | |
CN108688660B (en) | Operating range determining device | |
KR20180106417A (en) | System and Method for recognizing location of vehicle | |
US11740093B2 (en) | Lane marking localization and fusion | |
KR20190082712A (en) | Method for providing information about a anticipated driving intention of a vehicle | |
JP7310313B2 (en) | POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE | |
JP7047824B2 (en) | Vehicle control unit | |
EP3671547A1 (en) | Automatic 3d positioning of road signs detected in 2d images | |
CN113997950A (en) | Vehicle control device and vehicle control method | |
US11780448B2 (en) | Vehicle behavior estimation method, vehicle control method, and vehicle behavior estimation device | |
KR102596297B1 (en) | Apparatus and method for improving cognitive performance of sensor fusion using precise map | |
US11938972B2 (en) | Vehicle controller and method for controlling vehicle | |
US20210048819A1 (en) | Apparatus and method for determining junction | |
JP7355930B2 (en) | Time determination of inertial navigation systems in automated driving systems | |
AU2019210682B2 (en) | Probe information processing apparatus | |
US11670090B2 (en) | Automatic detection and positioning of structure faces | |
US20230242102A1 (en) | Position estimation system | |
JP6933069B2 (en) | Pathfinding device | |
US20240067233A1 (en) | Controller, method, and computer program for vehicle control | |
US20220262244A1 (en) | Control device, moving body, control method, and storage medium | |
US20230408264A1 (en) | Lane marking localization and fusion | |
US20240010242A1 (en) | Signal processing device and signal processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |