KR20220033477A - 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법 - Google Patents

자동 발렛 파킹 시스템의 위치 추정 장치 및 방법 Download PDF

Info

Publication number
KR20220033477A
KR20220033477A KR1020220022791A KR20220022791A KR20220033477A KR 20220033477 A KR20220033477 A KR 20220033477A KR 1020220022791 A KR1020220022791 A KR 1020220022791A KR 20220022791 A KR20220022791 A KR 20220022791A KR 20220033477 A KR20220033477 A KR 20220033477A
Authority
KR
South Korea
Prior art keywords
lane
vehicle
data
map
location
Prior art date
Application number
KR1020220022791A
Other languages
English (en)
Inventor
김동욱
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020190031092A priority Critical patent/KR20200119920A/ko
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020220022791A priority patent/KR20220033477A/ko
Publication of KR20220033477A publication Critical patent/KR20220033477A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/114Yaw movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for recognising patterns
    • G06K9/62Methods or arrangements for pattern recognition using electronic means
    • G06K9/6288Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion
    • G06K9/6292Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion of classification results, e.g. of classification results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0292Fail-safe or redundant systems, e.g. limp-home or backup systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Abstract

본 발명은 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법에 관한 것으로서, 일 측면에 따른 자동 발렛 파킹(AVP, Automated Valet Parking) 위치를 추정하는 장치는 차량의 전방 영상을 처리하는 전방카메라 처리부와 차량의 서라운드 뷰 영상을 처리하는 SVM(Surround View Monitor) 처리부와 고정밀 지도를 저장하는 지도데이터부와 상기 차량의 주차장 진입 확인 시 상기 전방카메라 처리부 및 상기 SVM 처리부에 의해 인식된 차선들을 기반으로 생성한 차선 데이터와 상기 지도데이터부로부터 획득된 상기 주차장의 맵 데이터를 기반으로 맵 매칭을 수행하여 상기 차량의 위치 측정값을 보정하고, 적어도 상기 보정된 위치 측정값에 기반하여 AVP 초기 위치를 결정하는 제어부를 포함할 수 있다.

Description

자동 발렛 파킹 시스템의 위치 추정 장치 및 방법{APPRATUS AND METHOD FOR ESTIMATING THE POSITION OF AN AUTOMATED VALET PARKING SYSTEM}
본 발명은 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법에 관한 것으로서, 보다 상세하게는 SVM(Surround View Monitor)을 활용하여 자동 발렛 파킹 시스템(AVP, Automated Valet Parking)의 초기 위치를 추정할 수 있도록 하는 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법에 관한 것이다.
일반적으로 자율 주행 차량이란 주행 시 외부정보 감지 및 처리기능을 통해 주변의 환경을 인식하여 주행 경로를 자체적으로 결정하고, 자체 동력을 이용하여 독립적으로 주행하는 차량을 말한다.
자율 주행 차량에 적용되는 측위 방법은 GPS(Global Positioning System), DGPS(Differential GPS), Network-RTK(Real Time Kinematic) 등 GNSS(Global Navigation Stellite System)를 기반으로 하는 위성측위 방법, 차량센서 및 IMU(Inertial Measurement Unit)(차속, 조향각, 휠오도미터/yaw rate/가속도 등)를 활용하여 위성측위를 보정하는 차량거동기반 추측항법(Dead Reckoning), 자율주행용 정밀지도와 각종 센서(카메라, 스테레오 카메라, SVM(Surround View Monitor) 카메라, 라이다 등)에서 들어오는 데이터를 비교하여 차량의 위치를 상대적으로 추측하는 맵매칭 방법 등이 있다.
최근에는 더 편리한 주차를 위해 자동발렛주차(AVP, Automated Valet Parking)가 개발되고 있다. 운자 없이 스스로 이동하여 주차공간을 탐색하고 주차는 물론 출차까지 스스로 진행할 수 있다. 게다가 교통이 혼잡한 지역에서는 주변의 주차장까지 주차대상 공간을 확장해 주차를 하는 기능까지 개발되고 있다.
이에, 위치를 추정하기 위한 측위 방법이 중요해지고 있으나, 종래의 위성 측위 방법은 고정밀 GPS, 고정밀 라이다, 고해상도 카메라 등을 필요로 하여 그 가격이 매우 비싸고, 복잡한 알고리즘으로 이루어져 있어 그 처리속도 및 정확도가 떨어지며, 도로의 특성, 주위 지형지물의 특성 등에 영향을 받아 그 성능을 일정하게 유지하기가 어려운 문제점이 있었다.
본 발명의 배경기술로는 미국 공개특허공보 제2018-0023961호(공개일 : 2018.01.25.공개)인 "SYSTEMS AND METHODS FOR ALIGNING CROWDSOURCED SPARSE MAP DATA"가 있다.
본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점들을 개선하기 위하여 창안된 것으로, SVM(Surround View Monitor)을 활용하여 고가의 장비 없이 자동 발렛 파킹 시스템(AVP, Automated Valet Parking)의 초기 위치를 추정할 수 있도록 하는 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법을 제공하는 것을 목적으로 한다.
일 측면에 따른 자동 발렛 파킹(AVP, Automated Valet Parking) 위치를 추정하는 장치는 차량의 전방 영상을 처리하는 전방카메라 처리부와 차량의 서라운드 뷰 영상을 처리하는 SVM(Surround View Monitor) 처리부와 고정밀 지도를 저장하는 지도데이터부와 상기 차량의 주차장 진입 확인 시 상기 전방카메라 처리부 및 상기 SVM 처리부에 의해 인식된 차선들을 기반으로 생성한 차선 데이터와 상기 지도데이터부로부터 획득된 상기 주차장의 맵 데이터를 기반으로 맵 매칭을 수행하여 상기 차량의 위치 측정값을 보정하고, 적어도 상기 보정된 위치 측정값에 기반하여 AVP 초기 위치를 결정하는 제어부를 포함할 수 있다.
실시 예로, 상기 제어부가 상기 전방카메라 처리부에 의해 인식된 원거리 차선과 상기 SVM 처리부에 의해 인식된 근거리 차선의 위치 오차를 산출하고, 상기 산출된 위치 오차가 소정 허용 범위 이내인 것을 기반으로 상기 원거리 차선과 상기 근거리 차선을 하나로 차선 융합하여 상기 차선 데이터를 생성할 수 있다.
실시 예로, 상기 전방카메라 처리부에 의해 인식된 정지선을 더 융합하여 상기 차선 데이터가 생성될 수 있다.
실시 예로, 상기 산출된 위치 오차가 상기 허용 범위를 벗어난 경우, 상기 제어부가 상기 차선 융합을 수행하지 않고, 상기 원거리 차선 및 상기 근거리 차선 중 상대적으로 신뢰도가 높은 차선을 유효 차선으로 선택하여 상기 차선 데이터를 생성할 수 있다.
실시 예로, 상기 신뢰도는 이전 차선 인식 결과를 기초로 예측된 예측 차선과 실시간 인식된 현재 차선에 대한 차선 성분 별 일치 정도에 기반하여 산출된 카운트로 결정되고, 상기 제어부가 상기 산출된 카운트를 기 설정된 임계치와 비교하여 상기 유효 차선을 선택할 수 있다.
실시 예로, 상기 제어부가 추측 항법(Dead Reckoning)을 통해 상기 차량의 거동을 예측하고, 상기 차량의 거동 예측 결과에 더 기반하여 상기 AVP 초기 위치를 결정할 수 있다.
실시 예로, 상기 장치는 GPS 정보를 상기 제어부에 제공하는 GPS수신부와 조향 휠 각도(steering wheel angle), 요 레이트(yaw rate) 및 휠 속도(wheel speed) 중 적어도 하나를 포함하는 센서 데이터를 상기 제어부에 제공하는 차량센서부를 더 포함하고, 상기 제어부가 상기 GPS 정보와 상기 센서 데이터를 기반으로 추측항법을 수행하여 상기 차량의 거동을 예측할 수 있다.
실시 예로, 상기 제어부가 ICP(Iterative Closest Point) 로직을 이용하여 상기 센서 데이터와 맵 데이터 간의 거리 오차를 최소화하는 위치 및 회전 보정량을 계산할 수 있다.
실시 예로, 상기 제어부가 상기 맵 매칭 결과 출력되는 차량 자세(vehicle pose) 정보 및 상기 추측항법에 의해 예측한 차량 위치에 상응하는 GPS 정보에 기반하여 위치 융합을 수행할 수 있다.
실시 예로, 상기 제어부가 상기 위치 융합의 결과로 출력되는 차량 위치와 플래그(flags)에 기반하여 차량 자세를 판정하는 페일-세이프(fail-safe) 진단을 수행하되, 상기 페일-세이프 진단은 과거 시점의 측위 결과들을 현재 시점에 투영한 추정 측위 결과들과 현재 입력되는 현재 시점의 측위 결과로 이루어진 분포도에 기초하여 수행될 수 있다.
실시 예로, 상기 판정된 차량 자세는 경도(longitude), 위도(latitude), 방향(heading), 공분산(covariance), 경고/페일/세이프(warning/fail/safe), 플래그(flags) 및 차선 오프셋(lane offset) 중 적어도 하나 이상을 포함할 수 있다.
다른 측면에 따른 차량에서 자동 발렛 파킹 위치를 추정하는 방법은 상기 차량의 주차장 진입이 확인되면, 상기 주차장에 상응하는 맵 데이터를 획득하는 단계와 전방 카메라 및 서라운드 뷰 모니터(SVM, Surround View Monitor)로 인식된 차선들을 기반으로 차선 데이터를 생성하는 단계와 상기 맵 데이터 및 상기 차선 데이터에 기반으로 맵 매칭을 수행하여 상기 차량의 위치 측정값을 보정하는 단계와 상기 보정된 위치 측정값에 기반하여 자동 발렛 파킹(AVP, Automated Valet Parking) 초기 위치를 결정하는 단계를 포함할 수 있다.
실시 예로, 상기 차선 데이터를 생성하는 단계는 상기 전방카메라에 의해 인식된 원거리 차선과 상기 SVM에 의해 인식된 근거리 차선의 위치 오차를 산출하는 단계와 상기 산출된 위치 오차가 소정 허용 범위 이내인 것에 기반하여 상기 원거리 차선과 상기 근거리 차선을 하나로 차선 융합하여 상기 차선 데이터를 생성하는 단계를 포함할 수 있다.
실시 예로, 상기 전방카메라에 의해 인식된 정지선을 더 융합하여 상기 차선 데이터가 생성될 수 있다.
실시 예로, 상기 차선 데이터를 생성하는 단계는 상기 산출된 위치 오차가 상기 허용 범위를 벗어난 것에 기반하여, 상기 원거리 차선 및 상기 근거리 차선 중 상대적으로 신뢰도가 높은 차선을 유효 차선으로 선택하는 단계와 상기 선택된 유효 차선에 기반하여 상기 차선 데이터를 생성하는 단계를 더 포함할 수 있다.
실시 예로, 상기 신뢰도는 이전 차선 인식 결과를 기초로 예측된 예측 차선과 실시간 인식된 현재 차선에 대한 차선 성분 별 일치 정도에 기반하여 산출된 카운트를 기초로 결정되고, 상기 산출된 카운트를 기 설정된 임계치와 비교하여 상기 유효 차선이 선택될 수 있다.
실시 예로, 상기 방법은 추측 항법(Dead Reckoning)을 통해 상기 차량의 거동을 예측하는 단계를 더 포함하고, 상기 차량의 거동 예측 결과에 더 기반하여 상기 AVP 초기 위치가 결정될 수 있다.
실시 예로, 상기 방법은 GPS 정보를 획득하는 단계와 조향 휠 각도(steering wheel angle), 요 레이트(yaw rate) 및 휠 속도(wheel speed) 중 적어도 하나를 포함하는 센서 데이터를 획득하는 단계를 더 포함하고, 상기 GPS 정보와 상기 센서 데이터를 기반으로 상기 추측항법이 수행되어 상기 차량의 거동이 예측될 수 있다.
실시 예로, 상기 방법은 ICP(Iterative Closest Point) 로직을 이용하여 상기 센서 데이터와 상기 맵 데이터 간의 거리 오차를 최소화하는 위치 및 회전 보정량을 계산하는 단계를 더 포함할 수 있다.
실시 예로, 상기 방법은 상기 맵 매칭을 통해 출력되는 차량 자세(vehicle pose) 정보 및 상기 추측항법을 통해 예측한 차량 위치에 상응하는 GPS 정보에 기반하여 위치 융합을 수행하는 단계를 더 포함할 수 있다.
실시 예로, 상기 방법은 상기 위치 융합의 결과로 출력되는 차량 위치와 플래그(flags)에 기반하여 차량 자세를 판정하는 페일-세이프(fail-safe) 진단 단계를 더 포함하되, 상기 페일-세이프 진단은 과거 시점의 측위 결과들을 현재 시점에 투영한 추정 측위 결과들과 현재 입력되는 현재 시점의 측위 결과로 이루어진 분포도에 기초하여 수행될 수 있다.
실시 예로, 상기 판정된 차량 자세는 경도(longitude), 위도(latitude), 방향(heading), 공분산(covariance), 경고/페일/세이프(warning/fail/safe), 플래그(flags) 및 차선 오프셋(lane offset) 중 적어도 하나 이상을 포함할 수 있다.
본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법은, SVM(Surround View Monitor)을 활용하여 자동 발렛 파킹 시스템(AVP, Automated Valet Parking)의 초기 위치를 추정할 수 있도록 함으로써, 고가의 장비 없이 맵 매칭이 가능하도록 하고 실내와 실외 구분 없이 초기 위치를 추정할 수 있도록 하며, 지형지물에 근접하여 측정함으로써 인지거리 정확도(보정 정확도)를 높혀 맵 매칭 정확도를 향상시킬 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치를 나타낸 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치를 보다 자세하게 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법의 맵 매칭 로직을 설명하기 위한 도면이다.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.
도 1은 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치를 나타낸 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치를 보다 자세하게 설명하기 위한 도면이며, 도 5는 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법의 맵 매칭 로직을 설명하기 위한 도면으로서, 이를 참조하여 자동 발렛 파킹 시스템의 위치 추정 장치를 설명하면 다음과 같다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치는, 전방카메라 처리부(10), SVM(Surround View Monitor) 처리부(20), 지도데이터부(30), GPS수신부(40), 차량센서부(50), 제어부(60) 및 출력부(70)를 포함한다.
먼저 본 실시예는, 차의 앞뒤와 옆면에 부착된 카메라를 통해 차 주위 공간을 차내에서 볼 수 있도록 하여 주차를 편하게 할 수 있도록 하는 SVM(Surround View Monitor)을 활용하여 자동 발렛 파킹 시스템(AVP, Automated Valet Parking)의 초기 위치를 추정하기 위한 것이다. 즉, 차량 측위 장치에 관한 것으로 고가의 장비 없이 카메라에서 촬영된 영상과 정지선 등을 이용하여 차량의 위치를 측정하고 맵매칭의 정확도를 향상시킬 수 있도록 하는 것을 특징으로 한다.
전방카메라 처리부(10)는 차량의 전방카메라로부터 차량의 전방 영상을 입력받고, 차량의 전방 영상을 처리하여 원거리 차선 및 교통표지를 인식할 수 있다.
또한, 전방카메라 처리부(10)는 전방 영상으로부터 주행 차선을 인식하는 주행 차선 인식 수단과, 인식된 차선의 동일한 특성을 갖는 차선을 추적하는 차선 추적 수단 및 신뢰도 산출 수단을 포함할 수 있다.
주행 차선 인식 수단은 전방 영상에서 특정 색상(예 : 흰색, 노란색 등)의 실선 또는 점선 형태를 갖는 차선을 인식할 수 있다.
차선 추적 수단은 상기 인식된 차선의 흐름(방향성)을 고려하여 상기 인식된 차선의 성분(예 : 색상, 두께, 형태 등)이 부분적으로 동일한 특성(예 : 동일 선 색상, 동일 선 두께, 동일 선 간격 등)을 유지하지 않더라도 미리 지정된 마진(margin) 내에서 동일한 특성을 갖는 차선을 추적할 수 있다.
그리고 신뢰도 산출 수단은 상기 추적하는 차선의 성분(예 : 색상, 두께, 형태 등)이 미리 지정된 각 성분별 기준 값과 일치하는 비율(즉, 차선 성분 일치율)을 계산할 수 있다. 이때 상기 계산된 차선 성분 일치율이 100%에 가까울수록 신뢰도가 높고, 반대로 상기 계산된 차선 성분 일치율이 0%에 가까울수록 신뢰도가 낮은 것을 의미한다. 또한 신뢰도 산출 수단은 이전 차선의 인식 결과와 차량의 움직임 정보를 이용하여 현재 차선을 예측(즉, 예측 차선)하고, 상기 예측 차선과 상기 전방 영상에서 인식한 현재 차선을 비교하여 그 차이가 기 설정된 임계치 이하인 경우에 신뢰도 카운트(또는 신뢰도 점수)를 증가시키는 방식으로 신뢰도를 계산할 수도 있다. 이때 상기 신뢰도 카운트가 기 설정된 임계치 이상인 경우에 차선 인식이 유효하다고(즉, 유효한 차선이라고) 판단할 수 있다.
SVM(Surround View Monitor) 처리부(20)는 차량의 서라운드 뷰 영상을 처리하여 근거리 차선 및 정지선을 인식할 수 있다.
또한 SVM 처리부(20)는 서라운드 뷰 영상(또는 서라운드 뷰 합성 영상)으로부터 차선을 인식하는 것으로, 상기 서라운드 뷰 영상은 적어도 하나 이상의 카메라로부터 차량 주변(예 : 정면, 측면, 후면 등)의 영상을 촬영하여 탑 뷰나 서라운드 뷰 형태로 합성한 영상을 의미한다. 따라서 상기 SVM 처리부(20)는 차량 근접 영역의 차선(즉, 근거리 차선)을 인식할 수 있다.
여기서 상기 카메라는 차량의 전/후/좌/우에 각기 카메라가 설치되며, 추가로 상기 탑 뷰 또는 서라운드 뷰 영상의 완성도를 높이고, 또한 촬영 사각지대가 발생하지 않도록 하기 위하여, 상기 각 카메라에 비해서 비교적 높은 위치인 차량의 전방상부 및 후방상부에도 추가 카메라가 설치될 수 있다.
또한, SVM 처리부(20)는 전방카메라 처리부(10)와 마찬가지로 주행 차선 인식 수단, 차선 추적 수단 및 신뢰도 산출 수단을 포함할 수 있다.
즉, 주행 차선 인식 수단은 서라운드 뷰 영상으로부터 주행 차선을 인식하며, 상기 서라운드 뷰 영상에서 특정 색상(예 : 흰색, 노란색)의 실선 또는 점선 형태를 갖는 차선을 인식할 수 있다. 본 실시예에서는 특히 정지선을 인식할 수 있다.
차선 추적 수단은 상기 인식된 차선의 흐름(방향성)을 고려하여 상기 인식된 차선의 성분(예 : 색상, 두께, 형태 등)이 부분적으로 동일한 특성(예 : 동일 선 색상, 동일 선 두께, 동일 선 간격 등)을 유지하지 않더라도 미리 지정된 마진(margin) 내에서 동일한 특성을 갖는 차선을 추적할 수 있다.
그리고, 신뢰도 산출 수단은 상기 추적하는 차선의 성분(예 : 색상, 두께, 형태 등)이 미리 지정된 각 성분별 기준 값과 일치하는 비율(즉, 차선 성분 일치율)을 계산한다. 이때 상기 계산된 차선 성분 일치율이 100%에 가까울수록 신뢰도가 높고, 반대로 상기 계산된 차선 성분 일치율이 0%에 가까울수록 신뢰도가 낮은 것을 의미한다. 또한 상기 신뢰도 산출 수단은 이전 차선의 인식 결과와 차량의 움직임 정보를 이용하여 현재 차선을 예측(즉, 예측 차선)하고, 상기 예측 차선과 상기 서라운드 뷰 영상에서 인식한 현재 차선을 비교하여 그 차이가 기 설정된 임계치 이하인 경우에 신뢰도 카운트(또는 신뢰도 점수)를 증가시키는 방식으로 신뢰도를 계산할 수도 있다. 이때 상기 신뢰도 카운트가 기 설정된 임계치 이상인 경우에 차선 인식이 유효하다고(즉, 유효한 차선이라고) 판단할 수 있다.
한편, 상기 근거리 차선은 서라운드 뷰 영상으로부터 인식할 수 있는 영역의 차선을 의미하고, 상기 원거리 차선은 전방 영상으로부터 인식할 수 있는 원거리 영역의 차선을 의미할 수 있다.
지도데이터부(30)는 도로와 주변 지형의 정보가 높은 정확도로 구축된 고정밀 지도를 저장하여 제어부(60)의 요청에 따라 제공한다. 본 실시예에서는 특히 주차장(주차구역으로 설정된 영역)의 HD MAP을 저장할 수 있다.
GPS수신부(40)는 위성으로부터 GPS 신호를 수신하여 제어부(60)에 제공함으로써 현재의 위치를 통해 차량의 위치를 설정할 수 있도록 한다.
차량센서부(50)는 차량에 구비된 각종 센서를 의미하며, 본 실시예에서는 특히 차량 거동 예측을 위한 차량 조향 휠 각도(steering wheel angle) 센서, 요 레이트(yaw rate) 센서 및 휠 속도(wheel speed) 센서를 포함할 수 있다.
제어부(60)는 차량이 주차장 또는 주차구역으로 설정된 영역에 진입하면 이를 확인하고, 해당 구역의 지도를 다운로드한다. 즉, 제어부(60)는 차량의 주차장 진입이 확인되면 지도데이터부(30)로부터 주차구역으로 설정된 영역의 지도를 다운로드할 수 있다.
그리고 제어부(60)는 SVM 처리부(20)에서 인식된 근거리 차선 및 정지선을 통해 자동 발렛 파킹(AVP, Automated Valet Parking) 시작 위치를 인지할 수 있다.
이때 제어부(60)는 SVM 처리부(20)에서 인식한 차선, 및 상기 전방카메라 처리부(10)에서 인식한 차선을 융합하여 하나의 융합된 차선(즉, 근거리 차선 및 원거리 차선으로 분할되지 않은 하나의 차선)을 생성할 수 있다.
즉, 제어부(60)는 차선 오차 비교를 통해 차선을 결합하고 유효 차선을 판단하여 융합된 차선을 생성할 수 있다.
제어부(60)는 SVM 처리부(20)에서 인식한 차선(즉, 근거리 차선) 및 상기 전방카메라 처리부(10)에서 인식한 차선(즉, 원거리 차선)의 위치 오차(예 : 차량 기준 좌표계에서의 차선의 끝과 끝의 간격, 각 차선의 각도 등)를 비교한다. 여기서 상기 차량 기준 좌표계는, 차량 중심을 기준으로 차량이 이동한 거리와 방향에 대응하는 가로 좌표(X), 세로 좌표(Y), 및 차량 이동 방향(θ)을 나타내는 좌표계를 의미한다.
그리고 제어부(60)는 두 차선(즉, 원거리 차선, 근거리 차선)의 위치 오차를 비교한 결과, 상기 위치 오차가 기 설정된 허용 범위 이내인 경우에 상기 두 차선(즉, 원거리 차선, 근거리 차선)을 연결하여 하나의 융합된 차선(즉, 근거리 차선 및 원거리 차선으로 분할되지 않은 하나의 차선)을 생성한다. 그리고 두 차선(즉, 원거리 차선, 근거리 차선)의 위치 오차를 비교한 결과, 상기 위치 오차가 기 설정된 허용 범위를 벗어나는 경우, 상기 두 차선(즉, 원거리 차선, 근거리 차선)을 융합하지 않고, 상대적으로 신뢰도가 높은 차선을 유효 차선으로 판단한다.
이에 따라 제어부(60)는 상기 두 차선(즉, 원거리 차선, 근거리 차선)의 각 신뢰도가 기 설정된 임계치보다 작은 경우에는 모두 유효한 차선이 아니라고 판단하고, 상기 두 차선의 각 신뢰도가 기 설정된 임계치 이상이면서 상기 두 차선 간의 위치 오차가 기 설정된 허용 범위 이내인 경우에 상기 두 차선을 융합하여 하나의 융합된 차선(즉, 근거리 차선 및 원거리 차선으로 분할되지 않은 하나의 차선)을 생성하고, 상기 두 차선의 위치 오차가 기 설정된 허용 범위를 벗어나는 경우, 상기 두 차선 중 상대적으로 신뢰도가 높은 차선을 유효 차선으로 판단할 수 있다.
그리고 제어부(60)는 차량 거동 예측부(62), 맵 매칭부(64), 위치융합부(66) 및 페일-세이프 진단부(68)를 포함하여, 추측항법(Dead Reckoning)을 통해 상기 차량의 거동을 예측하고, 상기 전방카메라 처리부(10) 및 SVM 처리부(20)의 인식 처리 결과와 상기 지도데이터부(30)의 주차장 지도에 기초한 맵 매칭을 통해 상기 차량의 위치 측정값을 보정하며, 상기 보정한 차량의 위치 측정값과 상기 차량의 거동 예측 결과를 융합하여 상기 차량의 자동 발렛 파킹 초기 위치를 최종 추정할 수 있다.
차량 거동 예측부(62)는 GPS수신부(40)로부터 입력받은 GPS 정보와, 차량센서부(50)로부터 입력받은 차량 조향 휠 각도(steering wheel angle), 요 레이트(yaw rate) 및 휠 속도(wheel speed)에 기초하여 추측항법(Dead Reckoning)을 통해 차량의 거동을 예측할 수 있다.
그리고 맵 매칭부(64)는 상기 전방카메라 처리부(10)에서 인식한 원거리 차선, 상기 SVM 처리부(20)에서 인식한 근거리 차선 및 정지선을 융합한 차선 융합 데이터, 상기 지도데이터부(30)로부터의 주차장 지도 데이터 및 추측항법에 의해 예측한 시간별 차량 거동 데이터 중 적어도 하나 이상에 기초하여 맵 매칭을 수행할 수 있다.
이때, 맵 매칭부(64)는 ICP(Iterative Closest Point) 로직을 이용하여 센서 데이터와 맵 데이터 간의 거리 오차를 최소화하는 위치 및 회전 보정량을 계산할 수 있다. ICP 로직은 기존의 데이터셋에 현재 데이터를 등록(registration)시키는 방법으로 각 데이터들의 가장 가까운점을 이용하여 연관성을 찾고 그에 맞게 현재 데이터를 이동 및 회전 시켜 기존 데이터셋에 추가하는 방법이다.
예를 들어, 아래의 식과, 도 5를 참조하여 위치(T), 회전(R) 보정량을 계산할 수 있다.
Figure pat00001
그리고 위치융합부(66)는 상기 맵 매칭 결과 출력되는 차량 자세(vehicle pose) 및 추측항법에 의해 예측한 차량 위치의 GPS 정보를 융합할 수 있다.
이때, 위치융합부(66)는 상술한 SVM 처리부(20)와 전방카메라 처리부(10)의 인식 차선을 융합하는 방법과 같이 구현될 수도 있으나, 다른 방법으로 위치 측정값을 융합할 수 있다.
한편, 제어부(60)는 상기 위치융합부(66)에서 출력되는 차량 위치와 플래그(flags)를 입력받아 각각 페일-세이프(fail-safe) 진단을 수행하는 페일-세이프 진단부(68)를 포함한다. 페일-세이프 진단부(68)는 과거시점의 측위 결과들을 현재 시점에 투영한 추정 측위 결과들과 현재 입력되는 현재 시점의 측위 결과를 이루어진 분포도를 이용하여 페일-세이프 진단을 수행할 수 있다.
본 실시예에서, 차량 자세는 경도(longitude), 위도(latitude), 방향(heading), 공분산(covariance), 경고/페일/세이프(warning/fail/safe), 플래그(flags) 및 차선 오프셋(lane offset) 중 적어도 하나 이상을 포함할 수 있다.
즉, 본 실시예에서는 출력부(70)를 포함하여 페일-세이프 진단부(68)의 진단 결과를 출력할 수 있는데, 이때 상기 차량 자세 정보에 대한 페일-세이프 진단 결과를 출력할 수 있다.
한편, 본 실시예에서 자율 주행 시스템은 맵 매칭 기반의 센서 융합 측위를 수행할 수 있으며, 센서 융합 측위를 수행하는 과정에서 시스템의 신뢰성을 향상시키고 강건하고 안정적인 측위 정보의 산출(계산 또는 추정)을 가능하게 하는 페일-세이프 진단을 수행할 수 있다. 또한, 본 실시예에서 페일-세이프 진단은 analytic redundancy 기반의 페일-세이프 진단(Analytic Redundancy-based Fault Diagnosis)을 수행하므로, 추가적인 하드웨어가 필요 없다. 다만 이에 한정되지는 않는다.
한편, 도 2를 참조하면, 본 실시예에서는 크게 맵 매칭을 통해 보정한 위치 측정값과 차량 거동을 예측한 결과를 융합하는 과정을 수행하는 퍼포먼스 코어(performance core)와, 상기 퍼포먼스 코어에서 융합한 차량 위치에 대해 페일-세이프 진단을 수행하는 세이프티 코어(safety core)로 구분할 수 있다.
이때, 퍼포먼스 코어에서는 전방 카메라 처리부(10)와 SVM 처리부(20)가 센서값 프로세싱을 수행하고, 지도데이터부(30)가 지도를 다운로드받아 관리할 수 있다. 그리고 세이프티 코어에서는 GPS수신부(40)가 GPS 신호 프로세싱을 수행할 수 있다.
그리고 제어부(60)에서 맵 매칭부(64) 및 위치 융합부(66)는 퍼포먼스 코어에 포함되고, 차량 거동 예측부(62) 및 페일-세이프 진단부(68)는 세이프티 코어에 포함될 수 있으나, 이에 한정되는 것은 아니다.
정리하면, 퍼포먼스 코어에서는 SVM(Surround View Monitor)로부터 차선(lane) 및 정지선(stop line) 등을 입력받고, 전방카메라로부터 차선(lane) 및 도로표지(traffic sign) 등을 입력받는다. 그리고 SVM 및 전방카메라로부터 입력받은 인식 데이터, 즉 센서값을 프로세싱할 수 있다. 다시 말해, 제어부(60)는 SVM 및 전방카메라로부터의 인식 데이터를 융합하고 주차구역의 HD MAP을 다운로드 하여 맵-매칭이 수행되도록 할 수 있다. 이때, 제어부(60)는 GPS 신호와 추측항법에 의해 예측한 차량 궤적 정보와, GPS 정보를 포함하여 맵-매칭을 수행할 수 있다. 그리고 제어부(60)는 맵-매칭을 통해 보정된 차량 자세(또는 위치)와 GPS 정보를 통해 위치값을 융합하고 이에 대해 페일-세이프 진단을 수행하여 최종적으로 자동 발렛 파킹 시스템의 초기 위치를 추정할 수 있다.
도 3은 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 방법을 설명하기 위한 흐름도이고, 도 4는 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법의 예시도로서, 이를 참조하여 자동 발렛 파킹 시스템의 위치 추정 방법을 설명하면 다음과 같다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 방법은, 먼저 제어부(60)가 차량의 주차장 진입을 확인한다(S10).
이때, 제어부(60)는 GPS수신부(40)로부터 차량 위치를 수신하여 주차장 진입을 확인할 수 있으며 그 방법은 한정되지 않는다.
그리고 제어부(60)는 차량의 주차장 진입이 확인되면, 고정밀 지도를 저장하는 지도데이터부(30)로부터 주차구역으로 설정된 영역의 지도를 다운로드한다(S20).
그리고 제어부(60)는 차량이 자동 발렛 파킹(AVP, Automated Valet Parking) 시작 위치에 주차되었다고 확인되면(S30), SVM 처리부(20)를 통해 AVP 시작 구역이 인지되었는지 판단한다(S40).
즉, 도 4(a)에 도시된 바와 같이 차량이 AVP 시작 위치에 주차되면, 도 4(b)에 도시된 바와 같이 SVM 처리부(20)에서 인식된 근거리 차선 및 정지선을 통해 AVP 시작 위치를 인지할 수 있다.
이때, SVM 처리부(20)를 통해 AVP 시작 구역이 인지되지 않으면 S30단계로 회귀하여 AVP 시작 위치 주차를 수행할 수 있으며, 이는 사용자에 의해 수행될 수 있고 제어부(60)에서 GPS 정보 또는 주차장에 설치된 AVP 인프라로부터 주차가되었다는 신호를 입력받아 시작 위치에 주차가 되었음을 확인할 수도 있다.
그리고 제어부(60)는 AVP 시작 위치 초기값으로 위치를 설정한다(S50).
즉, 제어부(60)는 도 4(c)에 도시된 바와 같이, SVM 처리부(20)를 통해 인지한 AVP 시작 구역에 기초하여 AVP 시작 위치 초기값으로 위치를 설정할 수 있다.
그리고 제어부(60)는 도 4(d)에 도시된 바와 같이, AVP 시작 위치를 보정한다(S60).
이때, 제어부(60)는 추측항법(Dead Reckoning)을 통해 차량의 거동을 예측하고, 원거리 차선 및 교통표지를 인식하는 전방카메라 처리부(10) 및 SVM 처리부(20)의 인식 처리 결과와 지도데이터부(30)의 주차장 지도에 기초한 맵 매칭을 통해 상기 차량의 위치 측정값을 보정할 수 있다.
그리고 제어부(60)는 상기 보정한 차량의 위치 측정값과 상기 차량의 거동 예측 결과를 융합하여 상기 차량의 자동 발렛 파킹 초기 위치를 최종 추정할 수 있다.
이때, 제어부(60)는 GPS수신부(40)로부터 입력받은 GPS 정보와, 차량센서부(50)로부터 입력받은 차량 조향 휠 각도(steering wheel angle), 요 레이트(yaw rate) 및 휠 속도(wheel speed)에 기초하여 추측항법을 통해 차량의 거동을 예측할 수 있으며, 상기 전방카메라 처리부(10)에서 인식한 원거리 차선, 상기 SVM 처리부(20)에서 인식한 근거리 차선 및 정지선을 융합한 차선 융합 데이터, 상기 지도데이터부(30)로부터의 주차장 지도 데이터 및 추측항법에 의해 예측한 시간별 차량 거동 데이터 중 적어도 하나 이상에 기초하여 맵 매칭을 수행할 수 있다.
본 실시예에서, 제어부(60)는 ICP(Iterative Closest Point) 로직을 이용하여 센서 데이터와 맵 데이터 간의 거리 오차를 최소화하는 위치 및 회전 보정량을 계산할 수 있다.
그리고 제어부(60)는 상기 맵 매칭 결과 출력되는 차량 자세(vehicle pose) 및 추측항법에 의해 예측한 차량 위치의 GPS 정보를 융합할 수 있다.
마지막으로, 제어부(60)는 위치 융합 결과 출력되는 차량 위치와 플래그(flags)를 입력받아 각각 페일-세이프(fail-safe) 진단을 수행할 수 있다(S70).
이때, 제어부(60)는 과거시점의 측위 결과들을 현재 시점에 투영한 추정 측위 결과들과 현재 입력되는 현재 시점의 측위 결과를 이루어진 분포도를 이용하여 페일-세이프 진단을 수행할 수 있다. 여기서 차량 자세는 경도(longitude), 위도(latitude), 방향(heading), 공분산(covariance), 경고/페일/세이프(warning/fail/safe), 플래그(flags) 및 차선 오프셋(lane offset) 중 적어도 하나 이상을 포함할 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법은, SVM(Surround View Monitor)을 활용하여 자동 발렛 파킹 시스템(AVP, Automated Valet Parking)의 초기 위치를 추정할 수 있도록 함으로써, 고가의 장비 없이 맵 매칭이 가능하도록 하고 실내와 실외 구분 없이 초기 위치를 추정할 수 있도록 하며, 지형지물에 근접하여 측정함으로써 인지거리 정확도(보정 정확도)를 높혀 맵 매칭 정확도를 향상시킬 수 있는 효과가 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
10 : 전방카메라 처리부
20 : SVM(Surround View Monitor) 처리부
30 : 지도데이터부
40 : GPS수신부
50 : 차량센서부
60 : 제어부
62 : 차량 거동 예측부
64 : 맵 매칭부
66 : 위치융합부
68 : 페일-세이프 진단부
70 : 출력부

Claims (22)

  1. 자동 발렛 파킹(AVP, Automated Valet Parking) 위치를 추정하는 장치에 있어서,
    차량의 전방 영상을 처리하는 전방카메라 처리부;
    차량의 서라운드 뷰 영상을 처리하는 SVM(Surround View Monitor) 처리부;
    고정밀 지도를 저장하는 지도데이터부; 및
    상기 차량의 주차장 진입 확인 시 상기 전방카메라 처리부 및 상기 SVM 처리부에 의해 인식된 차선들을 기반으로 생성한 차선 데이터와 상기 지도데이터부로부터 획득된 상기 주차장의 맵 데이터를 기반으로 맵 매칭을 수행하여 상기 차량의 위치 측정값을 보정하고, 적어도 상기 보정된 위치 측정값에 기반하여 AVP 초기 위치를 결정하는 제어부
    를 포함하는, 장치.
  2. 제1항에 있어서,
    상기 제어부가 상기 전방카메라 처리부에 의해 인식된 원거리 차선과 상기 SVM 처리부에 의해 인식된 근거리 차선의 위치 오차를 산출하고, 상기 산출된 위치 오차가 소정 허용 범위 이내인 것을 기반으로 상기 원거리 차선과 상기 근거리 차선을 하나로 차선 융합하여 상기 차선 데이터를 생성하는, 장치.
  3. 제2항에 있어서,
    상기 전방카메라 처리부에 의해 인식된 정지선을 더 융합하여 상기 차선 데이터를 생성하는, 장치.
  4. 제2항에 있어서,
    상기 산출된 위치 오차가 상기 허용 범위를 벗어난 경우, 상기 제어부가 상기 차선 융합을 수행하지 않고, 상기 원거리 차선 및 상기 근거리 차선 중 상대적으로 신뢰도가 높은 차선을 유효 차선으로 선택하여 상기 차선 데이터를 생성하는, 장치.
  5. 제4항에 있어서,
    상기 신뢰도는 이전 차선 인식 결과를 기초로 예측된 예측 차선과 실시간 인식된 현재 차선에 대한 차선 성분 별 일치 정도에 기반하여 산출된 카운트로 결정되고, 상기 제어부가 상기 산출된 카운트를 기 설정된 임계치와 비교하여 상기 유효 차선을 선택하는, 장치.
  6. 제1항에 있어서,
    상기 제어부가 추측 항법(Dead Reckoning)을 통해 상기 차량의 거동을 예측하고, 상기 차량의 거동 예측 결과에 더 기반하여 상기 AVP 초기 위치를 결정하는, 장치.
  7. 제6항에 있어서,
    GPS 정보를 상기 제어부에 제공하는 GPS수신부; 및
    조향 휠 각도(steering wheel angle), 요 레이트(yaw rate) 및 휠 속도(wheel speed) 중 적어도 하나를 포함하는 센서 데이터를 상기 제어부에 제공하는 차량센서부
    를 더 포함하고,
    상기 제어부가 상기 GPS 정보와 상기 센서 데이터를 기반으로 추측항법을 수행하여 상기 차량의 거동을 예측하는, 장치.
  8. 제7항에 있어서,
    상기 제어부가 ICP(Iterative Closest Point) 로직을 이용하여 상기 센서 데이터와 맵 데이터 간의 거리 오차를 최소화하는 위치 및 회전 보정량을 계산하는, 장치.
  9. 제6항에 있어서,
    상기 제어부가 상기 맵 매칭 결과 출력되는 차량 자세(vehicle pose) 정보 및 상기 추측항법에 의해 예측한 차량 위치에 상응하는 GPS 정보에 기반하여 위치 융합을 수행하는, 장치.
  10. 제6항에 있어서,
    상기 제어부가 상기 위치 융합의 결과로 출력되는 차량 위치와 플래그(flags)에 기반하여 차량 자세를 판정하는 페일-세이프(fail-safe) 진단을 수행하되,
    상기 페일-세이프 진단은 과거 시점의 측위 결과들을 현재 시점에 투영한 추정 측위 결과들과 현재 입력되는 현재 시점의 측위 결과로 이루어진 분포도에 기초하여 수행되는, 장치.
  11. 제 9항에 있어서,
    상기 판정된 차량 자세는,
    경도(longitude), 위도(latitude), 방향(heading), 공분산(covariance), 경고/페일/세이프(warning/fail/safe), 플래그(flags) 및 차선 오프셋(lane offset) 중 적어도 하나 이상을 포함하는, 장치.
  12. 차량에서 자동 발렛 파킹 위치를 추정하는 방법에 있어서,
    상기 차량의 주차장 진입이 확인되면, 상기 주차장에 상응하는 맵 데이터를 획득하는 단계;
    전방 카메라 및 서라운드 뷰 모니터(SVM, Surround View Monitor)로 인식된 차선들을 기반으로 차선 데이터를 생성하는 단계;
    상기 맵 데이터 및 상기 차선 데이터에 기반으로 맵 매칭을 수행하여 상기 차량의 위치 측정값을 보정하는 단계; 및
    상기 보정된 위치 측정값에 기반하여 자동 발렛 파킹(AVP, Automated Valet Parking) 초기 위치를 결정하는 단계
    를 포함하는, 방법.
  13. 제12항에 있어서,
    상기 차선 데이터를 생성하는 단계는,
    상기 전방카메라에 의해 인식된 원거리 차선과 상기 SVM에 의해 인식된 근거리 차선의 위치 오차를 산출하는 단계; 및
    상기 산출된 위치 오차가 소정 허용 범위 이내인 것에 기반하여 상기 원거리 차선과 상기 근거리 차선을 하나로 차선 융합하여 상기 차선 데이터를 생성하는 단계
    를 포함하는, 방법.
  14. 제13항에 있어서,
    상기 전방카메라에 의해 인식된 정지선을 더 융합하여 상기 차선 데이터가 생성되는, 방법.
  15. 제13항에 있어서,
    상기 차선 데이터를 생성하는 단계는,
    상기 산출된 위치 오차가 상기 허용 범위를 벗어난 것에 기반하여, 상기 원거리 차선 및 상기 근거리 차선 중 상대적으로 신뢰도가 높은 차선을 유효 차선으로 선택하는 단계; 및
    상기 선택된 유효 차선에 기반하여 상기 차선 데이터를 생성하는 단계
    를 더 포함하는, 방법.
  16. 제15항에 있어서,
    상기 신뢰도는 이전 차선 인식 결과를 기초로 예측된 예측 차선과 실시간 인식된 현재 차선에 대한 차선 성분 별 일치 정도에 기반하여 산출된 카운트를 기초로 결정되고, 상기 산출된 카운트를 기 설정된 임계치와 비교하여 상기 유효 차선을 선택하는, 방법.
  17. 제12항에 있어서,
    추측 항법(Dead Reckoning)을 통해 상기 차량의 거동을 예측하는 단계를 더 포함하고,
    상기 차량의 거동 예측 결과에 더 기반하여 상기 AVP 초기 위치를 결정하는, 방법.
  18. 제17항에 있어서,
    GPS 정보를 획득하는 단계; 및
    조향 휠 각도(steering wheel angle), 요 레이트(yaw rate) 및 휠 속도(wheel speed) 중 적어도 하나를 포함하는 센서 데이터를 획득하는 단계
    를 더 포함하고,
    상기 GPS 정보와 상기 센서 데이터를 기반으로 상기 추측항법을 수행하여 상기 차량의 거동을 예측하는, 방법.
  19. 제18항에 있어서,
    ICP(Iterative Closest Point) 로직을 이용하여 상기 센서 데이터와 상기 맵 데이터 간의 거리 오차를 최소화하는 위치 및 회전 보정량을 계산하는 단계를 더 포함하는, 방법.
  20. 제 17항에 있어서,
    상기 맵 매칭을 통해 출력되는 차량 자세(vehicle pose) 정보 및 상기 추측항법을 통해 예측한 차량 위치에 상응하는 GPS 정보에 기반하여 위치 융합을 수행하는 단계를 더 포함하는, 방법.
  21. 제20항에 있어서,
    상기 위치 융합의 결과로 출력되는 차량 위치와 플래그(flags)에 기반하여 차량 자세를 판정하는 페일-세이프(fail-safe) 진단 단계를 더 포함하되,
    상기 페일-세이프 진단은 과거 시점의 측위 결과들을 현재 시점에 투영한 추정 측위 결과들과 현재 입력되는 현재 시점의 측위 결과로 이루어진 분포도에 기초하여 수행되는, 방법.
  22. 제 21항에 있어서,
    상기 판정된 차량 자세는 경도(longitude), 위도(latitude), 방향(heading), 공분산(covariance), 경고/페일/세이프(warning/fail/safe), 플래그(flags) 및 차선 오프셋(lane offset) 중 적어도 하나 이상을 포함하는, 방법.
KR1020220022791A 2019-03-19 2022-02-22 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법 KR20220033477A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190031092A KR20200119920A (ko) 2019-03-19 2019-03-19 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
KR1020220022791A KR20220033477A (ko) 2019-03-19 2022-02-22 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220022791A KR20220033477A (ko) 2019-03-19 2022-02-22 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190031092A Division KR20200119920A (ko) 2019-03-19 2019-03-19 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20220033477A true KR20220033477A (ko) 2022-03-16

Family

ID=72333901

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190031092A KR20200119920A (ko) 2019-03-19 2019-03-19 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
KR1020220022791A KR20220033477A (ko) 2019-03-19 2022-02-22 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190031092A KR20200119920A (ko) 2019-03-19 2019-03-19 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법

Country Status (4)

Country Link
US (1) US20200298836A1 (ko)
KR (2) KR20200119920A (ko)
CN (1) CN111721285A (ko)
DE (1) DE102020105639A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112319464B (zh) * 2020-11-09 2021-10-15 恒大新能源汽车投资控股集团有限公司 自动泊车方法、装置、设备及存储介质
CN112835359A (zh) * 2020-12-24 2021-05-25 浙江合众新能源汽车有限公司 一种基于视觉slam技术的avp控制方法及装置
CN113173158A (zh) * 2021-04-26 2021-07-27 安徽域驰智能科技有限公司 基于环视slam及车辆运动学的车辆定位方法

Also Published As

Publication number Publication date
KR20200119920A (ko) 2020-10-21
CN111721285A (zh) 2020-09-29
DE102020105639A1 (de) 2020-09-24
US20200298836A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
US9283967B2 (en) Accurate curvature estimation algorithm for path planning of autonomous driving vehicle
US10384679B2 (en) Travel control method and travel control apparatus
US20180087907A1 (en) Autonomous vehicle: vehicle localization
KR20180106417A (ko) 차량의 위치 인식 시스템 및 방법
CN108628324B (zh) 基于矢量地图的无人车导航方法、装置、设备及存储介质
KR20220033477A (ko) 자동 발렛 파킹 시스템의 위치 추정 장치 및 방법
JP5747787B2 (ja) 車線認識装置
US20100121518A1 (en) Map enhanced positioning sensor system
JP2019532292A (ja) 車両位置特定の自律走行車両
JP2005098853A (ja) 地図データ更新方法および地図データ更新装置
KR102086270B1 (ko) 주행 제어 장치의 제어 방법 및 주행 제어 장치
JP2014034251A (ja) 車両走行制御装置及びその方法
RU2735567C1 (ru) Способ хранения предысторий движения, способ для выработки модели пути движения, способ для оценки локальной позиции и устройство хранения предысторий движения
US11260861B2 (en) Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes on a roadway
US11281228B2 (en) Method and device for determining a position of a transportation vehicle
US20180066960A1 (en) Apparatus and method for driving assistance
JP6822815B2 (ja) 道路標示認識装置
US20190331496A1 (en) Locating a vehicle
KR20190109645A (ko) 차량의 측위 장치 및 그 방법
CN112304302A (zh) 一种多场景高精度车辆定位方法、装置及车载终端
JP6943127B2 (ja) 位置補正方法、車両制御方法及び位置補正装置
CN113375679A (zh) 一种车道级定位方法、装置、系统和相关设备
CN113165661A (zh) 用于确定车辆的修正轨迹的方法和系统
JP6790951B2 (ja) 地図情報学習方法及び地図情報学習装置
KR101837821B1 (ko) 다중구조 필터를 이용한 위치추정 방법 및 이의 시스템

Legal Events

Date Code Title Description
A107 Divisional application of patent