KR102382420B1 - 차량 위치 결정 방법, 전자 기기 및 저장 매체 - Google Patents

차량 위치 결정 방법, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR102382420B1
KR102382420B1 KR1020200122451A KR20200122451A KR102382420B1 KR 102382420 B1 KR102382420 B1 KR 102382420B1 KR 1020200122451 A KR1020200122451 A KR 1020200122451A KR 20200122451 A KR20200122451 A KR 20200122451A KR 102382420 B1 KR102382420 B1 KR 102382420B1
Authority
KR
South Korea
Prior art keywords
current vehicle
vehicle
current
identifying
location
Prior art date
Application number
KR1020200122451A
Other languages
English (en)
Other versions
KR20210094450A (ko
Inventor
치 첸
송타오 창
콩 첸
유빈 왕
유하오 리
웬양 첸
Original Assignee
아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드 filed Critical 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드
Publication of KR20210094450A publication Critical patent/KR20210094450A/ko
Application granted granted Critical
Publication of KR102382420B1 publication Critical patent/KR102382420B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18072Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3685Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18066Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors
    • B60Y2400/3032Wheel speed sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본원에서는 차량 위치 결정 방법, 장치, 전자 기기 및 저장 매체가 제공되며, 이들은 무인 주행 기술 분야에 관한 것이다. 구체적인 실시 방안에 있어서, 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고; 상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 상기 현재 차량의 초기화 위치를 결정하며; 상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 상기 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하고; 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정함으로써, 현재 차량의 목표 위치를 획득한다. 본원의 실시예를 통해 차량의 경위도 좌표를 정확하게 결정할 수 있고, 위치 결정의 정확도를 효과적으로 향상시킬 수 있다.

Description

차량 위치 결정 방법, 전자 기기 및 저장 매체{METHOD AND APPARATUS FOR POSITIONING VEHICLE, ELECTRONIC DEVICE AND STORAGE MEDIUM}
본원은 지능형 자동차 분야, 나아가 무인 주행 기술에 관한 것으로, 특히 차량 위치 결정 방법, 장치, 전자 기기 및 저장 매체에 관한 것이다.
어라운드 뷰 위치 결정 기술이란, 차량 본체 주위의 약간의 어안 이미지를 어라운드 뷰 이미지로 스티칭하고, 심층 신경망 모델에 의해 어라운드 뷰 이미지의 시각적 위치 결정 요소, 예를 들어, 주차 공간 번호, 주차 코너 지점, 차선, 지상 교통 표시 정보(예컨대, 지상 화살표, 횡단보도 표시 정보 등)를 감지하고, 사전에 구축된 글로벌 고정밀 시맨틱 맵에 데이터를 연관 및 정합시킴으로써, 차량에 설치된 시각적 관성 주행 거리계의 유효한 관측을 실현할 수 있는 바, 차고 등 응용 정경에서 무인차 위치 결정의 정밀도 및 차고 출입, 순항 과정 중의 차량 위치 결정의 정밀도를 향상시킬 수 있다.
자율 주차 위치 결정 기술은 현재 일반적으로 다음과 같은 방안들로 해결된다. 1) 어안 기반 무인차의 시각적 요소 위치 결정 방안: 상기 방안은 차체에 전방 어안 센서, 좌측 어안 센서, 후방 어안 센서, 우측 어안 센서를 포함한 4개의 어안 센서를 장착하고, 4개의 어안 센서를 통해 차체 주위의 시각적 요소(차량 위치, 차선, 지상 화살표 등 정보를 포함)를 수집하며, 왜곡을 제거하여 시각적 요소의 실제 위치를 복원한 후, 일정한 주파수로 시각적 요소를 백엔드에 발송하여 처리함으로써 차체 위치를 결정한다. 2) 전면 광각 기반 무인차 시각 위치 결정 방안: 상기 방안은 전면 광각 카메라를 사용하고 일반적으로 차체 앞쪽에 설치하여 차체 전방의 시각적 요소를 관측하며, 차량 위치, 차선, 지상 화살표 및 인공 표지물 등 정보를 식별할 수 있고, 시각적 요소를 다시 백엔드에 송신함으로써 융합적 위치 결정을 진행한다. 3) 시각 기반 어라운드 뷰 국부 위치 결정 방법: 무인차의 보조 운전에 의한 차고 출입 과정에서 자주 채택되는 방안으로, 4개의 어안 이미지를 한 장의 어라운드 뷰 이미지로 스티칭한 후, 어라운드 뷰 이미지에서 시각적 위치 결정 요소를 식별하는 것으로서, 상기 방법은 효과적으로 왜곡으로 인한 영향을 제거할 수 있으므로 정밀도를 높일 수 있고, 차체와 시각적 위치 결정 요소의 상대적 위치를 효과적으로 획득할 수 있다.
종래 기술에서의 상기 3가지 차량 위치 결정 방안은 모두 차량의 위치 결정 요소를 획득하여 차량에 대한 위치 결정을 진행하는 것으로, 위치 결정 요소는 차량에 대한 국부 위치 결정만 진행할 수 있고, 차량에 대한 전역 위치 결정을 할 수 없다. 즉, 차량과 주위 물체의 상대적 위치만 감지할 수 있고, 차량의 경위도 좌표는 감지할 수 없다.
이를 고려하여, 본원의 실시예는 차량 위치 결정 방법, 장치, 전자 기기 및 저장 매체를 제공하며, 이를 통해 차량의 경위도 좌표를 정확하게 결정하고 위치 결정 정밀도를 효과적으로 향상시킬 수 있다.
제1 양태에 있어서, 본원의 실시예는 차량 위치 결정 방법을 제공하고, 상기 방법은,
현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하는 단계;
상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정하는 단계;
상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대한 관측 제약(observational constraints)을 적용함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하는 단계; 및
상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 상기 현재 차량의 초기화 위치를 조정함으로써, 상기 현재 차량의 목표 위치를 획득하는 단계;를 포함한다.
상술한 실시예는 다음과 같은 장점 또는 유익한 효과를 구비한다. 상술한 실시예는 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정할 수 있고; 이어서 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득함으로써, 이를 통해 차량의 경위도 좌표를 정확하게 결정하는 목적을 달성할 수 있다. 종래 기술 중 상술한 3가지 차량 위치 결정 방안은 모두 차량의 위치 결정 요소를 획득하여 차량에 대한 위치 결정을 할 수 있으나, 위치 결정 요소는 차량에 대한 국부 위치 결정만 가능하고, 차량에 대한 전역 위치 결정을 할 수 없다. 즉, 차량과 주위 물체의 상대적 위치만 감지할 수 있고, 차량의 경위도 좌표는 감지할 수 없다. 본원은 식별 요소를 통해 초기화 위치를 결정하고, 비식별 요소를 통해 초기화 위치를 조정하는 기술 수단을 이용하기 때문에, 종래 기술에서 차량에 대한 국부 위치 결정만 가능하고 차량에 대한 전역 위치 결정이 불가능했던 기술적 문제를 극복하여, 나아가 차량의 경위도 좌표를 정확하게 결정하여 위치 결정 정밀도를 효과적으로 향상시키는 기술적 효과를 얻을 수 있다.
상술한 실시예에서, 상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하는 단계는,
상기 현재 차량에 배치된 4개의 어안 센서를 통해 상기 현재 차량의 4방향의 환경 이미지를 수집하는 단계 - 상기 현재 차량의 4개 어안 센서는 상기 현재 차량의 전방, 후방, 좌측, 우측 4방향상에 각각 배치됨 -;
각각의 어안 센서로 수집된 상기 현재 차량의 4방향의 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하는 단계; 및
상기 어라운드 뷰 어안 이미지를 심층 신경망에 입력하여, 상기 심층 신경망을 통해 상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력하는 단계;를 포함한다.
상술한 실시예는 다음과 같은 장점 또는 유익한 효과를 구비한다. 상술한 실시예는 4개의 어안 센서를 통해 현재 차량의 4방향의 환경 이미지를 수집할 수 있고, 4개의 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하여, 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득할 수 있다. 심층 신경망을 통한 어라운드 뷰 어안 센서 식별을 통해, 현재 차량의 식별 요소와 각각의 비식별 요소를 정확하게 획득할 수 있다
상술한 실시예에서 상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정하는 상기 단계는,
상기 현재 차량의 식별 요소에 따라 상기 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정하는 단계; 및
상기 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 상기 현재 차량의 초기화 위치로 결정하는 단계;를 포함한다.
상술한 실시예는 다음과 같은 장점 또는 유익한 효과를 구비한다. 상술한 실시예는 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출함으로써, 현재 차량의 초기화 위치를 정확하게 결정할 수 있다. 본원은 다양한 종류의 정합도 알고리즘을 사용할 수 있으며, 여기서 이에 대해 제한하지 않는다. 정합도를 산출함에 있어서 운전자가 수동으로 참여할 필요없이 정합도가 가장 높은 기준 초기화 위치를 획득할 수 있으므로 현재 차량의 초기화 위치를 정확하게 결정할 수 있다.
상술한 실시예에서, 상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하는 상기 단계는,
상기 현재 차량의 각각의 비식별 요소 중 하나의 비식별 요소를 현재 비식별 요소로 선택하고, 상기 현재 비식별 요소에 따라 상기 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정하는 단계; 및
상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소(point-primitive element)인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 상기 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행하는 단계;를 포함한다.
상술한 실시예는 다음과 같은 장점 또는 유익한 효과를 구비한다. 상술한 실시예는 점-점 관측 제약 또는 점-선 관측 제약을 통해 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 정확하게 획득할 수 있으므로 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여, 현재 차량의 목표 위치를 획득할 수 있다.
상술한 실시예에서, 상기 방법은,
상기 현재 차량에 설치된 관성 측정 유닛 센서 및 바퀴 속도 센서를 통해 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 각각 수집하는 단계; 및
상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 상기 현재 차량의 목표 위치를 조정함으로써 상기 현재 차량의 최종 위치를 획득하는 단계;를 더 포함한다.
상술한 실시예는 다음과 같은 장점 또는 유익한 효과를 구비한다. 상술한 실시예는 추가적으로 관성 측정 유닛 센서 및 바퀴 속도 센서를 통해 관성 측정 데이터 및 바퀴 속도 데이터를 수집한 후, 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 현재 차량의 목표 위치를 조정하여 상기 현재 차량의 최종 위치를 획득할 수 있으므로, 이는 현재 차량의 최종 위치의 정확도를 향상시킬 수 있다.
제2 양태에 있어서, 본원은 차량 위치 결정 장치를 제공하며, 상기 장치는 획득 모듈, 결정 모듈, 제약 모듈 및 조정 모듈을 포함한다.
상기 획득 모듈은 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득한다.
상기 결정 모듈은 상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정한다.
상기 제약 모듈은 상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득한다.
상기 조정 모듈은 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 상기 현재 차량의 초기화 위치를 조정함으로써, 상기 현재 차량의 목표 위치를 획득한다.
상술한 실시예에서 상기 획득 모듈은 수집 서브 모듈 및 획득 서브 모듈을 포함한다.
상기 수집 서브 모듈은 상기 현재 차량의 4개 어안 센서에 설치되어 상기 현재 차량의 4방향 상 환경 이미지를 수집하고, 상기 현재 차량의 4개 어안 센서는 상기 현재 차량의 전방, 후방, 좌측, 우측 4방향에 각각 설치된다.
상기 획득 서브 모듈은 각각의 어안 센서로 수집된 상기 현재 차량의 4방향 상 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하는데 사용되고; 상기 어라운드 뷰 어안 이미지를 심층 신경망에 입력하여, 상기 심층 신경망을 통해 상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력한다.
상술한 실시예에서, 상기 결정 모듈은 구체적으로 상기 현재 차량의 식별 요소에 따라 상기 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정하고; 상기 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 상기 현재 차량의 초기화 위치로 결정한다.
상술한 실시예에서 상기 제약 모듈은 결정 서브 모듈 및 제한 서브 모듈을 포함한다.
상기 결정 서브 모듈은 상기 현재 차량의 각각의 비식별 요소 중에서 하나의 비식별 요소를 현재 비식별 요소로 선택하여, 상기 현재 비식별 요소에 따라 상기 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정한다.
상기 제한 서브 모듈은 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 상기 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행한다.
상술한 실시예에서 상기 획득 모듈은 추가적으로 상기 현재 차량의 관성 측정 유닛 센서 및 바퀴 속도 센서에 설치되어 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 각각 수집한다.
상기 조정 모듈은 추가적으로 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 상기 현재 차량의 목표 위치를 조정함으로써, 상기 현재 차량의 최종 위치를 획득한다.
제3 양태에 있어서, 본원의 실시예에서는 전자 기기를 제공하며, 전자 기기는, 하나 또는 복수의 프로세서; 및 하나 또는 복수의 프로그램을 저장하기 위한 저장 장치를 포함한다.
상기 하나 또는 복수의 프로세서에 의해 상기 하나 또는 복수의 프로그램이 실행될 경우, 상기 하나 또는 복수의 프로세서가 본원의 임의의 실시예에서 제공하는 차량 위치 결정 방법을 구현하도록 한다.
제4 양태에 있어서, 본원의 실시예에서는 컴퓨터 프로그램이 저장된 저장 매체를 제공하고, 프로세서에 의해 상기 프로그램이 실행될 경우 본원의 임의의 실시예에서 제공하는 차량 위치 결정 방법을 구현한다.
상술한 발명의 일 실시예는 다음과 같은 장점 또는 유익한 효과를 구비한다. 본원에서 제공한 차량 위치 결정 방법, 장치, 전자 기기 및 저장 매체는 우선 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고; 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정하며; 이어서 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하고; 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득한다. 다시 말하면, 본원은 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정하고; 그런 다음 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득함으로써, 차량의 경위도 좌표를 정확하게 결정하는 목적을 달성할 수 있다. 그러나 종래 기술 중 상술한 3가지의 차량 위치 결정 방안은 모두 차량의 위치 결정 요소를 획득하여 차량의 위치를 결정할 수 있으나, 위치 결정 요소는 차량에 대한 국부 위치 결정만 가능하고, 차량에 대한 전역 위치 결정을 할 수 없다. 즉, 차량과 주위 물체의 상대적 위치만 감지할 수 있고, 차량의 경위도 좌표는 감지할 수 없다. 본원은 식별 요소를 통해 초기화 위치를 결정하고, 비식별 요소를 통해 초기화 위치를 조정하는 기술 수단을 이용하기 때문에, 종래 기술에서 차량에 대한 국부 위치 결정만 가능하고 차량에 대한 전역 위치 결정이 불가능했던 기술적 문제를 극복하고, 나아가 차량의 경위도 좌표를 정확하게 결정하여 위치 결정 정밀도를 효과적으로 향상시키는 기술적 효과를 얻을 수 있다. 또한 본원의 실시예 기술 방안의 구현은 간단하고 편리하여, 보급이 용이하고 적용 범위가 더 넓다.
상술한 선택 가능한 기술적 해결 수단들이 구비한 기타 다른 효과들에 대해 아래에서 구체적인 실시예를 참조하여 추가적으로 설명하고자 한다.
본원에 대한 더 깊은 이해를 도모하고자 도면들을 제공하며, 이러한 도면들은 본원에 대해 제한하지 않는다.
도 1은 본원의 제1 실시예에 따라 제공한 차량 위치 결정 방법의 흐름도를 개략적으로 나타낸다.
도 2는 본원의 제2 실시예에 따라 제공한 차량 위치 결정 방법의 흐름도를 개략적으로 나타낸다.
도 3은 본원의 제2 실시예에 따라 제공한 위치 요소의 연관 관계를 개략적으로 나타낸다.
도 4는 본원의 제3 실시예에 따라 제공한 차량 위치 결정 장치의 구조도를 개략적으로 나타낸다.
도 5는 본원의 제3 실시예에 따라 제공한 획득 모듈의 구조도를 개략적으로 나타낸다.
도 6은 본원의 제3 실시예에 따라 제공한 제약 모듈의 구조도를 개략적으로 나타낸다.
도 7은 본원 실시예의 차량 위치 결정 방법을 구현하는데 사용되는 전자 기기의 블록도이다.
이하에서 첨부된 도면을 참조하여, 이해를 돕기 위한 본원 실시예의 다양한 세부사항을 포함한 본원의 시범적 실시예에 대해 설명하고자 하며, 이러한 실시예는 단지 예시적인 것으로 이해하여야 한다. 따라서 해당 분야의 당업자라면 본원의 범위 및 정신을 벗어나지 않는 한, 본 명세서 기술하는 실시예를 다양하게 변경 및 수정할 수 있음을 이해할 것이다. 마찬가지로, 명확하고 간결한 설명을 위해, 아래의 설명에서 잘 알려진 기능과 구조에 대한 설명은 생략하기로 한다.
제1 실시예
도 1은 본원 제1 실시예에 따라 제공한 차량 위치 결정 방법의 흐름도를 개략적으로 나타낸 것으로, 상기 방법은 차량 위치 결정 장치 또는 전자 기기에 의해 수행될 수 있고, 상기 장치 또는 전자 기기는 소프트웨어 및/또는 하드웨어 방식으로 구현될 수 있으며, 상기 장치 또는 전자기기는 네트워크 통신 기능을 갖춘 모든 스마트 기기에 통합될 수 있다. 도 1과 같이, 차량 위치 결정 방법은 아래와 같은 단계들을 포함할 수 있다.
S101에서, 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득한다.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득할 수 있다. 구체적으로 전자 기기는 현재 차량에 설치된 4개의 어안 센서를 통해 현재 차량의 4방향 상 환경 이미지를 수집할 수 있고; 각각의 어안 센서로 수집된 현재 차량의 4방향 상 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하고; 어라운드 뷰 어안 이미지를 심층 신경망에 입력하여 심층 신경망을 통해 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력하며, 여기서, 현재 차량의 상기 4개 어안 센서는 현재 차량의 전방, 후방, 좌측, 우측 4방향에 각각 설치된다.
바람직하게, 본원의 구체적인 실시예에서, 현재 차량의 식별 요소는 주차 공간 ID일 수 있고; 현재 차량의 비식별 요소는 주차 공간 지점, 주차 라인, 차선, 지상 교통 표지 정보 등의 정보일 수 있다. 상술한 어안 센서의 렌즈는 초광각 카메라로, 현재 차량의 전방, 후방, 좌측, 우측 4방향의 일정한 시야각 범위 내의 환경정보를 촬영할 수 있다. 예를 들어, 현재 차량의 4방향에 설치된 어안 센서(약칭: 전방 어안 센서, 후방 어안 센서, 좌측 어안 센서 및 우측 어안 센서)는 현재 차량의 주차 공간 ID와 4방향의 주차 공간 지점, 주차 라인, 차선, 지상 교통 표지 정보를 촬영할 수 있다. 본 실시예에서, 전방 어안 센서, 후방 어안 센서, 좌측 어안 센서 및 우측 어안 센서가 설치되는 구체적인 위치는 실제 수요에 따라 변경될 수 있으며, 이에 대해 추가적인 제한을 하지 않는다.
S102에서, 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 현재 차량의 초기화 위치를 결정한다.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정할 수 있다. 구체적으로, 전자 기기는 우선 현재 차량의 식별 요소에 따라 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정하고; 그 후 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 현재 차량의 초기화 위치로 결정한다.
S103에서, 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써, 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득한다.
본원의 구체적인 실시예에서, 전자 기기는 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대한 관측 제약을 함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 수 있다. 구체적으로, 전자 기기는 현재 차량의 각각의 비식별 요소 중 하나의 비식별 요소를 현재 비식별 요소로 선택하고, 상기 현재 비식별 요소에 따라 상기 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정하고; 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행할 수 있다.
S104에서, 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정함으로써, 현재 차량의 목표 위치를 획득한다.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정함으로써, 현재 차량의 목표 위치를 획득할 수 있다.
본원의 실시예에서 제공한 차량 위치 결정 방법은, 우선 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고; 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정하며; 이어서 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하고; 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정함으로써 현재 차량의 목표 위치를 획득한다. 다시 말하면, 본원은 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정할 수 있고; 그런 다음 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득함으로써, 차량의 경위도 좌표를 정확하게 결정하는 목적을 달성할 수 있다. 그러나 종래 기술 중 상술한 3가지의 차량 위치 결정 방안은 모두 차량의 위치 결정 요소를 획득하여 차량의 위치를 결정할 수 있으나, 위치 결정 요소는 차량에 대한 국부 위치 결정만 가능하고, 차량에 대한 전역 위치 결정을 할 수 없다. 즉, 차량과 주위 물체의 상대적 위치만 감지할 수 있고, 차량의 경위도 좌표는 감지할 수 없다. 본원은 식별 요소를 통해 초기화 위치를 결정하고, 비식별 요소를 통해 초기화 위치를 조정하는 기술 수단을 이용하기 때문에, 종래 기술 중 차량에 대한 국부 위치 결정만 가능하고 차량에 대한 전역 위치 결정이 불가능했던 기술적 문제를 극복하여, 나아가 차량의 경위도 좌표를 정확하게 결정함으로써 위치 결정 정밀도를 효과적으로 향상시키는 기술적 효과를 얻을 수 있다. 또한 본원의 실시예 기술 방안의 구현은 간단하고 편리하여, 보급이 용이하고 적용 범위가 더 넓다.
제2 실시예
도 2는 본원의 제2 실시예에서 제공한 차량 위치 결정 방법의 흐름도를 개략적으로 나타낸다. 도 2와 같이, 차량 위치 결정 방법은 아래와 같은 단계들을 포함할 수 있다.
S201에서, 현재 차량에 배치된 4개의 어안 센서를 통해 현재 차량의 4방향의 환경 이미지를 수집하고, 여기서, 현재 차량의 4개 어안 센서는 현재 차량의 전방, 후방, 좌측, 우측 4방향상에 각각 배치된다.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량에 배치된 4개의 어안 센서를 통해 현재 차량의 4방향의 환경 이미지를 수집할 수 있고, 여기서, 현재 차량의 4개 어안 센서는 현재 차량의 전방, 후방, 좌측, 우측 4방향 상에 각각 배치된다.
S202에서, 각각의 어안 센서로 수집된 현재 차량의 4방향의 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭한다.
본원의 구체적인 실시예에서, 전자 기기는 각각의 어안 센서로 수집된 현재 차량의 4방향의 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭할 수 있다. 구체적으로, 어안 센서의 최대 촬영 범위는 180°이므로, 전방 어안 센서로 수집된 환경 이미지와 좌측 어안 센서 및 우측 어안 센서로 수집된 환경 이미지에는 서로 겹치는 영역이 있을 수 있고, 후방 어안 센서로 수집된 환경 이미지와 좌측 어안 센서 및 우측 어안 센서로 수집된 환경 이미지에도 겹치는 영역이 있을 수 있으며; 좌측 어안 센서로 수집된 환경 이미지와 전방 어안 센서 및 후방 어안 센서로 수집된 환경 이미지에도 겹치는 영역이 있을 수 있고; 또한 우측 어안 센서로 수집된 환경 이미지와 전방 어안 센서 및 후방 어안 센서로 수집된 환경 이미지에도 겹치는 영역이 있을 수 있으므로, 전자 기기는 4개의 어안 센서로 수집된 4개의 환경 이미지 사이의 위치 관계에 따라, 각각의 어안 센서로 수집된 각각의 환경 이미지를 스티칭하여, 상기 4장의 환경 이미지에 대응하는 어라운드 뷰 어안 이미지를 획득할 수 있다.
S203에서, 어라운드 뷰 어안 이미지를 심층 신경망에 입력하고, 심층 신경망을 통해 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력한다.
본원의 구체적인 실시예에서, 전자 기기는 어라운드 뷰 어안 이미지를 심층 신경망에 입력하고, 심층 신경망을 통해 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력할 수 있다. 구체적으로, 심층 신경망은 어라운드 뷰 어안 이미지 중 주차 공간 ID를 식별하여, 현재 차량의 주차 공간 ID를 출력할 수 있고; 추가적으로 어라운드 뷰 어안 이미지의 주차 공간 지점, 주차 라인, 차선, 지상 교통 표지 정보 등의 정보를 식별하여, 현재 차량의 주차 공간 지점, 주차 라인, 차선, 지상 교통 표지 정보 등의 정보를 출력할 수도 있다.
S204에서, 현재 차량의 식별 요소에 따라 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정한.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량의 식별 요소에 따라 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정할 수 있다. 구체적으로, 전자 기기는 현재 차량의 주차 공간 ID에 따라 고정밀 지도에서 하나의 참조 위치 영역을 결정하는데, 상기 참조 위치 영역은 기설정된 규칙적인 형상일 수 있다. 이어서, 상기 참조 위치 영역에서 적어도 하나의 기준 초기화 위치를 결정하며, 여기서 각각의 기준 초기화 위치는 현재 차량의 위치 및 자세의 다양한 가능성을 반영할 수 있다.
S205에서, 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 현재 차량의 초기화 위치로 결정한다.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 현재 차량의 초기화 위치로 결정할 수 있다. 구체적으로, 전자 기기는 현재 차량의 식별 요소와 각각의 기준 초기화 위치를 심층 신경망에 입력할 수 있고; 상기 심층 신경망을 통해 현재 차량의 초기화 위치를 출력하며; 상기 초기화 위치는 현재 차량의 위치 및 자세의 최대 가능성을 반영할 수 있다.
S206에서, 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 적용하여, 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득한다.
본원의 구체적인 실시예에서, 전자 기기는 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 적용하여, 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 수 있다. 구체적으로, 전자 기기는 현재 차량의 각각의 비식별 요소 중 하나의 비식별 요소를 현재 비식별 요소로 선택하고, 현재 비식별 요소에 따라 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정할 수 있고; 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행할 수 있다.
도 3은 본원의 제2 실시예에 따라 제공한 위치 요소의 연관 관계를 개략적으로 나타낸다. 도 3과 같이, 전방 어안 센서, 후방 어안 센서, 좌측 어안 센서 및 우측 어안 센서를 통해 감지된 위치 요소(여기서 위치 요소는, 현재 차량의 식별 요소 및 각각의 비식별 요소를 포함함)가 위치 요소 A, 위치 요소 B 및 위치 요소 C를 포함할 수 있다고 가정하고; 고정밀 지도의 위치 요소가 위치 요소 1, 위치 요소 2, 위치 요소 3, 위치 요소 4 및 위치 요소 5를 포함할 수 있다고 가정하며; 여기서, 위치 요소 A는 위치 요소 1, 위치 요소 2, 위치 요소 3와 각각 연결되는데, 이는 위치 요소 A가 위치 요소 1, 위치 요소 2, 위치 요소 3과 서로 관련이 있을 수 있음을 나타내고; 위치 요소 B는 위치 요소 2, 위치 요소 3, 위치 요소 4와 각각 연결되는데, 이는 위치 요소 B가 위치 요소 2, 위치 요소 3, 위치 요소 4와 서로 관련이 있을 수 있음을 나타내며; 위치 요소 C는 위치 요소 3, 위치 요소 4, 위치 요소 5와 각각 연결되는데, 이는 위치 요소 C가 위치 요소 3, 위치 요소 4, 위치 요소 5와 서로 관련이 있을 수 있음을 나타낸다. 본 단계에서, 전자 기기는 위치 요소 A와 위치 요소 1, 위치 요소 2, 위치 요소 3의 관련 파라미터를 계산할 수 있고; 위치 요소 B와 위치 요소 2, 위치 요소 3, 위치 요소 4의 관련 파라미터를 계산할 수 있으며; 또한 위치 요소 C와 위치 요소 3, 위치 요소 4, 위치 요소 5의 관련 파라미터를 계산할 수 있고; 여기서 관련 파라미터는 평균 중첩 면적 비율, 둘레 비율, 3D 위치 거리를 포함하되 이에 제한되지 않는다.
S207에서, 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정함으로써, 현재 차량의 목표 위치를 획득한다.
본원의 구체적인 실시예에서, 전자 기기는 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여, 현재 차량의 목표 위치를 획득할 수 있다. 예를 들어, 현재 차량의 위치가 (x, y, z)이고, 방향은 차의 앞부분이 정북쪽을 가리키도록 초기화되어 있는 경우에, 전방 어안 센서가 감지한 차선이 서쪽으로 30도 각도로 기울어져 있다고 가정하면, 본 단계에서 전자 기기는 현재 차량의 초기화 위치 방향을 정북쪽에서 서쪽으로 30도 기울어진 방향으로 조정할 수 있다.
바람직하게, 본원의 구체적인 실시예에서 전자 기기는 추가적으로 현재 차량에 설치된 관성 측정 유닛 센서 및 바퀴 속도 센서를 통해 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 각각 수집할 수 있고; 이어서 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 현재 차량의 목표 위치를 조정함으로써 현재 차량의 최종 위치를 획득한다.
본원의 구체적인 실시예에서, 현재 차량에 어라운드 뷰 감지 모듈, 초기화 위치 결정 모듈, 데이터 관련 모듈 및 다중 센서 융합 모듈을 설치할 수 있다. 여기서, 어라운드 뷰 감지 모듈은 전방, 좌측, 우측, 후방의 4개 어안 센서에 대해 하드웨어 동시 노출을 진행하고, 4개의 어안 센서로 수집된 환경 이미지를 어라운드 뷰 어안 이미지로 스티칭한 후, 심층 신경망에 전송하여 주차 공간 ID, 주차 공간 지점, 주차 라인, 차선, 지상 교통 표지 정보 등의 위치 요소를 출력한다. 초기화 위치 결정 모듈은 현재 차량에 고정밀 지도 내에서의 초기화 위치 및 자세를 제공하고, 감지하여 식별한 식별 요소, 각각의 비식별 요소 및 고정밀 지도를 입력으로 하며, 파티클 필터 알고리즘을 사용하여, 우선 고정밀 지도 내의 주차 공간 ID가 있는 위치 부근에서 파티클(즉, 현재 차량의 비식별 요소)을 랜덤으로 확산시켜 끊임없이 파티클의 가중치를 업데이트하고, 파티클 가중치가 높은 지점에서 다시 파티클을 확산시키며, 이렇게 반복 순환하여 가중치가 가장 높은 파티클 집합 영역, 즉 무인 자동차의 초기화 위치를 획득한다. 데이터 관련 모듈은 차체의 현재 위치 및 자세와 어라운드 뷰가 감지하고 식별한 비식별 요소 자연 요소를 기반으로, 양자를 연관시켜 백엔드 상태 예측에 대한 지속적인 관측을 제공하고, 주행 거리계 오차를 수정한다. 다중 센서 융합 모듈은 관성 측정 유닛 센서, 바퀴 속도 센서 및 고정밀 지도의 관측 데이터를 입력으로 한다. 다중 센서 융합 모듈은 서로 다른 입력 소스에 따라 가장 정확하고 신뢰도 높은 현재 차체의 위치 및 자세를 추정하는 역할을 한다. 구체적으로, 본원은 무인차 플랫폼의 하드웨어 연산력 상태에 따라 다중 상태 제약에 기반한 칼만 필터 알고리즘 및 최소자승법에 기반한 최적화 알고리즘을 활용할 수 있다.
본원 실시예에서 제공한 차량 위치 결정 방법은, 우선 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고; 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정하며; 이어서 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하고; 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득한다. 다시 말하면, 본원은 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정할 수 있고; 그런 다음 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득함으로써, 차량의 경위도 좌표를 정확하게 결정하는 목적을 달성할 수 있다. 그러나 종래 기술 중 상술한 3가지의 차량 위치 결정 방안은 모두 차량의 위치 결정 요소를 획득하여 차량의 위치를 결정할 수 있으나, 위치 결정 요소는 차량에 대한 국부 위치 결정만 가능하고, 차량에 대한 전역 위치 결정을 할 수 없다. 즉, 차량과 주위 물체의 상대적 위치만 감지할 수 있고, 차량의 경위도 좌표는 감지할 수 없다. 본원은 식별 요소를 통해 초기화 위치를 결정하고, 비식별 요소를 통해 초기화 위치를 조정하는 기술 수단을 이용하기 때문에, 종래 기술 중 차량에 대한 국부 위치 결정만 가능하고 차량에 대한 전역 위치 결정이 불가능했던 기술적 문제를 극복하여, 나아가 차량의 경위도 좌표를 정확하게 결정하여 위치 결정 정밀도를 효과적으로 향상시키는 기술적 효과를 얻을 수 있다. 또한 본원의 실시예 기술 방안의 구현은 간단하고 편리하여, 보급이 용이하고 적용 범위가 더 넓다.
제3 실시예
도 4는 본원의 제3 실시예에 따라 제공한 차량 위치 결정 장치의 구조도를 개략적으로 나타낸다. 도 4와 같이, 상기 차량 위치 결정 장치(400)는 획득 모듈(401), 결정 모듈(402), 제약 모듈(403) 및 조정 모듈(404)을 포함한다.
상기 획득 모듈(401)은 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고, 상기 결정 모듈(402)은 상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정하고, 상기 제약 모듈(403)은 상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하며; 상기 조정 모듈(404)은 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 상기 현재 차량의 초기화 위치를 조정함으로써, 상기 현재 차량의 목표 위치를 획득한다.
도 5는 본원의 제3 실시예에 따라 제공한 획득 모듈의 구조도를 개략적으로 나타낸다. 도 5와 같이, 상기 획득 모듈(401)은 수집 서브 모듈(4011) 및 획득 서브 모듈(4012)을 포함한다.
상기 수집 서브 모듈(4011)은 상기 현재 차량의 4개 어안 센서에 설치되어 상기 현재 차량의 4방향 상 환경 이미지를 수집하고, 여기서, 상기 현재 차량의 4개 어안 센서는 상기 현재 차량의 전방, 후방, 좌측, 우측 4방향에 각각 설치된다.
상기 획득 서브 모듈(4012)은 각각의 어안 센서로 수집된 상기 현재 차량의 4방향 상 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하고, 상기 어라운드 뷰 어안 이미지를 심층 신경망에 입력하여, 상기 심층 신경망을 통해 상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력한다.
나아가, 상기 결정 모듈(402)은 구체적으로 상기 현재 차량의 식별 요소에 따라 상기 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정하고, 상기 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 상기 현재 차량의 초기화 위치로 결정한다.
도 6은 본원의 제3 실시예에 따라 제공한 제약 모듈의 구조도를 개략적으로 나타낸다. 도 6과 같이, 상기 제약 모듈(403)은 결정 서브 모듈(4031) 및 제한 서브 모듈(4032)을 포함한다.
상기 결정 서브 모듈(4031)은 상기 현재 차량의 각각의 비식별 요소 중에서 하나의 비식별 요소를 현재 비식별 요소로 선택하여, 상기 현재 비식별 요소에 따라 상기 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정한다.
상기 제한 서브 모듈(4032)은 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 상기 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행한다.
나아가, 상기 획득 모듈(401)은 추가적으로 상기 현재 차량의 관성 측정 유닛 센서 및 바퀴 속도 센서에 설치되어 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 각각 수집한다.
상기 조정 모듈(404)은 추가적으로 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 상기 현재 차량의 목표 위치를 조정함으로써, 상기 현재 차량의 최종 위치를 획득한다.
상술한 차량 위치 결정 장치는 본원의 임의의 실시예에서 제공한 방법을 수행할 수 있고, 방법을 수행하기 위한 대응하는 기능 모듈 및 유익한 효과를 구비한다. 본 실시예에서 상세히 설명하지 않은 기술적 사항들은 본원의 임의 실시예에서 제공한 차량 위치 결정 방법을 참고할 수 있다.
제4 실시예
본원의 실시예에 따라, 본원은 전자 기기 및 판독 가능 저장 매체를 더 제공한다.
도 7은 본원 실시예의 차량 위치 결정 방법에 따른 전자 기기의 블록도이다. 전자 기기는 다양한 형태의 디지털 컴퓨터를 지칭하는 바, 예를 들어, 랩탑 컴퓨터, 데스크탑 컴퓨터, 워크 스테이션, PDA, 서버, 블레이드 서버, 대형 컴퓨터 및 기타 적합한 컴퓨터일 수 있다. 전자 기기는 또한 다양한 형태의 이동 장치를 지칭할 수도 있는 바, 예를 들어, PDA, 셀룰러 폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치일 수 있다. 본 명세서에서 나타낸 부재들, 이들의 연결 및 관계, 그리고 이들의 기능은 단지 예시일 뿐이며, 본 명세서에 설명된 및/또는 요구되는 본원의 구현을 제한하지 않는다.
도 7과 같이 해당 전자 기기는 하나 또는 복수의 프로세서(701), 저장 장치(702) 및 각 부재들을 연결하기 위한 인터페이스(고속 및 저속 인터페이스)를 포함한다. 각각의 부재들은 서로 다른 버스로 상호 연결되며, 공용 메인보드에 장착되거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는 전자 기기 내에서 실행되는 명령어를 처리할 수 있다. 상기 명령어에는 외부 입력/출력 장치(예컨대, 인터페이스에 결합된 디스플레이 장치)상에 GUI의 그래픽 정보를 표시하도록, 메모리에 또는 메모리 상에 저장된 명령어를 포함한다. 다른 실시예에서, 필요에 따라, 프로세서 및/또는 복수의 버스와 복수의 메모리를 함께 사용할 수 있다. 마찬가지로, 복수의 전자 기기를 연결하여, 각각의 기기들이 부분적으로 필요한 작업(예컨대, 서버 어레이, 일 세트의 블레이드 서버 또는 멀티 프로세서 시스템으로서 작동함)을 수행하도록 할 수 있다. 도 7에서 일 예로 단일 프로세서(701)를 보여준다.
저장 장치(702)는 본원에서 제공하는 비-일시적 컴퓨터 판독 가능 저장 매체이다. 여기서, 상기 저장 장치에는 적어도 하나의 프로세서에 의해 수행 가능한, 상기 적어도 하나의 프로세서가 본원에서 제공하는 차량 위치 결정 방법을 수행하도록 하는 명령어가 저장되어 있다. 본원의 비-일시적 컴퓨터 판독 가능 저장 매체는 컴퓨터가 본 명세서에서 제공한 차량 위치 결정 방법을 수행하도록 하는 컴퓨터 명령어를 저장한다.
저장 장치(702)는 비-일시적 컴퓨터 판독 가능 저장 매체로서, 비-일시적 소프트웨어 프로그램, 비-일시적 컴퓨터 실행 가능 프로그램 및 본원 실시예의 차량 위치 결정 방법에 대응하는 프로그램 명령/모듈(예컨대, 도 4에서 나타낸 획득 모듈(401), 결정 모듈(402), 제약 모듈(403) 및 조정 모듈(404))을 저장하기 위한 것이다. 프로세서(701)는 저장 장치(702)에 저장되어 있는 비-일시적 소프트웨어 프로그램, 명령어 및 모듈을 실행하여 서버의 다양한 기능 응용과 데이터 처리를 수행하는데, 이는 즉 상술한 방법의 실시예의 차량 위치 결정 방법을 구현하는 것이다.
저장 장치(702)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있는데, 여기서, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 애플리케이션을 저장할 수 있고; 데이터 저장 영역은 차량 위치 결정 방법에 따른 전자 기기의 사용에 따라 생성된 데이터 등을 저장할 수 있다. 또한 저장 장치(702)는 고속 랜덤 액세스 메모리를 포함할 수 있으며, 적어도 하나의 디스크 메모리, 플래시 메모리 또는 기타 비-일시적 솔리드 스테이트 메모리와 같은 비-일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 저장 장치(702)는 선택적으로 프로세서(701)에 대해 원격으로 설치된 저장 장치를 포함할 수 있으며, 이러한 원격 저장 장치는 네트워크를 통해 차량 위치 결정 방법의 전자 기기에 연결될 수 있다. 상기 네트워크의 예로는 인터넷, 인트라넷, LAN, 이동 통신망 및 그 조합을 포함하되 이에 제한되지 않는다.
차량 위치 결정 방법의 전자 기기는 입력 장치(703)와 출력 장치(704)를 더 포함할 수 있다. 프로세서(701), 저장 장치(702), 입력 장치(703) 및 출력 장치(704)는 버스 또는 다른 방식으로 연결될 수 있으며, 도 7에서 일 예로 버스를 통한 연결을 보여준다.
입력 장치(703)는 입력된 숫자 또는 문자 정보를 수신하고, 차량 위치 결정 방법의 전자 기기에 대한 사용자 설정 및 기능 제어와 관련한 키 신호 입력을 생성할 수 있으며, 예를 들어, 터치스크린, 키패드, 마우스, 트랙패드, 터치패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조이스틱 등과 같은 입력 장치가 포함될 수 있다. 출력 장치(704)는 디스플레이 장치, 보조 조명 장치(예컨대, LED) 및 촉각 피드백 장치(예컨대, 진동모터) 등을 포함할 수 있다. 해당 디스플레이 장치는 액정 표시 장치(LCD), 발광 다이오드(LED) 디스플레이 및 플라즈마 디스플레이를 포함하되 이에 제한되지 않는다. 일부 실시예에서 디스플레이 장치는 터치스크린일 수 있다.
여기에서 설명한 시스템 및 기술의 다양한 실시예는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(주문형 반도체), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합으로 구현될 수 있다. 이러한 다양한 실시예들은, 하나 또는 복수의 컴퓨터 프로그램에서 구현되되, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그래머블 프로세서는 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터와 명령어를 수신하고, 데이터와 명령어를 상기 저장 시스템, 상기 적어도 하나의 입력 장치 및 상기 적어도 하나의 출력 장치에 전송할 수 있는 전용 또는 범용 프로그래머블 프로세서일 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 app 또는 코드라고도 지칭됨)은 프로그래머블 프로세서의 기계 명령어를 포함하고, 하이 레벨 프로세스 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 구현할 수 있다. 본 명세서에서, "기계 판독 가능한 매체" 및 "컴퓨터 판독 가능한 매체"는 기계 명령어 및/또는 데이터를 프로그래머블 프로세서에 제공하기 위한 모든 컴퓨터 프로그램 제품, 기기 및/또는 장치(예컨대, 디스크, 광 디스크, 메모리, 프로그래머블 로직 유닛(PLD))를 의미하며, 기계 명령어를 기계 판독 가능 신호로 수신하는 기계 판독 가능한 매체를 포함한다. “기계 판독 가능한 신호”는 기계 명령어 및/또는 데이터를 프로그래머블 프로세서에 제공하기 위한 모든 신호를 의미한다.
사용자와의 상호 작용을 제공하기 위해 본 명세서에서 설명된 시스템 및 기술을 컴퓨터에서 구현할 수 있는데, 상기 컴퓨터는, 사용자에게 정보를 표시하기 위한 디스플레이 장치(예컨대, CRT(브라운관) 또는 LCD(액정 모니터); 및 키보드와 포인팅 장치(예컨대, 마우스 또는 트랙볼)를 구비하며, 사용자는 상기 키보드와 상기 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 사용자와의 상호 작용을 제공하기 위해 다른 종류의 장치를 더 사용할 수도 있으며; 예를 들어, 사용자에게 제공되는 피드백은 모든 형태의 센싱 피드백일 수 있고(예컨대, 시각적 피드백, 청각적 피드백 또는 촉각적 피드백); 또한 그 임의의 형태의 (음향 입력, 음성 입력 또는 촉각 입력을 포함함) 사용자 입력을 수신할 수 있다.
본 명세서에서 설명한 시스템 및 기술은 백그라운드 부재들이 포함된 컴퓨팅 시스템(예컨대, 데이터 서버) 또는 미들웨어 부재가 포함된 컴퓨팅 시스템(예컨대, 응용 서버) 또는 프런트엔드 부재가 포함된 컴퓨팅 시스템(예컨대, 그래픽 유저 인터페이스 또는 웹 브라우저를 구비한 사용자 컴퓨터, 사용자가 상기 그래픽 유저 인터페이스 또는 상기 웹 브라우저를 통해 본원에서 설명한 시스템 및 기술의 구현 방법과 상호 작용을 할 수 있음) 또는 이러한 백그라운드 부재, 미들웨어 부재 또는 프런트엔드 부재를 포함하는 모든 조합의 컴퓨팅 시스템에서 구현될 수 있다. 모든 형태 또는 매체의 디지털 데이터 통신(예컨대, 통신 네트워크)을 통해 시스템의 부재들은 서로 연결될 수 있다. 통신 네트워크의 예로 근거리 통신망(LAN), 광대역 통신망(WAN), 인터넷 및 블록체인 네트워크가 포함된다.
컴퓨터 시스템에는 클라이언트 및 서버가 포함될 수 있다. 클라이언트 및 서버는 일반적으로 서로 이격되어 있으며 통신 네트워크를 통해 상호 작용한다. 클라이언트와 서버 간의 관계는 대응하는 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램을 통해 클라이언트-서버 관계를 형성한다.
본원 실시예의 기술적 방안에 따르면, 우선 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고; 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정하며; 이어서 고정 지도 내의 적어도 하나의 위치 요소를 사용하여 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하고; 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득한다. 다시 말하면, 본원은 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜 현재 차량의 초기화 위치를 결정할 수 있고; 그런 다음 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 현재 차량의 초기화 위치를 조정하여 현재 차량의 목표 위치를 획득함으로써, 차량의 경위도 좌표를 정확하게 결정하는 목적을 달성할 수 있다. 그러나 종래 기술 가운데 3가지의 차량 위치 결정 방안은 모두 차량의 위치 결정 요소를 획득하여 차량의 위치를 결정할 수 있으나, 위치 결정 요소는 차량에 대한 국부 위치 결정만 가능하고, 차량에 대한 전역 위치 결정을 할 수 없다. 즉, 차량과 주위 물체의 상대적 위치만 감지할 수 있고, 차량의 경위도 좌표는 감지할 수 없다. 본원은 식별 요소를 통해 초기화 위치를 결정하고, 비식별 요소를 통해 초기화 위치를 조정하는 기술 수단을 이용하기 때문에, 종래 기술에서 차량에 대한 국부 위치 결정만 가능하고 차량에 대한 전역 위치 결정이 불가능했던 기술적 문제를 극복하고, 나아가 차량의 경위도 좌표를 정확하게 결정하여 위치 결정 정밀도를 효과적으로 향상시키는 기술적 효과를 얻을 수 있다. 또한 본원의 실시예 기술 방안의 구현은 간단하고 편리하여, 보급이 용이하고 적용 범위가 더 넓다.
위에서 나타낸 다양한 형태의 프로세스를 사용하여 각 단계들을 재배치, 증가 또는 삭제할 수 있음은 이해할 수 있을 것이다. 예를 들어, 본원에 기재된 각 단계들은, 본원에서 개시한 기술 방안이 기대되는 결과를 구현할 수만 있다면, 병렬로 실행될 수도 있고, 순차적으로 실행될 수도 있으며, 다른 순서로 실행될 수도 있는 바, 본 명세서는 이에 대해 제한하지 않는다.
상술한 구체적인 실시예는 본원의 보호 범위를 제한하려는 것이 아니다. 당해 분야의 기술자들이라면 설계 요구와 기타 요인에 따라 다양한 수정, 조합, 하위 조합 및 대체를 진행할 수 있다는 것을 이해할 것이다. 본원의 정신과 원칙 내에서 이루어지는 모든 수정, 균등의 대체물 및 개선 등은 모두 본원의 보호범위 내에 포함되어야 한다.

Claims (12)

  1. 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하는 단계;
    상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정하는 단계;
    상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대한 관측 제약을 함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하는 단계; 및
    상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 상기 현재 차량의 초기화 위치를 조정함으로써, 상기 현재 차량의 목표 위치를 획득하는 단계;를 포함하고,
    여기서, 상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하는 단계는,
    상기 현재 차량의 각각의 비식별 요소 중 하나의 비식별 요소를 현재 비식별 요소로 선택하고, 상기 현재 비식별 요소에 따라 상기 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정하는 단계; 및
    상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 상기 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행하는 단계;를 포함하는 것을 특징으로 하는 차량 위치 결정 방법.
  2. 제1 항에 있어서,
    상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하는 단계는,
    상기 현재 차량에 배치된 4개의 어안 센서를 통해 상기 현재 차량의 4방향의 환경 이미지를 수집하는 단계 - 상기 현재 차량의 4개 어안 센서는 상기 현재 차량의 전방, 후방, 좌측, 우측 4방향 상에 각각 배치됨 -;
    각각의 어안 센서로 수집된 상기 현재 차량의 4방향의 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하는 단계; 및
    상기 어라운드 뷰 어안 이미지를 심층 신경망에 입력하여, 상기 심층 신경망을 통해 상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력하는 단계;를 포함하는 것을 특징으로 하는 차량 위치 결정 방법.
  3. 제1 항에 있어서,
    상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정하는 단계는,
    상기 현재 차량의 식별 요소에 따라 상기 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정하는 단계; 및
    상기 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 상기 현재 차량의 초기화 위치로 결정하는 단계;를 포함하는 것을 특징으로 하는 차량 위치 결정 방법.
  4. 삭제
  5. 제1 항에 있어서,
    상기 방법은,
    상기 현재 차량에 설치된 관성 측정 유닛 센서 및 바퀴 속도 센서를 통해 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 각각 수집하는 단계; 및
    상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 상기 현재 차량의 목표 위치를 조정함으로써 상기 현재 차량의 최종 위치를 획득하는 단계;를 더 포함하는 것을 특징으로 하는 차량 위치 결정 방법.
  6. 차량 위치 결정 장치에 있어서,
    상기 장치는 획득 모듈, 결정 모듈, 제약 모듈 및 조정 모듈을 포함하고,
    상기 획득 모듈은 현재 차량의 식별 요소 및 각각의 비식별 요소를 획득하고;
    상기 결정 모듈은 상기 현재 차량의 식별 요소를 고정밀 지도 내의 각각의 위치 요소에 정합시켜, 상기 현재 차량의 초기화 위치를 결정하고;
    상기 제약 모듈은 상기 고정밀 지도 내의 적어도 하나의 위치 요소를 사용하여 상기 현재 차량의 각각의 비식별 요소에 대해 관측 제약을 진행함으로써, 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득하며;
    상기 조정 모듈은 상기 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 사용하여 상기 현재 차량의 초기화 위치를 조정함으로써, 상기 현재 차량의 목표 위치를 획득하고,
    여기서, 상기 제약 모듈은 결정 서브 모듈 및 제한 서브 모듈을 포함하고,
    상기 결정 서브 모듈은, 상기 현재 차량의 각각의 비식별 요소 중에서 하나의 비식별 요소를 현재 비식별 요소로 선택하여, 상기 현재 비식별 요소에 따라 상기 고정밀 지도에서 그에 대응하는 적어도 하나의 위치 요소를 결정하고;
    상기 제한 서브 모듈은, 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-점 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하고; 상기 현재 비식별 요소가 선 요소이고 그에 대응하는 위치 요소가 점 기본 요소인 경우, 또는 상기 현재 비식별 요소가 점 요소이고 그에 대응하는 위치 요소가 점선 요소인 경우, 상기 현재 비식별 요소와 그에 대응하는 위치 요소에 대해 점-선 관측 제약을 적용하여, 상기 현재 비식별 요소에 대응하는 위치 요소를 획득하되, 상술한 동작을 현재 차량의 각각의 비식별 요소에 대응하는 위치 요소를 획득할 때까지 반복하여 수행하는 것을 특징으로 하는 차량 위치 결정 장치.
  7. 제6 항에 있어서,
    상기 획득 모듈은 수집 서브 모듈 및 획득 서브 모듈을 포함하고,
    상기 수집 서브 모듈은 상기 현재 차량에 설치된 4개 어안 센서를 통해 상기 현재 차량의 4방향 상 환경 이미지를 수집하고, 상기 현재 차량의 4개 어안 센서는 상기 현재 차량의 전방, 후방, 좌측, 우측 4방향에 각각 설치되며;
    상기 획득 서브 모듈은 각각의 어안 센서로 수집된 상기 현재 차량의 4방향 상 환경 이미지를 하나의 어라운드 뷰 어안 이미지로 스티칭하고, 상기 어라운드 뷰 어안 이미지를 심층 신경망에 입력하여, 상기 심층 신경망을 통해 상기 현재 차량의 식별 요소 및 각각의 비식별 요소를 출력하는 것을 특징으로 하는 차량 위치 결정 장치.
  8. 제6 항에 있어서,
    상기 결정 모듈은 구체적으로 상기 현재 차량의 식별 요소에 따라 상기 고정밀 지도에서 적어도 하나의 기준 초기화 위치를 결정하고, 상기 현재 차량의 식별 요소와 각각의 기준 초기화 위치의 정합도를 산출하여, 정합도가 가장 높은 기준 초기화 위치를 상기 현재 차량의 초기화 위치로 결정하는 것을 특징으로 하는 차량 위치 결정 장치.
  9. 삭제
  10. 제6 항에 있어서,
    상기 획득 모듈은, 추가적으로 상기 현재 차량에 설치된 관성 측정 유닛 센서 및 바퀴 속도 센서를 통해 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 각각 수집하고;
    상기 조정 모듈은, 추가적으로 상기 현재 차량의 관성 측정 데이터 및 바퀴 속도 데이터를 사용하여 상기 현재 차량의 목표 위치를 조정함으로써, 상기 현재 차량의 최종 위치를 획득하는 것을 특징으로 하는 차량 위치 결정 장치.
  11. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 저장 장치;를 포함하고,
    상기 저장 장치에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령어가 저장되고, 상기 명령어가 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 제1 항 내지 제3 항, 또는 제5 항 중 어느 한 항에 따른 차량 위치 결정 방법을 수행할 수 있도록 하는 것을 특징으로 하는 전자 기기.
  12. 컴퓨터 명령어가 저장된 비-일시적 컴퓨터 판독 가능한 저장 매체에 있어서,
    상기 컴퓨터 명령어는 상기 컴퓨터가 제1 항 내지 제3 항, 또는 제5 항 중 어느 한 항에 따른 차량 위치 결정 방법을 수행하도록 하는 것을 특징으로 하는 비-일시적 컴퓨터 판독 가능한 저장 매체.
KR1020200122451A 2020-01-20 2020-09-22 차량 위치 결정 방법, 전자 기기 및 저장 매체 KR102382420B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010067385.9 2020-01-20
CN202010067385.9A CN111274343B (zh) 2020-01-20 2020-01-20 一种车辆定位方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
KR20210094450A KR20210094450A (ko) 2021-07-29
KR102382420B1 true KR102382420B1 (ko) 2022-04-06

Family

ID=70996863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200122451A KR102382420B1 (ko) 2020-01-20 2020-09-22 차량 위치 결정 방법, 전자 기기 및 저장 매체

Country Status (5)

Country Link
US (1) US11586218B2 (ko)
EP (1) EP3851802A1 (ko)
JP (1) JP7240367B2 (ko)
KR (1) KR102382420B1 (ko)
CN (1) CN111274343B (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274974B (zh) * 2020-01-21 2023-09-01 阿波罗智能技术(北京)有限公司 定位元素检测方法、装置、设备和介质
JP7191065B2 (ja) * 2020-07-06 2022-12-16 本田技研工業株式会社 処理装置、処理方法、およびプログラム
CN112068172A (zh) * 2020-09-08 2020-12-11 广州小鹏自动驾驶科技有限公司 一种车辆的定位方法和装置
CN112184818B (zh) * 2020-10-09 2022-06-10 重庆邮电大学 基于视觉的车辆定位方法及应用其方法的停车场管理系统
CN112419739A (zh) * 2020-11-18 2021-02-26 联通智网科技有限公司 车辆定位方法、装置和电子设备
DE102021204030A1 (de) * 2021-04-22 2022-10-27 Continental Autonomous Mobility Germany GmbH Detektion von einzelnen freien markierten Zielflächen aus Bildern eines Kamerasystems einer Bewegungsvorrichtung
AU2022294899A1 (en) * 2021-06-17 2023-12-14 The Toro Company Autonomous work vehicle using image-based localization
CN113515126B (zh) * 2021-07-12 2024-05-10 北京经纬恒润科技股份有限公司 一种车辆定位方法及装置
CN113515536B (zh) * 2021-07-13 2022-12-13 北京百度网讯科技有限公司 地图的更新方法、装置、设备、服务器以及存储介质
CN113946151A (zh) * 2021-10-20 2022-01-18 北京百度网讯科技有限公司 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN113984072B (zh) * 2021-10-28 2024-05-17 阿波罗智能技术(北京)有限公司 车辆定位方法、装置、设备、存储介质及自动驾驶车辆
CN114111817B (zh) * 2021-11-22 2023-10-13 武汉中海庭数据技术有限公司 基于slam地图与高精度地图匹配的车辆定位方法及系统
CN114526722B (zh) * 2021-12-31 2024-05-24 易图通科技(北京)有限公司 地图对齐处理方法、装置及可读存储介质
CN114419590B (zh) * 2022-01-17 2024-03-19 北京百度网讯科技有限公司 高精地图的验证方法、装置、设备以及存储介质
CN114860976B (zh) * 2022-04-29 2023-05-05 长沙公交智慧大数据科技有限公司 一种基于大数据的图像数据查询方法和系统
CN117934598B (zh) * 2024-03-21 2024-06-11 浙江大学 一种基于光学定位技术的桌面级刚体定位设备及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263835A (ja) 2006-03-29 2007-10-11 Denso Corp カーナビゲーション装置
JP2019527832A (ja) * 2016-08-09 2019-10-03 ナウト, インコーポレイテッドNauto, Inc. 正確な位置特定およびマッピングのためのシステムおよび方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579848A (ja) 1991-09-19 1993-03-30 Fujitsu Ltd 車両位置計測装置及び車両運転者支援装置
JP2007263385A (ja) 2006-03-27 2007-10-11 Kurita Water Ind Ltd ボイラ給水処理装置、ボイラ装置及びボイラ給水処理装置の運転方法
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
US10309790B2 (en) 2015-10-28 2019-06-04 Honda Motor Co., Ltd. Automatic driving system
US10794711B2 (en) * 2016-12-30 2020-10-06 DeepMap Inc. High definition map updates based on sensor data collected by autonomous vehicles
CN110832417B (zh) 2016-12-30 2023-06-09 辉达公司 使用高清地图为自主车辆生成路线
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
WO2019104188A1 (en) 2017-11-22 2019-05-31 DeepMap Inc. Improving accuracy of global navigation satellite system based positioning using high definition map based localization
CN108332752B (zh) * 2018-01-09 2021-04-20 深圳市无限动力发展有限公司 机器人室内定位的方法及装置
US10928207B2 (en) 2018-03-02 2021-02-23 DeepMap Inc. Camera based localization for autonomous vehicles
US10726567B2 (en) * 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
CN110440819B (zh) * 2018-05-04 2021-11-19 沈阳美行科技有限公司 导航方法、装置和系统
CN109720340B (zh) * 2018-09-17 2021-05-04 魔门塔(苏州)科技有限公司 一种基于视觉识别的自动泊车系统及方法
US11003945B2 (en) * 2019-05-22 2021-05-11 Zoox, Inc. Localization using semantically segmented images
KR20190089791A (ko) 2019-07-11 2019-07-31 엘지전자 주식회사 삼차원 어라운드 뷰 제공 장치 및 방법
CN110411462B (zh) * 2019-07-22 2021-05-18 武汉大学 一种gnss/惯导/车道线约束/里程计多源融合方法
CN110412635B (zh) * 2019-07-22 2023-11-24 武汉大学 一种环境信标支持下的gnss/sins/视觉紧组合方法
CN110595459B (zh) * 2019-09-18 2021-08-17 百度在线网络技术(北京)有限公司 车辆定位方法、装置、设备和介质
CN111649739B (zh) 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263835A (ja) 2006-03-29 2007-10-11 Denso Corp カーナビゲーション装置
JP2019527832A (ja) * 2016-08-09 2019-10-03 ナウト, インコーポレイテッドNauto, Inc. 正確な位置特定およびマッピングのためのシステムおよび方法

Also Published As

Publication number Publication date
US20210223789A1 (en) 2021-07-22
US11586218B2 (en) 2023-02-21
CN111274343A (zh) 2020-06-12
CN111274343B (zh) 2023-11-24
EP3851802A1 (en) 2021-07-21
JP7240367B2 (ja) 2023-03-15
KR20210094450A (ko) 2021-07-29
JP2021120844A (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
KR102382420B1 (ko) 차량 위치 결정 방법, 전자 기기 및 저장 매체
CN111220154A (zh) 车辆定位方法、装置、设备和介质
CN109887057B (zh) 生成高精度地图的方法和装置
CN110595494B (zh) 地图误差确定方法和装置
CN109435955B (zh) 一种自动驾驶系统性能评估方法、装置、设备及存储介质
CN111324115B (zh) 障碍物位置检测融合方法、装置、电子设备和存储介质
KR102564430B1 (ko) 차량의 제어 방법, 장치 및 차량
CN111461981B (zh) 点云拼接算法的误差估计方法和装置
JP7241057B2 (ja) 車両測位方法、装置、電子機器、車両及び記憶媒体
CN111220164A (zh) 定位方法、装置、设备及存储介质
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
CN111784835B (zh) 制图方法、装置、电子设备及可读存储介质
CN112288825B (zh) 相机标定方法、装置、电子设备、存储介质和路侧设备
CN111324945B (zh) 传感器方案确定方法、装置、设备及存储介质
Yan et al. Opencalib: A multi-sensor calibration toolbox for autonomous driving
CN111680596B (zh) 基于深度学习的定位真值校验方法、装置、设备及介质
CN111721281B (zh) 位置识别方法、装置和电子设备
CN112147632A (zh) 车载激光雷达感知算法的测试方法、装置、设备和介质
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN111767843A (zh) 三维位置预测方法、装置、设备以及存储介质
EP3885706B1 (en) Real-time localization error correction by consumer automated vehicles
CN114127738A (zh) 自动地图制作和定位
CN111783611B (zh) 无人车的定位方法、装置、无人车及存储介质
CN111260722B (zh) 车辆定位方法、设备及存储介质
CN112577524A (zh) 信息校正方法和装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant