KR102570094B1 - 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체 - Google Patents

측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체 Download PDF

Info

Publication number
KR102570094B1
KR102570094B1 KR1020210041414A KR20210041414A KR102570094B1 KR 102570094 B1 KR102570094 B1 KR 102570094B1 KR 1020210041414 A KR1020210041414 A KR 1020210041414A KR 20210041414 A KR20210041414 A KR 20210041414A KR 102570094 B1 KR102570094 B1 KR 102570094B1
Authority
KR
South Korea
Prior art keywords
information
attitude information
positioning
attitude
measurement unit
Prior art date
Application number
KR1020210041414A
Other languages
English (en)
Other versions
KR20210042856A (ko
Inventor
딩원동
루이샤오페이
왕강
송시유
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210042856A publication Critical patent/KR20210042856A/ko
Application granted granted Critical
Publication of KR102570094B1 publication Critical patent/KR102570094B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18072Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/002Integrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/005Sampling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/90Single sensor for two or more measurements
    • B60W2420/905Single sensor for two or more measurements the sensor being an xyz axis sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors
    • B60W2422/70Indexing codes relating to the special location or mounting of sensors on the wheel or the tire
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18066Coasting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

본 출원의 실시예는 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체를 개시하며, 자율 주행 기술분야에 관한 것으로서, 기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하고, 제1 위치 자세 정보, 제2 위치 자세 정보와 인접 프레임 이미지를 기초로, 측위 정보를 생성하고, 측위 정보를 기초로, 자율 주행 차량의 주행을 제어한다. 관성 측정 유닛과 휠 속도계 각각에 대응되는 제1 위치 자세 정보와 제2 위치 자세 정보를 결합시켜, 측위 정보에 대해 추정하며, 관성 측정 유닛과 휠 속도계는 카메라에 비해, 쉽게 외계 환경의 간섭을 받지 않으므로, 측위 정보가 외계 환경의 간섭을 받는 것을 방지할 수 있으며, 이에 따라 측위 정보의 정확성과 신뢰성을 향상시키고, 이에 따라 자율 주행 차량의 안전 및 신뢰적인 주행을 구현한다.

Description

측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체{POSITIONING METHOD AND APPARATUS, AUTONOMOUS DRIVING VEHICLE, ELECTRONIC DEVICE AND STORAGE MEDIUM}
본 출원의 실시예는 컴퓨터 기술 분야에 관한 것으로, 특히는 자율 주행 기술분야에 관한 것이며, 구체적으로는 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체에 관한 것이다.
자율 주행 기술이 발전함에 따라, 차량에 대한 정밀한 측위를 통해, 차량과 보행자의 안전을 확보하는 것은 시급히 해결해야할 문제점으로 대두되고 있다.
종래기술에서, 자율 주행 차량의 측위 방법은 주로 시각적 주행 거리계를 통해 구현된다. 하지만, 기존의 시각적 주행 거리계는 주로 단안 카메라 또는 양안 카메라를 통해 측위를 완성하는 바, 예컨대 프레임 사이의 움직임을 누적함으로써 위치 자세를 추정한다.
하지만 발명자는 본 제안을 구현하는 과정에서 적어도, 카메라가 움직이는 과정에서 떨림이 쉽게 발생하여, 추정된 위치 자세의 정밀도가 보다 낮은 문제점이 존재한다는 점에 유의하게 되었다.
정밀한 제어를 위한 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체를 제공한다.
제1 측면에 따르면, 자율 주행 차량에 적용되는 측위 방법을 제공하며, 상기 방법은,
기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 상기 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 상기 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 단계;
상기 제1 위치 자세 정보, 상기 제2 위치 자세 정보와 상기 인접 프레임 이미지를 기초로, 측위 정보를 생성하는 단계;
상기 측위 정보를 기초로, 상기 자율 주행 차량의 주행을 제어하는 단계;를 포함한다.
본 출원의 실시예에서, 관성 측정 유닛과 휠 속도계 각각에 대응되는 제1 위치 자세 정보와 제2 위치 자세 정보를 결합시켜, 측위 정보에 대해 추정하며, 관성 측정 유닛과 휠 속도계는 카메라에 비해, 쉽게 외계 환경의 간섭을 받지 않으므로, 측위 정보가 외계 환경의 간섭을 받는 것을 방지할 수 있으며, 이에 따라 측위 정보의 정확성과 신뢰성을 향상시키고, 이에 따라 자율 주행 차량의 안전 및 신뢰적인 주행을 구현할 수 있다.
제2 측면에 따르면, 측위 장치를 제공하며, 상기 장치는,
기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 상기 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 상기 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 수집모듈;
상기 제1 위치 자세 정보, 상기 제2 위치 자세 정보와 상기 인접 프레임 이미지를 기초로, 측위 정보를 생성하는 생성모듈;
상기 측위 정보를 기초로, 자율 주행 차량의 주행을 제어하는 제어모듈;을 포함한다.
제3 측면에 따르면 전자기기를 제공하며,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하되,
상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 상기 어느 하나의 실시예에 따른 방법을 수행할 수 있도록 한다.
제4 측면에 따르면, 자율 주행 차량을 제공하며, 상기 차량은 상술한 실시예에 따른 측위 장치, 또는, 상술한 실시예에 따른 전자기기를 포함한다.
제5 측면에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체를 제공하며, 상기 컴퓨터 명령은 상기 컴퓨터가 상기 어느 일 실시예에 따른 방법을 수행하도록 하기 위한 것이다.
제6 측면에 따르면, 측위 방법을 제공하며, 상기 방법은,
기설정 시간 동안에 적어도 두 센서가 각각에 대응되는 위치 자세 정보를 측정하되, 여기서, 상기 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 단계;
각 상기 위치 자세 정보와 상기 인접 프레임 이미지를 기초로, 측위 정보를 생성하는 단계;를 포함한다.
제7 측면에 따르면, 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공하며, 전자기기의 적어도 하나의 프로세서는 상기 판독 가능 저장매체로부터 상기 컴퓨터 프로그램을 판독할 수 있으며, 상기 적어도 하나의 프로세서는 상기 컴퓨터 프로그램을 실행하여 상기 전자기기가 상기 어느 일 실시예에 따른 방법을 수행하도록 한다.
본 출원의 실시예의 기술방안에 따르면, 관련기술에서 카메라를 통해 측위할 때, 측위 정보가 외계 환경의 간섭을 쉽게 받는 흠결을 해결하고, 정확한 측위를 구현하며, 이에 따라 자율 주행 차량의 안전하고 신뢰적인 주행을 구현하는 기술효과를 달성한다.
본 부분에 기재되는 내용은 본 출원의 실시예의 핵심 또는 중요 특징을 특정하려는 목적이 아니며, 본 출원의 범위를 한정하는 것도 아님을 이해하여야 한다. 본 출원의 기타 특징은 아래의 명세서로부터 쉽게 이해할 수 있다.
첨부되는 도면은 본 방안을 더 충분히 이해하도록 제공되는 것으로서, 본 출원에 대한 한정은 아니다.
도 1은 본 출원의 실시예의 응용 시나리오를 나타내는 도면이다.
도 2는 본 출원의 다른 실시예의 응용 시나리오를 나타내는 도면이다.
도 3은 본 출원의 실시예에 따른 측위 방법의 흐름도이다.
도 4는 본 출원의 다른 실시예에 따른 측위 방법의 흐름도이다.
도 5는 본 출원의 융합 위치 자세 정보를 생성하는 방법의 흐름도이다.
도 6은 본 출원의 인접 프레임 이미지와 융합 위치 자세 정보를 기초로 측위 정보를 생성하는 방법의 흐름도이다.
도 7은 본 출원의 또 다른 실시예의 측위 방법의 흐름도이다.
도 8은 본 출원의 실시예에 따른 측위 장치를 나타내는 도면이다.
도 9는 본 출원의 실시예에 따른 전자기기의 블록도이다.
도 10은 본 출원의 또 다른 실시예의 측위 방법의 흐름도이다.
아래에서는 첨부 도면과 결합하여 본 출원의 예시적인 실시예에 대하여 설명하며, 이해를 돕기 위하여 본 출원의 실시예의 다양한 세부 사항을 포함하며, 이들을 단지 예시적인 것으로만 간주되어야 한다. 따라서, 본 분야의 통상적인 지식을 가진자라면, 여기에 설명된 실시예에 대하여 다양한 변경과 수정을 가할 수 있으며, 이는 본 출원의 범위와 정신을 벗어나지 않음을 이해하여야 한다. 마찬가지로, 명확성과 간결성을 위하여, 아래의 설명에서 공지 기능과 구조에 대한 설명을 생략한다.
도 1을 참조하면, 도 1은 본 실시예의 측위 방법의 응용 시나리오를 나타내는 도면이다.
도 1에 도시된 응용 시나리오와 같이, 자율 주행 차량(100)은 직진 도로 상에서 주행하며, 자율 주행 차량(100)은 프로세서(미도시)를 포함하고, 프로세서는 본 출원의 실시예에 따른 측위 방법을 수행하여, 자율 주행 차량(100)에 대응되는 측위 정보를 결정하고, 측위 정보를 기초로 자율 주행 차량(100)이 주행 전략을 조정하도록 제어할 수 있다.
여기서, 주행 전략은 자율 주행 차량의 주행 상태를 나타내기 위한 것으로서, 주행 전략은 감속, 정차, 가속 및 회전 등을 포함한다.
예를 들어, 자율 주행 차량이 빨간 신호등을 만나면, 프로세서는 자율 주행 차량이 직진하는 주행 전략을 감속하는 주행 전략으로 조정하거나, 직진하는 주행 전략을 정차하는 주행 전략으로 조정하도록 제어할 수 있으며; 자율 주행 차량 전방의 차량이 가속 주행하며, 자율 주행 차량과 전방 차량 사이의 거리가 보다 멀면, 프로세서는 자율 주행 차량이 직진하는 주행 전략을 가속하는 주행 전략으로 조정하도록 제어할 수 있으며, 다양한 것들이 있을 수 있다.
도 1에 도시된 응용 시나리오에서, 프로세서가 자율 주행 차량(100)의 측위 정보를 결정한 후, 자율 주행 차량(100)이 이미 좌회전 수행 가능 교차로에 접근하였음을 알 수 있다. 만약 자율 주행 차량(100)의 경로가 좌회전하는 도로와 대응되면, 즉 자율 주행 차량(100)이 좌회전하여 효율적인 주행의 구현이 필요하면, 프로세서는 측위 정보를 기초로 자율 주행 차량(100)이 직진 주행 전략을 좌회전 주행 전략으로 조정하도록 제어할 수 있다.
여기서, 프로세서가 자율 주행 차량(100)이 직진 주행 전략을 좌회전 주행 전략으로 조정하도록 제어할 때, 구체적으로 도 2에 도시된 시나리오 도면을 참조할 수 있다.
관련기술에서, 자율 주행 차량에 대해 측위할 때, 주로 단안 카메라 또는 양안 카메라를 사용하여 측위하고, 예컨대 프레임 사이의 움직임을 누적하여 위치 자세를 추정한다.
하지만, 카메라는 움직임 과정에서 쉽게 떨림이 발생하고, 카메라에 의한 이미지 획득은 주위 환경의 영향을 많이 받으므로, 관련기술에 따른 방안을 사용할 경우, 추정된 위치 자세의 정밀도가 보다 낮으며, 즉 결정된 측위 정보가 정확하지 않은 문제점을 쉽게 초래한다.
상술한 기술문제를 해결하기 위하여, 본 출원의 발명자가 진보적 노력을 거쳐 얻은 본 출원의 발명사상에 따르면, 이미지 획득 시 환경에 대한 카메라의 의뢰성을 최소화하고, 떨림에 의해 생성되는 측위 정보에 대해 대응되게 바로잡음으로써, 정밀도가 보다 높은 측위 정보를 획득하는 것이다.
아래에서는 구체적인 실시예를 들어 본 출원의 기술적 해결수단 및 본 출원의 기술적 해결수단이 어떻게 상술한 기술문제를 해결하는지에 대해 상세하게 설명한다. 아래의 몇몇 구체적인 실시예는 서로 결합될 수 있으며, 동일하거나 유사한 개념 또는 과정에 대해서는 일부 실시예에서 중복되는 설명을 생략한다. 아래에서는 첨부된 도면을 결합하여 본 출원의 실시예에 대해 설명한다.
도 3을 참조하면, 도 3은 본 출원의 실시예에 따른 측위 방법의 흐름도이다.
도 3에 도시된 바와 같이, 해당 방법은 아래의 단계들을 포함한다.
S101: 기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격이다.
여기서, 본 출원의 실시예에 따른 수행 주체는 측위 장치일 수 있으며, 측위 장치는 구체적으로 자율 주행 차량 상에 설치된 컴퓨터, 서버, 프로세서, 차량용 단말, 원격 정보 프로세서(차량용 T-BOX)와 칩(예컨대 임베디드 칩) 등일 수 있다.
예를 들어, 만약 본 출원의 실시예에 따른 측위 방법이 도 1에 도시된 응용 시나리오에 적용된다면, 본 출원의 실시예에 따른 측위 방법의 수행 주체는 프로세서일 수 있다.
여기서, 시간 동안은 카메라가 수집한 인접 프레임 이미지와 관련되는 바, 구체적으로는 인접 프레임 이미지에 대응되는 시간 간격을 기초로 결정된 시간 동안일 수 있다. 다시 말하면, 만약 카메라가 수집한 제1 프레임 이미지의 시간이 T0이고, 제2 프레임 이미지의 시간이 T1이며, 제1 프레임 이미지와 제2 프레임 이미지가 인접한 두 프레임의 이미지이면, 시간 동안 = T1-T0 이다. 위치 자세 정보는 위치 정보와 자세 정보를 포함한다.
해당 단계에서, 시간 동안의 관성 측정 유닛에 의해 측정된 위치 자세 정보(즉 제1 위치 자세 정보), 및 휠 속도계에 의해 측정된 위치 자세 정보(제2 위치 자세 정보)를 수집한다.
여기서, 관성 측정 유닛(Inertial measurement unit, IMU)은 물체의 자세각(또는 각속도)과 가속도 등을 측정하는 장치이다. 일반적으로, 하나의 IMU는 3개 단축의 가속도계와 3개 단축의 자이로스코프를 포함하되, 가속도계는 캐리어 좌표 시스템에서의 물체의 독립된 3축의 가속도 신호를 검출하고, 자이로스코프는 네비게이션 좌표계에 대한 캐리어의 각속도 신호를 검출하고, 3차원 공간에서의 물체의 각속도와 가속도를 검출한다.
다시 말하면, 제1 위치 자세 정보는 관성 측정 유닛에 의해 수집된 자율 주행 차량에 대응되는 위치 정보 및/또는 자세 정보를 나타내고, 자세 정보는 자세각, 각속도와 가속도 등의 정보를 포함한다. 즉, 본 출원의 실시예에서, 관성 측정 유닛은 자율 주행 차량의 자세각, 각속도와 가속도 등의 정보를 측정할 수 있으며, 관성 측정 유닛에 의해 측정된 관련 정보를 제1 위치 자세 정보로 결정할 수 있다.
여기서, 휠 속도계는 횔속 센서라고도 불리우며, 제2 위치 자세 정보는 휠 속도계가 수집한 자율 주행 차량에 대응되는 위치 정보 및/또는 자세 정보를 나타내고, 자세 정보는 속도와 가속도 등의 정보를 포함한다. 즉, 본 출원의 실시예에서, 휠 속도계는 자율 주행 차량의 속도와 가속도 등의 정보를 수집하며, 수집한 관련 정보를 제2 위치 자세 정보로 결정할 수 있다.
특별히 설명하면, 제1 위치 자세 정보와 제2 위치 자세 정보 중 “제1 ”과 “제2”는, 관성 측정 유닛이 수집한 관련 정보와 휠 속도계가 수집한 관련 정보를 구분하기 위한 것이다.
S102: 제1 위치 자세 정보, 제2 위치 자세 정보와 인접 프레임 이미지를 기초로, 측위 정보를 생성한다.
해당 단계에서, 제1 위치 자세 정보, 제2 위치 자세 정보와 인접 프레임 이미지를 기초로, 측위 정보에 대해 추정하는 것으로 이해할 수 있다.
본 출원의 실시예에서, 관성 측정 유닛과 휠 속도계 각각에 대응되는 제1 위치 자세 정보와 제2 위치 자세 정보를 결합시켜, 측위 정보에 대해 추정하며, 관성 측정 유닛과 휠 속도계는 카메라에 비해, 쉽게 외계 환경의 간섭을 받지 않으므로, 측위 정보가 외계 환경의 간섭을 받는 것을 방지할 수 있으며, 이에 따라 측위 정보의 정확성과 신뢰성을 향상시킨다.
S103: 측위 정보를 기초로, 자율 주행 차량의 주행을 제어한다.
해당 단계에서, 측위 정보를 결정한 후에, 자율 주행 차량의 주행을 제어할 수 있다. 예를 들어, 자율 주행 차량의 주행 전략에 대해 조정할 수 있으며, 도 1에서에 도시된 바와 같이, 측위 정보를 기초로 자율 주행 차량의 주행 전략을 직진 주행 전략으로부터 좌회전 주행 전략으로 조정하고, 이에 따라 자율 주행 차량이 안전하고 신뢰적으로 운전하도록 한다.
상기 분석에 따르면, 본 출원의 실시예는 자율 주행 차량에 적용될 수 있는 측위 방법을 제공한다. 해당 방법은, 기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 단계, 제1 위치 자세 정보, 제2 위치 자세 정보와 인접 프레임 이미지를 기초로, 측위 정보를 생성하는 단계, 측위 정보를 기초로, 자율 주행 차량의 주행을 제어하는 단계를 포함하며, 관성 측정 유닛과 휠 속도계 각각에 대응되는 제1 위치 자세 정보와 제2 위치 자세 정보를 결합시켜, 측위 정보에 대해 추정하며, 관성 측정 유닛과 휠 속도계는 카메라에 비해, 쉽게 외계 환경의 간섭을 받지 않으므로, 측위 정보가 외계 환경의 간섭을 받는 것을 방지할 수 있으며, 이에 따라 측위 정보의 정확성과 신뢰성을 향상시키고, 이에 따라 자율 주행 차량의 안전 및 신뢰적인 주행을 구현할 수 있다.
읽는 사람이 측위 정보를 생성하는 구체적인 과정을 더 충분히 이해할 수 있도록, 도 4를 결합하여 본 출원의 실시예에 따른 측위 방법에 대해 상세하게 설명한다. 여기서, 도 4는 본 출원의 다른 실시예의 측위 방법의 흐름도이다.
도 4에 도시된 바와 같이, 해당 방법은 아래의 단계들을 포함한다.
S201: 기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격이다.
여기서, S201에 대한 설명은 S101을 참조할 수 있으며, 여기서는 그 상세한 설명을 생략한다.
S202: 제1 위치 자세 정보와 제2 위치 자세 정보에 대해 융합 처리하여, 융합 위치 자세 정보를 생성한다.
측위 정보를 결정하기 위한 위치 자세 정보의 신뢰성을 확보하기 위하여, 해당 단계에서, 제1 위치 자세 정보와 제2 위치 자세 정보에 대해 융합 처리를 수행한다.
다시 말하면, 해당 단계는 두 위치 자세 정보에 대해 서로 편차 보정하는 과정일 수 있으며, 측위 정보를 생성하기 위한 위치 자세 정보의 신뢰성과 정확성을 최대화한다.
도 5를 참조하면, 일부 실시예에서, S202는 아래의 단계를 포함할 수 있다.
S21: 휠 속도계의 관성 측정 유닛에 대한 좌표 변환 파라미터를 획득한다.
구체적으로, 휠 속도계의 관성 측정 유닛에 대한 회전과 변위 등의 파라미터에 대해 캘리브레이션한다. 즉, 관성 측정 유닛의 좌표계를 기준으로 하고, 관성 측정 유닛을 원점 좌표로 하여, 휠 속도계의 관성 측정 유닛에 대한 회전과 변위 등의 파라미터를 획득하여, 좌표 변환 파라미터를 결정한다.
S22: 좌표 변환 파라미터를 기초로 제2 위치 자세 정보에 대해 좌표 변환을 수행한다.
해당 단계는, 제2 위치 자세 정보를 휠 속도계 좌표계로부터 관성 측정 유닛 좌표계의 위치 자세 정보로 변환하는 것으로 이해할 수 있다.
여기서, 구체적으로 변환하는 연산 방법은 종래기술에 따른 좌표 변환 수식을 참조할 수 있으며, 여기서는 그 상세한 설명을 생략한다.
S23: 제1 위치 자세 정보와 좌표 변환이 수행된 후의 제2 위치 자세 정보를 융합하여, 융합 위치 자세 정보를 생성한다.
특별히 설명하면, S22를 거친 후에, 관성 측정 유닛 좌표계를 기준으로 하는 제2 위치 자세 정보(즉, 좌표 변환이 수행된 후의 제2 위치 자세 정보)를 획득할 수 있다. 이 기초 상에서, 보다 신속하고 간편하게 두 위치 자세 정보를 융합할 수 있다.
상기 분석에 따르면, 본 출원의 실시예에서, 좌표 변환 파라미터를 결정한 후에, 좌표 변환 파라미터를 기초로 제2 위치 자세 정보에 대해 좌표 변환을 수행하여, 제1 위치 자세 정보와 좌표 변환이 수행된 후의 제2 위치 자세 정보를 기초로 융합 위치 자세 정보를 생성할 수 있으며, 융합 과정은 동일한 좌표계를 기반으로 하므로, 융합 과정의 속도를 향상시킬 수 있으며, 융합 과정의 신뢰성과 정확성을 확보하여, 나아가 융합 위치 자세 정보의 정확성과 신뢰성을 확보하는 기술효과를 구현할 수 있다.
S203: 인접 프레임 이미지와 융합 위치 자세 정보를 기초로 측위 정보를 생성한다.
융합 위치 자세 정보의 정확성이 상대적으로 높으며, 쉽게 외계 환경의 간섭을 받지 않으므로, 본 출원의 실시예에서, 융합 위치 자세 정보와 인접 프레임 이미지로 측위 정보를 생성하여, 인접 프레임 이미지로부터 측위 정보를 생성할 때, 외계 환경의 간섭을 쉽게 받는 문제점을 해결할 수 있으며, 이에 따라 측위 정보의 정확성과 신뢰성을 향상시킨다.
도 6을 참조하면 일부 실시예에서, S203은 구체적으로 아래의 단계를 포함할 수 있다.
S31: 인접 프레임 이미지를 기초로 기설정 오차를 만족하는 융합 위치 자세 정보를 결정한다.
여기서, 인접 프레임 이미지가 기설정 특징점의 이미지 좌표 정보를 포함하면, S31은 구체적으로, 이미지 좌표 정보와 융합 위치 자세 정보를 기설정된 오차모델로 입력하여, 오차모델로부터 출력되는 결과가기설정 오차를 만족하는 융합 위치 자세 정보를 획득하는 단계를 포함할 수 있다.
여기서, 오차모델은 카메라의 내부 파라미터와 카메라의 외부 파라미터를 포함하며, 카메라의 외부 파라미터는 카메라의 상기 관성 측정 유닛에 대한 회전 파라미터와 변위 파라미터를 포함한다.
여기서, 오차모델은 아래와 같다.
, 여기서, 는 오차, 는 제프레임 이미지의 역심도, 는 제프레임 이미지의 역심도, 는 카메라의 외부 파라미터(구체적으로는 회전 파라미터), 는 제프레임 이미지의 회전, 은 제프레임 이미지의 회전, 는 특징점이 위치하는 제프레임 이미지의 이미지 좌표 정보, 는 카메라의 외부 파라미터(구체적으로는 변위 파라미터), 는 제프레임 이미지의 변위, 는 특징점의 제프레임 이미지에서의 이미지 좌표 정보이다.
상술한 예시를 결합하면, T0 프레임 이미지는 제프레임 이미지이고, T1 프레임 이미지는 제프레임 이미지이다.
S32: 기설정 오차를 만족하는 융합 위치 자세 정보로부터 회전 정보와 변위 정보를 추출한다.
즉, 회전 정보는 바로 상기 수식을 만족하는 이고, 변위 정보는 상기 수식을 만족하는 이다.
본 출원의 실시예에서, 인접 프레임 이미지의 관련 정보, 및 카메라의 관련 정보를 결합하여, 오차를 만족하는 회전 정보와 변위 정보를 결정함으로써, 가능한 한 회전 정보와 변위 정보의 오차를 줄이고, 이에 따라 측위 정보의 정확성과 신뢰성을 향상시킨다.
S33: 회전 정보와 변위 정보를 측위 정보로 결정한다.
S204: 측위 정보를 기초로, 자율 주행 차량의 주행을 제어한다.
여기서, S204에 대한 설명은 S103를 참조할 수 있으므로, 여기서는 그 상세한 설명을 생략한다.
읽는 자가 제1 위치 자세 정보와 제2 위치 자세 정보를 획득하는 구체적인 과정을 더 충분히 이해할 수 있도록, 아래에서는 도 7을 결합하여 본 출원의 실시예에 따른 측위 방법에 대해 상세하게 설명한다. 여기서, 도 7은 본 출원의 또 다른 실시예의 측위 방법의 흐름도이다.
도 7에 도시된 바와 같이, 해당 방법은 아래의 단계를 포함한다.
S301: 관성 측정 유닛이 시간 동안에 측정한 제1 측정 데이터를 수집한다.
S302: 제1 측정 데이터에 대해 적분하여, 제1 위치 자세 정보를 생성한다.
상기 예시를 참조하면, 관성 측정 유닛은 자율 주행 차량의 자세각, 각속도, 회전, 속도와 변위 등의 정보를 측정할 수 있으면, 제1 측정 데이터는 관성 측정 유닛이 수집한 자율 주행 차량에 대응되는 자세각, 각속도, 회전, 속도와 변위 등의 데이터이다.
본 출원의 실시예에서, 제1 측정 데이터를 획득한 후에, 제1 측정 데이터에 대해 적분하여, 제1 위치 자세 정보를 생성한다.
일반적으로, 제1 측정 데이터는 분산형 데이터이므로, 적분을 통해 제1 측정 데이터에 대해 처리할 때, 부분 정보를 필터링할 수 있으며, 회전, 속도와 변위는 유지된다.
따라서, 제1 측정 데이터에 대해 적분함으로써, 부분 제1 측정 데이터에 대해 필터링하여, 이후의 연산 중복을 방지할 수 있으며, 이에 따라 연산 효율을 향상시킨다. 또한, 정보에 대해 필터링하므로, 제1 위치 자세 정보의 정확성과 신뢰성을 확보할 수 있으며, 이에 따라 측위 정보의 신뢰성과 정확성을 확보한다.
구체적으로, 적분된 후의 제1 위치 자세 정보는 회전, 속도와 변위를 포함하며, 구체적으로 아래의 수식을 통해 표현할 수 있다.
, 여기서, 는 T1에 대응되는 회전, 는 T0에 대응되는 회전, 는 (T1-T0)에 대응되는 각속도이다.
, 여기서, 는 T1에 대응되는 속도, 는 T0에 대응되는 속도, 는 (T1-T0)에 대응되는 가속도이다.
, 여기서, 는 T1에 대응되는 변위, 는 T0에 대응되는 변위, 는 (T1-T0)에 대응되는 속도, 는 (T1-T0)에 대응되는 가속도의 제곱이다.
상술한 예시에 따르면, 인접 프레임 이미지 분포가 제프레임 이미지와 제프레임 이미지이면, 상기 수식에 대입하면 제프레임 이미지에 대응되는 회전, 속도와 변위를 알 수 있으며, 구체적으로, 회전 수식은 아래와 같다.
.
속도의 수식은 아래와 같다.
.
변위의 수식은 아래와 같다.
여기서, 는 제프레임 이미지에 대응되는 시간, 는 제프레임 이미지에 대응되는 시간, 는 관성 측정 유닛에 대응되는 제로 오프셋, 는 관성 측정 유닛에 대응되는 화이트 노이즈, 는 제 프레임 이미지에 대응되는 시간과 제 프레임 이미지에 대응되는 시간 사이의 시간차이고, 는 기설정된 중력 가속도로서, 예컨대 9.8m/s²이다.
S303: 휠 속도계가 시간 동안에 측정한 제2 측정 데이터를 수집한다.
S304: 제2 측정 데이터에 대해 적분하여, 제2 위치 자세 정보를 생성한다.
마찬가지로, 본 출원의 실시예에서, 제2 측정 데이터를 획득한 후에, 제2 측정 데이터에 대해 적분하여, 제2 위치 자세 정보를 생성하도록 한다.
일반적으로, 제2 측정 데이터는 분산형 데이터이므로, 적분을 통해 제2 측정 데이터에 대해 처리할 때, 부분 정보를 필터링할 수 있으며, 속도와 변위는 유지된다.
따라서, 제2 측정 데이터에 대해 적분함으로써, 부분 제2 측정 데이터에 대해 필터링하여, 이후의 연산 중복을 방지할 수 있으며, 이에 따라 연산 효율을 향상시킨다. 또한, 리더턴트 정보에 대해 필터링하므로, 제2 위치 자세 정보의 정확성과 신뢰성을 확보할 수 있으며, 이에 따라 측위 정보의 신뢰성과 정확성을 구현한다.
여기서, 휠 속도계와 관성 측정 유닛 사이의 관계는, 아래의 수식을 통해 표현할 수 있다.
,
여기서, 는 휠 속도계 좌표계의 관성 측정 유닛 좌표계에 대한 회전 파라미터이고, 는 휠 속도계에 의해 측정된 속도이고, 는 휠 속도계 좌표계의 관성 측정 유닛 좌표계에 대한 변위 파라미터이다.
적분을 거친 후의 제2 위치 자세 정보는 속도와 변위를 포함하며, 구체적으로 아래의 수식을 통해 표현할 수 있다.
, 여기서, 은 T1에 대응되는 변위, 는 속도이다.
S305: 제1 위치 자세 정보, 제2 위치 자세 정보와 인접 프레임 이미지를 기초로, 측위 정보를 생성한다.
여기서, S305에 대한 설명은 S102, 또는, S202 내지 S203을 참조할 수 있으며, 여기서는 그 상세한 설명을 생략한다.
S306: 측위 정보를 기초로, 자율 주행 차량의 주행을 제어한다.
S307: S307에 대한 설명은 S103을 참조할 수 있으며, 여기서는 그 상세한 설명을 생략한다.
본 출원의 실시예에의 다른 측면에 따르면, 본 출원의 실시예는 상술한 방법 실시예에 대응되는 측위 장치를 더 제공하며, 상술한 어느 일 실시예 에 따른 측위 방법을 구현하기 위한 것이다.
도 8을 참조하면, 도 8은 본 출원의 실시예에 따른 측위 장치를 나타내는 도면이다.
도8에 도시된 바와 같이, 해당 장치는,
기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 상기 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 상기 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 수집모듈(11);
상기 제1 위치 자세 정보, 상기 제2 위치 자세 정보와 상기 인접 프레임 이미지를 기초로, 측위 정보를 생성하는 생성모듈(12);
상기 측위 정보를 기초로, 자율 주행 차량의 주행을 제어하는 제어모듈(13);을 포함한다.
일부 실시예에서, 상기 생성모듈(12)은, 상기 제1 위치 자세 정보와 상기 제2 위치 자세 정보에 대해 융합 처리하여, 융합 위치 자세 정보를 생성하고, 상기 인접 프레임 이미지와 상기 융합 위치 자세 정보를 기초로 상기 측위 정보를 생성한다.
일부 실시예에서, 상기 생성모듈(12)은, 상기 휠 속도계의 상기 관성 측정 유닛에 대한 좌표 변환 파라미터를 획득하고, 상기 좌표 변환 파라미터를 기초로 상기 제2 위치 자세 정보에 대해 좌표 변환을 수행하고, 상기 제1 위치 자세 정보와 좌표 변환이 수행된 후의 제2 위치 자세 정보를 융합하여, 상기 융합 위치 자세 정보를 생성한다.
일부 실시예에서, 상기 생성모듈(12)은, 상기 인접 프레임 이미지를 기초로 기설정 오차를 만족하는 융합 위치 자세 정보를 결정하고, 상기 기설정 오차를 만족하는 융합 위치 자세 정보로부터 회전 정보와 변위 정보를 추출하고, 상기 회전 정보와 상기 변위 정보를 상기 측위 정보로 결정한다.
일부 실시예에서, 상기 인접 프레임 이미지는 기설정 특징점의 이미지 좌표 정보를 포함하고, 상기 생성모듈(12)은, 상기 이미지 좌표 정보와 상기 융합 위치 자세 정보를 기설정된 오차모델로 입력하여, 상기 오차모델이 출력하는 결과가 기설정 오차를 만족하는 융합 위치 자세 정보를 획득한다.
일부 실시예에서, 상기 오차모듈은 상기 카메라의 내부 파라미터와 상기 카메라의 외부 파라미터를 포함하며, 상기 카메라의 외부 파라미터는 상기 카메라의 상기 관성 측정 유닛에 대한 회전 파라미터와 변위 파라미터를 포함한다.
일부 실시예에서, 상기 수집모듈(11)은, 상기 관성 측정 유닛이 상기 시간 동안에 측정한 제1 측정 데이터를 수집하고, 상기 제1 측정 데이터에 대해 적분하여, 상기 제1 위치 자세 정보를 생성한다.
일부 실시예에서, 상기 수집모듈(11)은, 상기 휠 속도계가 상기 시간 동안에 측정한 제2 측정 데이터를 수집하고, 상기 제2 측정 데이터에 대해 적분하여, 상기 제2 위치 자세 정보를 생성한다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독 가능 저장매체를 더 제공한다.
도 9를 참조하면, 도 9는 본 출원의 실시예에 따른 전자기기의 블록도이다.
여기서, 전자기기는 다양한 형태의 디지털 컴퓨터, 예컨대, 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 휴대 단말, 서버, 블레이드 서버, 대형 컴퓨터, 및 기타 적합한 컴퓨터를 의미한다. 전자기기는 다양한 형태의 이동장치, 예컨대, 개인 휴대 단말, 셀폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치를 의미할 수도 있다. 본문에 개시된 부재, 이들의 연결 및 관계, 및 이들의 기능은 단지 예시적인 것이며, 본문에 개시된 것 및/또는 요구하는 본 출원의 실시예의 구현을 한정하려는 의도가 아니다.
도 9에 도시된 바와 같이, 해당 전자기기는 하나 또는 복수의 프로세서(101), 메모리(102), 및 각 부재를 연결시키기 위한 고속 인터페이스와 저속 인터페이스를 포함하는 인터페이스를 포함한다. 각각의 부재는 서로 다른 버스를 통해 서로 연결되며, 공통 메인보드에 장착되거나 수요에 따라 기타 방식으로 장착될 수 있다. 프로세서는 전자기기 내에서 실행되는 명령을 처리할 수 있으며, 메모리 내 또는 메모리 상에 저장되어 외부 입력/출력 장치(예컨대, 인터페이스에 커플링된 디스플레이 기기) 상에 GUI의 그래픽 정보를 표시하는 명령을 포함할 수 있다. 기타 실시형태에서, 수요에 따라, 복수의 프로세서 및/또는 복수의 버스와 복수의 메모리를 같이 사용할 수 있다. 마찬가지로, 복수의 전자기기를 연결할 수 있으며, 각각의 기기는 부분 필요한 조작을 제공한다(예를 들어, 서버 어레이, 한 세트의 블레이드 서버, 또는 멀티 프로세서 시스템으로서). 도 9는 하나의 프로세서(101)를 예로 든다.
메모리(102)는 바로 본 출원의 실시예에 따른 비일시적 컴퓨터 판독 가능 저장매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어, 상기 적어도 하나의 프로세서가 본 출원의 실시예에 따른 측위 방법을 수행하도록 한다. 본 출원의 실시예의 비일시적 컴퓨터 판독 가능 저장매체는 컴퓨터 명령을 저장하고, 해당 컴퓨터 명령은 컴퓨터가 본 출원의 실시예에 따른 측위 방법을 수행하도록 한다.
메모리(102)는 비일시적 컴퓨터 판독 가능 저장매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈, 예컨대 본 출원의 실시예에 따른 측위 방법에 대응되는 프로그램 명령/모듈을 저장할 수 있다. 프로세서(101)는 메모리(102)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행하여, 서버의 다양한 기능 응용 및 데이터 처리를 수행한다. 즉, 상술한 방법 실시예 중 측위 방법을 구현한다.
메모리(102)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있다. 여기서, 프로그램 저장 영역은 운영체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있다. 데이터 저장 영역은 전자기기의 사용에 따라 구성되는 데이터 등을 저장할 수 있다. 한편, 메모리(102)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 예를 들어 적어도 하나의 자기 저장 장치, 플래시 메모리, 또는 기타 비일시적 솔리드 스테이트 저장 장치와 같은 비일시적 메모리를 포함할 수도 있다. 일부 실시예에서, 메모리(102)는 선택적으로 프로세서(101)에 대해 원격으로 설치되는 메모리를 포함할 수 있다. 이러한 원격 메모리는 네트워크를 통해 전자기기에 연결될 수 있다. 상술한 네트워크의 실예로서 인터넷, 인트라넷, 근거리 통신망, 블록 체인 서비스 네트워크(Block-chain-based Service Network, BSN), 이동 통신망 및 그 조합을 포함하지만 이에 한정되지 않는다.
전자기기는 입력장치(103)와 출력장치(104)를 더 포함할 수 있다. 프로세서(101), 메모리(102), 입력장치(103) 및 출력장치(104)는 버스 또는 기타 방식으로 연결될 수 있으며, 도 9에서는 버스를 통해 연결되는 것을 예시하고 있다.
입력장치(103)는 입력되는 숫자 또는 문자 부호 정보를 수신할 수 있고, 전자기기의 사용자 설정 및 기능 제어에 대한 키 신호 입력을 생성할 수 있다. 예를 들어 터치 스크린, 키패드, 마우스, 트랙패드, 터치패널, 지시레버, 하나 또는 복수의 마우스 버튼, 트랙 볼, 조종 레버 등의 입력장치가 있다. 출력장치(104)는 디스플레이 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동모터) 등을 포함할 수 있다. 해당 디스플레이 기기는, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이와 플라즈마 디스플레이 등을 포함할 수 있지만 이에 한정되지 않는다. 일부 실시형태에서, 디스플레이 기기는 터치 스크린일 수 있다.
본 출원의 실시예에 따르면, 본 출원은 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 더 제공하며, 전자기기의 적어도 하나의 프로세서는 판독 가능 저장매체로부터 컴퓨터 명령을 판독할 수 있으며, 적어도 하나의 프로세서는 컴퓨터 프로그램을 실행하여 전자기기가 상술한 어느 실시예에 따른 방안을 수행하도록 한다.
여기에 기재되는 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 복수의 컴퓨터 프로그램에서 구현되는 것을 포함할 수 있고, 해당 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템 상에서 실행 및/또는 해석될 수 있으며, 해당 프로그래머블 프로세서는 전용 또는 범용 프로그래머블 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력장치, 및 적어도 하나의 출력장치로부터 데이터와 명령을 수신할 수 있으며, 데이터와 명령을 해당 저장 시스템, 해당 적어도 하나의 입력장치, 및 해당 적어도 하나의 출력장치로 전송한다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용, 또는 코드라고도 지칭)은 프로그래머블 프로세서의 기계적 명령을 포함하고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어, 및/또는 어셈블리/기계적 언어를 이용하여 이러한 컴퓨터 프로그램을 실행할 수 있다. 예컨대 본문에서 사용되는 용어 "기계 판독 가능 매체"와 "컴퓨터 판독 가능 매체"는 기계적 명령 및/또는 데이터를 프로그래머블 프로세서로 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그래머블 논리 디바이스(PLD))를 가리키고, 기계 판독 가능 신호인 기계적 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 "기계 판독 가능 신호"는 기계적 명령 및/또는 데이터를 프로그래머블 프로세서로 제공하기 위한 임의의 신호를 가리킨다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터 상에서 여기에 기재되는 시스템 및 기술을 실시할 수 있으며, 해당 컴퓨터는 사용자에게 정보를 표시하기 위한 표시장치(예를 들어, CRT(캐소드레이 튜브) 또는 LCD(액정 디스플레이) 모니터); 및 키보드와 지향 장치(예를 들어, 마우스 또는 트랙볼)를 구비하고, 사용자는 해당 키보드와 해당 지향 장치를 통해 입력을 컴퓨터로 제공할 수 있다. 기타 종류의 장치는 사용자와의 인터랙션을 제공할 수도 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 센싱 피드백(예를 들어, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백)일 수 있고; 임의의 형태(사운드 입력, 음성 입력 또는 촉각 입력)을 통해 사용자로부터의 입력을 수신할 수 있다.
여기에 기재되는 시스템과 기술은 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로서), 또는 중간부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 유저 인터페이스 또는 인터넷 브라우저를 구비하는 사용자 컴퓨터, 사용자는 해당 그래픽 유저 인터페이스 또는 해당 인터넷 브라우저를 통해 여기에 기재되는 시스템 및 기술의 실시형태와 인터랙션할 수 있다), 또는 이러한 백그라운드 부재, 중간 부재, 또는 프론트 엔드 부재를 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로서, 근거리 통신망(LAN), 근거리 통신망, 블록 체인 서비스 네트워크(Block-chain-based Service Network, BSN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨팅 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며, 통상적으로 통신 네트워크를 통해 인터랙션한다. 상응한 컴퓨터 상에서 실행되며 서로 클라이언트 - 서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 생성한다.
본 출원의 실시예의 다른 측면에 따르면, 본 출원의 실시예는 자율 주행 차량을 더 제공한다. 상기 자율 주행 차량은 상술한 실시예에 따른 측위 장치, 또는, 상술한 실시예에 따른 전자기기를 포함한다.
본 출원의 실시예의 다른 측면에 따르면, 본 출원의 실시예는 측위 방법을 더 제공한다.
도 10을 참조하면, 도 10은 본 출원의 또 다른 실시예의 측위 방법의 흐름도이다.
도 10에 도시된 바와 같이, 해당 방법은 아래의 단계들을 포함한다.
S1: 기설정 시간 내에 적어도 두 센서 각각에 대응되는 위치 자세 정보를 측정하되, 여기서, 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격이다.
여기서, 센서의 수량은 복수이고, 하나의 센서는 하나의 위치 자세 정보와 대응된다. 즉, 각각의 센서는 모두 자율 주행 차량의 위치 자세 정보를 수집한다.
센서는 관성 측정 유닛, 휠 속도계와 레이더 센서 등일 수도 있으며, 여기에서는 일일이 나열하지 않는다.
구체적으로, 센서의 수량이 두개일 때, 하나의 센서는 상술한 예시에서 설명한 관성 측정 유닛일 수 있고, 대응되는 위치 자세 정보는 상술한 예시 중 제1 위치 자세 정보일 수 있으며; 다른 센서는 상술한 예시에서 설명하는 휠 속도계일 수 있으며, 대응되는 위치 자세 정보는 상기 예시 중 제2 위치 자세 정보이다.
S2: 각 위치 자세 정보와 인접 프레임 이미지를 기초로, 측위 정보를 생성한다.
본 출원의 실시예에서, 각 위치 자세 정보를 기초로 인접 프레임 이미지에 대응되는 측위 정보에 대해 편차 보정을 수행하며, 이에 따라 신뢰성이 보다 높은 측위 정보를 생성한다. 구체적인 과정은 상술한 예시를 참조할 수 있으며, 여기서는 그 상세한 설명을 생략한다.
상술한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있다. 예를 들어, 본 출원에 기재된 각 단계는 병열로 수행될 수 있고 순차적으로 수행될 수도 있고 서로 다른 순서로 수행될 수도 있으며, 본 출원에 개시된 기술적 해결수단이 원하는 결과를 얻을 수만 있다면, 본문은 이에 대해 한정하지 않는다.
상술한 구체적인 실시형태는 본 출원의 보호범위에 대한 한정이 아니다. 본 분야의 통상의 지식을 가진 자라면, 설계 요구와 기타 요소를 기초로, 다양한 수정, 조합, 서브 조합 및 대체를 가할 수 있음을 이해할 수 있을 것이다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 치환 및 개선 등은 모두 본 출원의 보호 범위 내에 속하는 것으로 간주하여야 한다.

Claims (21)

  1. 자율 주행 차량에 적용되는 측위 방법에 있어서,
    기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 상기 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 상기 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 단계;
    상기 휠 속도계의 상기 관성 측정 유닛에 대한 좌표 변환 파라미터를 획득하는 단계;
    상기 좌표 변환 파라미터를 기초로 상기 제2 위치 자세 정보에 대해 좌표 변환을 수행하는 단계;
    상기 제1 위치 자세 정보와 좌표 변환이 수행된 후의 제2 위치 자세 정보를 융합하여, 융합 위치 자세 정보를 생성하는 단계;
    상기 인접 프레임 이미지와 상기 융합 위치 자세 정보를 기초로 측위 정보를 생성하는 단계;
    상기 측위 정보를 기초로, 상기 자율 주행 차량의 주행을 제어하는 단계;를 포함하는 것을 특징으로 하는 측위 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 인접 프레임 이미지와 상기 융합 위치 자세 정보를 기초로 측위 정보를 생성하는 단계는,
    상기 인접 프레임 이미지를 기초로 기설정 오차를 만족하는 융합 위치 자세 정보를 결정하는 단계;
    상기 기설정 오차를 만족하는 융합 위치 자세 정보로부터 회전 정보와 변위 정보를 추출하고, 상기 회전 정보와 상기 변위 정보를 상기 측위 정보로 결정하는 단계;를 포함하는 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 인접 프레임 이미지는 기설정 특징점의 이미지 좌표 정보를 포함하고; 상기 인접 프레임 이미지를 기초로 기설정 오차를 만족하는 융합 위치 자세 정보를 결정하는 단계는,
    상기 이미지 좌표 정보와 상기 융합 위치 자세 정보를 기설정된 오차모델로 입력하는 단계;
    상기 오차모델이 출력하는 결과가 기설정 오차를 만족하는 융합 위치 자세 정보를 획득하는 단계;를 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 오차모델은 상기 카메라의 내부 파라미터와 상기 카메라의 외부 파라미터를 포함하며, 상기 카메라의 외부 파라미터는 상기 카메라의 상기 관성 측정 유닛에 대한 회전 파라미터와 변위 파라미터를 포함하는 것을 특징으로 하는 방법.
  7. 제1항, 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하는 단계는,
    상기 관성 측정 유닛이 상기 시간 동안에 측정한 제1 측정 데이터를 수집하는 단계;
    상기 제1 측정 데이터에 대해 적분하여, 상기 제1 위치 자세 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 방법.
  8. 제1항, 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하는 단계는,
    상기 휠 속도계가 상기 시간 동안에 측정한 제2 측정 데이터를 수집하는 단계;
    상기 제2 측정 데이터에 대해 적분하여, 상기 제2 위치 자세 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 방법.
  9. 기설정 시간 동안에 관성 측정 유닛에 의해 측정된 제1 위치 자세 정보를 수집하고, 상기 시간 동안에 휠 속도계에 의해 측정된 제2 위치 자세 정보를 수집하되, 여기서, 상기 시간 동안은 카메라가 인접 프레임 이미지 수집 시의 샘플링 시간 간격인 수집모듈;
    상기 휠 속도계의 상기 관성 측정 유닛에 대한 좌표 변환 파라미터를 획득하고, 상기 좌표 변환 파라미터를 기초로 상기 제2 위치 자세 정보에 대해 좌표 변환을 수행하고, 상기 제1 위치 자세 정보와 좌표 변환이 수행된 후의 제2 위치 자세 정보를 융합하여, 융합 위치 자세 정보를 생성하고, 상기 인접 프레임 이미지와 상기 융합 위치 자세 정보를 기초로 측위 정보를 생성하는 생성모듈;
    상기 측위 정보를 기초로, 자율 주행 차량의 주행을 제어하는 제어모듈;을 포함하는 것을 특징으로 하는 측위 장치.
  10. 삭제
  11. 삭제
  12. 제9항에 있어서,
    상기 생성모듈은, 상기 인접 프레임 이미지를 기초로 기설정 오차를 만족하는 융합 위치 자세 정보를 결정하고, 상기 기설정 오차를 만족하는 융합 위치 자세 정보로부터 회전 정보와 변위 정보를 추출하고, 상기 회전 정보와 상기 변위 정보를 상기 측위 정보로 결정하는 것을 특징으로 하는 장치.
  13. 제12항에 있어서,
    상기 인접 프레임 이미지는 기설정 특징점의 이미지 좌표 정보를 포함하고; 상기 생성모듈은, 상기 이미지 좌표 정보와 상기 융합 위치 자세 정보를 기설정된 오차모델로 입력하여, 상기 오차모델이 출력하는 결과가 기설정된 오차를 만족하는 융합 위치 자세 정보를 획득하는 것을 특징으로 하는 장치.
  14. 제13항에 있어서,
    상기 오차모델은 상기 카메라의 내부 파라미터와 상기 카메라의 외부 파라미터를 포함하며, 상기 카메라의 외부 파라미터는 상기 카메라의 상기 관성 측정 유닛에 대한 회전 파라미터와 변위 파라미터를 포함하는 것을 특징으로 하는 장치.
  15. 제9항, 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 수집모듈은, 상기 관성 측정 유닛이 상기 시간 동안에 측정한 제1 측정 데이터를 수집하고, 상기 제1 측정 데이터에 대해 적분하여, 상기 제1 위치 자세 정보를 생성하는 것을 특징으로 하는 장치.
  16. 제9항, 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 수집모듈은, 상기 휠 속도계가 상기 시간 동안에 측정한 제2 측정 데이터를 수집하고, 상기 제2 측정 데이터에 대해 적분하여, 상기 제2 위치 자세 정보를 생성하는 것을 특징으로 하는 장치.
  17. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하되,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항에 따른 방법을 수행할 수 있도록 하는 것을 특징으로 하는 전자기기.
  18. 제9항, 제12항 내지 제14항 중 어느 한 항에 따른 장치, 또는, 제17항에 따른 전자기기를 포함하는 것을 특징으로 하는 자율 주행 차량.
  19. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체에 있어서, 상기 컴퓨터 명령은 컴퓨터가 제1항, 제4항 내지 제6항 중 어느 한 항에 따른 방법을 수행하도록 하는 것을 특징으로 하는 저장매체.
  20. 삭제
  21. 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항, 제4항 내지 제6항 중 어느 한 항에 따른 방법을 구현하는 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램.
KR1020210041414A 2020-06-02 2021-03-30 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체 KR102570094B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010497244.0A CN111649739B (zh) 2020-06-02 2020-06-02 定位方法和装置、自动驾驶车辆、电子设备和存储介质
CN202010497244.0 2020-06-02

Publications (2)

Publication Number Publication Date
KR20210042856A KR20210042856A (ko) 2021-04-20
KR102570094B1 true KR102570094B1 (ko) 2023-08-23

Family

ID=72347074

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210041414A KR102570094B1 (ko) 2020-06-02 2021-03-30 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체

Country Status (5)

Country Link
US (1) US11789455B2 (ko)
EP (1) EP3920003A1 (ko)
JP (1) JP7287999B2 (ko)
KR (1) KR102570094B1 (ko)
CN (1) CN111649739B (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274343B (zh) * 2020-01-20 2023-11-24 阿波罗智能技术(北京)有限公司 一种车辆定位方法、装置、电子设备及存储介质
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质
CN112880674A (zh) * 2021-01-21 2021-06-01 深圳市镭神智能系统有限公司 一种行驶设备的定位方法、装置、设备及存储介质
CN112902951A (zh) * 2021-01-21 2021-06-04 深圳市镭神智能系统有限公司 一种行驶设备的定位方法、装置、设备及存储介质
CN113899363B (zh) * 2021-09-29 2022-10-21 北京百度网讯科技有限公司 车辆的定位方法、装置及自动驾驶车辆
CN113946151A (zh) * 2021-10-20 2022-01-18 北京百度网讯科技有限公司 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN114001742A (zh) * 2021-10-21 2022-02-01 广州小鹏自动驾驶科技有限公司 车辆定位方法、装置、车辆和可读存储介质
CN113870367B (zh) * 2021-12-01 2022-02-25 腾讯科技(深圳)有限公司 相机外参的生成方法、装置、设备、存储介质和程序产品
CN114323033B (zh) * 2021-12-29 2023-08-29 北京百度网讯科技有限公司 基于车道线和特征点的定位方法、设备及自动驾驶车辆
KR20240010769A (ko) 2022-07-15 2024-01-25 재단법인대구경북과학기술원 측위 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009236532A (ja) 2008-03-26 2009-10-15 Seiko Epson Corp 測位方法、プログラム及び測位装置
US20170124781A1 (en) * 2015-11-04 2017-05-04 Zoox, Inc. Calibration for autonomous vehicle operation
CN107747941A (zh) 2017-09-29 2018-03-02 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN110967011A (zh) 2019-12-25 2020-04-07 苏州智加科技有限公司 一种定位方法、装置、设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177737B2 (en) * 2002-12-17 2007-02-13 Evolution Robotics, Inc. Systems and methods for correction of drift via global localization with a visual landmark
US8825397B2 (en) * 2011-11-03 2014-09-02 Texas Instruments Incorporated Vehicle navigation system with dead reckoning
KR20150122097A (ko) 2015-10-08 2015-10-30 김인태 항법 알고리즘을 이용한 네비게이션 연동방법
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
JP6962926B2 (ja) 2015-11-04 2021-11-05 ズークス インコーポレイテッド 自律車両の軌道修正のための遠隔操作システムおよび方法
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US11283877B2 (en) * 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
KR101796986B1 (ko) 2015-12-14 2017-12-12 현대자동차주식회사 차량 및 그 제어방법
US9915947B1 (en) * 2016-02-26 2018-03-13 Waymo Llc System and method for determining pose data for a vehicle
US9996944B2 (en) * 2016-07-06 2018-06-12 Qualcomm Incorporated Systems and methods for mapping an environment
WO2018042671A1 (ja) * 2016-09-05 2018-03-08 日産自動車株式会社 車両走行制御方法及び車両走行制御装置
US10650270B2 (en) * 2017-04-21 2020-05-12 X Development Llc Methods and systems for simultaneous localization and calibration
JP6716028B2 (ja) * 2017-04-27 2020-07-01 株式会社ソニー・インタラクティブエンタテインメント 制御装置、情報処理システム、制御方法、及びプログラム
CN108196285B (zh) 2017-11-30 2021-12-17 中山大学 一种基于多传感器融合的精确定位系统
CN108230379B (zh) * 2017-12-29 2020-12-04 百度在线网络技术(北京)有限公司 用于融合点云数据的方法和装置
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
CN108958266A (zh) 2018-08-09 2018-12-07 北京智行者科技有限公司 一种地图数据获取方法
CN111354042B (zh) * 2018-12-24 2023-12-01 深圳市优必选科技有限公司 机器人视觉图像的特征提取方法、装置、机器人及介质
WO2020172039A1 (en) * 2019-02-19 2020-08-27 Crown Equipment Corporation Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle
CN110155080B (zh) * 2019-05-22 2021-02-12 北京百度网讯科技有限公司 传感器稳定控制方法、装置、稳定器和介质
US20210302991A1 (en) * 2020-03-31 2021-09-30 Wipro Limited Method and system for generating an enhanced field of view for an autonomous ground vehicle
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009236532A (ja) 2008-03-26 2009-10-15 Seiko Epson Corp 測位方法、プログラム及び測位装置
US20170124781A1 (en) * 2015-11-04 2017-05-04 Zoox, Inc. Calibration for autonomous vehicle operation
CN107747941A (zh) 2017-09-29 2018-03-02 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN110967011A (zh) 2019-12-25 2020-04-07 苏州智加科技有限公司 一种定位方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
비특허문헌1

Also Published As

Publication number Publication date
US20210370970A1 (en) 2021-12-02
CN111649739A (zh) 2020-09-11
EP3920003A1 (en) 2021-12-08
CN111649739B (zh) 2023-09-01
JP2021113818A (ja) 2021-08-05
KR20210042856A (ko) 2021-04-20
US11789455B2 (en) 2023-10-17
JP7287999B2 (ja) 2023-06-06

Similar Documents

Publication Publication Date Title
KR102570094B1 (ko) 측위 방법과 장치, 자율 주행 차량, 전자기기와 저장매체
CN110595494B (zh) 地图误差确定方法和装置
JP7299261B2 (ja) 車両のデッドレコニング方法、装置、デバイス、記憶媒体、及びプログラム
CN111415387B (zh) 相机位姿确定方法、装置、电子设备及存储介质
CN107748569B (zh) 用于无人机的运动控制方法、装置及无人机系统
JP7287997B2 (ja) 位置決め方法、位置決め装置、電子機器、車端機器、自動運転車、コンピュータ可読記憶媒体及びコンピュータプログラム
JP7204823B2 (ja) 車両制御方法、車両制御装置及び車両
JP7241057B2 (ja) 車両測位方法、装置、電子機器、車両及び記憶媒体
CN111220164A (zh) 定位方法、装置、设备及存储介质
CN111721305B (zh) 定位方法和装置、自动驾驶车辆、电子设备和存储介质
JP7356528B2 (ja) 地図データ処理方法及び装置
CN113933818A (zh) 激光雷达外参的标定的方法、设备、存储介质及程序产品
CN110794844A (zh) 自动驾驶方法、装置、电子设备及可读存储介质
CN111121755B (zh) 一种多传感器的融合定位方法、装置、设备及存储介质
CN111783611B (zh) 无人车的定位方法、装置、无人车及存储介质
CN115900697A (zh) 对象运动轨迹信息处理方法、电子设备以及自动驾驶车辆
CN115727871A (zh) 一种轨迹质量检测方法、装置、电子设备和存储介质
CN113759384B (zh) 一种传感器位姿转换关系确定方法、装置、设备和介质
CN111780757B (zh) 定位方法和装置、电子设备、车端设备、自动驾驶汽车
JP7088881B2 (ja) インテリジェント路側ユニットの障害物提示方法、装置および機器
CN110579779B (zh) Gps质量确定方法、装置、设备和介质
KR102595677B1 (ko) 위치 정보 결정 방법, 장치 및 기기

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant