JP7287999B2 - 測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体 - Google Patents

測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体 Download PDF

Info

Publication number
JP7287999B2
JP7287999B2 JP2021064297A JP2021064297A JP7287999B2 JP 7287999 B2 JP7287999 B2 JP 7287999B2 JP 2021064297 A JP2021064297 A JP 2021064297A JP 2021064297 A JP2021064297 A JP 2021064297A JP 7287999 B2 JP7287999 B2 JP 7287999B2
Authority
JP
Japan
Prior art keywords
information
pose information
positioning
pose
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021064297A
Other languages
English (en)
Other versions
JP2021113818A (ja
Inventor
ウェントン ティン
シアオフェイ ルイ
カン ワン
シユ ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021113818A publication Critical patent/JP2021113818A/ja
Application granted granted Critical
Publication of JP7287999B2 publication Critical patent/JP7287999B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18072Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/002Integrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/005Sampling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/90Single sensor for two or more measurements
    • B60W2420/905Single sensor for two or more measurements the sensor being an xyz axis sensor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors
    • B60W2422/70Indexing codes relating to the special location or mounting of sensors on the wheel or the tire
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/25Data precision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18066Coasting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)

Description

本願の実施例は、コンピュータ技術分野に関し、特に自動運転技術分野に関し、具体的に、測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体に関する。
自動運転技術の発展に伴い、如何に車両と歩行者の安全を確保するように車両の正確な測位を実現するかは、早急に解決すべき問題となっている。
従来技術において、自動運転車両の測位方法は、主に視覚オドメーターに基づいて実現されているが、従来の視覚オドメーターは、主に単眼カメラまたは双眼カメラにより測位を実現し、例えば、フレーム間の移動を積算してポーズを推定する。
しかし、本願の発明者は、本提案を実施する際に、従来技術においてカメラが移動中に揺れやすいので、推定されたポーズの精度が低くなるという問題が存在することを発見した。
正確な測位のための測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体を提供する。
第1の態様によれば、自動運転車両に適用される測位方法を提供し、前記測位方法は、
所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔であることと、
前記第1ポーズ情報、前記第2ポーズ情報及び前記隣接するフレームの画像に基づいて、測位情報を生成することと、
前記測位情報に基づいて、前記自動運転車両の走行を制御することと、を含む。
本願の実施例において、慣性測定ユニットと車輪速度計のそれぞれに対応する第1ポーズ情報と第2ポーズ情報を組み合わせることにより、測位情報を予測し、カメラに対して、慣性測定ユニットと車輪速度計が外部環境に干渉されにくいため、測位情報が外部環境に干渉されることを避け、測位情報の精度と信頼性を向上させ、さらに自動運転車両の安全且つ確実な走行を実現することができる。
第2の態様によれば、測位装置を提供し、前記測位装置は、
所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集するために用いられ、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔である収集モジュールと、
前記第1ポーズ情報、前記第2ポーズ情報及び前記隣接するフレームの画像に基づいて、測位情報を生成するための生成モジュールと、
前記測位情報に基づいて、自動運転車両の走行を制御するための制御モジュールと、を含む。
第3の態様によれば、電子機器を提供し、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を備え、
前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが上記実施例のいずれか1つに記載の測位方法を実行できるように、前記少なくとも1つのプロセッサにより実行される。
第4の態様によれば、自動運転車両を提供し、前記車両は、上記実施例に記載の測位装置、又は、上記実施例に記載の電子機器を含む。
第5の態様によれば、コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、コンピュータに上記実施例の何れか1つに記載の測位方法を実行させるために用いられる。
第6の態様によれば、測位方法を提供し、前記測位方法は、
所定の時間帯で少なくとも2つのセンサのそれぞれにより測定された対応するポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔であることと、
各前記ポーズ情報と前記隣接するフレームの画像に基づいて、測位情報を生成することと、を含む。
第7の態様によれば、コンピュータプログラムは、前記コンピュータプログラムは、コンピュータ可読記憶媒体に記憶され、電子機器の少なくとも1つのプロセッサは、前記コンピュータ可読記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサは、前記コンピュータプログラムを実行することによって、前記電子機器に上記実施例の何れか1つに記載の測位方法を実行させる。
本願の実施例の技術的手段により、カメラにより測位する際に、測位情報が外部環境に干渉されやすいという関連技術の欠点を解決し、正確な測位を実現し、さらに自動運転車両が安全且つ確実に走行することができるという技術的効果を実現する。
なお、この部分に記載されている内容は、本願の実施例の肝心な又は重要な特徴を特定することを意図しておらず、本願の範囲を限定するものでもない。本願の他の特徴は、以下の説明を通じて容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本願を限定するものではない。
本願の実施例の適用シーンの概略図である。 本願の別の実施例の適用シーンの概略図である。 本願の実施例の測位方法のフローチャートである。 本願の別の実施例の測位方法のフローチャートである。 本願の融合ポーズ情報を生成する方法のフローチャートである。 本願の隣接するフレームの画像と融合ポーズ情報に基づいて測位情報を生成する方法のフローチャートである。 本願の更に別の実施例の測位方法のフローチャートである。 本願の実施例の測位装置の概略図である。 本願の実施例の電子機器のブロック図である。 本願の更に別の実施例の測位方法のフローチャートである。
以下、図面を組み合わせて本願の例示的な実施例を説明し、理解を容易にするために、その中には本願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
図1を参照して、図1は、本願の実施例の測位方法の適用シーンの概略図である。
図1に示す適用シーンにおいて、自動運転車両100が直進の道路で走行しており、自動運転車両100は、プロセッサ(図示せず)を含み、プロセッサは、本願の実施例の測位方法を実行して、自動運転車両100に対応する測位情報を決定し、測位情報に基づいて自動運転車両100を制御して運転戦略を調整することができる。
そのうち、運転戦略は、自動運転車両の走行状態を特徴付けるためのものであり、運転戦略は、減速、駐車、加速及び曲がりなどを含む。
例えば、自動運転車両が赤信号に遭遇すると、プロセッサは、自動運転車両が直進の運転戦略を減速の運転戦略に調整し、又は直進の運転戦略を駐車の運転戦略に調整するように制御することができ、自動運転車両の前の車が加速し、且つ自動運転車両と前の車との距離が遠い場合、プロセッサは、自動運転車両が直進の運転戦略を加速の運転戦略に調整するように制御することができる。
図1に示す適用シーンにおいて、プロセッサが自動運転車両100の測位情報を決定した後、自動運転車両が左折を実行できる交差点に近いことが分かり、自動運転車両100の路線が左折の道路に対応する場合、自動運転車両100が有効な運転を実現するように左折する必要があり、その場合、プロセッサは、測位情報に基づいて、自動運転車両100が直進の運転戦略を左折の運転戦略に調整するように制御することができる。
そのうち、プロセッサが、自動運転車両100が直進の運転戦略を左折の運転戦略に調整するように制御する場合、具体的には、図2に示すシーングラフを参照することができる。
関連技術において、自動運転車両を測位する時、主に単眼カメラ又は両眼カメラを用いて測位を行い、例えば、フレーム間の移動を積算してポーズを推定する。
しかし、カメラが移動中に揺れやすく、カメラによる図像の取得は周囲の環境から影響を受けやすいので、関連技術における手段によれば、推定されたポーズの精度が低く、即ち決定された測位情報が正確でないという問題が生じやすい。
上記の技術的問題を解決するために、本願の発明者は、創造的な労働をした後、本願の発明の構想を得た。即ち、カメラが画像を取得する際の環境への依存を極力取り除き、揺れ時に生成された測位情報を修正することにより、高精度の測位情報を得ることができる。
以下、具体的な実施例を通じて、本願の技術的手段及び如何に本願の技術的手段により上記技術的問題を解決するかについて詳細に説明する。以下のいくつかの具体的な実施例は、互いに組み合わせることができ、同じ又は類似する概念又はプロセスについて、一部の実施例において繰り返して説明しない場合がある。以下、図面を参照しながら、本願の実施例を説明する。
図3を参照して、図3は、本願の実施例の測位方法のフローチャートである。
図3に示すように、当該方法は、以下のステップを含む。
S101:所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔である。
そのうち、本願の実施例の実行主体は、測位装置とすることができ、測位装置は、具体的に、自動運転車両に設置されたコンピュータ、サーバ、プロセッサ、車載端末、リモート情報プロセッサ(車載T-BOX)及びチップ(例えば、埋め込み型チップ)などであってもよい。
例えば、本願の実施例の測位方法を図1に示す適用シーンに適用する場合、本願の実施例の測位方法の実行主体は、プロセッサであってもよい。
そのうち、前記時間帯は、カメラにより収集された隣接するフレームの画像に関連しており、具体的に、隣接するフレームの画像に対応する時間間隔に基づいて決定された時間帯であってもよい。つまり、カメラにより収集された第1フレームの画像の時間をT0とし、第2フレームの画像の時間をT1とし、且つ第1フレームの画像と第2フレームの画像が隣接する2つのフレームの画像である場合、時間帯=T1-T0である。ポーズ情報は、位置情報と姿勢情報を含む。
このステップにおいて、前記時間帯で慣性測定ユニットにより測定されたポーズ情報(即ち第1ポーズ情報)、及び車輪速度計により測定されたポーズ情報(第2ポーズ情報)をそれぞれ収集する。
そのうち、慣性測定ユニット(Inertial measurement unit、IMU)は、物体の姿勢角(又は角速度)や加速度などを測定する装置である。一般的には、1つのIMUは、3つの単軸の加速度計と3つの単軸のジャイロスコープを含み、加速度計は、物体のキャリヤ座標系における独立した三軸での加速度信号を検出し、ジャイロスコープは、ナビゲーション座標系に対するキャリヤの角速度信号を検出し、物体の三次元空間での角速度と加速度を測定する。
つまり、第1ポーズ情報は、慣性測定ユニットにより収集された自動運転車両に対応する位置情報及び/又は姿勢情報を特徴付けるために用いられ、姿勢情報は、姿勢角、角速度及び加速度などの情報を含む。即ち、本願の実施例において、慣性測定ユニットは、自動運転車両の姿勢角、角速度及び加速度などの情報を測定することができ、慣性測定ユニットにより測定された関連情報を第1ポーズ情報として決定することができる。
そのうち、車輪速度計は、車輪速度センサとも呼ばれ、第2ポーズ情報は、車輪速度計により収集された自動運転車両に対応する位置情報及び/又は姿勢情報を特徴付けるために用いられ、姿勢情報は、速度と加速度などの情報を含む。即ち、本願の実施例において、車輪速度計は、自動運転車両の速度と加速度などの情報を収集するために用いられ、収集された関連情報を第2ポーズ情報として決定することができる。
なお、第1ポーズ情報と第2ポーズ情報における「第1」と「第2」は、慣性測定ユニットにより収集された関連情報と車輪速度計により収集された関連情報を区別するためのものである。
S102:第1ポーズ情報、第2ポーズ情報及び隣接するフレームの画像に基づいて、測位情報を生成する。
このステップにおいて、第1ポーズ情報、第2ポーズ情報及び隣接するフレームの画像に基づいて、測位情報を予測すると理解することができる。
本願の実施例において、慣性測定ユニットと車輪速度計のそれぞれに対応する第1ポーズ情報と第2ポーズ情報を組み合わせることにより、測位情報を予測し、カメラに対して、慣性測定ユニットと車輪速度計が外部環境に干渉されにくいため、測位情報が外部環境に干渉されることを避け、測位情報の精度と信頼性を向上させることができる。
S103:測位情報に基づいて、自動運転車両の走行を制御する。
このステップにおいて、測位情報を決定した後、自動運転車両の走行を制御することができ、例えば、自動運転車両の運転戦略を調整することができ、図1に示すように、測位情報に基づいて、自動運転車両の運転戦略を直進の運転戦略から左折の運転戦略に調整するように制御することにより、自動運転車両を安全且つ確実に運転させることができる。
上記の分析から分かるように、本願の実施例は、測位方法を提供し、当該測位方法は、自動運転車両に適用でき、当該測位方法は、所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔であることと、第1ポーズ情報、第2ポーズ情報及び隣接するフレームの画像に基づいて、測位情報を生成することと、測位情報に基づいて、自動運転車両の走行を制御することと、を含み、慣性測定ユニットと車輪速度計のそれぞれに対応する第1ポーズ情報と第2ポーズ情報を組み合わせることにより、測位情報を予測し、カメラに対して、慣性測定ユニットと車輪速度計が外部環境に干渉されにくいため、測位情報が外部環境に干渉されることを避け、測位情報の精度と信頼性を向上させ、さらに自動運転車両の安全且つ確実な走行を実現することができる。
測位情報を生成する具体的なプロセスを読者により明確に理解させるために、図4における本願の実施例の測位方法を参照しながら、詳細に説明する。そのうち、図4は、本願の別の実施例の測位方法のフローチャートである。
図4に示すように、当該測位方法は、以下のステップを含む。
S201:所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、時間帯で車輪速度計により測定された第2ポーズ情報を収集し、そのうち、時間帯が、カメラが隣接するフレームの画像を収集する時のサンプリング時間間隔である。
そのうち、S201についての説明は、S101を参照することができ、ここで繰り返して説明しない。
S202:第1ポーズ情報と第2ポーズ情報を融合処理し、融合ポーズ情報を生成する。
測位情報を決定するためのポーズ情報の信頼性を確保するために、このステップにおいて、第1ポーズ情報と第2ポーズ情報を融合処理する。
つまり、このステップは、測位情報を生成するためのポーズ情報の信頼性と精度を可能な限り高めるために、2つのポーズ情報を相互に修正するプロセスであってもよい。
図5から分かるように、いくつかの実施例において、S202は、具体的に、S21~S23を含むことができる。
S21:車輪速度計の慣性測定ユニットに対する座標変換パラメータを取得する。
具体的には、慣性測定ユニットに対する車輪速度計の回転と変位などのパラメータを校正することができる。即ち、慣性測定ユニットの座標系を基準とし、慣性測定ユニットを原点座標とし、慣性測定ユニットに対する車輪速度計の回転と変位などのパラメータを取得して、座標変換パラメータを決定する。
S22:座標変換パラメータに基づいて、第2ポーズ情報を座標変換する。
このステップは、第2ポーズ情報を車輪速度計座標系から慣性測定ユニット座標系のポーズ情報に変換することであると理解してよい。
そのうち、変換の具体的な計算方法は、従来技術における座標変換の式を参照することができ、ここで繰り返して説明しない。
S23:第1ポーズ情報と座標変換後の第2ポーズ情報を融合して、融合ポーズ情報を生成する。
なお、S22を経た後、慣性測定ユニット座標系を基準とした第2ポーズ情報(即ち座標変換後の第2ポーズ情報)を得ることができ、それによって、2つのポーズ情報をより迅速かつ簡便に融合することができる。
上記の分析から分かるように、本願の実施例において、座標変換パラメータを決定した後、座標変換パラメータに基づいて、第2ポーズ情報を座標変換し、第1ポーズ情報と座標変換後の第2ポーズ情報に基づいて融合ポーズ情報を生成し、融合プロセスが同じ座標系に基づいているため、融合プロセスの速度を高めることができ、且つ融合プロセスの信頼性と精度を確保することができ、さらに融合ポーズ情報の精度と信頼性を確保する技術的効果を実現することができる。
S203:隣接するフレームの画像と融合ポーズ情報に基づいて、測位情報を生成する。
融合ポーズ情報の精度が比較的高く、外部環境に干渉されにくいため、本願の実施例において、融合ポーズ情報及び隣接するフレームの画像に基づいて測位情報を生成することで、隣接するフレームの画像に基づいて測位情報を生成する時、外部環境の干渉を受けやすい問題を避け、さらに測位情報の精度と信頼性を向上させることができる。
図6から分かるように、いくつかの実施例において、S203は、具体的に、S31~S33を含むことができる。
S31:隣接するフレームの画像に基づいて、所定の誤差を満たす融合ポーズ情報を決定する。
そのうち、隣接するフレームの画像は、特徴点が予め設定された画像座標情報を含むので、S31は、具体的に、画像座標情報と融合ポーズ情報を所定の誤差モデルに入力し、誤差モデルから出力された結果が所定の誤差を満たす融合ポーズ情報を取得することを含むことができる。
そのうち、誤差モデルは、カメラの内部パラメータとカメラの外部パラメータを含み、カメラの外部パラメータは、前記慣性測定ユニットに対するカメラの回転パラメータと変位パラメータを含む。
Figure 0007287999000001
Figure 0007287999000002
S32:所定の誤差を満たす融合ポーズ情報から回転情報と変位情報を抽出する。
Figure 0007287999000003
本願の実施例において、隣接するフレームの画像の関連情報とカメラの関連情報を組み合わせることにより、誤差を満たす回転情報と変位情報を決定し、回転情報と変位情報の誤差をできるだけ低くし、測位情報の精度と信頼性を向上させることができる。
S33:回転情報と変位情報を測位情報として決定する。
S204:測位情報に基づいて、自動運転車両の走行を制御する。
そのうち、S204についての説明は、S103を参照することができ、ここで繰り返して説明しない。
第1ポーズ情報と第2ポーズ情報を得るための具体的なプロセスを読者により明確に理解させるために、図7を参照しながら、本願の実施例の測位方法を詳細に説明する。そのうち、図7は、本願の更に別の実施例の測位方法のフローチャートである。
図7に示すように、当該方法は、以下のステップを含む。
S301:慣性測定ユニットにより所定の時間帯で測定された第1測定数据を収集する。
S302:第1測定数据を積分し、第1ポーズ情報を生成する。
上記の例から分かるように、慣性測定ユニットは、自動運転車両の姿勢角、角速度、回転、速度及び変位などの情報を測定することができ、第1測定数据は、慣性測定ユニットにより収集された自動運転車両に対応する姿勢角、角速度、回転、速度及び変位などのデータである。
本願の実施例において、第1測定データを得た後、第1測定データを積分し、第1ポーズ情報を生成する。
一般的には、第1測定データは離散型データであるため、積分により第1測定データを処理する場合、一部の情報をフィルタリングすることができるが、回転、速度及び変位が保留される。
したがって、第1測定データを積分することにより、一部の第1測定データをフィルタリングすることができ、後続の計算の冗長を回避し、計算の効率を向上させることができる。また、冗長情報をフィルタリングするため、第1ポーズ情報の正確性と信頼性を確保し、測位情報の信頼性と精度を実現することができる。
Figure 0007287999000004
Figure 0007287999000005
S303:車輪速度計により前記時間帯で測定された第2測定データを収集する。
S304:第2測定データを積分し、第2ポーズ情報を生成する。
同様に、本願の実施例において、第2測定データを得た後、第2測定データを積分し、第2ポーズ情報を生成する。
一般的には、第2測定データは離散型データであるので、積分により第2測定データを処理する場合、一部の情報をフィルタリングできるが、速度と変位が保留される。
したがって、第2測定データを積分することにより、一部の第2測定データをフィルタリングすることができ、後続の計算の冗長を回避し、計算の効率を向上させることができる。また、冗長情報をフィルタリングするため、第2ポーズ情報の正確性と信頼性を確保し、測位情報の信頼性と精度を実現することができる。
Figure 0007287999000006
Figure 0007287999000007
S305:第1ポーズ情報、第2ポーズ情報及び隣接するフレームの画像に基づいて、測位情報を生成する。
そのうち、S305についての説明は、S102を参照するか、又はS202~S203を参照することができ、ここで繰り返して説明しない。
S306:測位情報に基づいて、自動運転車両の走行を制御する。
S307:S307についての説明は、S103を参照することができ、ここで繰り返して説明しない。
本願の実施例の別の態様によれば、本願の実施例は、さらに、上記方法の実施例に対応する測位装置を提供し、上記任意の実施例に記載の測位方法を実現するために用いられる。
図8を参照して、図8は、本願の実施例の測位装置の概略図である。
図8に示すように、当該装置は、
所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集するために用いられ、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔である収集モジュール11と、
前記第1ポーズ情報、前記第2ポーズ情報及び前記隣接するフレームの画像に基づいて、測位情報を生成するための生成モジュール12と、
前記測位情報に基づいて、自動運転車両の走行を制御するための制御モジュール13と、を含む。
いくつかの実施例において、前記生成モジュール12は、前記第1ポーズ情報と前記第2ポーズ情報を融合処理し、融合ポーズ情報を生成し、前記隣接するフレームの画像と前記融合ポーズ情報に基づいて、前記測位情報を生成するために用いられる。
いくつかの実施例において、前記生成モジュール12は、前記車輪速度計の前記慣性測定ユニットに対する座標変換パラメータを取得し、前記座標変換パラメータに基づいて前記第2ポーズ情報を座標変換し、前記第1ポーズ情報と座標変換後の第2ポーズ情報を融合して、前記融合ポーズ情報を生成するために用いられる。
いくつかの実施例において、前記生成モジュール12は、前記隣接するフレームの画像に基づいて、所定の誤差を満たす融合ポーズ情報を決定し、前記所定の誤差を満たす融合ポーズ情報から回転情報と変位情報を抽出し、前記回転情報と前記変位情報を前記測位情報として決定するために用いられる。
いくつかの実施例において、前記隣接するフレームの画像は、特徴点が予め設定された画像座標情報を含み、前記生成モジュール12は、前記画像座標情報と前記融合ポーズ情報を所定の誤差モデルに入力し、前記誤差モデルから出力された結果が所定の誤差を満たす融合ポーズ情報を取得するために用いられる。
いくつかの実施例において、前記誤差モデルは、前記カメラの内部パラメータと前記カメラの外部パラメータを含み、前記カメラの外部パラメータは、前記慣性測定ユニットに対する前記カメラの回転パラメータと変位パラメータを含む。
いくつかの実施例において、前記収集モジュール11は、前記慣性測定ユニットにより前記時間帯で測定された第1測定データを収集し、前記第1測定データを積分し、前記第1ポーズ情報を生成するために用いられる。
いくつかの実施例において、前記収集モジュール11は、前記車輪速度計により前記時間帯で測定された第2測定データを収集し、前記第2測定データを積分し、前記第2ポーズ情報を生成するために用いられる。
本願の実施例に基づいて、本願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図9を参照して、図9は、本願の実施例の電子機器のブロック図である。
そのうち、電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルアシスタント、セルラ電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本願の実施を制限することを意図したものではない。
図9に示すように、当該電子機器は、1つ又は複数のプロセッサ101と、メモリ102と、高速インタフェース及び低速インタフェースを含む各コンポーネントを接続するためのインタフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、電子機器内で実行される命令を処理することができ、当該命令は、外部入力/出力装置(例えば、インタフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリ内又はメモリに記憶されている命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと一緒に使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、一部の必要な操作(例えば、サーバアレイ、1グループのブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図9では、1つのプロセッサ101を例とする。
メモリ102は、本願の実施例により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。そのうち、前記メモリには、前記少なくとも1つのプロセッサに本願の実施例により提供される測位方法を実行させるように、少なくとも1つのプロセッサにより実行可能な命令が記憶されている。本願の実施例の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本願の実施例により提供される測位方法を実行させるためのコンピュータ命令が記憶されている。
メモリ102は、非一時的なコンピュータ読み取り可能な記憶媒体として、本願の実施例におけるプログラム命令/モジュールのような非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いられることができる。プロセッサ101は、メモリ102に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち、上記の方法の実施例における測位方法を実現する。
メモリ102は、プログラム記憶エリアとデータ記憶エリアとを含むことができ、その中で、プログラム記憶エリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶エリアは、電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ102は、高速ランダムアクセスメモリを含んでもよく、非一時的なメモリをさらに含んでもよく、例えば、少なくとも1つの磁気ディスクメモリ装置、フラッシュメモリデバイス、又は他の非一時的なソリッドステートメモリ装置である。いくつかの実施例において、メモリ102は、プロセッサ101に対して遠隔に設定されたメモリを選択的に含み、これらの遠隔メモリは、ネットワークを介して電子機器に接続可能である。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、ブロックチェーンベースのサービスネットワーク(Block-chain-based Service Network,BSN)、モバイル通信ネットワーク、及びこれらの組み合わせを含むが、これらに限定されない。
電子機器は、入力装置103と出力装置104とをさらに含むことができる。プロセッサ101、メモリ102、入力装置103及び出力装置104は、バス又は他の方式を介して接続することができ、図9では、バスを介して接続することを例とする。
入力装置103は、入力された数字又は文字情報を受信し、電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置104は、ディスプレイデバイス、補助照明装置(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態では、ディスプレイデバイスはタッチスクリーンであってもよい。
本願の実施例により、コンピュータプログラムをさらに提供し、前記コンピュータプログラムは、コンピュータ可読記憶媒体に記憶され、電子機器の少なくとも1つのプロセッサは、コンピュータ可読記憶媒体からコンピュータプログラムを読み取ることができ、少なくとも1つのプロセッサは、コンピュータプログラムを実行することによって、電子機器に上記実施例に記載の測位方法を実行させる。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施され、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高レベルのプロセス及び/又は対象指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピュータプログラムを実施することができる。本明細書に使用されるような、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」の用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」の用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上で、ここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルネットワーク(LAN)と、ブロックチェーンベースのサービスネットワーク(Block-chain-based Service Network,BSN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。
本願の実施例の別の態様に基づいて、本願の実施例は、さらに自動運転車両を提供し、前記自動運転車両は、上記実施例に記載の測位装置、又は、上記実施例に記載の電子機器を含む。
本願の実施例の別の態様に基づいて、本願の実施例は、さらに測位方法を提供する。
図10を参照して、図10は、本願の更に別の実施例の測位方法のフローチャートである。
図10に示すように、当該測位方法は、S1~S2を含む。
S1:所定の時間帯で少なくとも2つのセンサのそれぞれにより測定された対応するポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔である。
そのうち、センサは複数であり、1つのセンサは1つのポーズ情報に対応する。即ち、各センサは、いずれも自動運転車両のポーズ情報を収集する。
センサは、慣性測定ユニット、車輪速度計及びレーダーセンサなどであってもよく、ここでは一々列挙しない。
具体的に、センサが2つである場合、1つのセンサは、上記の例で説明した慣性測定ユニットとすることができ、対応するポーズ情報は上記の例における第1ポーズ情報であり、もう1つのセンサは、上記の例で説明した車輪速度計とすることができ、対応するポーズ情報は上記の例における第2ポーズ情報である。
S2:各ポーズ情報及び隣接するフレームの画像に基づいて、測位情報を生成する。
本願の実施例において、各ポーズ情報に基づいて、隣接するフレームの画像に対応する測位情報を修正し、信頼性の高い測位情報を生成することに相当する。具体的なプロセスは、上記の例を参照することができ、ここで繰り返して説明しない。
上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定しない。
上記の発明を実施するための形態は、本願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本願の保護範囲内に含まれるべきである。

Claims (15)

  1. 自動運転車両に適用される測位方法であって、
    所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔であることと、
    前記第1ポーズ情報、前記第2ポーズ情報及び前記時間帯に対応する前記隣接するフレームの画像に基づいて、測位情報を生成することと、
    前記測位情報に基づいて、前記自動運転車両の走行を制御することと、を含み、
    前記第1ポーズ情報、前記第2ポーズ情報及び前記隣接するフレームの画像に基づいて、測位情報を生成することは、
    前記第1ポーズ情報と前記第2ポーズ情報を融合処理し、融合ポーズ情報を生成することと、
    前記隣接するフレームの画像と前記融合ポーズ情報に基づいて、前記測位情報を生成することと、を含み、
    前記隣接するフレームの画像は、特徴点が予め設定された画像座標情報を含み、前記隣接するフレームの画像と前記融合ポーズ情報に基づいて、前記測位情報を生成することは、
    前記画像座標情報と前記融合ポーズ情報を所定の誤差モデルに入力することと、
    前記誤差モデルから出力された結果が所定の誤差を満たす融合ポーズ情報を取得することと、
    前記所定の誤差を満たす融合ポーズ情報から回転情報と変位情報を抽出し、前記回転情報と前記変位情報を前記測位情報として決定することと、を含み、
    前記誤差モデルは、
    Figure 0007287999000008
    であり、そのうち、
    Figure 0007287999000009
    は誤差であり、
    Figure 0007287999000010
    は第jフレームの画像の逆深度であり、
    Figure 0007287999000011
    は第iフレームの画像の逆深度であり、
    Figure 0007287999000012
    は回転パラメータであり、
    Figure 0007287999000013
    は第jフレームの画像の回転であり、
    Figure 0007287999000014
    は第iフレームの画像の回転であり、
    Figure 0007287999000015
    は特徴点の第iフレームの画像での画像座標情報であり、
    Figure 0007287999000016
    は変位パラメータであり、
    Figure 0007287999000017
    は第jフレームの画像の変位であり、
    Figure 0007287999000018
    は特徴点の第jフレームの画像での画像座標情報である、ことを特徴とする測位方法。
  2. 前記第1ポーズ情報と第2ポーズ情報を融合処理し、融合ポーズ情報を生成することは、
    前記車輪速度計の前記慣性測定ユニットに対する座標変換パラメータを取得することと、
    前記座標変換パラメータに基づいて前記第2ポーズ情報を座標変換することと、
    前記第1ポーズ情報と座標変換後の第2ポーズ情報を融合して、前記融合ポーズ情報を生成することと、を含むことを特徴とする請求項に記載の測位方法。
  3. 前記誤差モデルは、前記カメラの内部パラメータと前記カメラの外部パラメータを含み、前記カメラの外部パラメータは、前記慣性測定ユニットに対する前記カメラの回転パラメータと変位パラメータを含むことを特徴とする請求項に記載の測位方法。
  4. 前記所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集することは、
    前記慣性測定ユニットにより前記時間帯で測定された第1測定データを収集することと、
    前記第1測定データを積分し、前記第1ポーズ情報を生成することと、を含むことを特徴とする請求項1~請求項のいずれか1項に記載の測位方法。
  5. 前記時間帯で車輪速度計により測定された第2ポーズ情報を収集することは、
    前記車輪速度計により前記時間帯で測定された第2測定データを収集することと、
    前記第2測定データを積分し、前記第2ポーズ情報を生成することと、を含むことを特徴とする請求項1~請求項のいずれか1項に記載の測位方法。
  6. 所定の時間帯で慣性測定ユニットにより測定された第1ポーズ情報を収集し、前記時間帯で車輪速度計により測定された第2ポーズ情報を収集するために用いられ、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔である収集モジュールと、
    前記第1ポーズ情報、前記第2ポーズ情報及び前記時間帯に対応する前記隣接するフレームの画像に基づいて、測位情報を生成するための生成モジュールと、
    前記測位情報に基づいて、自動運転車両の走行を制御するための制御モジュールと、
    を含み、
    前記生成モジュールは、前記第1ポーズ情報と前記第2ポーズ情報を融合処理し、融合ポーズ情報を生成し、前記隣接するフレームの画像と前記融合ポーズ情報に基づいて、前記測位情報を生成するために用いられ、
    前記隣接するフレームの画像は、特徴点が予め設定された画像座標情報を含み、前記生成モジュールは、前記画像座標情報と前記融合ポーズ情報を所定の誤差モデルに入力し、前記誤差モデルから出力された結果が所定の誤差を満たす融合ポーズ情報を取得し、前記所定の誤差を満たす融合ポーズ情報から回転情報と変位情報を抽出し、前記回転情報と前記変位情報を前記測位情報として決定するために用いられ、
    前記誤差モデルは、
    Figure 0007287999000019
    であり、そのうち、
    Figure 0007287999000020
    は誤差であり、
    Figure 0007287999000021
    は第jフレームの画像の逆深度であり、
    Figure 0007287999000022
    は第iフレームの画像の逆深度であり、
    Figure 0007287999000023
    は回転パラメータであり、
    Figure 0007287999000024
    は第jフレームの画像の回転であり、
    Figure 0007287999000025
    は第iフレームの画像の回転であり、
    Figure 0007287999000026
    は特徴点の第iフレームの画像での画像座標情報であり、
    Figure 0007287999000027
    は変位パラメータであり、
    Figure 0007287999000028
    は第jフレームの画像の変位であり、
    Figure 0007287999000029
    は特徴点の第jフレームの画像での画像座標情報である、ことを特徴とする測位装置。
  7. 前記生成モジュールは、前記車輪速度計の前記慣性測定ユニットに対する座標変換パラメータを取得し、前記座標変換パラメータに基づいて前記第2ポーズ情報を座標変換し、前記第1ポーズ情報と座標変換後の第2ポーズ情報を融合して、前記融合ポーズ情報を生成するために用いられることを特徴とする請求項に記載の測位装置。
  8. 前記誤差モデルは、前記カメラの内部パラメータと前記カメラの外部パラメータを含み、前記カメラの外部パラメータは、前記慣性測定ユニットに対する前記カメラの回転パラメータと変位パラメータを含むことを特徴とする請求項に記載の測位装置。
  9. 前記収集モジュールは、前記慣性測定ユニットにより前記時間帯で測定された第1測定データを収集し、前記第1測定データを積分し、前記第1ポーズ情報を生成するために用いられることを特徴とする請求項~請求項のいずれか1項に記載の測位装置。
  10. 前記収集モジュールは、前記車輪速度計により前記時間帯で測定された第2測定データを収集し、前記第2測定データを積分し、前記第2ポーズ情報を生成するために用いられることを特徴とする請求項~請求項のいずれか1項に記載の測位装置。
  11. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を備える電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサにより実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1~請求項のいずれか1項に記載の測位方法を実行できるように、前記少なくとも1つのプロセッサにより実行される
    ことを特徴とする電子機器。
  12. 請求項~請求項10のいずれか1項に記載の測位装置、又は、請求項11に記載の電子機器を含むことを特徴とする自動運転車両。
  13. コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1~請求項のいずれか1項に記載の測位方法を実行させるために用いられることを特徴とするコンピュータ読み取り可能な記憶媒体。
  14. 所定の時間帯で少なくとも2つのセンサのそれぞれにより測定された対応するポーズ情報を収集し、そのうち、前記時間帯が、カメラにより隣接するフレームの画像を収集する時のサンプリング時間間隔であることと、
    各前記ポーズ情報と前記隣接するフレームの画像に基づいて、測位情報を生成することと、を含み、
    各前記ポーズ情報と前記隣接するフレームの画像に基づいて、測位情報を生成することは、
    各前記ポーズ情報を融合処理し、融合ポーズ情報を生成することと、
    前記隣接するフレームの画像と前記融合ポーズ情報に基づいて、前記測位情報を生成することと、を含み、
    前記隣接するフレームの画像は、特徴点が予め設定された画像座標情報を含み、前記隣接するフレームの画像と前記融合ポーズ情報に基づいて、前記測位情報を生成することは、
    前記画像座標情報と前記融合ポーズ情報を所定の誤差モデルに入力することと、
    前記誤差モデルから出力された結果が所定の誤差を満たす融合ポーズ情報を取得することと、
    前記所定の誤差を満たす融合ポーズ情報から回転情報と変位情報を抽出し、前記回転情報と前記変位情報を前記測位情報として決定することと、を含み、
    前記誤差モデルは、
    Figure 0007287999000030
    であり、そのうち、
    Figure 0007287999000031
    は誤差であり、
    Figure 0007287999000032
    は第jフレームの画像の逆深度であり、
    Figure 0007287999000033
    は第iフレームの画像の逆深度であり、
    Figure 0007287999000034
    は回転パラメータであり、
    Figure 0007287999000035
    は第jフレームの画像の回転であり、
    Figure 0007287999000036
    は第iフレームの画像の回転であり、
    Figure 0007287999000037
    は特徴点の第iフレームの画像での画像座標情報であり、
    Figure 0007287999000038
    は変位パラメータであり、
    Figure 0007287999000039
    は第jフレームの画像の変位であり、
    Figure 0007287999000040
    は特徴点の第jフレームの画像での画像座標情報である、ことを特徴とする測位方法。
  15. コンピュータプログラムであって、前記コンピュータプログラムがプロセッサで実行されると、コンピュータに請求項1~請求項のいずれか1項に記載の測位方法を実行させる、ことを特徴とするコンピュータプログラム。
JP2021064297A 2020-06-02 2021-04-05 測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体 Active JP7287999B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010497244.0 2020-06-02
CN202010497244.0A CN111649739B (zh) 2020-06-02 2020-06-02 定位方法和装置、自动驾驶车辆、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2021113818A JP2021113818A (ja) 2021-08-05
JP7287999B2 true JP7287999B2 (ja) 2023-06-06

Family

ID=72347074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021064297A Active JP7287999B2 (ja) 2020-06-02 2021-04-05 測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体

Country Status (5)

Country Link
US (1) US11789455B2 (ja)
EP (1) EP3920003A1 (ja)
JP (1) JP7287999B2 (ja)
KR (1) KR102570094B1 (ja)
CN (1) CN111649739B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274343B (zh) * 2020-01-20 2023-11-24 阿波罗智能技术(北京)有限公司 一种车辆定位方法、装置、电子设备及存储介质
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质
CN112902951A (zh) * 2021-01-21 2021-06-04 深圳市镭神智能系统有限公司 一种行驶设备的定位方法、装置、设备及存储介质
CN112880674A (zh) * 2021-01-21 2021-06-01 深圳市镭神智能系统有限公司 一种行驶设备的定位方法、装置、设备及存储介质
CN113899363B (zh) 2021-09-29 2022-10-21 北京百度网讯科技有限公司 车辆的定位方法、装置及自动驾驶车辆
CN113946151A (zh) * 2021-10-20 2022-01-18 北京百度网讯科技有限公司 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN114001742A (zh) * 2021-10-21 2022-02-01 广州小鹏自动驾驶科技有限公司 车辆定位方法、装置、车辆和可读存储介质
CN113870367B (zh) * 2021-12-01 2022-02-25 腾讯科技(深圳)有限公司 相机外参的生成方法、装置、设备、存储介质和程序产品
CN114323033B (zh) * 2021-12-29 2023-08-29 北京百度网讯科技有限公司 基于车道线和特征点的定位方法、设备及自动驾驶车辆
KR20240010769A (ko) 2022-07-15 2024-01-25 재단법인대구경북과학기술원 측위 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018538647A (ja) 2015-11-04 2018-12-27 ズークス インコーポレイテッド 自律車両の軌道修正のための遠隔操作システムおよび方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7774158B2 (en) * 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
JP2009236532A (ja) 2008-03-26 2009-10-15 Seiko Epson Corp 測位方法、プログラム及び測位装置
US8825397B2 (en) * 2011-11-03 2014-09-02 Texas Instruments Incorporated Vehicle navigation system with dead reckoning
KR20150122097A (ko) 2015-10-08 2015-10-30 김인태 항법 알고리즘을 이용한 네비게이션 연동방법
US11283877B2 (en) * 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9734455B2 (en) * 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
KR101796986B1 (ko) 2015-12-14 2017-12-12 현대자동차주식회사 차량 및 그 제어방법
US9915947B1 (en) * 2016-02-26 2018-03-13 Waymo Llc System and method for determining pose data for a vehicle
US9996944B2 (en) * 2016-07-06 2018-06-12 Qualcomm Incorporated Systems and methods for mapping an environment
BR112019004101A2 (pt) * 2016-09-05 2019-05-28 Nissan Motor método de controle de deslocamento do veículo e dispositivo de controle de deslocamento do veículo
US10650270B2 (en) * 2017-04-21 2020-05-12 X Development Llc Methods and systems for simultaneous localization and calibration
EP3617845A4 (en) * 2017-04-27 2020-11-25 Sony Interactive Entertainment Inc. CONTROL DEVICE, DATA PROCESSING SYSTEM, CONTROL PROCESS AND PROGRAM
CN107747941B (zh) * 2017-09-29 2020-05-15 歌尔股份有限公司 一种双目视觉定位方法、装置及系统
CN108196285B (zh) 2017-11-30 2021-12-17 中山大学 一种基于多传感器融合的精确定位系统
CN108230379B (zh) * 2017-12-29 2020-12-04 百度在线网络技术(北京)有限公司 用于融合点云数据的方法和装置
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
CN108958266A (zh) 2018-08-09 2018-12-07 北京智行者科技有限公司 一种地图数据获取方法
CN111354042B (zh) * 2018-12-24 2023-12-01 深圳市优必选科技有限公司 机器人视觉图像的特征提取方法、装置、机器人及介质
MX2021009874A (es) * 2019-02-19 2021-11-12 Crown Equip Corp Sistemas y métodos para calibración de una posición de un sensor con respecto a un vehículo de manejo de materiales.
CN110155080B (zh) * 2019-05-22 2021-02-12 北京百度网讯科技有限公司 传感器稳定控制方法、装置、稳定器和介质
CN110967011B (zh) * 2019-12-25 2022-06-28 苏州智加科技有限公司 一种定位方法、装置、设备及存储介质
US20210302991A1 (en) * 2020-03-31 2021-09-30 Wipro Limited Method and system for generating an enhanced field of view for an autonomous ground vehicle
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018538647A (ja) 2015-11-04 2018-12-27 ズークス インコーポレイテッド 自律車両の軌道修正のための遠隔操作システムおよび方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Vladyslav Usenko, Jakob Engel, Jorg Stuckler, and Daniel Cremers,"Direct Visual-Inertial Odometry with Stereo Cameras",2016 IEEE International Conference on Robotics and Automation (ICRA),IEEE,2016年05月16日,1885-1892,DOI: 10.1109/ICRA.2016.7487335
武山洪二郎,カメラ画像と汎用センサの統合による自動車位置推定の研究,日本,2018年03月,http://id.nii.ac.jp/1342/00001550

Also Published As

Publication number Publication date
EP3920003A1 (en) 2021-12-08
US20210370970A1 (en) 2021-12-02
CN111649739A (zh) 2020-09-11
CN111649739B (zh) 2023-09-01
JP2021113818A (ja) 2021-08-05
US11789455B2 (en) 2023-10-17
KR20210042856A (ko) 2021-04-20
KR102570094B1 (ko) 2023-08-23

Similar Documents

Publication Publication Date Title
JP7287999B2 (ja) 測位方法及び装置、自動運転車両、電子機器、並びに記憶媒体
JP7299261B2 (ja) 車両のデッドレコニング方法、装置、デバイス、記憶媒体、及びプログラム
KR102382420B1 (ko) 차량 위치 결정 방법, 전자 기기 및 저장 매체
JP7287997B2 (ja) 位置決め方法、位置決め装置、電子機器、車端機器、自動運転車、コンピュータ可読記憶媒体及びコンピュータプログラム
CN107748569B (zh) 用于无人机的运动控制方法、装置及无人机系统
CN111959495B (zh) 车辆的控制方法、装置及车辆
CN111231950A (zh) 规划车辆变道路径的方法、装置、设备及可读存储介质
JP7241057B2 (ja) 車両測位方法、装置、電子機器、車両及び記憶媒体
KR20210089603A (ko) 차량 순항 제어 방법, 장치, 전자 기기 및 저장 매체
JP7263308B2 (ja) 車両が位置する車線を決定する方法、装置、機器、および記憶媒体
CN111721305B (zh) 定位方法和装置、自动驾驶车辆、电子设备和存储介质
KR20220088387A (ko) 도로의 울퉁불퉁한 구역의 검측방법, 장치, 전자기기, 저장매체, 컴퓨터 프로그램 및 차량
JP7356528B2 (ja) 地図データ処理方法及び装置
CN111652112A (zh) 一种车道流向的识别方法、装置、电子设备及存储介质
CN111783611B (zh) 无人车的定位方法、装置、无人车及存储介质
CN113844463A (zh) 基于自动驾驶系统的车辆控制方法、装置及车辆
CN111121755B (zh) 一种多传感器的融合定位方法、装置、设备及存储介质
CN111780757B (zh) 定位方法和装置、电子设备、车端设备、自动驾驶汽车
JP7307111B2 (ja) 車両測位方法及び装置、車両、記憶媒体並びにコンピュータプログラム
CN113759384B (zh) 一种传感器位姿转换关系确定方法、装置、设备和介质
CN115727871A (zh) 一种轨迹质量检测方法、装置、电子设备和存储介质
CN110579779B (zh) Gps质量确定方法、装置、设备和介质
JP7216761B2 (ja) 位置情報決定方法、装置及び機器
CN117168470A (zh) 一种定位信息的确定方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230525

R150 Certificate of patent or registration of utility model

Ref document number: 7287999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150