JP2021169307A - 車両クルーズ制御方法、装置、電子機器及び記憶媒体 - Google Patents

車両クルーズ制御方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2021169307A
JP2021169307A JP2021107300A JP2021107300A JP2021169307A JP 2021169307 A JP2021169307 A JP 2021169307A JP 2021107300 A JP2021107300 A JP 2021107300A JP 2021107300 A JP2021107300 A JP 2021107300A JP 2021169307 A JP2021169307 A JP 2021169307A
Authority
JP
Japan
Prior art keywords
vehicle
positioning information
current
image
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021107300A
Other languages
English (en)
Other versions
JP7214794B2 (ja
Inventor
リャンチュアン チャン,
Lianchuan Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021169307A publication Critical patent/JP2021169307A/ja
Application granted granted Critical
Publication of JP7214794B2 publication Critical patent/JP7214794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18072Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2530/00Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
    • B60W2530/201Dimensions of vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

【課題】出発地から目的地まで自動的に走行することができる車両のフォワードクルーズ制御を実現する。【解決手段】予め構築された出発地から目的地までの車両の3次元軌跡マップを取得し、車両の現在の測位情報を取得し、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトし、現在の測位情報に基づいて目標軌跡から目標点を取得し、車両のホイールベース及び現在の速度を取得し、目標点、現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出し、回転すべき角度に応じて車両の動きを制御する。【選択図】図1

Description

本出願は、車両制御の分野に関し、具体的には、自動運転の分野、人工知能技術の分野に関し、特に、車両クルーズ制御方法、装置、電子機器及び記憶媒体に関する。
自動駐車システム(Homezone Auto Valet Parking、H−AVP)は、ユーザが自動駐車することを支援することができる。H−AVPシステムを使用してユーザが自動駐車することを支援するプロセスでは、フォワードクルーズ技術により、車両が駐車場所まで自動的に運転するように制御される必要がある。したがって、H−AVPシーンでのフォワードクルーズをどのように実現するかは、解決すべき緊急問題になっている。
本出願は、車両クルーズ制御方法、装置、機器及び記憶媒体を提供する。
第1の態様では、本出願の実施例は、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得するステップと、前記車両の現在の測位情報を取得するステップと、前記現在の測位情報に基づいて、前記3次元軌跡マップから前記車両の現在の前方の所定距離の目標軌跡をインターセプトするステップと、前記現在の測位情報に基づいて、前記目標軌跡から目標点を取得するステップと、前記車両のホイールベース及び現在の速度を取得し、前記目標点、前記現在の測位情報、前記ホイールベース及び前記現在の速度に基づいて、前記車両の前輪の回転すべき角度を算出するステップと、前記回転すべき角度に応じて前記車両の動きを制御するステップと、を含む車両クルーズ制御方法を提供する。
第2の態様では、本出願の実施例は、出発地から目的地までの前記車両の予め構築された3次元軌跡マップを取得するように構成される第1の取得モジュールと、記車両の現在の測位情報を取得するように構成される第2の取得モジュールと、前記現在の測位情報に基づいて、前記3次元軌跡マップから前記車両の現在の前方の所定距離の目標軌跡をインターセプトするように構成される軌跡インターセプトモジュールと、前記現在の測位情報に基づいて、前記目標軌跡から目標点を取得するように構成される第3の取得モジュールと、前記車両のホイールベース及び現在の速度を取得するように構成される第4の取得モジュールと、前記目標点、前記現在の測位情報、前記ホイールベース及び前記現在の速度に基づいて前記車両の前輪の回転すべき角度を算出し、前記回転すべき角度に応じて前記車両の動きを制御するように構成される制御モジュールと、を備える車両クルーズ制御装置を提供する。
第3の態様では、本出願の実施例は、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサに通信可能に接続されたメモリと、を備え、前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサに実行される場合、前記少なくとも1つのプロセッサが第1態様に記載の車両クルーズ制御方法を実行可能である電子機器を提供する。
第4の態様では、本出願の実施例は、コンピュータ命令が記憶されている非一時的コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令が、前記コンピュータに第1態様に記載の車両クルーズ制御方法を実行させる非一時的コンピュータ読み取り可能な記憶媒体を提供する。
第5態様では、本出願の実施例は、コンピュータに第1態様に記載の車両クルーズ制御方法を実行させる、コンピュータプログラムを提供する。
本出願の実施例の技術的解決手段によれば、車両のフォワードクルーズ制御が行われる場合、使用される軌跡マップが予め構築された3次元軌跡マップであるため、本出願のクルーズ制御方法は、任意の道路シーン(道路が複雑なシーン又は直進が簡単なシーン)に応用することができ、この道路を走行するときの車両の3次元軌跡マップが予め構築されている限り、自動運転する時に、この予め構築された3次元軌跡マップと車両の測位情報とに基づいて、車両のフォワードクルーズ制御を実現することができ、車両は、出発地から目的地まで自動的に走行することができる。
この概要部分で説明される内容は、本出願の実施例の肝心な特徴又は重要な特徴を特定するためのものではなく、また、本出願の範囲を制限するためのものでもないを理解されたい。本出願の他の特徴は、以下の説明により理解されやすくなる。
図面は、この解決手段をよりよく理解するために使用され、本出願を限定するものではない。
本出願の1つの実施例による車両クルーズ制御方法のフローチャートである。 本出願の実施例による車両の前輪の回転すべき角度を算出する例を示す図である。 本出願の別の実施例による車両クルーズ制御方法のフローチャートである。 本出願のさらに別の実施例による車両クルーズ制御方法のフローチャートである。 本出願の1つの実施例による車両クルーズ制御装置の構成ブロック図である。 本出願の別の実施例による車両クルーズ制御装置の構成ブロック図である。 本出願の実施例による車両クルーズ制御方法を実現するための電子機器のブロック図である。
以下に図面を参照して本出願の例示的な実施例を説明し、理解を容易にするために、その中には本出願の実施例の様々な詳細が含まれており、それらは単なる例示的なものとみなされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを理解されたい。同様に、明確及び簡潔するために、以下の説明では、公知の機能及び構成ついての説明を省略する。
図1は、本出願の1つの実施例による車両クルーズ制御方法のフローチャートである。なお、本出願の実施例による車両クルーズ制御方法の実行主体は、本出願の実施例による車両クルーズ制御装置であり、この装置は、ソフトウェア及び/又はハードウェアの形態で実現されてもよく、この装置は、電子機器内に構成されてもよく、電子機器は、端末、サーバなどを備えることができるが、これらに限定されない。
本出願の実施例は、車両制御命令に関し、特に、自動運転の分野、人工知能技術の分野に関し、ここで、自動運転技術の分野は、主に自動運転方法、自動駐車方法、自動運転を支援するアルゴリズムモデル、及び自動運転をサポートするハードウェアシステムアーキテクチャ設計などを研究し、自動運転技術分野の自動駐車方法は、車両が手動制御なしで駐車スペースに自動運転することを指す。人工知能(Artificial Intelligence)は、英語の略語がAIである。それは、人間の知能をシミュレートしたり、伸したり、拡張したりするための理論、方法、技術及びアプリケーションシステムを研究及び開発する新しい技術科学である。
なお、自動駐車システムは、ユーザが車両を自動駐車することを支援することができる。
自動駐車システムを使用してユーザが自動駐車を完了することを支援するプロセスでは、フォワードクルーズ技術により、車両が出発地から目的地まで自動的に運転するように制御される必要がある。
本出願の実施例は、車両のフォワードクルーズ制御を実現して車両を出発地から目的地まで走行させる方法を提供する。図1に示すように、この車両クルーズ制御方法は、以下のステップ101〜ステップ106を含むことができる。
ステップ101において、予め構築された出発地から目的地までの前記車両の3次元軌跡マップを取得する。
なお、本出願の実施例による車両クルーズ制御方法は、自動駐車システムに適用されてもよい。
この自動駐車システムは、主に車両レンタルと車両返却の2つの部分を含み、ここで、車両レンタルは、車両が駐車スペースからユーザによって選択された目的地まで走行することを指し、車両返却は、車両がユーザによって選択された出発地から駐車スペースの近くまで走行することを指す。車両レンタルプロセス又は車両返却プロセスに関わらず、フォワードクルーズ制御により車両の前進を制御する必要があり、車両レンタルプロセスでは、フォワードクルーズ制御により車両の前進を制御する場合、上記の出発地は、駐車スペースの近くのある位置として理解されてもよく、上記の目的地は、ユーザによって選択された目的地として理解されてもよい。車両返却プロセスでは、フォワードクルーズ制御により車両の前進を制御する場合、上記の出発地は、ユーザの現在の位置として理解されてもよく、上記の目的地は、駐車スペースの近くのある位置として理解されてもよい。
本出願の実施例では、出発地から目的地までの車両のオートクルーズを実現するために、まず出発地から目的地までのこの車両の3次元軌跡マップを構築する必要があり、これにより、車両は、この予め構築された3次元軌跡マップと測位技術とに基づいて、出発地から目的地までのオートクルーズを実現する。1つの可能な実現形態として、3次元軌跡マップは、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において前記車両上のカメラの複数の撮影角度に基づいてそれぞれ収集された前記デモンストレーション段階おける車両の前方の道路の画像に基づいて構築されてもよい。ここで、出発地から目的地までの車両の3次元軌跡マップの構築方式については、後の実施例の説明を参照できる。
ステップ102において、車両の現在の測位情報を取得する。
本出願のいくつかの実施例では、車両上の測位装置、例えばGPS(Global Positioning System、全地球測位システム)などにより、車両の現在の測位情報を取得することができる。本出願の他のいくつかの実施例では、車両上のフロント広角カメラによって車両の前方の道路の画像を収集し、収集された画像に基づいて現在の前方の道路の3次元画像を再構成し、この3次元画像と予め構築された3次元軌跡マップとに基づいて測位して、車両の現在の測位情報を取得することができる。他の技術的手段を使用して車両の現在の測位情報を取得することもできることを理解されたい。本出願では、これは具体的に限定されない。
ステップ103において、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトする。
3次元軌跡マップが出発地から目的地までの車両の走行した運転軌跡であるため、車両のクルーズ制御を行う場合、現在の3次元軌跡だけで車両の現在のクルーズ制御を実現することができることを理解されたい。したがって、本出願の実施例では、車両の現在の測位情報を取得する場合、この現在の測位情報に基づいて、3次元軌跡マップから車両の前方の一定の距離の目標軌跡をインターセプトすることができる。これにより、車両の前方の一定の距離の3次元軌跡を使用して車両のリアルタイムフォワードクルーズ制御を実現することにより、計算量を削減することができる。
ステップ104において、現在の測位情報に基づいて、目標軌跡から目標点を取得する。
本出願の実施例では、まず現在の測位情報に基づいて、目標軌跡上で車両に最も近い点を見つけ、次に、この車に最も近い点に基づいてこの目標点を見つけることができる。具体的には、前方視距離範囲内で、目標軌跡上に複数の点が存在する可能性があり、開始点から前方視距離に最も近い点を選択すべきであり、要件を満たしている点を見つけるために、まず、目標軌跡上のその時点に最も近い点を選択することができ、それによって目標軌跡上で車両に最も近い点を見つけるこができ、この見つけた、車両に最も近い点により、目標軌跡におけるこの点から前方視距離に近い点を取得し、この点を目標点として決定することができる。
ステップ105において、車両のホイールベース及び現在の速度を取得し、目標点、現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出する。
本出願の実施例では、目標点が取得された後、Pure Persuit(ピュアトラッキング)アルゴリズムに基づいて、目標点、現在の測位情報、ホイールベース及び現在の速度に従って車両の前輪の回転すべき角度を算出することができる。
ピュアトラッキングアルゴリズムでは、車両の後車軸を接点とし、車両の縦方向の車体を接線とし、前輪の回転角度を制御することで、車両は、目標点を通過する円弧Aに沿って走行することができる。例えば、図2に示すように、図の(g,g)は、目標軌跡B上に位置する、次の追跡すべき目標点であり、現在、この目標点を通過するように車両の後車軸を制御する必要があり、lは車両の現在の位置(即ち後車軸の位置)から目標点までの距離を表し、αは、現在の車体姿勢と目標点との間の夾角を表し、そのため、正弦法則に従って次の変換式を導出することができる。
Figure 2021169307
ここで、Rが所定の前輪転舵角では後車輪が沿う円の半径である。
目標軌跡の曲率がκ=1/Rであるため、上記の式はκ=2sinα/lとして表すこともできる。
式tanδ=L/Rにより、次の式が得られる。
Figure 2021169307
さらに時間という変数を追加すると、
Figure 2021169307
なお、時間を考慮すると、時刻tにおける車体と目標点との間の夾角α(t)及び目標点からの前方視距離lを知る場合、車両のホイールベースLが固定されているため、上記の式を使用して前輪の回転角δを推定することができ、ピュアトラッキングアルゴリズムの原理をよりよく理解するために、横方向の車両の現在の姿勢と目標点との間の誤差を表す新しい量を定義することができ、これにより、夾角正弦:sin(α)=e/lを得ることができ、曲率は、次のように表すことができる。
Figure 2021169307
本質的に横方向の誤差であることを考慮すると、上記の式から、ピュアトラッキングコントローラは、実際には横方向の回転角のPコントローラであり、その係数Pが2/l であり、このPコントローラがパラメータl(即ち前方視距離)の影響を大きく受けるため、どのように前方視距離を調整するかは、ピュアトラッキングアルゴリズムの鍵になり、一般的には、lは、車速の関数と考えられ、異なる車速では異なる前方視距離を選択する必要がある。
前方視距離を調整する一般的な方法は、前方視距離を車両の縦方向速度の線形関数として表し、即ちl=Kvとして表し、前輪の回転角の式は、次の式(1)になる。
Figure 2021169307
ピュアトラッキングコントローラの調整は係数Kの調整になり、一般的には、最大、最小の前方視距離を使用して前方視距離を制約し、前方視距離が大きいほど、軌跡のトラキングがスムーズになり、前方視距離が小さいほど、トラキングがより正確になる(当然、制御の振動をもたらす)。したがって、車両のホイールベースと現在の速度とが取得された後、現在の車体姿勢と目標点との間の夾角を算出し、この夾角、ホイールベース、現在の速度に従って、前輪の回転角を算出するための上記の式(1)を使用して、車両の前輪の回転すべき角度を算出することができ、ここで、この回転すべき角度は、車両が目標点に到達するために必要な回舵角として理解されてもよい。
ステップ106において、回転すべき角度に応じて車両の動きを制御する。
選択可能に、車両の前輪の現在の回転すべき角度が推定された場合、現在の回転すべき角度に応じて車両の動きを制御して、車両が目標点に到達できるようにし、単位時間内の車両の動きに合わせて車両の状態を更新して、車両が目標軌跡に沿って前方に走行するようにし、これにより、車両は、出発点から目的地まで自動的に走行することができる。
本出願の実施例による車両クルーズ制御方法では、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得し、車両の現在の測位情報を取得し、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトすることができ、次に、現在の測位情報に基づいて目標軌跡から目標点を取得し、目標点、車両の現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出し、さらに回転すべき角度に応じて車両の動きを制御して、車両が出発地から目的地まで自動的に走行できるようにする。これにより、車両のフォワードクルーズ制御が行われる場合、使用される軌跡マップが予め構築された3次元軌跡マップであるため、本出願のクルーズ制御方法は、任意の道路シーン(道路が複雑なシーン又は直進が簡単なシーン)に応用することができ、この道路を走行するときの車両の3次元軌跡マップが予め構築されている限り、自動運転する時に、この予め構築された3次元軌跡マップと車両の測位情報とに基づいて、車両のフォワードクルーズ制御を実現することができ、車両は、出発地から目的地まで自動的に走行することができ、バレーパーキング応用シーンに応用することができる。
なお、出発地から目的地までの車両のオートクルーズを実現することができるために、まず出発地から目的地までのこの車両の3次元軌跡マップを構築する必要があり、これにより、車両は、この予め構築された3次元軌跡マップと測位技術とに基づいて、出発地から目的地までのオートクルーズを実現する。本出願のいくつかの実施例では、図3に示すように、図1に示すことに基づいて、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得する前に、この車両クルーズ制御方法は、以下のステップ301とステップ302をさらに含むことができる。
ステップ301において、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、車両上のカメラの複数の撮影角度に基づいてデモンストレーション段階における車両の前方の道路の画像をそれぞれ収集する。
例えば、ユーザが車両を運転して出発地から目的地まで走行するプロセスをデモンストレーションすることができ、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、車両上のカメラの複数の撮影角度に基づいてデモンストレーション段階における車両の前方の道路の画像をそれぞれ収集することができる。例えば、車両のフロントガラス上に広角カメラが取り付けられ、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、このカメラを使用して複数の撮影角度から車両の前方の道路の画像を同時に収集することができる。一例として、この撮影角度の数が3つであってもよく、つまり、3つの異なる撮影角度で車両の前方の道路の画像を収集することができ、これにより、その後、異なる撮影角度で収集された画像に基づいて3次元再構成を行って、出発地から目的地までの車両の3次元軌跡マップを構築することができる。
ステップ302において、収集された画像に基づいて出発地から目的地までの車両の3次元軌跡マップを構築する。
選択可能に、収集された画像から、複数の撮影角度に基づいて収集された同じシーンの画像を取得し、同じシーンの画像を重ね合わせて、同じシーンの3次元画像を取得し、次に、出発地から目的地までの異なるシーンの3次元画像をスプライスして、出発地から目的地までの車両の3次元軌跡マップを生成する。即ち、異なる撮影角度で収集された画像を重ね合わせて3次元再構成を実現することにより、計算が簡単であり、計算量が削減される。
これにより、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、収集された前方の道路の画像で3次元再構成を行い、出発地から目的地までの車両の3次元軌跡マップを構築し、ユーザが車両を運転して走行する3次元軌跡を再現する。
本出願のいくつかの実施例では、画像測位によって車両の現在の測位情報を取得することができる。具体的には、図4に示すように、車両の現在の測位情報を取得する具体的な実現プロセスは、以下のステップ401〜ステップ405を含むことができる。
ステップ401において、カメラの複数の撮影角度に基づいて、車両の現在の前方の道路の画像をそれぞれ収集する。
つまり、自動運転段階では、フォワードクルーズ技術により車両が前進するように制御されると、車両上のフロントビューカメラの複数の撮影角度で車両の前方の道路の画像をそれぞれ収集することができる。
ステップ402において、収集された車両の現在の前方の道路の画像を重ね合わせて、現在の前方の道路の3次元画像を取得する。
ステップ403において、現在の前方の道路の3次元画像の環境特徴を抽出する。
ステップ404において、現在の前方の道路の3次元画像の環境特徴を3次元軌跡マップの環境特徴とマッチングする。
つまり、予め構築された3次元軌跡マップには、各シーンの環境特徴がある。現在の前方の道路の3次元画像の環境特徴が取得された後、この環境特徴を、3次元軌跡マップの環境特徴とマッチングし、マッチング結果に応じて車両の現在の測位情報を決定することができる。
ステップ405において、マッチングされた環境特徴に基づいて、3次元軌跡マップから車両の現在の測位情報を決定する。
これにより、予め構築された3次元軌跡マップと組み合わせて、画像測位によって車両の現在の測位情報を取得し、レーダー、GPSなどの他のハイエンド機器なしで車両の現在の位置を測位でき、コストが削減される。
測位の精度を向上させ、車両の走行の安全性を確保するために、本出願のいくつかの実施例では、測位プロセスにおいて、走行距離計に基づいてリアルタイム動き補正を実現することができ、測位の頻度を増加させることができる。具体的には、測位プロセスにおいて、カメラが非収集期間にある場合、カメラの現在の非収集期間内に車両が走行した走行距離を取得し、カメラの現在の非収集期間内に車両が走行した走行距離と、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報とに基づいて、車両のリアルタイム測位情報を取得する。
なお、3次元再構成された3次元軌跡マップと画像測位とに基づいて車両測位を実現するため、計算能力の低い車載プラットフォームでは、測位頻度が低く、測位精度を向上させるために、走行距離計に基づいてリアルタイム動き補正を実現して、測位の頻度を増加させることができる。
つまり、測位プロセスでは、カメラが収集期間にある場合、画像測位によって車両の現在の位置を測位することができる。カメラが非収集期間にある場合、この期間に車両が前進し続けるため、このとき、この現在の非収集期間内に車両が走行した走行距離を取得し、カメラの現在の非収集期間内にこの車両が走行した走行距離と、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報とに基づいて、車両のリアルタイム測位情報を取得することができる。例えば、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報は車両が200メートル走行したことであるが、この現在の非収集期間内に車両が走行した走行距離が10メートルであると仮定すると、この走行距離を前回に取得された測位情報に補正して、車両がすでに210メートル走行したという車両のリアルタイム測位情報を取得する。
図5は、本出願の1つの実施例による車両クルーズ制御装置の構成ブロック図である。図5に示すように、この車両クルーズ制御装置500は、第1の取得モジュール510、第2の取得モジュール520、軌跡インターセプトモジュール530、第3の取得モジュール540、第4の取得モジュール550、及び制御モジュール560を備えることができる。
具体的には、第1の取得モジュール510は、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得するように構成される。1つの可能な実現形態として、3次元軌跡マップは、画像に基づいて構築され、前記画像は、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、前記車両上のカメラの複数の撮影角度に基づいてそれぞれ収集された前記デモンストレーション段階における車両の前方の道路の画像である。
本出願のいくつかの実施例では、このような画像に基づいて前記3次元軌跡マップを構築することは、前記画像から、前記複数の撮影角度に基づいて収集された同じシーンの画像を取得することと、前記同じシーンの画像を重ね合わせて、同じシーンの3次元画像を取得することと、前記出発地から前記目的地までの異なるシーンの3次元画像をスプライスして、前記出発地から前記目的地までの前記車両の3次元軌跡マップを生成することとを含む。
第2の取得モジュール520は、車両の現在の測位情報を取得するように構成される。本出願のいくつかの実施例では、第2の取得モジュール520は、具体的には、カメラの複数の撮影角度に基づいて車両の現在の前方の道路の画像をそれぞれ収集し、収集された車両の現在の前方の道路の画像を重ね合わせて、現在の前方の道路の3次元画像を取得し、現在の前方の道路の3次元画像の環境特徴を抽出し、現在の前方の道路の3次元画像の環境特徴を3次元軌跡マップの環境特徴とマッチングし、マッチングされた環境特徴に基づいて、3次元軌跡マップから車両の現在の測位情報を決定するように構成される。
軌跡インターセプトモジュール530は、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトするように構成される。
第3の取得モジュール540は、現在の測位情報に基づいて、目標軌跡から目標点を取得するように構成される。
第4の取得モジュール550は、車両のホイールベース及び現在の速度を取得するように構成される。
制御モジュール560は、目標点、現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出し、回転すべき角度に応じて車両の動きを制御するように構成される。
本出願の実施例による車両クルーズ制御装置は、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得し、車両の現在の測位情報を取得し、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトし、次に、現在の測位情報に基づいて目標軌跡から目標点を取得し、目標点、車両の現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出し、さらに回転すべき角度に応じて車両の動きを制御して、車両が出発地から目的地まで自動的に走行できるようにする。これにより、車両のフォワードクルーズ制御が行われる場合、使用される軌跡マップが予め構築された3次元軌跡マップであるため、本出願のクルーズ制御方法は、任意の道路シーン(道路が複雑であるシーン又は直進が簡単であるシーン)に応用されてもよく、この道路を走行するときの車両の3次元軌跡マップが予め構築されている限り、自動的に運転する時に、この予め構築された3次元軌跡マップと車両の測位情報とに基づいて、車両のフォワードクルーズ制御を実現することができ、車両は、出発地から目的地まで自動的に運転することができ、バレーパーキング応用シーンに応用することができる。
図6は、本出願の別の実施例による車両クルーズ制御装置の構成ブロック図である。図6に示すように、この車両クルーズ制御装置600は、第1の取得モジュール610、第2の取得モジュール620、軌跡インターセプトモジュール630、第3取得モジュール640、第4の取得モジュール650、制御モジュール660、第5の取得モジュール670、及び第6の取得モジュール680を備える。
具体的には、第1の取得モジュール610は、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得するように構成される。
第2の取得モジュール620は、車両の現在の測位情報を取得するように構成される。
軌跡インターセプトモジュール630は、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトするように構成される。
第3の取得モジュール640は、現在の測位情報に基づいて、目標軌跡から目標点を取得するように構成される。
第4の取得モジュール650は、車両のホイールベース及び現在の速度を取得するように構成される。
制御モジュール660は、目標点、現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出し、回転すべき角度に応じて車両の動きを制御するように構成される。
第5の取得モジュール670は、測位プロセスにおいて、カメラが非収集期間にある場合、カメラの現在の非収集期間内に車両が走行した走行距離を取得するように構成され得る。
第6の取得モジュール680は、カメラの現在の非収集期間内に車両が走行した走行距離と、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報とに基づいて、車両のリアルタイム測位情報を取得するように構成され得る。
本出願の実施例による車両クルーズ制御装置は、測位プロセスにおいて、カメラが非収集期間にある場合、カメラの現在の非収集期間内に車両が走行した走行距離を取得し、カメラの現在の非収集期間内に車両が走行した走行距離と、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報とに基づいて、車両のリアルタイム測位情報を取得し、即ち、測位プロセスにおいて、走行距離計に基づいてリアルタイム動き補正を実現することができ、測位の頻度を増加させることができ、測位の精度を向上させ、車両の走行の安全性を確保することができる。
本出願の実施例によれば、本出願は、電子機器と読み取り可能な記憶媒体とをさらに提供する。
図7に示すように、それは、本出願の実施例による車両クルーズ制御方法を実現するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを図る。電子機器は、さらにパーソナルデジタル処理、セルラー電話、スマートフォン、ウェアラブルデバイス及び他の類似するコンピューティングデバイスなどの様々な形態の移動装置を表すこともできる。本明細書に示されているコンポーネント、それらの接続と関係、及びそれらの機能は、例だけであり、かつ本明細書での説明及び/又は要求される本出願の実現を制限することを意図するものではない。
図7に示すように、この電子機器は、1つ又は複数のプロセッサ701と、メモリ702と、高速インタフェース及び低速インタフェースを備える、各コンポーネントを接続するためのインタフェースとを備える。各コンポーネントは、異なるバスで相互に接続され、かつ共通のマザーボードに取り付けられてもよく、又は必要に応じて他の方式で取り付けられてもよい。プロセッサは、外部入力/出力装置(インタフェースに結合された表示装置など)にGUIのグラフィック情報を表示するためにメモリ内又はメモリ上に記憶される命令を含む、電子機器内に実行される命令を処理することができる。他の実施形態では、必要の場合、複数のプロセッサ及び/又は複数のバスを複数のプロセッサと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各装置は、部分の必要な操作(例えば、サーバアレイ、1つのブレードサーバグループ、又はマルチプロセッサシステムとする)を提供することができる。図7では、一つのプロセッサ701は例として挙げられる。
メモリ702は、本出願による非一時的コンピュータ読み取り可能な記憶媒体である。ここで、前記メモリは、少なくとも1つのプロセッサで実行可能な命令を記憶しており、前記少なくとも1つのプロセッサに本出願による車両クルーズ制御方法を実行させる。本出願の非一時的コンピュータ読み取り可能な記憶媒体は、コンピュータに本出願による車両クルーズ制御方法を実行させるためのコンピュータ命令を記憶する。
メモリ702は、非一時的コンピュータ読み取り可能な記憶媒体として、非一時的ソフトウェアプログラムと、非一時的コンピュータ実行可能プログラムと、本出願の実施例における車両クルーズ制御方法に対応するプログラム命令/モジュール(例えば、図5に示す第1の取得モジュール510、第2の取得モジュール520、軌跡インターセプトモジュール530、第3の取得モジュール540、第4の取得モジュール550と制御モジュール560)などのモジュールとを記憶するように構成されてもよい。プロセッサ701は、メモリ702に記憶されている非一時的ソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち上記の方法の実施例における車両クルーズ制御方法を実現する。
メモリ702は、プログラム記憶領域とデータ記憶領域とを含むことができ、ここで、プログラム記憶領域にはオペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムが記憶されてもよく、データ記憶領域が車両クルーズ制御方法を実現するための電子機器の使用に応じて作成されたデータなどが記憶されてもよい。また、メモリ702は、高速ランダムアクセスメモリを備えることができ、非一時的メモリ、例えば少なくとも一つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の非一時的ソリッドステートストレージデバイスをさらに備えることができる。いくつかの実施例では、メモリ702は、選択可能に、プロセッサ701に対して遠隔に設置されたメモリを備えることができ、これらの遠隔メモリは、ネットワークを介して車両クルーズ制御方法を実現するための電子機器に接続されてもよい。上記ネットワークの実施例は、インターネット、イントラネット、ローカルエリアネットワーク、移動通信ネットワーク及びそれらの組み合わせを含むがこれらに限定されない。
車両クルーズ制御方法を実現するための電子機器は、入力装置703と出力装置704とをさらに備えることができる。プロセッサ701、メモリ702、入力装置703と出力装置704は、バス又は他の方式で接続されてもよく、図7ではバスで接続されることが例として挙げられる。
入力装置703は、入力された数字又は文字情報を受信し、車両クルーズ制御方法を実現するための電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えばタッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータースティック、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。
出力装置704は、表示装置、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)などを備えることができる。この表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイとプラズマディスプレイを備えることができるがこれらに限定されない。いくつかの実施形態では、表示装置は、タッチスクリーンであってもよい。
本明細書で説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現されてもよい。これらの様々な実施形態は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、この一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを備えるプログラム可能システムで実行及び/又は解釈されてもよく、このプログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、かつデータ及び命令をこの記憶システム、この少なくとも一つの入力装置及びこの少なくとも一つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、かつ高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語で実現されてもよい。本明細書で使用されるように、用語「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を備える。用語「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、本明細書で説明されるシステム及び技術をコンピュータで実施することができ、このコンピュータは、情報をユーザに表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、このキーボード及びこのポインティングデバイスによって入力をコンピュータに提供することができる。
他の種類の装置は、ユーザとのインタラクションを提供するために使用され得る。例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、かつ任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
本明細書で説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザはこのグラフィカルユーザインタフェース又はこのウェブブラウザによって本明細書で説明されるシステム及び技術の実施形態とのインタラクションを行うことができる)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントの任意の組み合わせを備えるコンピューティングシステムで実施されてもよい。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを備えることができる。クライアントとサーバは、一般的に、互いに離れており、通常、通信ネットワークを介してインタラクションを行う。
クライアントとサーバとの関係は、対応するコンピュータ上で実行されかつ相互にクライアント−サーバ関係を有するコンピュータプログラムによって生成される。
本出願の実施例の技術的解決手段によれば、予め構築された出発地から目的地までの車両の3次元軌跡マップを取得し、車両の現在の測位情報を取得し、現在の測位情報に基づいて、3次元軌跡マップから車両の現在の前方の所定距離の目標軌跡をインターセプトすることができ、次に、現在の測位情報に基づいて目標軌跡から目標点を取得し、目標点、車両の現在の測位情報、ホイールベース及び現在の速度に基づいて車両の前輪の回転すべき角度を算出し、さらに回転すべき角度に応じて車両の動きを制御して、車両が出発地から目的地まで自動的に走行できるようにすることが可能である。したがって、車両のフォワードクルーズ制御が行われる場合、使用される軌跡マップが予め構築された3次元軌跡マップであるため、本出願のクルーズ制御方法は、任意の道路シーン(道路が複雑であるシーン又は直進が簡単であるシーン)に応用されてもよく、この道路を走行するときの車両の3次元軌跡マップが予め構築されている限り、自動的に運転する時に、この予め構築された3次元軌跡マップと車両の測位情報に基づいて、車両のフォワードクルーズ制御を実現でき、これにより、車両は、出発地から目的地まで自動的に走行することができ、したがって、軌跡マップは、バレーパーキング応用シーンに応用されてもよい。
上記に示される様々な形態のフローを使用して、ステップを再並べ替え、追加、又は削除することができることを理解すべきである。例えば、本出願に記載されている各ステップは、本出願で開示されている技術案の所望の結果さえ達成すれば、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本明細書では限定されない。
上記の具体的な実施形態は、本出願の保護範囲を制限するためのものではない。当業者は、設計要件及び他の要因に従って、様々な修正、組み合わせ、サブコンビネーション及び置換を行うことができることを理解すべきである。本出願の精神及び原則の範囲内で行われたいかなる修正、同等の置換、改善などは、いずれも本出願の範囲内に含まれるべきである。

Claims (13)

  1. 予め構築された出発地から目的地までの前記車両の3次元軌跡マップを取得するステップと、
    前記車両の現在の測位情報を取得するステップと、
    前記現在の測位情報に基づいて、前記3次元軌跡マップから前記車両の現在の前方の所定距離の目標軌跡をインターセプトするステップと、
    前記現在の測位情報に基づいて、前記目標軌跡から目標点を取得するステップと、
    前記車両のホイールベース及び現在の速度を取得し、前記目標点、前記現在の測位情報、前記ホイールベース及び前記現在の速度に基づいて、前記車両の前輪の回転すべき角度を算出するステップと、
    前記回転すべき角度に応じて前記車両の動きを制御するステップと、
    を含む車両クルーズ制御方法。
  2. 前記3次元軌跡マップが、画像に基づいて構築され、
    前記画像が、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、前記車両上のカメラの複数の撮影角度に基づいてそれぞれ収集された前記デモンストレーション段階における車両の前方の道路の画像である請求項1に記載の車両クルーズ制御方法。
  3. 画像に基づいて前記3次元軌跡マップを構築するステップが、
    前記画像から、前記複数の撮影角度に基づいて収集された同じシーンの画像を取得するステップと、
    前記同じシーンの画像を重ね合わせて、同じシーンの3次元画像を取得するステップと、
    前記出発地から前記目的地までの異なるシーンの3次元画像をスプライスして、前記出発地から前記目的地までの前記車両の3次元軌跡マップを生成するステップと、
    を含む請求項2に記載の車両クルーズ制御方法。
  4. 前記車両の現在の測位情報を取得するステップが、
    前記カメラの複数の撮影角度に基づいて、前記車両の現在の前方の道路の画像をそれぞれ収集するステップと、
    収集された前記車両の現在の前方の道路の画像を重ね合わせて、前記現在の前方の道路の3次元画像を取得するステップと、
    前記現在の前方の道路の3次元画像の環境特徴を抽出するステップと、
    前記現在の前方の道路の3次元画像の環境特徴を前記3次元軌跡マップの環境特徴とマッチングするステップと、
    マッチングされた環境特徴に基づいて、前記3次元軌跡マップから前記車両の現在の測位情報を決定するステップと、
    を含む請求項1に記載の車両クルーズ制御方法。
  5. 測位プロセスでは、前記カメラが非収集期間にある場合、前記カメラの現在の非収集期間内に前記車両が走行した走行距離を取得するステップと、
    前記カメラの現在の非収集期間内に前記車両が走行した走行距離と、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報とに基づいて、前記車両のリアルタイム測位情報を取得するステップと、
    を含む請求項4に記載の車両クルーズ制御方法。
  6. 予め構築された出発地から目的地までの前記車両の3次元軌跡マップを取得するように構成される第1の取得モジュールと、
    前記車両の現在の測位情報を取得するように構成される第2の取得モジュールと、
    前記現在の測位情報に基づいて、前記3次元軌跡マップから前記車両の現在の前方の所定距離の目標軌跡をインターセプトするように構成される軌跡インターセプトモジュールと、
    前記現在の測位情報に基づいて、前記目標軌跡から目標点を取得するように構成される第3の取得モジュールと、
    前記車両のホイールベース及び現在の速度を取得するように構成される第4の取得モジュールと、
    前記目標点、前記現在の測位情報、前記ホイールベース及び前記現在の速度に基づいて、前記車両の前輪の回転すべき角度を算出し、前記回転すべき角度に応じて前記車両の動きを制御するように構成される制御モジュールと、
    を備える車両クルーズ制御装置。
  7. 前記3次元軌跡マップが、画像に基づいて構築され、
    前記画像が、ユーザが車両を運転して出発地から目的地まで走行するデモンストレーション段階において、前記車両上のカメラの複数の撮影角度に基づいてそれぞれ収集された前記デモンストレーション段階おける車両の前方の道路の画像である請求項6に記載の車両クルーズ制御装置。
  8. 画像に基づいて前記3次元軌跡マップを構築することが、
    前記画像から、前記複数の撮影角度に基づいて収集された同じシーンの画像を取得することと、
    前記同じシーンの画像を重ね合わせて、同じシーンの3次元画像を取得することと、
    前記出発地から前記目的地までの異なるシーンの3次元画像をスプライスして、前記出発地から前記目的地までの前記車両の3次元軌跡マップを生成することと、
    を含む請求項7に記載の車両クルーズ制御装置。
  9. 前記第2の取得モジュールが、
    前記カメラの複数の撮影角度に基づいて、前記車両の現在の前方の道路の画像をそれぞれ収集し、
    収集された前記車両の現在の前方の道路の画像を重ね合わせて、前記現在の前方の道路の3次元画像を取得し、
    前記現在の前方の道路の3次元画像の環境特徴を抽出し、
    前記現在の前方の道路の3次元画像の環境特徴を前記3次元軌跡マップの環境特徴とマッチングし、
    マッチングされた環境特徴に基づいて、前記3次元軌跡マップから前記車両の現在の測位情報を決定するように構成される請求項6に記載の車両クルーズ制御装置。
  10. 測位プロセスでは、前記カメラが非収集期間にある場合、前記カメラの現在の非収集期間内に前記車両が走行した走行距離を取得するように構成される第5の取得モジュールと、
    前記カメラの現在の非収集期間内に前記車両が走行した走行距離と、前の収集期間に収集された車両の前方の道路の画像に基づいて取得された測位情報とに基づいて、前記車両のリアルタイム測位情報を取得するように構成される第6の取得モジュールと、
    を備える請求項9に記載の車両クルーズ制御装置。
  11. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサに通信可能に接続されたメモリと、
    を備え、
    前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサに実行される場合、前記少なくとも1つのプロセッサが請求項1から5のいずれか一項に記載の車両クルーズ制御方法を実行可能である電子機器。
  12. コンピュータ命令が記憶されている非一時的コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から5のいずれか一項に記載の車両クルーズ制御方法を実行させる、非一時的コンピュータ読み取り可能な記憶媒体。
  13. コンピュータに請求項1から5のいずれか一項に記載の車両クルーズ制御方法を実行させるコンピュータプログラム。
JP2021107300A 2020-06-29 2021-06-29 車両クルーズ制御方法、装置、電子機器及び記憶媒体 Active JP7214794B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010605456.6A CN111959505B (zh) 2020-06-29 2020-06-29 车辆巡航控制方法、装置、电子设备和存储介质
CN202010605456.6 2020-06-29

Publications (2)

Publication Number Publication Date
JP2021169307A true JP2021169307A (ja) 2021-10-28
JP7214794B2 JP7214794B2 (ja) 2023-01-30

Family

ID=73360952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021107300A Active JP7214794B2 (ja) 2020-06-29 2021-06-29 車両クルーズ制御方法、装置、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US11305771B2 (ja)
EP (1) EP3885216A3 (ja)
JP (1) JP7214794B2 (ja)
KR (1) KR102557026B1 (ja)
CN (1) CN111959505B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112985401A (zh) * 2021-02-02 2021-06-18 上海华测导航技术股份有限公司 一种headline全路径规划和跟踪方法
CN112874511B (zh) * 2021-02-07 2023-03-28 奇瑞汽车股份有限公司 汽车的自动驾驶控制方法、装置及计算机存储介质
CN113071518B (zh) * 2021-04-14 2023-02-03 上海锵玫人工智能科技有限公司 一种自动无人驾驶方法、小巴、电子设备以及存储介质
CN113532441A (zh) * 2021-08-20 2021-10-22 河南牧原智能科技有限公司 用于对猪舍内载具进行组合导航的方法、装置及存储介质
CN113978462A (zh) * 2021-11-12 2022-01-28 北京易航远智科技有限公司 自适应巡航系统的主目标筛选方法、轨迹规划方法及系统
CN114162139B (zh) * 2021-12-06 2024-03-26 上海华测导航技术股份有限公司 一种车辆控制方法、控制器、系统、装置及存储介质
CN114323060B (zh) * 2021-12-24 2024-05-17 阿波罗智联(北京)科技有限公司 距离确定方法及装置
CN114595789B (zh) * 2022-02-10 2024-01-26 湖南三一中型起重机械有限公司 超起棘轮射频标签的自动标定方法、控制器及工程车辆
CN114802217B (zh) * 2022-06-01 2023-04-07 小米汽车科技有限公司 确定泊车模式的方法、装置、存储介质及车辆
CN115979279A (zh) * 2023-01-05 2023-04-18 中国第一汽车股份有限公司 数据推送方法和系统
CN116165958A (zh) * 2023-04-25 2023-05-26 舜泰汽车有限公司 一种两栖特种无人平台的自动驾驶系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017506195A (ja) * 2013-11-18 2017-03-02 ルノー エス.ア.エス. 車両を自動的に制御する方法および装置
US20170324943A1 (en) * 2016-05-05 2017-11-09 Via Technologies, Inc. Driver-assistance method and a driver-assistance apparatus
WO2018235171A1 (ja) * 2017-06-20 2018-12-27 日産自動車株式会社 走行制御方法及び走行制御装置
WO2020003452A1 (ja) * 2018-06-28 2020-01-02 日産自動車株式会社 運転支援方法及び運転支援装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090025822A (ko) * 2007-09-07 2009-03-11 (주)로봇에버 표식과 근거리무선통신을 이용한 로봇의 자기위치인식방법, 그를 이용한 로봇의 위치데이터 발생장치 및그를 이용한 로봇
DE112013006493T5 (de) * 2013-01-23 2015-11-19 Toyota Jidosha Kabushiki Kaisha Fahrzeugsteuereinrichtung
US9146299B2 (en) * 2013-08-06 2015-09-29 Qualcomm Incorporated Method and apparatus for position estimation using trajectory
KR101512784B1 (ko) * 2013-09-10 2015-04-17 한양대학교 산학협력단 자동주차 지원방법 및 자동주차 지원시스템
US20150155009A1 (en) * 2013-12-03 2015-06-04 Nokia Corporation Method and apparatus for media capture device position estimate- assisted splicing of media
CN104833368A (zh) * 2015-05-12 2015-08-12 寅家电子科技(上海)有限公司 实景导航系统及方法
JP6773215B2 (ja) * 2017-04-14 2020-10-21 日産自動車株式会社 車両制御方法及び車両制御装置
KR102260975B1 (ko) * 2017-05-30 2021-06-04 현대모비스 주식회사 3차원 격자지도를 이용한 자율 주행 제어 장치 및 방법
KR20170089801A (ko) * 2017-07-21 2017-08-04 현대자동차주식회사 차량 및 차량의 제어 방법
KR102104900B1 (ko) * 2017-12-19 2020-04-27 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US10732635B2 (en) * 2017-12-30 2020-08-04 Lyft Inc. Localization based on sensor data
WO2019173315A1 (en) * 2018-03-05 2019-09-12 Mobileye Vision Technologies Ltd. Systems and methods for anonymizing navigation information
KR102420568B1 (ko) * 2018-04-27 2022-07-13 삼성전자주식회사 차량의 위치를 결정하는 방법 및 이를 위한 차량
KR20200039853A (ko) * 2018-09-28 2020-04-17 전자부품연구원 벡터맵과 카메라를 이용한 자율주행 차량이 위치한 차선 추정 방법
CN110361013B (zh) * 2019-07-22 2023-05-26 上海应用技术大学 一种用于车辆模型的路径规划系统及方法
CN110774319B (zh) * 2019-10-31 2021-07-23 深圳市优必选科技股份有限公司 一种机器人及其定位方法和装置
US20210179092A1 (en) * 2019-12-16 2021-06-17 Automotive Research & Testing Center Active safety assistance system for pre-adjusting speed and control method using the same
CN111307165B (zh) * 2020-03-06 2021-11-23 新石器慧通(北京)科技有限公司 一种车辆的定位方法、定位系统及无人车辆

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017506195A (ja) * 2013-11-18 2017-03-02 ルノー エス.ア.エス. 車両を自動的に制御する方法および装置
US20170324943A1 (en) * 2016-05-05 2017-11-09 Via Technologies, Inc. Driver-assistance method and a driver-assistance apparatus
WO2018235171A1 (ja) * 2017-06-20 2018-12-27 日産自動車株式会社 走行制御方法及び走行制御装置
WO2020003452A1 (ja) * 2018-06-28 2020-01-02 日産自動車株式会社 運転支援方法及び運転支援装置

Also Published As

Publication number Publication date
JP7214794B2 (ja) 2023-01-30
EP3885216A3 (en) 2022-05-04
KR20210089603A (ko) 2021-07-16
CN111959505A (zh) 2020-11-20
KR102557026B1 (ko) 2023-07-20
US11305771B2 (en) 2022-04-19
EP3885216A2 (en) 2021-09-29
US20210291833A1 (en) 2021-09-23
CN111959505B (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
JP7214794B2 (ja) 車両クルーズ制御方法、装置、電子機器及び記憶媒体
CN111231950B (zh) 规划车辆变道路径的方法、装置、设备及可读存储介质
US11320836B2 (en) Algorithm and infrastructure for robust and efficient vehicle localization
US10579062B2 (en) Scalable smooth reference path generator for autonomous driving vehicles
KR102559269B1 (ko) 실경 내비게이션 아이콘 표시 방법, 장치, 기기 및 매체
US10459441B2 (en) Method and system for operating autonomous driving vehicles based on motion plans
JP7299261B2 (ja) 車両のデッドレコニング方法、装置、デバイス、記憶媒体、及びプログラム
KR20190100856A (ko) 곡선 투영을 가속화하기 위한 시스템 및 방법
JP7249384B2 (ja) ルート計画モデルを生成する方法、交通手段の軌跡を決定する方法、ルート計画モデルを生成する装置、交通手段、電子機器、記憶媒体及びコンピュータプログラム
US11360482B2 (en) Method and system for generating reference lines for autonomous driving vehicles using multiple threads
JP7204823B2 (ja) 車両制御方法、車両制御装置及び車両
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
JP7337121B2 (ja) 環状交差点のナビゲーション方法、装置、デバイス及び記憶媒体
EP3842758B1 (en) Method and apparatus for generating offline map, vehicle and storage medium
US10732632B2 (en) Method for generating a reference line by stitching multiple reference lines together using multiple threads
CN109345015B (zh) 用于选取路线的方法和装置
US11066069B2 (en) Extra-freedom stitch method for reference line smoothing
US11400955B2 (en) Multi-point enforced based stitch method to connect two smoothed reference lines
CN111959496B (zh) 用于车辆横向控制的模型生成方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150