JP2022081396A - 車両側位方法及び装置 - Google Patents

車両側位方法及び装置 Download PDF

Info

Publication number
JP2022081396A
JP2022081396A JP2021133828A JP2021133828A JP2022081396A JP 2022081396 A JP2022081396 A JP 2022081396A JP 2021133828 A JP2021133828 A JP 2021133828A JP 2021133828 A JP2021133828 A JP 2021133828A JP 2022081396 A JP2022081396 A JP 2022081396A
Authority
JP
Japan
Prior art keywords
reference position
vehicle
accommodation range
error level
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021133828A
Other languages
English (en)
Inventor
▲ひょん▼▲ちょる▼ 全
Hyun Cheol Jeon
▲ちょる▼友 姜
Chul Woo Kang
景夫 鄭
Kyung Boo Jung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2022081396A publication Critical patent/JP2022081396A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18145Cornering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両側位方法及び装置を提供する。【解決手段】一実施形態によれば、車両測位方法は、車両のカメラを用いて撮影された車両の映像情報に基づいて車両の映像基盤参照位置を決定し、車両の走行状況に基づいて映像基盤参照位置に関する収容範囲を設定し、映像基盤参照位置の誤差レベルを収容範囲と比較して車両の現在位置を推定するステップを含む。【選択図】図1

Description

次の実施形態は、車両側位方法及び装置に関する。
車両及びその他の運送手段の走行を補助するために、様々な視覚情報(visual information)を拡張現実(augmented reality、AR)を介して運転者に提供するナビゲーションシステムがある。このようなナビゲーションシステムは、GPS(global positioning system)センサを介して人工衛星からGPS信号を受信し、受信したGPS信号に基づいて車両の現在位置を推定する。GPS信号を通じて車両の緯度、経度上の絶対的な位置値が導き出されることができる。
本実施形態の目的は、車両側位方法及び装置を提供することにある。
一実施形態によれば、車両側位方法は、車両の位置センサを用いて測定された車両の位置情報に基づいて第1参照位置を決定するステップと、車両のカメラを用いて撮影された車両の映像情報に基づいて車両の第2参照位置を決定するステップと、車両の走行状況に基づいて第2参照位置に関する収容範囲を設定するステップと、第2参照位置を第1参照位置と比較して第2参照位置の誤差レベルを予測するステップと、第2参照位置の誤差レベルを収容範囲と比較して車両の現在位置を推定するステップとを含む。
第2参照位置を決定するステップは、映像情報に示された車線の幾何学情報に基づいて第2参照位置を決定するステップを含むことができる。第2参照位置は、車両が属する車路に関する情報及び車両が属する車路内における車両の詳細位置に関する情報のうち少なくとも1つを含むことができる。
車両の走行状況に基づいて第2参照位置に関する収容範囲を設定するステップは、複数の走行状況のうち走行状況を決定するステップを含む。
複数の走行状況は、交差路を走行する第1走行状況及びコーナーを回転して走行する第2走行状況のうち少なくとも1つを含むことができる。
収容範囲を設定するステップは、走行状況に合わせて収容範囲の広さを選択的に調整するステップを含むことができる。収容範囲を設定するステップは、交差路を走行する第1走行状況に対する収容範囲に比べて、コーナーを回転して走行する第2走行状況に対してさらに広い収容範囲を設定するステップを含むことができる。
現在位置を推定するステップは、第2参照位置の誤差レベルが収容範囲に属しない場合、第2参照位置の考慮を排除したまま現在位置を推定するステップを含むことができる。現在位置を推定するステップは、第2参照位置の誤差レベルが収容範囲に属しない場合、第1参照位置を車両の現在位置として推定するステップと、第2参照位置の誤差レベルが収容範囲に属する場合、第2参照位置及び第1参照位置の加重和に基づいて推定された新しい位置を現在位置として推定するステップとを含むことができる。
誤差レベルを決定するステップは、第2参照位置と第1参照位置との間の距離に基づいて第2参照位置の誤差レベルを決定するステップを含むことができる。車両側位方法は、次のタイムステップで他の第2参照位置の他の収容範囲を設定するステップをさらに含み、他の収容範囲を設定するステップは、第2参照位置が収容範囲内ではない場合、他の収容範囲の広さを収容範囲の広さに比べてさらに広く設定するステップを含むことができる。
車両側位方法は、第2参照位置及び複数の以前タイムステップに対応する複数の第2参照位置に基づいて、第2参照位置に対応する参照ヘディング角の変化を決定するステップをさらに含み、現在位置を推定するステップは、ジャイロスコープの出力と参照ヘディング角の決定された変化間の比較結果をさらに考慮して現在位置を推定するステップを含むことができる。
一実施形態によると、航法装置は、車両の位置センサを用いて測定された車両の位置情報に基づいて第1参照位置を決定し、車両のカメラを用いて撮影された車両の映像情報に基づいて車両の第2参照位置を決定し、車両の走行状況に基づいて第2参照位置に関する収容範囲を設定し、第2参照位置を第1参照位置と比較して第2参照位置の誤差レベルを予測し、第2参照位置の誤差レベルを収容範囲と比較して車両の現在位置を推定するプロセッサとを含む。
一実施形態によると、車両制御装置は、車両の位置センサを用いて測定された車両の位置情報に基づいて第1参照位置を決定し、車両のカメラを用いて撮影された車両の映像情報に基づいて車両の第2参照位置を決定し、車両の走行状況に基づいて第2参照位置に関する収容範囲を設定し、第2参照位置を第1参照位置と比較して第2参照位置の誤差レベルを予測し、第2参照位置の誤差レベルを収容範囲と比較して車両の現在位置を推定し、現在位置に基づいて車両の走行に関する制御命令を生成するプロセッサと、制御命令に基づいて車両を制御する制御系統とを含む。
一実施形態によると、車両側位方法は、車両の位置センサを用いて測定された車両の位置情報に基づいて第1参照位置を決定するステップと、車両のカメラを用いて撮影された車両の映像情報に基づいて車両の第2参照位置を決定するステップと、第2参照位置が誤り位置であるか否かの決定に基づいて、第1参照位置及び第2参照位置に基づいて車両の現在位置を推定することと、第1参照位置に基づいて車両の現在位置を推定することのいずれかを選択するステップと、選択の結果に基づいて現在位置を推定するステップとを含み、第2参照位置が誤り位置であるか否かの決定は、車両の現在の走行状況に依存的な第2参照位置に関する誤差考慮に基づく。
第2参照位置が誤り位置であるか否かの決定は、現在の走行状況の決定に依存的な収容範囲に基づき、第2参照位置の推定誤差が収容範囲内であるかに基づくことができる。収容範囲は、交差路の状況に比べてコーナーを回る状況に広く設定されることを含み、少なくとも2つの異なる走行状況に対して相違に設定されてもよい。第2参照位置が誤り位置であるか否かの決定は、決定された第2参照位置が誤りであると決定された以前タイムステップ、及び車両のジャイロスコープの出力と第2参照位置に対応する参照ヘディング角の決定された変化間の比較のうち少なくとも1つ又は両方の考慮を含むことができる。
本発明によると、車両側位方法及び装置を提供することができる。
一実施形態に係る航法装置の動作を示す。 一実施形態に係る位置推定過程を示す。 一実施形態に係る収容範囲を用いた誤り検出を通じて位置を推定する過程を示す。 一実施形態に係る収容範囲を用いた誤り検出を通じて位置を推定する過程を示す。 一実施形態に係る収容範囲を用いた誤り検出を通じて位置を推定する過程を示す。 映像基盤参照位置の誤りの例示を示す。 映像基盤参照位置の誤りの例示を示す。 一実施形態に係る参照位置と収容範囲との間の比較を示す。 一実施形態に係る走行状況に基づいた収容範囲の設定を示す。 一実施形態に係る回転状況の検出を示す。 一実施形態に係る交差路走行の検出を示す。 一実施形態に係る収容範囲の拡張を示す。 一実施形態に係るヘディング角を用いて誤りを検出する過程を示す。 一実施形態に係る車両側位方法を示す。 一実施形態に係る航法装置の構成を示す。 一実施形態に係る電子装置の構成を示す。
発明を実施するための具体的な内容
以下、添付の図面を参照して実施形態について詳説する。しかし、本明細書で開示する特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示したものであり、実施形態は様々な異なる形態で実施され、本発明は本明細書で説明した実施形態に限定されるものではない。実施形態に対するすべての変更、均等物ないし代替物が権利範囲に含まれているものと理解されなければならない。
実施形態で用いられる用語は、単に、説明を目的として使用されたものであり、限定しようとする意図として解釈されることはない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、図面を参照して説明する際に、図面符号に拘わらず同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が本発明の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
また、実施形態の構成要素の説明において、第1、第2、A、B、(a)、(b)などの用語を用いることができる。このような用語は、その構成要素を他の構成要素とは区別するためのものであって、その用語により当該構成要素の本質や順番又は順序などは限定されない。いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが各構成要素の間でさらに異なる構成要素が「連結」、「結合」又は「接続」されることもあり得ると理解されるべきである。
また、「車両(vehicle)」は自動車、バス、バイク、又はトラックのように駆動機関を持って人やモノを移動させるために用いられる全てのタイプの運送手段を意味する。また、「道路(road)」は、車両が通る道を意味し、例えば、高速道路、国道、地方道路、高速国道、自動車専用道路などのように様々なタイプの道路を含む。「車路(lane)」は、道路の路面上に表示されている車線(lane boundary)を通じて区分される道路空間を意味する。「現在の走行車路」は、様々な車路のうち現在の車両が走行中である車路であって、現在の車両が占めて利用中である車路空間を意味し、「エゴレーン(ego lane)」のように称されてもよい。「車線(lane boundary)」は、車路の区別のために道路の路面上に表示されている実線又は点線を意味する。「車線」は、「車線表示(lane marking)」のように呼ばれてよい。
いずれか1つの実施形態に含まれた構成要素と、共通の機能を含む構成要素は、他の実施形態で同じ名称を用いて説明することにする。反対となる記載がない限り、いずれか1つの実施形態に記載した説明は他の実施形態にも適用され、重複する範囲で具体的な説明は省略することにする。
図1は、一実施形態に係る航法装置の動作を示す。図1を参照すれば、航法装置(navigation apparatus)100は、車両の映像データ、センサデータ、地図データのうち少なくとも1つに基づいて、航法パラメータを提供することができる。例えば、航法パラメータは、車両の姿勢(pose)、速度(velocity)、位置(position)のうち少なくとも1つに関する情報を含んでもよい。
車両は、航法パラメータを通じて航法情報を生成し、航法情報をユーザ(例えば、運転者)及び/又は車両(例えば、自律走行車両)に提供することができる。車両は、3次元ヘッドアップディスプレイ(head up display、HUD)を通した拡張現実(augmented reality、AR)技法で航法情報を提供することができる。航法装置100は、航法パラメータを考慮して仮想映像を現実背景にオーバーレイして表現することができる。誤差のないAR環境を実現するためには、車両の状態を正確に測定することが求められる。
車両は、前方、側方、後方、上方、下方を含む複数の方向のいずれか1つ以上の方向を撮影する1つ以上のカメラを含み、航法装置100は、このような1つ以上のカメラから車両の映像情報を受信することができる。また、車両は、IMU(inertial measurement unit)、GPS(global positioning system)、及びOBD(on board diagnostics)のような車両の位置を測定するための位置センサを含み、航法装置100は、このような位置センサから車両の位置情報を受信する。ここで、IMUは、加速度センサ及びジャイロスコープを含んでもよい。
航法装置100は、地図データで高精密の地図(high definition map、HD map)を利用することができる。高精密の地図は、様々なセンサを用いて生成された様々な地図要素(例えば、車線、中央線、案内表示など)に関する情報を含んでもよい。高精密の地図の様々な要素は、ポイントクラウド(point cloud)のように表現され、ポイントクラウドの各点は、3次元位置に対応する。3次元位置は、緯度、経度、高度のように表現される。
図2は、一実施形態に係る位置推定過程を示す。図2を参照すれば、航法装置は、ステップS210において、センサ基盤の側位(sensor-based localization)を実行し、ステップS220において、映像基盤の側位(image-based localization)を実行し、ステップS240において、ステップS210,S220の結果に基づいた融合を行って最終位置を決定する。
より具体的に、航法装置は、ステップS210で、車両の位置センサを介して測定された車両の位置情報に基づいてセンサ基盤の位置を推定する。センサ基盤の側位は、センサ・フュージョン(Sensor Fusion)を含んでもよい。センサ・フュージョンは、様々な情報を融合する推定技法であり、カルマンフィルタ(Kalman filter)に対応する。ここで、融合する情報は、カルマンフィルタ理論による推定モデルを用いて推定された値、及びセンサ情報を用いて推定された値を含んでもよい。例えば、航法装置は、ステップS210のセンサ・フュージョンのためにIMU、GPS、及びOBDを利用してもよい。このとき、航法装置は、GPS及びOBDの出力をセンサ情報として使用し、IMUの出力を推定モデルの入力として用いて車両の位置、速度、姿勢を推定することができる。
航法装置は、ステップS220で、車両の映像情報を用いて映像基盤の側位を実行する。映像情報は、車両の前方から見える車線の幾何学情報を含んでもよい。例えば、車線の幾何学情報は、車線の種類、方向、及び配列の少なくとも1つに関する情報を含んでもよい。航法装置は、映像情報以外の他のセンサ情報を映像情報と結合し、映像基盤の位置を決定することができる。例えば、航法装置は、GPSセンサのような位置センサを介して測定された車両の位置情報を用いて、車両の概略的な位置を把握することができる。その後、航法装置は、映像情報を通じて車両が属する車路及び/又は車両が属する車路内における車両の詳細位置を把握することができ、これによって、映像基盤の位置を推定することができる。推定された映像基盤の位置は、高精密の地図(HD map)にマッピングされて提供され得る。
センサ基盤の側位は、出力周期がはやく、変化量を正確に反映することができる。従って、センサ基盤で推定された位置を介して相対位置が比較的に正確に把握されることができる。映像基盤の側位は、絶対位置を把握するために適する。航法装置は、ステップS240で、センサ基盤で推定された位置と、映像基盤で推定された位置に基づいた融合を実行し、最終位置を導き出す。このとき、航法装置は、センサ・フュージョンを通じて融合を行う。例えば、航法装置は、ステップS210においてセンサ基盤で推定された車両の位置、及びステップS220において映像基盤で推定された車両の位置をセンサ情報として利用し、ステップS210において推定された車両の速度をモデルの入力として利用し、車両の位置を最終的に推定することができる。
一般的に、映像は、絶対位置を推定するために適した情報を含むことができる。しかし、閉塞(occlusion)、飽和(saturation)などにより映像情報が損失されたり、車線の増減のような走行環境に変化が生じた場合、映像基盤で推定された位置の信頼度は大きく低下し得る。従って、逆に映像基盤で推定された位置を介して最終位置を導き出すことは、最終位置の正確度を低下するという結果を招く。これについて航法装置は、ステップS230を介して映像基盤の位置が誤り(fault)に該当するかを決定し、該当位置が誤りであれば、ステップS240で、該当位置を排除したまま最終位置を導き出すことで最終位置の正確度を高く維持することができる。
一実施形態によれば、航法装置は、映像基盤で推定された位置の誤差レベル(error level)を予測し、車両の走行状況に適するように収容範囲(acceptance range)を設定し、映像基盤位置の誤差レベルと収容範囲とを比較することができる。航法装置は、センサ基盤の位置を用いて映像基盤の位置の誤差レベルを予測できる。誤差レベルが収容範囲を超える場合、航法装置は、映像基盤の位置を誤りとして分類する。この場合、航法装置は、映像基盤で推定された位置を排除したまま最終位置を導き出すことができる。
他の一実施形態によれば、航法装置は、連続的なタイムステップで映像基盤で推定された位置を介してヘディング角を算出し、算出された複数のヘディング角の変化とジャイロスコープの出力とを比較する。比較による差が閾値を越える場合、航法装置は、関連する推定位置(例えば、最後のタイムステップの推定位置)を誤りとして分類する。他の一実施形態によれば、航法装置は、収容範囲を用いた方法とヘディング角を用いた方法の全てを利用することができる。この場合、2つの方法は、順次的又は並列的に実行されてもよく、2つの方法の条件が全て満足するとき、映像基盤で推定された位置が最終位置の導き出し過程に反映されることができる。
図3は、一実施形態に係る収容範囲を用いた誤り検出を介して位置を推定する過程を示す。図3Aを参照すれば、航法装置は、ステップS310において、センサ基盤の側位を行う。航法装置は、センサ・フュージョンに基づいて、車両の位置、速度、姿勢を推定できる。また、航法装置は、ステップS330において、映像基盤の側位を行う。航法装置は、映像情報及びセンサ情報を通じて車両が属する車路及び/又は車両が属する車路内における車両の詳細位置を推定することができる。このとき、航法装置は、センサ情報でステップS310で、センサ・フュージョンを通じて推定された車両の位置及び姿勢を利用してもよい。映像基盤の側位結果は映像情報に基づくため、映像基盤参照位置(image-based reference position)のように称されてもよい。
航法装置は、ステップS320で車両の走行状況を決定する。車両の走行状況は、走行道路のタイプ及び/又は走行方向に基づいて決定される。例えば、走行状況は、交差路を走行する走行状況、コーナーを回転(turn)して走行する走行状況、その他の走行状況を含んでもよい。その他の走行状況は、交差路ではない区間を回転せずに、例えば、直進して走行することを含む。
航法装置は、ステップS340で、映像基盤参照位置に関する誤り検出を行う。誤り検出のために航法装置は、ステップS341で収容範囲を設定し、ステップS342で映像基盤参照位置の誤差レベルと収容範囲とを比較する。航法装置は、センサ基盤の側位結果に基づいて、映像基盤参照位置の誤差レベルを予測できる。例えば、航法装置は、センサ基盤の側位結果に基づいて、ステップS351の1次推定を実行し、モデル推定基盤参照位置(model estimation-based reference position)を決定することができる。モデル推定基盤参照位置は、映像基盤参照位置の誤差レベルを予測するための基準として利用される。1次推定過程は、以下のように路説明する。航法装置は、映像基盤参照位置とモデル推定基盤参照位置との間の差に基づいて、映像基盤参照位置の誤差レベルを予測できる。2つの間の差が大きければ、映像基盤参照位置の誤差レベルは高いと見なされる。
航法装置は、走行状況に合わせて収容範囲を設定することができる。一実施形態によれば、航法装置は、走行状況に応じて収容範囲の広さを相違に設定してもよい。これにより、同じ誤差レベルを有する映像基盤参照位置も走行状況に応じて収容の有無が変わり得る。例えば、交差路走行に対して収容範囲を小さく設定してもよく、回転走行に対して収容範囲を大きく設定してもよい。交差路走行の場合、車線がなくなったり、車線のパターンが変わったり、閉塞が発生するなど、映像情報にノイズが含まれる可能性が高いため、映像基盤参照位置に厳しい基準を適用することが必要である。回転走行の場合、横方向の推定正確度が急激に低下する状況が発生する可能性があるため、映像情報を可能な限り収容することが、位置推定の正確度を向上させるために有利である。収容範囲の設定について、後の図6~図9を参照してより詳細に説明する。航法装置は、収容範囲に属する映像基盤参照位置は、誤り無し(no fault)として分類し、収容範囲に属しない映像基盤参照位置は誤りとして分類する。
航法装置は、ステップS350で、センサ基盤側位の結果及び映像基盤の側位結果(映像基盤参照位置)に基づいた融合を行う。融合は、ステップS351の1次推定及びステップS352の2次推定を含む。航法装置は、以前タイムステップで推定された最終位置及びセンサ基盤の側位結果を用いて1次推定を実行し、現在タイムステップの位置を推定することができる。1次推定結果は、センサ情報(例えば、GPSのような位置センサによって測定された車両の位置データ)に基づいたモデルの推定値に該当するため、映像基盤参照位置との区分のためにモデル推定基盤参照位置に称される。航法装置は、モデル推定基盤参照位置を収容範囲の中心に設定することができる。
航法装置は、映像基盤参照位置を用いてモデル推定基盤参照位置を補正して2次推定を行う。2次推定は、ステップS340の誤り検出結果に応じて選択的に実行することができる。映像基盤参照位置が誤りであれば、2次推定を行わず、モデル推定基盤参照位置が最終位置として出力される。映像基盤参照位置が誤り無しであれば、2次推定が行われ、位置補正の結果による新しい位置が最終位置として出力される。新しい位置は、映像基盤参照位置及び映像基盤参照位置の加重和(weighted sum)に基づいて推定される。以下、図3B及び図3Cを参照してステップS350の融合動作をより詳細に説明する。
図3Bは、センサ・フュージョンの例示を示す。図3Bを参照すれば、センサ・フュージョンは、ステップS361,S362,S363のモデル伝搬(model propagation)、測定アップデート(measurement update)、及び時間アップデート(time update)を含むことができる。モデル伝搬は、以前タイムステップの情報(
Figure 2022081396000002
又は
Figure 2022081396000003
)から現在タイムステップの情報をモデル基盤で算出する動作である。算出結果は
Figure 2022081396000004
のように表示される。kは、現在タイムステップを意味し、+/-は、センサ情報の反映有無を示す。以前タイムステップで測定アップデートが実行された場合、以前タイムステップの情報は
Figure 2022081396000005
である、以前タイムステップで測定アップデートが実行されていない場合、以前タイムステップの情報は
Figure 2022081396000006
である。
時間アップデートは、現在タイムステップの情報をカルマンフィルタ理論によって「モデル基盤推定」する動作である。推定結果は
Figure 2022081396000007
に表示される。ハット(hat)は推定を意味する。測定アップデートは、
Figure 2022081396000008
及び
Figure 2022081396000009
の加重和を行う動作である。
Figure 2022081396000010
は現在タイムステップに入力されたセンサ情報である。加重値は、
Figure 2022081396000011
及び
Figure 2022081396000012
の正確度又は共分散に基づいて決定される。結果は
Figure 2022081396000013
に表示される。
Figure 2022081396000014
が入力されて測定アップデートが実行された場合、現在タイムステップの推定結果は
Figure 2022081396000015
である。
Figure 2022081396000016
が入力されず測定アップデートが実行されていない場合、現在タイムステップの推定結果は
Figure 2022081396000017
である。次のタイムステップで、
Figure 2022081396000018
又は
Figure 2022081396000019
を通じてモデル伝搬が行われる。
図3Cは、図3Aに示すステップS351の1次推定及びステップS352に関するセンサ・フュージョンの実施形態を示す。図3Cの航法装置は、ステップS353,S354,S355において図3BのステップS361,S362,S363に対応するモデル伝搬、測定アップデート、及び時間アップデートを行う。航法装置は、モデル伝搬動作でセンサ基盤の側位を介して推定された現在タイムステップの速度を以前タイムステップの位置に適用して現在タイムステップの位置を算出することができる。例えば、
Figure 2022081396000020
のように
Figure 2022081396000021
が算出されてもよい。ここで、
Figure 2022081396000022
は、現在タイムステップの位置であり、
Figure 2022081396000023
は、以前タイムステップの位置であり、
Figure 2022081396000024
は、現在タイムステップの速度であり、
Figure 2022081396000025
は、連続した2つのタイムステップ間の時間インターバルである。算出結果は
Figure 2022081396000026
に対応する。
航法装置は、時間アップデート動作を通じて1次推定結果を生成することができる。1次推定結果は
Figure 2022081396000027
に対応し、上述したように、モデル推定基盤参照位置に称されてもよい。また、航法装置は、センサ情報及び1次推定結果の加重和を実行して2次推定結果を生成することができる。2次推定結果は
Figure 2022081396000028
に対応する。センサ情報は、センサ基盤の側位を介して推定された現在タイムステップの位置、及び映像基盤の側位を介して推定された現在タイムステップの位置を含む。上述したように、映像基盤の側位を介して推定された現在タイムステップの位置は、映像基盤参照位置に称されてもよい。航法装置は、ステップS353,S354,S355を通じて1次推定結果及び2次推定結果を生成し、誤り検出結果に基づいて1次推定結果及び2次推定結果のいずれか1つを最終位置として選択することができる。
図4は、映像基盤参照位置の誤りの例示を示す。図4A及び図4Bにおいて実線は実際の走行経路であり、点は映像基盤で推定された位置である。図4Aは、車両が矢印410による方向に走行し、区間412で閉塞が発生した場合を示す。例えば、前方の車両がカメラを塞がっている場合、閉塞が発生する可能性がある。区間412で閉塞が生じることにより、区間412で撮影された映像情報には絶対位置を把握するための適切な情報が含まれることが難い。従って、位置411は、実際の走行経路とは差を見せる。
図4Bは、車両が矢印420による方向に走行し、境界422で車線の数が増加した場合を示す。映像情報に全ての車線が示されていれば、車両の走行車線が何番目の車線であるかを比較的に容易に識別されるが、映像情報に全ての車線ではない一部車線(例えば、片道4車線の道路で2車路のみが撮影されている場合)のみが示されていれば、走行車線がどのような車線であるかを識別することが難い。このような状況で車線の増減が発生すれば、位置情報の正確度はさらに低下し得る。例えば、1車路に左折の車線が生じると、走行車路を2車路から3車路に変更するような走行車路の変更が求められるが、このような車線増減に関する情報が映像情報を通じて位置情報に直ちに反映されない恐れもある。従って、車両が同じ車路を走行する場合にも、映像基盤の側位に誤りが発生して位置421のように車路が変更されたものと認識されることがある。
図4Aに示す位置411及び図4B示す位置421を参照すれば、映像基盤の側位による誤りは走行車路が変わったと間違って認識される車路ジャンプを伴う可能性が高い。映像基盤の側位結果は、高精密の地図にマッピングされて提供されるが、高精密の地図は各車線の位置情報を含み、側位結果は通常このような車線に基づいて高精密の地図にマッピングされるためである。また、閉塞、車路増減のような状況において、映像情報は、現在の走行車路内の詳細位置を推定するための情報を含んでもよいが、現在の走行車路が全体の車路から何番目の車路であるかを推定するための情報を含んでいない確率が高いためである。従って、航法装置は、このような車線ジャンプを基準にして用いて映像基盤の側位により推定された位置から誤りを検出することができる。
図5は、一実施形態に係る参照位置と収容範囲との間の比較を示す。図5を参照すれば、第1映像基盤参照位置510に関する第1収容領域(acceptance region)511及び第2映像基盤参照位置520に関する第2収容領域521が図示されている。各収容領域は、各収容範囲に関する理解を助けるために各収容範囲を視覚的に示したものである。
より具体的に、第1収容領域511は、第1映像基盤参照位置510に関して設定された第1収容範囲を半径として有する円であり、第1収容領域511の中心は、第1映像基盤参照位置510に対応する第1モデル推定基盤参照位置512である。同様に、第2収容領域521は、第2映像基盤参照位置520に関して設定された第2収容範囲を半径として有する円であり、第2収容領域521の中心は、第2映像基盤参照位置520に対応する第2モデル推定基盤参照位置522である。これにより、いずれかの映像基盤参照位置が収容領域に属することは、該当の映像基盤参照位置と対応モデル推定基盤参照位置との間の差が収容範囲に属することを意味する。図5において、第1収容範囲及び第2収容範囲は同一なものと仮定する。例えば、各収容範囲は、各車線の幅に基づいた広さを有してもよい。
航法装置は、第1映像基盤参照位置510と第1モデル推定基盤参照位置512との間の距離を第1映像基盤参照位置510の誤差レベルとして決定し、第2映像基盤参照位置520と第2モデル推定基盤参照位置522との間の距離を第2映像基盤参照位置520の誤差レベルとして決定してもよい。また、航法装置は、第1映像基盤参照位置510の誤差レベルと第1収容範囲を比較し、第2映像基盤参照位置520の誤差レベルと第2収容範囲とを比較する。このとき、第1映像基盤参照位置510は第1収容領域511に属するため、航法装置は、第1映像基盤参照位置510を誤り無しとして分類する。また、第2映像基盤参照位置520は第2収容領域521に属しないため、航法装置は、第2映像基盤参照位置520を誤りとして分類する。
車両の走行において、縦方向(X)の正確度に比べて横方向(Y)の正確度がさらに重要であるため、航法装置は、各映像基盤参照位置の誤差レベルを横方向(Y)を基準にして決定することができる。例えば、航法装置は、図5に示す座標系による第1映像基盤参照位置510のy座標と、第1モデル推定基盤参照位置512のy座標との間の差に基づいて、第1映像基盤参照位置511の誤差レベルを決定し、これに相応する収容範囲を設定し、これを誤差レベルと比較することができる。
図6は、一実施形態に係る走行状況に基づいた収容範囲の設定を示す。図6を参照すれば、航法装置は、ステップS611,S621,S631で現在の走行状況を決定し、ステップS612,S622,S632,S633で現在の走行状況による収容範囲を設定する。ステップS612,S622,S632,S633において、
Figure 2022081396000029
は現在タイムステップの収容範囲を示す。
Figure 2022081396000030
は第1収容範囲を示し、
Figure 2022081396000031
は第2収容範囲を示す。
Figure 2022081396000032
に比べて
Figure 2022081396000033
がより広い収容範囲にする。例えば、現在の走行状況がコーナー回転である場合、航法装置は、現在の収容範囲を
Figure 2022081396000034
に設定することができる。現在の走行状況が交差路走行である場合、航法装置は現在の収容範囲を
Figure 2022081396000035
に設定することができる。
現在の走行がコーナー回転及び交差路走行の全てに該当しなくても、航法装置は、以前の映像基盤参照位置が誤りとして分類されたかに応じて収容範囲の広さを調整することができる。例えば、以前の映像基盤参照位置が誤りとして分類されれば、航法装置は
Figure 2022081396000036

Figure 2022081396000037
に比べて
Figure 2022081396000038
だけに広く設定してもよい。以前の映像基盤参照位置が誤り無しとして分類されれば、航法装置は
Figure 2022081396000039

Figure 2022081396000040
に設定してもよい。
Figure 2022081396000041
は初期の広さを意味し、例えば、車路の幅に基づいた値を有する。誤りが持続するものと位置推定で映像基盤参照位置を続けて排除すれば誤りが発散されるため、誤りが持続する場合、航法装置は誤りの発散を防止するために収容範囲の広さを少しずつ広げることができる。
航法装置は、ステップS640において、
Figure 2022081396000042

Figure 2022081396000043
を比較する。
Figure 2022081396000044
は、映像基盤参照位置とモデル推定基盤参照位置との間の差である。差が大きければ、映像基盤参照位置の誤差レベルは高いものと見なされる。例えば、
Figure 2022081396000045
は、映像基盤参照位置とモデル推定基盤参照位置との間の横方向差を示す。
Figure 2022081396000046
は、設定された収容範囲を示し、iはL、S、kのいずれか1つである。
Figure 2022081396000047
が収容範囲に属すれば、例えば、
Figure 2022081396000048

Figure 2022081396000049
よりも小さければ、航法装置は、対応映像基盤参照位置を誤り無しとして分類する。
Figure 2022081396000050
が収容範囲に属しなければ、例えば、
Figure 2022081396000051

Figure 2022081396000052
よりも大きければ、航法装置は、対応映像基盤参照位置を誤りとして分類する。
図7は、一実施形態に係る回転状況の検出を示す。道路関連情報は、一般的に横方向に数多く分布しているため、横方向の推定に比べて縦方向の推定が正確ではない傾向がある。車両がコーナー区間を回転運行すれば、回転運行の前後の一定時間の間に縦方向の不正確性が横方向の推定に影響を与える。横方向の不正確性は、車両が車道の外側にあるものと推定したり、誤った車路に位置したものと推定するような、致命的な結果を招くことになる。従って、このような横方向の不正確性は、緊急に修正される必要がある。
航法装置は、映像情報を活用して横方向の不正確性を低くするために収容範囲を広げることができる。図7を参照すれば、回転後の収容範囲720が回転以前の収容範囲710に比べて広いことが確認される。これにより、映像基盤参照位置の誤差レベルが少し高い場合であっても、最終位置を推定するために映像基盤参照位置が活用される可能性が高くなる。航法装置は、ジャイロスコープの出力を一定時間の間に累積し、この時間の間に累積された角度が閾値を越える場合、走行状況が回転運行に該当するものと決定することができる。その後、累積角度が閾値以下になれば、航法装置は、回転が終了したものと見なし、その瞬間から収容範囲を広げて車両の横方向位置を映像基盤参照位置に収斂させることができる。
図8は、一実施形態に係る交差路走行の検出を示す。図8を参照すれば、高精密の地図800上に車両の現在の推定位置810が表示されている。高精密の地図800上において、各点は様々な要素(例えば、車線、中央線、案内表示など)に関する情報を含んでもよい。従って、高精密の地図800の点を介して現在の推定位置810の周辺にどのような地図要素が存在するかを確認することができる。航法装置は、現在の推定位置810の周辺領域820に車線が存在するかを確認し、車線が存在しない場合、現在の推定位置810が交差路であるものと決定する。道路環境を認識する映像基盤側位アルゴリズムは、車線が消滅したり、又は、新しい車線が発生する交差路区間で誤りが発生する可能性が高い。航法装置は、交差路で位置推定の誤りを最小化するために、交差路を通過した後一定時間の間に収容範囲を縮小させることができる。
図9は、一実施形態に係る収容範囲の拡張を示す。図9を参照すれば、タイムステップtで映像基盤参照位置が収容領域から離れ始め、この状態がタイムステップtまで維持される。従って、タイムステップt~tまでの映像基盤参照位置は、最終位置を推定するために反映されない。ただし、このように誤りが持続する状況において、映像基盤参照位置を継続的に無視すれば、誤りが発散して映像基盤参照位置を利用することよりも推定の正確度がさらに低下することがある。従って、誤りが持続する場合、航法装置は、誤りの発散を防止するために収容範囲の広さを少しずつ広げる。航法装置は、映像基盤参照位置が収容領域から離れ始めるタイムステップtから収容領域を拡張し、結局、タイムステップtで映像基盤参照位置が収容領域に入る。従って、航法装置は、タイムステップtから映像基盤参照位置を最終位置の推定に用いることができる。
図10は、一実施形態に係るヘディング角を用いて誤りを検出する過程を示す。航法装置は、以上で説明した誤差レベルと収容範囲を用いる方法以外に他の方法を介して映像基盤参照位置を分類することができる。図10は、このような他の方法の1つであって、ヘディング角を用いる方法を示す。
航法装置は、現在タイムステップを含んでいる複数のタイムステップに対応する複数の映像基盤参照位置に基づいて、現在タイムステップの映像基盤参照位置に対応する参照ヘディング角の変化を決定することができる。航法装置は、これをジャイロスコープの出力と比較して、現在タイムステップの映像基盤参照位置に関する誤りを検出する。航法装置は、比較による差が閾値よりも大きければ、該当映像基盤参照位置を誤りとして分類し、小さければ、誤り無しとして分類する。航法装置は、誤差レベルが収容範囲に属し、ヘディング角の差が閾値よりも小さい場合、言い換えれば、2種類の有効条件を全て満足すれば、映像基盤参照位置を誤り無しとして分類し、現在位置の推定に利用することができる。
図10を参照すれば、3個の連続的なタイムステップ(k-2~k)の映像基盤参照位置
Figure 2022081396000053
が図示されている。このとき、数式(1)により平均ヘディング角が算出されることができる。
Figure 2022081396000054
数式(1)において、
Figure 2022081396000055
は現在タイムステップの緯度を示し、
Figure 2022081396000056
は現在タイムステップの経度を示し、
Figure 2022081396000057
は以前タイムステップの緯度を示し、
Figure 2022081396000058
は以前タイムステップの経度を示す。緯度及び経度は、映像基盤参照位置

Figure 2022081396000059
の座標を介して把握することができる。数式(1)により、現在タイムステップと以前タイムステップとの間の平均ヘディング角
Figure 2022081396000060
が算出される。図10に示すように、3個以上のタイムステップが与えられた場合、与えられたタイムステップの間の平均ヘディング角が算出されることができる。
ジャイロスコープは、角速度を通じて回転を検出するセンサであるため、映像基盤参照位置が測定される各タイムステップでジャイロスコープの出力を格納し、格納された出力を用いたタイムステップの間の平均ヘディングの変化量が算出される。航法装置は、映像基盤参照位置を介して算出された平均ヘディング変化量とジャイロスコープの出力を通じて算出された平均ヘディング変化量とを比較し、その差が閾値よりも大きい場合に、関連の映像基盤参照位置(例えば、最も最近タイムステップの映像基盤参照位置)を誤りとして分類することができる。
図11は、一実施形態に係る車両側位方法を示す。図11を参照すれば、航法装置はステップS1110において、車両の位置センサを介して測定された車両の位置情報に基づいて第1参照位置を決定し、ステップS1120において、車両のカメラを通じて撮影された車両の映像情報に基づいて車両の第2参照位置を決定し、ステップS1130において、車両の走行状況に基づいて第2参照位置に関する収容範囲を設定し、ステップS1140において、第2参照位置を第1参照位置と比較して第2参照位置の誤差レベルを予測し、ステップS1150において、第2参照位置の誤差レベルを収容範囲と比較して車両の現在位置を推定する。その他に、車両側位方法については、図1~図10、図12、及び図13に基づいた説明が適用される。
図12は、一実施形態に係る航法装置の構成を示す。図12を参照すれば、航法装置1200は、プロセッサ1210及びメモリ1220を含む。メモリ1220はプロセッサ1210に接続され、プロセッサ1210によって実行可能な命令語、プロセッサ1210が演算するデータ又はプロセッサ1210によって処理されたデータを格納することができる。メモリ1220は、非一時的なコンピュータで読出し可能な媒体、例えば、高速ランダムアクセスメモリ及び/又は不揮発性コンピュータで読出し可能な格納媒体(例えば、1つ以上のディスク格納装置、フラッシュメモリ装置、又は、その他の不揮発性ソリッドステートメモリ装置)を含む。
プロセッサ1210は、図1~図11及び図13に基づいた説明による1つ以上の動作を実行するための命令語を実行する。例えば、プロセッサ1210は、車両の位置センサを介して測定された車両の位置情報に基づいて第1参照位置を決定し、車両のカメラを通じて撮影された車両の映像情報に基づいて車両の第2参照位置を決定し、車両の走行状況に基づいて第2参照位置に関する収容範囲を設定し、第2参照位置を第1参照位置と比較して第2参照位置の誤差レベルを予測し、第2参照位置の誤差レベルを収容範囲と比較して車両の現在位置を推定することができる。その他に、航法装置1200には、図1~図11及び図13に基づいた説明が適用され得る。
図13は、一実施形態に係る電子装置の構成を示す。図13を参照すれば、電子装置1300は、プロセッサ1310、メモリ1320、カメラ1330、センサ1340、制御系統1350、格納装置1360、入力装置1370、出力装置1380、及びネットワークインターフェース1390を含む。これらは通信バス1305を通じて通信できる。
電子装置1300は、センサ基盤の側位及び映像基盤の側位を介して車両の位置を推定し、推定された位置を用いた後続動作を行う。例えば、電子装置1300は車両制御装置に該当し、車両に関する様々な後続動作(例えば、走行機能制御、付加機能制御など)を行う。例えば、電子装置1300は、図1に示す航法装置100を構造的及び/又は機能的に含み、車両(例えば、自律走行車両)の一部として実現されることができる。
プロセッサ1310は、電子装置1300内で実行するための機能及び命令語を実行する。例えば、プロセッサ1310は、メモリ1320及び/又は格納装置1360に格納されている命令語を処理する。一実施形態によれば、プロセッサ1310は、センサ基盤の側位及び映像基盤の側位を介して車両の位置を推定し、推定された位置に基づいて車両の走行に関する制御命令を生成する。その他に、プロセッサ1310は、図1~図12に基づいて説明された1つ以上の動作を行うことができる。
メモリ1320は、車両側位のためのデータを格納する。メモリ1320は、コンピュータで読出し可能な格納媒体又はコンピュータで読出し可能な格納装置を含む。メモリ1320は、プロセッサ1310によって実行するための命令語を格納し、電子装置1300によってソフトウェア及び/又はアプリケーションが実行される間に関連情報を格納することができる。
カメラ1330は、ビデオ映像及び/又はスチール映像(写真)を撮影する。例えば、カメラ1330は、車両に設置され、車両の前方、側方、後方、上方、下方などの予め決定された方向で車両の周辺を撮影し、車両の走行に関する映像情報を生成することができる。一実施形態によれば、カメラ1330は、オブジェクトに関する深さ情報を含む3D映像を提供することができる。
センサ1340は、電子装置1300に関する視覚、聴覚、触覚などの情報をセンシングすることができる。例えば、センサ1340は、位置センサ、超音波センサ、レーダーセンサ、ライダセンサを含んでもよい。制御系統1350は、プロセッサ1310の制御命令に基づいて車両を制御する。例えば、制御系統1350は、車両の加速、かじ取り、制動のような走行機能と、扉の開閉、ドアの開閉、エアバックの活性化のような付加機能を含んでいる車両に関する様々な機能を物理的に制御することができる。
格納装置1360は、コンピュータで読出し可能な格納媒体又はコンピュータで読出し可能な格納装置を含んでもよい。一実施形態によれば、格納装置1360はメモリ1320よりも多い量の情報を格納し、情報を長期間格納することができる。例えば、格納装置1360は、磁気ハードディスク、光ディスク、フラッシュメモリ、フロッピーディスク又はが技術分野で知らされた異なる形態の不揮発性メモリを含んでもよい。
入力装置1370は、キーボード及びマウスを通した伝統的な入力方式、及びタッチ入力、音声入力、及びイメージ入力のような新しい入力方式を介してユーザから入力を受信される。例えば、入力装置1370は、キーボード、マウス、タッチスクリーン、マイクロホン、又は、ユーザから入力を検出し、検出された入力を電子装置1300に伝達できる任意の他の装置を含んでもよい。
出力装置1380は、視覚的、聴覚的又は触覚的なチャネルを通じてユーザに電子装置1300の出力を提供する。出力装置1380は、例えば、ディスプレイ、タッチスクリーン、スピーカー、振動発生装置、又はユーザに出力を提供できる任意の他の装置を含んでもよい。ネットワークインターフェース1390は、有線又は無線ネットワークを通じて外部装置と通信できる。
実施形態に係る方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、他の具現、他の実施形態及び請求範囲と均等なものなども後述する請求範囲の範囲に属する。
100 航法装置
410 矢印
411 位置
412 区間
420 矢印
421 位置
422 境界
510 第1映像基盤参照位置
511 第1収容領域
512 第1モデル推定基盤参照位置
520 第2映像基盤参照位置
521 第2収容領域
522 第2モデル推定基盤参照位置
710 収容領域
720 収容領域
800 地図
810 推定位置
820 周辺領域
1200 航法装置
1210 プロセッサ
1220 メモリ
1300 電子装置
1305 通信バス
1310 プロセッサ
1320 メモリ
1330 カメラ
1340 センサ
1350 制御系統
1360 格納装置
1370 入力装置
1380 出力装置
1390 ネットワークインターフェース

Claims (27)

  1. 車両の位置センサを用いて測定された前記車両の位置情報に基づいて第1参照位置を決定するステップと、
    前記車両のカメラを用いて撮影された前記車両の映像情報に基づいて前記車両の第2参照位置を決定するステップと、
    前記車両の走行状況に基づいて前記第2参照位置に関する収容範囲を設定するステップと、
    前記第2参照位置を前記第1参照位置と比較して前記第2参照位置の誤差レベルを予測するステップと、
    前記第2参照位置の前記誤差レベルを前記収容範囲と比較して前記車両の現在位置を推定するステップと、を含む、
    車両側位方法。
  2. 前記第2参照位置を決定する前記ステップは、前記映像情報に示された車線の幾何学情報に基づいて前記第2参照位置を決定するステップを含む、請求項1に記載の車両側位方法。
  3. 前記第2参照位置は、前記車両が属する車路に関する情報及び前記車両が属する前記車路内における前記車両の詳細位置に関する情報のうち少なくとも1つを含む、請求項1又は2に記載の車両側位方法。
  4. 前記車両の走行状況に基づいて前記第2参照位置に関する収容範囲を設定する前記ステップは、複数の走行状況のうち前記走行状況を決定するステップを含み、
    前記複数の走行状況は、交差路を走行する第1走行状況及びコーナーを回転して走行する第2走行状況のうち少なくとも1つを含む、
    請求項1乃至3のうちのいずれか1項に記載の車両側位方法。
  5. 前記収容範囲を設定する前記ステップは、前記走行状況に合わせて前記収容範囲の広さを選択的に調整するステップを含む、請求項1乃至4のうちのいずれか1項に記載の車両側位方法。
  6. 前記収容範囲を設定する前記ステップは、交差路を走行する第1走行状況に対する収容範囲に比べて、コーナーを回転して走行する第2走行状況に対してさらに広い収容範囲を設定するステップを含む、請求項1乃至5のうちのいずれか1項に記載の車両側位方法。
  7. 前記現在位置を推定する前記ステップは、前記第2参照位置の前記誤差レベルが前記収容範囲に属しない場合、前記第2参照位置の考慮を排除したまま前記現在位置を推定するステップを含む、請求項1乃至6のうちのいずれか1項に記載の車両側位方法。
  8. 前記現在位置を推定する前記ステップは、
    前記第2参照位置の前記誤差レベルが前記収容範囲に属しない場合、前記第1参照位置を前記車両の前記現在位置として推定するステップと、
    前記第2参照位置の前記誤差レベルが前記収容範囲に属する場合、前記第2参照位置及び前記第1参照位置の加重和に基づいて推定された新しい位置を前記現在位置として推定するステップと、を含む、
    請求項1乃至7のうちのいずれか1項に記載の車両側位方法。
  9. 前記誤差レベルを推定する前記ステップは、前記第2参照位置と前記第1参照位置との間の距離に基づいて前記第2参照位置の前記誤差レベルを決定するステップを含む、請求項1乃至8のうちのいずれか1項に記載の車両側位方法。
  10. 前記車両側位方法は、次のタイムステップで他の第2参照位置の他の収容範囲を設定するステップをさらに含み、
    前記他の収容範囲を設定するステップは、前記第2参照位置が前記収容範囲内ではない場合、前記他の収容範囲の広さを前記収容範囲の広さに比べてさらに広く設定するステップを含む、
    請求項1乃至9のうちのいずれか1項に記載の車両側位方法。
  11. 前記車両側位方法は、前記第2参照位置及び複数の以前タイムステップに対応する複数の第2参照位置に基づいて、前記第2参照位置に対応する参照ヘディング角の変化を決定するステップをさらに含み、
    前記現在位置を推定する前記ステップは、ジャイロスコープの出力と前記参照ヘディング角の前記決定された変化間の比較結果をさらに考慮して前記現在位置を推定するステップを含む、
    請求項1乃至10のうちのいずれか1項に記載の車両側位方法。
  12. ハードウェアと結合して請求項1~11のいずれか1項に記載の方法を実行させるために記録媒体に格納されたコンピュータプログラム。
  13. 車両の位置センサを用いて測定された前記車両の位置情報に基づいて第1参照位置を決定し、
    前記車両のカメラを用いて撮影された前記車両の映像情報に基づいて前記車両の第2参照位置を決定し、
    前記車両の走行状況に基づいて前記第2参照位置に関する収容範囲を設定し、
    前記第2参照位置を前記第1参照位置と比較して前記第2参照位置の誤差レベルを予測し、
    前記第2参照位置の前記誤差レベルを前記収容範囲と比較して前記車両の現在位置を推定する、
    プロセッサを含む、
    航法装置。
  14. 前記プロセッサは、前記第2参照位置と前記第1参照位置との間の距離に基づいて前記第2参照位置の前記誤差レベルを決定する、請求項13に記載の航法装置。
  15. 前記プロセッサは、
    前記第2参照位置の前記誤差レベルが前記収容範囲に属しない場合、前記第1参照位置を前記車両の前記現在位置として推定し、
    前記第2参照位置の前記誤差レベルが前記収容範囲に属する場合、前記第2参照位置及び前記第1参照位置の加重和に基づいて推定された新しい位置を前記現在位置として推定する、
    請求項13又は14に記載の航法装置。
  16. 前記航法装置は、現在位置に基づいて前記車両を制御する制御系統、前記位置センサ、及び前記カメラをさらに含む車両である、請求項13乃至15のうちのいずれか1項に記載の航法装置。
  17. 前記プロセッサは、交差路を走行する第1走行状況に対する収容範囲に比べてコーナーを回転して走行する第2走行状況に対してさらに広い収容範囲を設定する、請求項13乃至16のうちのいずれか1項に記載の航法装置。
  18. 前記プロセッサは、次のタイムステップで他の第2参照位置の他の収容範囲を設定するが、前記第2参照位置が前記収容範囲内ではない場合、前記他の収容範囲の広さを前記収容範囲の広さに比べてさらに広く設定する、請求項13乃至17のうちのいずれか1項に記載の航法装置。
  19. 前記航法装置は、
    命令語を格納するメモリをさらに含み、
    前記命令語が前記プロセッサで実行されれば、前記プロセッサは、前記第1参照位置を決定し、前記第2参照位置を決定し、前記収容範囲を設定し、前記第2参照位置を前記第2参照位置と比較して前記誤差レベルを予測し、前記第2参照位置の前記誤差レベルを前記収容範囲と比較して前記現在位置を推定する、
    請求項13乃至18のうちのいずれか1項に記載の航法装置。
  20. 車両の位置センサを用いて測定された前記車両の位置情報に基づいて第1参照位置を決定し、
    前記車両のカメラを用いて撮影された前記車両の映像情報に基づいて前記車両の第2参照位置を決定し、
    前記車両の走行状況に基づいて前記第2参照位置に関する収容範囲を設定し、
    前記第2参照位置を前記第1参照位置と比較して前記第2参照位置の誤差レベルを予測し、
    前記第2参照位置の前記誤差レベルを前記収容範囲と比較して前記車両の現在位置を推定し、
    前記現在位置に基づいて前記車両の走行に関する制御命令を生成する、
    プロセッサと、
    前記制御命令に基づいて前記車両を制御する制御系統と、を含む、
    車両制御装置。
  21. 前記車両制御装置は、前記カメラをさらに含む車両である、請求項20に記載の車両制御装置。
  22. 前記プロセッサは、前記第2参照位置と前記第1参照位置との間の距離に基づいて前記第2参照位置の前記誤差レベルを決定する、請求項20又は21に記載の車両制御装置。
  23. 前記プロセッサは、
    前記第2参照位置の前記誤差レベルが前記収容範囲に属しない場合、前記第1参照位置を前記車両の前記現在位置として推定し、
    前記第2参照位置の前記誤差レベルが前記収容範囲に属する場合、前記第2参照位置及び前記第1参照位置の加重和に基づいて推定された新しい位置を前記現在位置として推定する、
    請求項20乃至22のうちのいずれか1項に記載の車両制御装置。
  24. 車両の位置センサを用いて測定された前記車両の位置情報に基づいて第1参照位置を決定するステップと、
    前記車両のカメラを用いて撮影された前記車両の映像情報に基づいて前記車両の第2参照位置を決定するステップと、
    前記第2参照位置が誤り位置であるか否かの決定に基づいて、前記第1参照位置及び前記第2参照位置に基づいて前記車両の現在位置を推定することと、前記第1参照位置に基づいて前記車両の前記現在位置を推定することのいずれかを選択するステップと、
    前記選択の結果に基づいて前記現在位置を推定するステップと、を含み、
    前記第2参照位置が前記誤り位置であるか否かの前記決定は、前記車両の現在の走行状況に依存的な前記第2参照位置に関する誤差考慮に基づく、
    車両側位方法。
  25. 前記第2参照位置が前記誤り位置であるか否かの前記決定は、
    前記現在の走行状況の決定に依存的な収容範囲に基づき、
    前記第2参照位置の推定誤差が前記収容範囲内であるかに基づく、
    請求項24に記載の車両側位方法。
  26. 前記収容範囲は、交差路の状況に比べてコーナーを回る状況に広く設定されることを含み、少なくとも2つの異なる走行状況に対して相違に設定される、請求項25に記載の車両側位方法。
  27. 前記第2参照位置が前記誤り位置であるか否かの前記決定は、決定された第2参照位置が誤りであると決定された以前タイムステップ、及び前記車両のジャイロスコープの出力と前記第2参照位置に対応する参照ヘディング角の決定された変化間の比較のうち少なくとも1つ又は両方の考慮を含む、請求項24乃至26のうちのいずれか1項に記載の車両側位方法。
JP2021133828A 2020-11-19 2021-08-19 車両側位方法及び装置 Pending JP2022081396A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200155767A KR20220068710A (ko) 2020-11-19 2020-11-19 차량 측위 방법 및 장치
KR10-2020-0155767 2020-11-19

Publications (1)

Publication Number Publication Date
JP2022081396A true JP2022081396A (ja) 2022-05-31

Family

ID=77465895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021133828A Pending JP2022081396A (ja) 2020-11-19 2021-08-19 車両側位方法及び装置

Country Status (5)

Country Link
US (1) US11971257B2 (ja)
EP (1) EP4001844A1 (ja)
JP (1) JP2022081396A (ja)
KR (1) KR20220068710A (ja)
CN (1) CN114518119A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11702111B2 (en) * 2020-08-19 2023-07-18 Here Global B.V. Method and apparatus for estimating object reliability
CN113029129B (zh) * 2021-03-25 2022-10-11 北京百度网讯科技有限公司 车辆的定位信息的确定方法、装置及存储介质
CN115571156B (zh) * 2022-09-23 2023-12-26 东南大学 基于传感器融合的前车横向与纵向运动状态联合估计方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6615135B2 (en) * 2001-05-24 2003-09-02 Prc Inc. Satellite based on-board vehicle navigation system including predictive filtering and map-matching to reduce errors in a vehicular position
KR20080099573A (ko) 2007-05-10 2008-11-13 주식회사 현대오토넷 차선인식 시스템의 영상 보정 방법
US9720412B1 (en) * 2012-09-27 2017-08-01 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
JP5761162B2 (ja) 2012-11-30 2015-08-12 トヨタ自動車株式会社 車両位置推定装置
DE102013212235A1 (de) * 2013-06-26 2014-12-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Verarbeiten von Messdaten eines Fahrzeugs zur Bestimmung des Beginns einer Parkplatzsuche
US9081383B1 (en) 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
KR101558285B1 (ko) 2014-05-20 2015-10-13 경북대학교 산학협력단 주행 차로 인식 장치 및 그것의 주행 차로 인식 방법
KR101950175B1 (ko) 2016-08-02 2019-02-20 국민대학교산학협력단 차선정보 추정 방법
US10571913B2 (en) 2016-08-05 2020-02-25 Aptiv Technologies Limited Operation-security system for an automated vehicle
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
CA3033278A1 (en) 2016-10-03 2018-04-12 Agjunction Llc Using optical sensors to resolve vehicle heading issues
JP7053211B2 (ja) 2017-10-04 2022-04-12 株式会社Soken 運転支援装置
KR102463176B1 (ko) * 2017-10-16 2022-11-04 삼성전자주식회사 위치 추정 장치 및 방법
US11525688B2 (en) * 2017-12-15 2022-12-13 Samsung Electronics Co., Ltd. Method and apparatus for determining object position
WO2020004817A1 (ko) * 2018-06-26 2020-01-02 에스케이텔레콤 주식회사 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
JP7119720B2 (ja) 2018-07-30 2022-08-17 株式会社デンソー 運転支援装置
KR102483649B1 (ko) * 2018-10-16 2023-01-02 삼성전자주식회사 차량 위치 결정 방법 및 차량 위치 결정 장치
DE102018219602A1 (de) 2018-11-15 2020-05-20 Robert Bosch Gmbh Verfahren zum Erkennen von Kartenfehlern
KR102174729B1 (ko) 2018-11-30 2020-11-05 한국교통대학교산학협력단 랜드마크를 활용한 주행차로 인식 방법 및 시스템
KR102604298B1 (ko) * 2019-01-28 2023-11-17 에스케이텔레콤 주식회사 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체
US10984260B2 (en) * 2019-05-23 2021-04-20 GM Global Technology Operations LLC Method and apparatus for controlling a vehicle including an autonomous control system
KR102069560B1 (ko) 2019-11-06 2020-01-23 ㈜선영종합엔지니어링 Rtk 네트워크를 연동하여 측량지점의 실시간 오류 확인 및 보정이 가능한 이동식 측량시스템

Also Published As

Publication number Publication date
US20220155075A1 (en) 2022-05-19
US11971257B2 (en) 2024-04-30
EP4001844A1 (en) 2022-05-25
KR20220068710A (ko) 2022-05-26
CN114518119A (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
US12017663B2 (en) Sensor aggregation framework for autonomous driving vehicles
JP6975512B2 (ja) 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整
JP6873170B2 (ja) 加速カーブの投影に用いられるシステム及び方法
US10809726B2 (en) Sideslip compensated control method for autonomous vehicles
EP3659004B1 (en) Drifting correction between planning stage and controlling stage of operating autonomous driving vehicles
US10824153B2 (en) Cost design for path selection in autonomous driving technology
JP6494715B2 (ja) 自律走行車の速度制御率の動的調整方法
US20190318267A1 (en) System and method for training a machine learning model deployed on a simulation platform
JP2022081396A (ja) 車両側位方法及び装置
US20180143622A1 (en) Method to dynamically adjusting steering rates of autonomous vehicles
CN108688660B (zh) 运行范围确定装置
CN109215433A (zh) 用于自动驾驶仿真的基于视觉的驾驶场景生成器
JP6975775B2 (ja) 自動運転車両の高速道路における自動運転に用いる、地図及びポジショニングなしで車線に沿う走行方法
JP6779326B2 (ja) 複数のスレッドを使用して自動運転車両に用いられる基準線を生成するための方法及びシステム
EP3327530A1 (en) Method for determining command delays of autonomous vehicles
JP2019189214A (ja) 自動運転車の経路計画用のドリフト補正の方法
JP2018108801A (ja) 自律走行車の安定性を向上させるための方法及びシステム
JP2018084573A (ja) 頑健で効率的な車両測位用のアルゴリズム及びインフラ
JP2019501809A (ja) 自律走行車の速度を追従する方法及びシステム
JP2017138660A (ja) 物体検出方法、物体検出装置、およびプログラム
KR101965043B1 (ko) 정밀지도 생성 지역 결정 방법 및 장치
JP6804268B2 (ja) 駐車制御装置の姿勢推定方法、及び姿勢推定装置
CN111629947B (zh) 自动驾驶车辆的用于生成参考线的方法和系统
US10788839B2 (en) Planning-control collaboration design for low cost autonomous driving technology
CN113327456A (zh) 一种车道结构检测方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240808