JP2019510240A - 車両認知を提供するためのシステム及び方法 - Google Patents
車両認知を提供するためのシステム及び方法 Download PDFInfo
- Publication number
- JP2019510240A JP2019510240A JP2018568168A JP2018568168A JP2019510240A JP 2019510240 A JP2019510240 A JP 2019510240A JP 2018568168 A JP2018568168 A JP 2018568168A JP 2018568168 A JP2018568168 A JP 2018568168A JP 2019510240 A JP2019510240 A JP 2019510240A
- Authority
- JP
- Japan
- Prior art keywords
- location
- voxel
- vehicle
- signature
- agent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013507 mapping Methods 0.000 claims abstract description 62
- 238000012512 characterization method Methods 0.000 claims abstract description 12
- 239000003795 chemical substances by application Substances 0.000 claims description 123
- 230000008569 process Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000001413 cellular effect Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 21
- 230000001149 cognitive effect Effects 0.000 description 15
- 238000013459 approach Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000004807 localization Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012882 sequential analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3874—Structures specially adapted for data searching and retrieval
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Abstract
システム及び方法は、位置特定及びセマンティックマッピングを介して車両認知を提供する。位置特定は、マシンビジョンシステムから得られた重み付けされたボクセルデータをハッシュすることによって、ボクセルシグネチャの車両計算を含み、以前に知られたボクセルシグネチャ及び関連付けられる地理空間位置を含むシグネチャ位置特定テーブル内の計算されたシグネチャとキャッシュされたデータとの比較を含む。シグネチャの位置特定テーブルは、環境を横断してシグネチャを計算し、計算されたシグネチャ及び関連付けられる地理空間位置を中央サーバに報告するエージェントのスウォームによって発現される。車両が位置特定されると、セマンティックマッピングが行われる。車両のスウォームは、特定場所の環境を横断している間に遭遇したアセットを特徴付ける。アセットの特徴付けは、特定場所でキャッシュされたセマンティックマップ内の既知のアセットと比較することができる。観測されたアセットとアセット特性との間のオミッションとコミッションの差異は、特定場所のマップキャッシュと共に中央サーバに報告される。
Description
本開示は、一般に、自律型ロボットの操作に関し、特に、マシンビジョンシステムによる位置特定マップ及び三次元セマンティックマップの作成に関する。
ロボット工学の自律性を達成することは、継続的な目標であり、何十年にもわたって続いている研究開発のテーマとなっている。成功した実装の意味は、しばしば広く伝わっている。これは、人間、物資及び車両の両方を安全に、効率的に、迅速に移動する必要があるモビリティの場合である。移動自律型ロボットが現実になるためには、操作するために、それらの周囲の世界を知覚する必要がある。
最近のマシンビジョン技術の進歩により、自律性は実現に近づいている。カメラ、LiDAR、RADAR(他のものの中でも)は、ロボットがそれらの周囲から非常に豊富なデータを提供する。しかしこれには困難が伴う。これらのリアルタイムシステムによって収集されるデータの量は、搭載された限られたメモリと計算リソースにすぐに負担となる。生成されたときに取得したデータの全てを処理して、ロボットがその環境で行動することを可能にすることは、高価で面倒である。
ロボットまたは車両が走行している環境におけるインフラストラクチャの事前作成マップは、これらのシステムのリアルタイム要件を緩和するのに役立ち得る。さらに、マップは、ロボットが今後のインフラストラクチャがより良いルートを計画できるようになるように期待するのに役立ち得る。
移動自律型ロボットの1つの用途は、道路ネットワーク上の人や物資を運ぶ道路走行である。同様に、自律型列車は、鉄道インフラストラクチャに沿って走行する。大型または小型航空車両も、自律性を利用することができる。これらの用途及び他の多数の用途では、人間の介入を必要とせずに、長い距離にわたってインフラストラクチャに沿って継続的に走行することを意味する、大規模な大陸スケールで操作させることが望ましい可能性がある。
調査目的のためのテストトラックの3Dセマンティックマップを自律で作成することは、測量ではかなりよく理解されている方法であるが、これらのマップを広範囲に作成することは、依然として課題である。何千キロもの道路や鉄道のインフラストラクチャを測量及びデジタル化する従来の方法を使用するには、コストがかかり、時間がかかり、操作が複雑である。これは、結果のマップで要求される高い正確性、環境で認識されるアセットの数、及びこれらのマップを生成するために使用されるデータのサイズなどの要因によるものである。さらに、環境が絶え間なく変化すると、特定の地域を再マッピングする必要があり、それが、問題の複雑さを加える。
本明細書に開示された1つの態様によれば、3Dセマンティックマップを作成して更新するためのスウォームアプローチが提供される。実施形態は、大陸規模で、かつ高い頻度で利用することができる。スウォームは、マッピングされるインフラストラクチャに沿って走行する既存の自律型及び半自律型の車両で構成できる。システムは、収集されたデータの集約と調整、及びランタイム操作中に車両に格納されたキャッシュされたデータの更新のために、クラウドベースのバックエンドシステムを利用することができる。
実施形態の1つの態様は、マシンセンサデータを使用して得られた空間データから導出されたシグネチャ(例えば、ハッシュ)を使用する、正確な車載位置特定エンジンである。
特定の実施形態の別の態様は、ビジョンセンサを使用し、正確な位置決め構成要素を活用する、車載3Dセマンティックマップ作成及び検査システムである。車両は、環境を横断している間に遭遇したアセットを特徴付けることができ、それらの特徴付けを特定場所のマップキャッシュ内に格納されたセマンティックマップデータと比較することができる。オミッションとコミッションの差異は、マスターセマンティックマップを維持する評価のために、中央サーバに報告されることができる。マスターセマンティックマップからの更新は、ランタイム操作中に使用するためにスウォーム車両に送信することができる。
特定の実施形態の別の態様は、位置特定エンジンとマッピングエンジンとの間でインターフェースする車載認知エンジンであり、決定エンジンは、その位置及び方向に応じて、マッピングエンジンに車両周辺からのリアルタイムコンテキストを提供する。
これらの態様及び他の態様は、以下に詳細に記載される。
図面の詳細な説明
本発明は、多くの異なる形態の実施形態の影響を受けやすいが、図面に示されており、本明細書ではいくつかの特定の実施形態で詳細に説明され、本開示の理解は、当業者が本発明を実施し使用することを可能にする本発明の原理の例示として考慮されるべきであり、本発明を図示の実施形態に限定するものではない。
本発明は、多くの異なる形態の実施形態の影響を受けやすいが、図面に示されており、本明細書ではいくつかの特定の実施形態で詳細に説明され、本開示の理解は、当業者が本発明を実施し使用することを可能にする本発明の原理の例示として考慮されるべきであり、本発明を図示の実施形態に限定するものではない。
図1は、ロボットの自律操作を可能にする従来のシステム構成要素を示す。3Dセマンティックマップ100は、擬似静的アセットの場所、それらの特徴、及びそれらを互いに関連付けるセマンティックを含む。アセットは、毎日、毎週、四半期などのように頻繁に変更されることが予想されない場合、疑似静的とみなされる。自律型道路車両の場合、これらのアセットには、道路エンジニアによって設計された交通の許可されかつ推奨された流量を決定する道路上の特徴が含まれる。このセマンティックスは、道路上の様々なオブジェクト間の関係(例えば、交通信号とそれによって支配される道路上の関連車線との間の関連性)を記述する。マップ100に加えて、1組のマシンビジョンセンサ110が、ロボットの周囲の環境に関する情報をリアルタイムで提供する。マシンビジョンセンサ110は、LiDAR、RADAR、様々な周波数範囲のカメラなどを含むことができる。センサ110からの情報は、擬似静的オブジェクト及び動的静的オブジェクトの両方を表すことができる。道路車両のコンテキストでは、動的オブジェクトは、道路上の他の自動車、歩行者、サイクリストなど、移動中または定期的に場所を変化するオブジェクトであり得る。
場所エンジン120は、好ましくはセンチメートル単位で容易に測定される精度レベルを用いて、マップ上または絶対参照フレーム内(グローバル参照フレームなど)に自律型車両の場所を提供する。異なる用途は、異なるレベルの精度を必要とする。道路走行の場合、他の潜在的に非自律型車両との安全な操作のために、10cm未満の位置特定精度が望ましい場合がある。三次元セマンティックマップ100、マシンビジョンセンサ110、及び場所エンジン120は、全て判定エンジン130とインターフェースする。判定エンジン130は、電気駆動モータ、ブレーキシステム及びパワーステアリングシステムなどの車両操作の様々な態様を担当する搭載型システムに制御信号140を出力することによって、車両の作動(例えば、ステアリング、加速及び減速)を担当する。判定エンジン130の目的は、典型的には、安全な方法でソースと目的地との間のロボットのルートを計画し実行することである。
図2は、自律型自動車用の3Dセマンティックマップを作成する従来のアプローチを示す概略図である。この例は、同様の方法論を採用している他の用途及び産業に対して一般化することができる。従来のアプローチでは、マシンビジョンデータを収集する関心地域210を横断するために、測量グレードの車両群200が利用される。車両200は、地域210内の所定の所望の経路からデータを収集するために、計画されたルート211、212及び213を横断する。収集されたデータは、次いで格納及び管理のためにデータセンタ220に移動される。次に、センサデータからマップを作成するために半自動的プロセスが使用される。
図2に示す従来のアプローチは、いくつかの欠点を有する。このモデルでデータを収集するために必要な測量グレードの車両は高価で、一般的に最良の場合には車両数を数百台に制限する。米国だけで約600万キロの道路があると推定されている。したがって、限られた数の車両でこのネットワークを測量することは困難になる。各々の車両のルートは事前に計画し、データが有効であるために正しく実行する必要がある。環境は、道路(及びその他の輸送施設)上で絶えず変化しているため、地図を合理的に最新のものにするためには、同じ地域を毎年四半期毎に何度も再訪する必要がある。加えて、測量グレードの車両200は、通常、演算能力をほとんど搭載しておらず、オペレータが収集したデータをデータセンタ220に移送することを強いる。車両220は、測量されたキロメートル毎に10GBのデータのオーダーで収集することができるので、これはまた困難である。最後に、半自動化されたマップ作成プロセスは、人間の注釈データを伴い、エラーを起こしやすい。
図3は、ジオリファレンス方式で車両を位置特定するために一般的に使用されるシステムのブロック図表現である。グローバルナビゲーション衛星システム(GNSS)受信機300は、衛星信号を受信し、場所推定をフィルタリング構成要素310に提示する。慣性測定ユニット320は、ロボットの動きを高い速度で追跡する。(付加的にまたは代替的に、姿勢・機首基準システム(AHRS)も採用することができる)。IMU320は、車両の動きを正確に検知するために、複数のセンサ(例えば、加速度計、ジャイロスコープ、磁力計、気圧センサなど)を有することができる。フィルタ310は、センサ融合を用いて、GNSS300及びIMU320を介して受信されたデータから車両位置の洗練された推定を導出する。いくつかの実施形態では、フィルタ構成要素310が、GNSS300及びIMU320から受信したデータに拡張カルマンフィルタまたはパーティクルフィルタを適用するマイクロプロセッサを含むことが望ましい場合がある。
図3の位置特定システムは、いくつかの用途には十分なレベルの正確性及び信頼性を提供することができる一方、他の用途は、車両の位置を特定する際に高い精度及び精度の恩恵を受けることができるが、十分なレベルの精度を有する従来の位置特定システムが利用できなくなるか、あるいは法外に高価になる可能性がある。したがって、例えば、精密マッピング及び/または自律型車両操作のために、車両位置特定への他のアプローチ、及びそのような位置特定の利用を実装することが望ましい場合がある。そのために、図4は、ロボットの自律型操作を可能にするシステムの別の実施形態を示す。3Dセマンティックマップ100、マシンビジョンセンサ110、場所エンジン120は各々、中央認知エンジン125とインターフェースする。認知エンジン125は、車両コンテキストを判定エンジン130に通信する。認知エンジン125はまた、補助車両システム135とインターフェースすることができる。補助システム135は、典型的には車両データ及び通信バスに接続され、例えば検知及び安全アプリケーションを実装することができる。
最適な安全性と効率性を備えた機能を実行するには、判定エンジン130は、環境自体、ならびに同じ現場の他の車両や移動する実体に関する周辺からのコンテキストを必要とする。認知エンジン125は、その情報源を利用することによって、そのようなコンテキストを車両に提供することができる。認知エンジン125は、場所エンジン120による高い精度で決定された位置及び姿勢(例えば、以下に説明される操作を介して)を用いて、車両の周辺に関するマップ100内の3Dセマンティックマップ情報を徐々に流通させることができる。これは、輸送インフラストラクチャのような擬似静的アセットの幾何学的及びセマンティック情報を提供する。付加的に、マシンビジョンセンサ110は、補助システム135と共に、車両の近傍に移動するオブジェクトのコンテキストを提供することができる。認知エンジン125は、これらのソースの全てを組み合わせ、正確な車両位置及び車両特性を使用して、コンテキストを処理して判定エンジン130に通信し、それによって、判定エンジン130による意思決定に必要な認知負荷を低減する。
図5は、認知エンジン125を利用してセンサデータをフィルタリングして、判定エンジン130によって引き起こされる認知負荷を低減するコンテキストを示す。図5は、マシンビジョンセンサ110によって知覚される車両操作中の例示的な場面を概略的に示す。車両は、車線500内の道路に沿って走行しており、道路は反対方向に走行するために車線502も有する。センサ110は、道路中心線510及び右側車線マーカ512を検出し、それらの両方が、(1)3Dセマンティックマップ100内に存在するアセットセマンティックスと一致することが確認され、(2)認知エンジン125によって車両の現在の操作に関連すると検証され、したがって、車両操作における評価のために、認知エンジン125によって判定エンジン130に伝えられる。同様に、速度限界サイン520は、マシンビジョンセンサ110によっても観測され、判定エンジン130に伝えられる前に、車両操作に関連するものとして認知エンジン125によって検証される。対照的に、街路サイン525は、マシンビジョンセンサ110によって観測されるが、認知エンジン125によって識別された走行方向とは反対の方向に走行する車両に適用される3Dセマンティックマップ100内に示され、したがって、認知エンジン125は、サイン525に関する詳細を判定ンジン130に渡す必要はなく、それによって、その上の処理負荷を低減する。最後に、歩行者530は、マシンビジョンシステム110によって検出されるが、認知エンジン125が走行視野内の動的オブジェクトの存在及び場所を判定エンジン130に伝えるように、3Dマップ100内に擬似静的アセットとして示されていない。
認知エンジン125の最適な使用を容易にするために、正確な車両位置特定が重要であり得る。図6は、マシンビジョンシステム、例えば、マシンビジョンセンサ110のような、で実行された観測に対応する計算されたシグネチャを使用して、ロボットの位置特定を説明する。このようなマシンビジョンシステムは、三次元で地理空間データを捕捉することができる。ボリュームを三次元で分離し、通常、グリッド上で定義される。定義されたグリッド内の各々のボリュメトリック要素は、ボクセルと呼ばれる。ボクセルは、長さ、幅、深さが変化する場合があり、デカルト空間で定義された形状さえない場合もある。それらの場所は、典型的には、ボクセルの中心に位置する空間の座標として定義される。本明細書に示す特定の実施形態は、解析及び位置特定の目的でグリッドによって定義されたボクセルを関心地域として利用するが、グリッドベースのボクセル以外のタイプの関心地域に他の実施形態が容易に同じ技術を適用できると考えられる。ボクセルはまた、様々な形状にグループ化され、グローバル参照フレーム内の起点に割り当てられてもよい。ボクセルのグループ化は、グローバルフレーム内での車両の位置特定にも使用され得る。ボクセルのグループ化の例は、球、円筒、箱などとして成形されてもよく、同様に不規則な形状を有してもよい。
本明細書で説明される技術は、車両の位置及び向きを決定することによって車両の位置特定に使用され得る。方向は、好ましくは、三次元空間における剛体の6つの移動の自由度で定義され得る。すなわち、いくつかの実施形態では、1つ以上の自由度が、それらの自由度に沿ったデータ特性の知識によって正規化され得、それによって、それらの自由度に沿った位置特定調整を洗練する必要性が潜在的に除去される。
図6及び7のコンテキストにおいて、道路610を走行する車両600は、搭載型センサを用いてボクセル620を観測する(ステップS700)。観測されたデータは、エンコード機能800(図8)に渡される。エンコード機能800は、例えばハッシュアルゴリズムを使用して、固定長ボクセルシグネチャ出力810を計算する車両600内の搭載型コンピュータを介して実装される(ステップS705)位置特定に積極的に使用されるボクセルシグネチャ出力は、クエリテーブル内に(通常は一時的に)格納することができる。各々の車両は、異なるシグネチャと、これらのシグネチャを生成したボクセルの場所との間の既知のマッピングにアクセスすることができる(シグネチャ参照テーブルとしても参照され得る既知のボクセルシグネチャ及びそれらの各々に関連付けられる既知の良好な場所を格納する、位置特定シグネチャテーブル630)各々の車両が自らのマシンビジョンセンサを使用して、観測されたボクセルの距離及び姿勢をそれ自体に関して測定することにより、車両の相対位置を、先に判定された、観測されたボクセル(参照テーブルに格納されているような)の絶対的な場所を有するボクセル(クエリテーブルに格納されているような)と比較することによって、車両を定数項に位置付けることが可能になる。言い換えれば、車両搭載型計算エンジンは、車両のマシンビジョンセンサによって観測されたボクセルについて計算されたシグネチャ値についてボクセルシグネチャテーブル630を検索する(ステップS710)。ステップS710のいくつかの実施形態では、車両の近傍にあると考えられるボクセルを含むボクセルシグネチャテーブル630の一部またはサブセットを検索することができる。サブセットは、車両の最新の以前の位置推定に最も近い位置を参照テーブルに有するボクセルを含むことができる。一致するボクセルが検索される位置のサブセットは、例えば車両の位置、方向、及びその最終位置推定以来時間と共に長く最後に推定された走行速度に基づいて、及び/または最後の位置推定以来の慣性測定値に基づいて決定され得る、その最後の位置推定以来の車両の相対運動に基づいてさらに洗練され得る。一致する参照ボクセルシグネチャテーブルの部分を制限することによって、計算上の要件を低減することができる。
ボクセルシグネチャテーブル630のエントリに一致するシグネチャを有する観測された各々のボクセルに関して、推定された車両位置は、マシンビジョンシステムによって観測されたボクセルに対する距離及び姿勢を、テーブル630からルックアップされた既知のボクセル位置にオフセットすることによって決定される(ステップS715)。別の言い方をすれば、推定された車両位置は、参照テーブル内の一致したボクセルの相対位置をクエリテーブル(観測データ)と同じボクセルの位置と比較することによって決定されてもよい。シグネチャテーブル630内のボクセルシグネチャのルックアップが失敗した場合、以下でさらに説明するように、位置特定の有効性を評価する目的でシグネチャのマッチングの成功または失敗率を追跡することができるが、ボクセルは位置特定の目的で破棄される(ステップS720)。複数の一致したボクセルシグネチャ(例えば、平均化、または外れ値をフィルタリングした後の平均化)に基づいて決定された推定された車両位置を組み合わせることによって、車両位置の洗練された決定を判定することができる(ステップS730)。
場所エンジン120がその位置推定を洗練するにつれて、位置特定テーブル内で観測されたボクセルシグネチャと格納されたシグネチャとの位置特定比較が繰り返し行われてもよい。各々の反復中に、車両の位置推定が修正され、車両の特定場所のシグネチャとそのキャッシュされた位置特定シグネチャテーブルに存在するものとの一致率が計算される。次いで、目標は、共有座標フレーム内の位置特定エンジンの最も正確な位置及び方向推定に対応する一致率を最適化することになる。一致率に加えて、ボクセルの相対的な位置ならびにボクセルのグループ化の起点に対する相対的な位置を利用して、車両の位置を洗練することができる。
いくつかの実施形態では、車両の位置及び方向は、x、y、z、ロール、ピッチ及びヨーの6つの次元で定義することができる。次いでシグネチャのマッチングは、これらの次元の6つ全てを使用して実装できる。しかしながら、そのようなシグネチャ一致の実施形態は、計算集約的であり得る。計算が制約された環境では、他の方法論を使用していくつかの次元を説明すると有益な場合がある。道路エッジからの横方向の距離、及び/または地面に対する車両の高さ及び方向などのパラメータを使用して、特定の次元を説明するための方法を使用することができる。
エンコード機能800は、ボクセル内の観測データを分離し、それをシグネチャにエンコードする。図9は、関数800をエンコードすることによって実装することができるプロセスの実施形態を示す。関数800は、ボクセルの中心に関する点ジオメトリに基づいて、各点に重みを割り当てる(ステップS900)。(他の実施形態では、ボクセル内のデータの色空間やlidarリターンに関連付けられる強度などの要因に基づいて変化する重みを割り当てることを選択することができる。)重み付けは、次いでハッシュアルゴリズムを適用してシグネチャを導出するために使用される。ハッシュ関数の構成は、ボクセルの構成と共に、エンコード機能が測定システムの不完全性(ノイズ、異なるセンサ構成、環境条件の変化など)に対して回復することを保証するのに役立つことができる。たとえ異なるエージェントがボクセル内の異なる点の数を測定し、ある距離のばらつきがあるとしても、エンコード機能800の出力は、正確に位置特定された状態で高い一致率を保証するために同じであることが多い。
このシグネチャエンコード技術及び他のシグネチャエンコード技術は、様々な実施形態において利用され得る。好ましくは、シグネチャエンコード技術は、空間及び時間の異なる2つの瞬間から観測され、異なる測定システムを使用して空間内の同じ位置から導出されたシグニチャが、しばしば同じハッシュになることを確実にするのに役立つ。すなわち、各々のシグネチャの一意性は、通常、保証する必要はない。むしろ、シグネチャは、それらが空間内で一意的に組み合わせ的に位置付けされるように、十分に独特である必要があるだけである。エンコード機能自体内の一貫性に加えて、ボクセルグループ化のものと共に、ボクセルの形状及びパラメータ、ボクセルまたはグループ化毎に大量の情報(エントロピー)を伴って、検知及び環境におけるノイズ源に対する回復力を保持しながら、環境の一意性を捕捉する目的で変化させることもできる。これらの共通点は、次いで共通座標システムでのエージェントのナビゲートまたは登録(位置特定)、または交通信号(セマンティックマッピング)など、これらのシステムを利用するそのエージェントまたは他のエージェントに関連するコンテキスト情報の識別のためのランドマークとして使用できる。位置特定シグネチャテーブルと連携して位置特定エンジン120の究極の目的は、エージェントスウォームの全てのエージェントに共通の基準フレームを使用して、それらの観測の一貫性を保証する。
位置特定シグネチャテーブルを車両に持たせることは、上述の技術を用いた自律型車両の位置特定及びナビゲーションの重要な態様であるが、大きなナビゲーション可能な地域にわたるそのようなシグネチャテーブルの作成は、従来の調査車両群を使用する場合、コストが高く時間を要し得る。しかしながら、以下に説明する代替の技術は、ボクセシグネチャ・テーブルを作成して更新するためのスウォームアプローチを利用することができる。
図10は、位置特定シグネチャテーブルを作成する例示的なスウォームアプローチの概略ブロック図である。本質的に、エージェントのスウォーム(例えば、本明細書に記載されているようなマシンビジョンシステムを各々有する、環境内を走行する車両1000A、1000B、1000Cなど)は、それらの特定場の環境を観測し、それらが進む空間内のそれら自体の場所を記録して(例えば、図3に示すような合理的に正確な位置特定システムを使用して)空間内の同じ地域を横断する。エージェント1000は、ボクセル1010などの近傍のボクセルを各々測定してハッシュし、各々のボクセルについてボクセルシグネチャ及びボクセル場所仮説を生成する。
図11は、その特定場所の環境における各々のエージェント1000の操作を示し、一方、図12は、エージェント1000内の特定のシステムの概略ブロック図である。エージェント1000は、マシンビジョンセンサ1200、位置特定エンジン1210、3Dセマンティックマップ生成ランタイム1220及び部分的に存在するマップ1230を運ぶ、環境1100を通って走行する。図12のソフトウェア実装された構成要素は、好ましくは、搭載型コンピュータを使用して実装される。エージェント1000上のマシンビジョンセンサ1200は、停止サイン1110及び速度制限サイン1120などの特定場所の環境1100内のアセットを観測し、これらのアセットに対する車両の位置を評価する(例えば、LIDAR測距を使用する)。エージェント1000は、(例えば、マシンビジョンセンサ1200によって提供される)エージェント1000に対する観測されたアセットまたはボクセルの位置によって、エージェント1000の現在の場所(場所エンジン1210によって提供される)をオフセットすることによって、観測されたボクセルの絶対地理空間位置に関する仮説を展開することができる。観測されたボクセル場所のこれらの測定値は、各々の車両によって格納され、位置特定シグネチャテーブルが、搭載型データ格納装置内に効果的に作成される。次に、車両操作中にアクセス可能なワイドエリアネットワークデータ接続を介して及び/または部分マップ1230を含む車両格納装置を物理的に輸送することによってアクセスされる特定場所のデータ接続によって、以下に説明するように、さらなる処理のために、データをオフロードすることができる。
例えば、図10の例では、エージェント1000A、1000B及び1000Cの各々は、それらの搭載型センサを使用して共通のボクセル1010を観測することができる。ボクセル1010の場所に関する仮説は、車両の現在の位置の理解に関連して決定される。しかしながら、各々の車両1000は、それらの搭載型位置特定システムの不正確さ(例えば、IMU内のノイズ及びドリフトと結合したGNSS測定誤差)に起因する場所測定に関して何らかの誤差を有する。この誤差係数は、汎用検知及び位置特定装置(例えば、より高価で高い正確性の測量機器ではなく消費者グレードの機器)を備えた車両を含むスウォームにおいて特に重要である。その結果、各々のボクセルの場所仮説は、ボクセルが捕捉されたときの観測するエージェントの搭載型位置特定システムの瞬時誤差を反映することになる。経験した誤差が各々の車両で、及び異なる往復中で異なることを考慮すると、結果として位置特定シグネチャテーブルは異なる。
これらの位置特定システムで経験された誤差は、統計的処理としてモデル化することができ、十分な観測が与えられたボクセルの実際の場所の最良の推定の導出を可能にする。図13は、ボクセルが、その場所でy軸に示されている頻度を有する、ボクセルの位置(x軸上に示されている)の代表的なグラフを示す。多数の車両が所与のボクセルを観測するので、位置決定の分布が展開され得る。複数の車両からの限定された精度の位置データ1300の統計的処理を用いて、データを特徴づけ、観測されたボクセルついてのより正確な場所推定1310を導出することができる。例えば、いくつかの実施形態では、洗練された場所推定1310を導出するために、位置データ1300をフィルタリングして(例えば、外れ値データを除外する)、残りのデータ点を平均化することができる。この方法は、より高い地理参照正確性の達成に効果的である可能性がある。洗練された場所推定1310を場所仮説データ1300から導出するための他の機構も利用可能であり、その代わりに相対精度などの他の因子に対して最適化されてもよいと考えられ、理解される。そのような場合には、相対的な適合及びループ閉鎖法を用いて、交差する軌道からのデータの一貫性を達成することができる。
離散的な空間場所にリンクされたシグネチャはまた、観測時間に関連付けられ得る。所与の場所に対して生成されたシグネチャが、元の値から変化したことが観測された場合、この情報はセマンティックマッピングシステムに追加の価値を提供することができる。さらに、時間の経過と共に場所のシグネチャの変化がシグネチャテーブルに反映され、位置特定の性能を向上させることができる。時間領域で操作する統計的方法を用いて、場所のシグネチャコードで観測された変化が有意であるとみなされ、それによりセマンティックマップまたは位置特定システムの情報コンテンツを更新するために使用されるときを決定することができる。
十分な車両の到着が環境を捕捉した後で、各々の車両の正確な位置特定が達成されたと仮定すると、スウォームは、次いでスウォームの各々のメンバーの一部の特定場所の環境をマッピングすることができる。エージェントマシンビジョンセンサ1200は、場所エンジン1210への入力を駆動して、各々の車両の正確な位置及び姿勢を生成し、3Dセマンティックマップ作成ランタイム1220に供給する。エージェントセンサによって捕捉されたデータを使用して、マップ作成ランタイム1220は、アセットについて検索する際にその環境を分析する。アセット識別のための環境検知データを分析する例は、例えば、2016年1月20日に出願された本出願人の同時係属中の米国特許出願第15/002,380号に記載されており、参照により本明細書に組み込まれる。得られたベクトル(正確な位置と形状に割り当てられている)とセマンティックスは、次いで車両に存在する3Dセマンティックマップの既存の特定場所のコピーと一致する。既存のマップへの更新は、データの集約と、複数のエージェントへのマップ更新のブロードキャストを担う共通のクラウドバックエンドシステム1240と定期的に同期される。そのような更新は、クラウドバックエンドシステム1240と、システム1200、1210、1220または1230のうちの1つ以上との間のインターネットを介した通信を可能にするために、好ましくはエージェント車両内に統合されたセルラデータモデム(図示せず)を介してクラウドバックエンドシステム1240に送信され得る。他の実施形態では、エージェントが無線アクセスポイントに近接している場合のローカルエリア802.11Wifi接続を介した送信、及び/またはエージェントがデータオフロードセンターに戻るときのデータのアップロードなど、マップ更新をクラウドバックエンド1240に送達する代替手段を利用することができる。
図14は、バックエンドクラウドシステム1240におけるデータ集約の例を示す。2つのスウォームエージェント1400及び1402は、異なる往復(午後12:00でのエージェント1400及び午前3:00のエージェント1402)の間に同じ地域を訪れる。2つのエージェント1400及び1402は、本明細書に上述したように、位置特定シグネチャテーブルに正確に位置特定されており、縁石線1410をその走行方向の右側に現在マッピングしている(例えば、アセットの性質を特徴付けして及びアセットの地理空間位置を決定して)。両方の場合において、特定の駐車した自動車1420、1421及び1422はマシンビジョンセンサ経路の一部を遮り、縁石線の一部1430、1431及び1432を影にする。その結果、各々のエージェント(すなわち、エージェント1400からのマッピング1440及びエージェント1402からのマッピング1442)に格納された縁石線の不完全なマッピングが生じる。両方のエージェントは、それらの導出された縁石線を、搭載型セルラインターネット接続を介するなどして、共通のクラウドバックエンド1240に中継する。クラウドバックエンド1240は、(同じまたは他のエージェントによる以前の往復からの他の観測を潜在的に含む)縁石線1410のより完全なサーバ側マッピング1450を生成するために、マッピング1440及び1442を組み合わせることができる。縁石線のこのより完全なサーバ側のバージョン1450は、次いで各々の車両が改善されたマップの恩恵を受けるように、全てのスウォームにブロードキャストすることができる。
スウォームエージェントは、マップ上の様々なアセット間のセマンティック関連付けを導出するためにも利用できる。これらのセマンティック関連付けは、車両の判定エンジンを環境内で操作させるのに役立つ。アセットからのセマンティック意味の抽出は、ルールベース、または行動ベースの様式、または組み合わせで行うことができる。ルールベースの抽出では、マッピングエンジンは、物理インフラストラクチャを使用して、事前にプログラムされた一連の交通ルールに関連付けられる解釈を利用する。これは、特定のセマンティック関連付けを予期するのに役立つことができる。行動ベースの抽出では、車両は、その周辺のエージェントの動き(ならびに自律的ではなく運転手によって手動でナビゲートされたときの車両自体の行動)を観測して、アセットのセマンティック関連付けを導き出すことができる。
例えば、図15は、左折専用車線内に存在するスウォームエージェント1500を示す。このエージェント1500は、車線の性質を視覚的に示すサイン1510を既に知覚している。エージェントは、ルールベースのセマンティック抽出(例えば、左車線のみのレーンを示す左車線上に位置付けされた特定の外観を有するサインの知覚)を介して、サインを分類し、その意味を導出することができる。付加的に、エージェントは、前方のレーンの他の車両1520を観測することによって、行動ベースのセマンティック抽出において、その旋回軌跡1530を同じサインセマンティック意味に関連付けることができ、それにより、折返し車線を指定するサイン1510のセマンティック意味におけるエージェント1500の信頼レベルを高める。
図16と17は、特定のアセットのセマンティックな意味をサーバ側でどのように検証または強化できるかを示す。図16は、道路速度限界を時速30マイルから時速50マイルに変更するように操作する道路速度制限サイン1610を過ぎた、道路1605に沿って走行する複数の車両エージェント1600の概略図である。エージェント1600は、(例えば、ルールベースの意味抽出を介して)速度制限符号1610の速度制限値を解釈することができるが、クラウドサーバ1240上に実装されてもよい中央サーバソフトウェアアプリケーションは、特定の車線内の様々なエージェント1600(例えば、補助車両システム135による報告を介して、または車両位置の変化率を追跡することなどにより、定期的に車速の報告を定期的に取得することにより)慣性及び未処理または処理されたセンサデータを含む。図17は、道路速度1605に沿った直線位置に対してエージェント速度をプロットした、そのような例示的な車両速度データを示す。サイン1610の場所をエージェント1600の平均速度の変化と相関させることにより、セマンティックな意味をサーバ側行動ベースのセマンティック抽出によって強化することができる。道路上の車両が速度制限を常に守っているとは限らないことが理解される。それにもかかわらず、システムによって収集された情報は、セマンティックマッピングの目的のために依然として有用であり得る。
スウォームエージェントとサーバーシステムの両方で観測されたパターンは、同様のシナリオで分類され、かつ適用されることもできる。これは、アセットの場所と特徴のマッピングならびにアセット間のセマンティックスの導出の両方で行うことができる。例えば、左折サインと特定の左折レーンとを関連させるパターンは、同様のシナリオに適用することができ、同様のサイン及び車線が、異なる交差点で生じる。2016年1月20日に出願された出願人の同時係属中の米国特許出願第15/002,380号に適用されているものと同様のマシン学習技術を、マッピング及びセマンティックパターンの学習に採用することができる。
図18は、スウォームベースの位置特定及びマッピングに使用され得るシステムアーキテクチャの実施形態を示す。スウォームエージェント1840は、それらが環境を通って走行するときに、クラウドバックエンドシステム1800と相互作用する。ボクセルからエージェントによって導出された新しいシグネチャ及びそれらの場所推定1850は、クラウドサーバ1800に通信される。サーバ1800は、これらの測定値を異なる観測値として集約し、環境内の各々のシグネチャの場所の最良推定を導出するアプリケーションロジック1815を実装する。シグネチャは、マスター位置特定シグネチャテーブル(LST)1805に格納される。ボクセルが十分な精度で位置特定されると、ボクセルは、LST更新1852を介してクラウドサーバ1800からスウォームエージェント1840に通信され得る。エージェント1840は、次いでそのボクセル場所情報を利用して、特定場所でキャッシュされたLST1842を更新し、それらの位置をリアルタイムで洗練することができる。このプロセスにより、スウォームエージェントが同じ座標系を共有することが保証される。
同時に、正確に位置特定されたエージェント1840は、それらの周囲をマッピングし、それらの特定場所でキャッシュされた3Dセマンティックマップ(3DSM)1844に対するアセットオミッションならびにコミッション1860を検出し、クラウドデータセンター1800にアップロードする。クラウドデータセンタサーバ及び関連付けられるアプリケーションロジック1815は、これらの更新を遠隔的に受信し、異なる車両からの3DSMデータを集約する。各々のアセット検出アルゴリズムは、様々なレベルの信頼度に悩まされるため、特定の誤りは、個々のアセット識別基準に基づいて確定される。しかしながら、同じ地域を訪れる訪問回数が増えるにつれて、集計された報告された情報から導出された観測された仮説に対する信頼も高まる。セマンティックマップデータの逐次分析の例は、例えば、2016年1月20日に出願された、出願人の係属中の米国特許出願第15/002,380号に記載されており、参照により本明細書に組み込まれる。最終的に、サーバ1800は、マスター3Dセマンティックマップ1810の最新更新バージョンを維持し、検証された変更1862を残りのスウォームエージェント1840に定期的に通信する。
図19は、図2の従来の測量群アプローチとは対照的に、地理的地域1910をマッピングするためのスウォームベースのアプローチを示す。特に、大規模なスウォーム1900は、3Dセマンティックマップを作成する権限を与えられている。スウォームエージェント1900が定期的かつ繰り返して地域を訪問することを考えると、マップのリフレッシュレートも非常に高い。一般に、時間の経過と共に多くの変化を見る空間の場所は、ロボットのスウォームによって頻繁に訪問される。さらに、膨大な数の車両が各々の地域が十分に訪問されることを確実にするので、スウォームエージェント1900によって取られたルートは予め計画される必要はない。スウォームエージェント1900は、(様々なグレードの)様々なマシンビジョンセンサ及び(様々なグレードの)様々なGNSS及びIMUモデルを担持する。次いでこれらのエージェント上の検出プロセスも同様に変化する。いくつかの実施形態では、タスクを異なるエージェントに分散させて、マップの作成、処理、及び更新において様々な役割を実行することができる。ハードウェア構成(プロセッサ、メモリ、センサなど)、地理的場所、または履歴信頼性と品質メトリクスなどの役割に最も適した要因に基づいて、エージェントに個別のタスクを与えることができる(特定のエージェント構成は、特定のアセットまたはセマンティックス、例えば、車線マーキングのような、の識別に適した測量データを収集し、別のものはサイン識別に優れている)。時間の経過と共にエージェント構成の性能メトリックを追跡することで、タスクに最も適したエージェントの知識が、必要性と構成の両方として連続的に更新することができる。
既知のエージェントは、エージェントがクラウドインフラストラクチャ1920を使用してジョブサーバにアナウンスするクライアント−サーバモデルを介して追跡することができ、次いでタスク優先度、ハードウェア要件、エージェントの場所、類似のエージェントの既知の性能履歴などの要因に基づいてジョブキューからエージェントにタスクを与えることができる。スウォームエージェントは、未処理のセンサデータを送信する必要がなく、大きく圧縮された場所シグネチャ及び3Dベクトル及びセマンティックスをクラウドバックエンドと一緒に送信する必要がないので、大量のセンサデータを移動する問題は消滅する。本質的に、計算はエージェントの搭載型計算リソース上で可能な限り実施され、バックエンドサーバ1920は、データの集約及び検証、及びエージェントへの更新の送信を担当する。これにより、最新の3Dセマンティックマップ作成のための自動化されたスケーラブルな方法が可能になる。
新しい地域を訪問するとき、スウォームは、即座に地域のアセットとセマンティックスのマッピングを開始することができない。スウォームエージェントが正確に位置を自体で決めるためには、これらの地域の位置特定シグネチャテーブルを構築する必要がある。これが達成されたときだけ、エージェントはこれらの地域のマッピングを確実に開始できる。
位置特定とマッピングのためのスウォームアプローチは、多数の車両に対して効果的に実装され得るが、単一の車両が異なる時間に地域を横断しても同じアプローチがうまく利用される場合がある。車両の機器に固有の変動は、地域自体が変更されていなくても、地域が横断されるたびに通常はわずかに異なるデータをもたらす。単一のエージェントからであっても、複数の異なる往復からの観測を組み合わせることによって、時間の経過と共に位置特定テーブルとセマンティックマッピングが改善される可能性がある。
図20は、エージェントの位置特定とエージェントの活動との間の例示的な関係を示しており、プロット2000は、時間の経過と共にエージェントのレベルの位置特定精度の例を示している。時間T2010の前に、エージェントの位置特定精度は、閾値レベルT2020を下回ったままであり、したがって、エージェントの搭載型アクティビティは、前述のように、地域のより完全で正確な位置特定テーブルを構築しようとするため、位置特定に重点を置いている。エージェントについての位置特定精度のレベルが閾値T2020を超えて増加すると、エージェントは、好ましくは位置特定シグネチャテーブルの継続的な構築と同時に、マッピングアクティビティを追加する。位置特定の精度は、例えば、エージェントが、時間の経過と共に首尾よく一致したシグネチャの数または割合(すなわち、エージェントの観測されたシグネチャとキャッシュされたLST1142に存在するシグネチャとの間の一致の数)を追跡することによって決定することができる。車両上で実行される位置特定エンジンは、空間時間間隔にわたって、ボクセルまたはボクセルのグループに一致する頻度に基づいて、異なるモダリティを実装することができる。例示的な実施形態では、地域が以前に訪問されていないときに1つのモードが起動され、地域が一貫して位置特定するのに十分でない部分シグネチャテーブルを有するときに別のモードが使用され、十分なシグネチャ及びそのグループがテーブル内に存在し、車両がその軌道を一貫して修正することができるときに第3のモードを適用することができる。モダリティ間の遷移は、車両の近傍の観測ボクセルと特定位置シグネチャ参照テーブルに存在するボクセルとの間のシグニチャ一致における一貫性に依存し得る。これらの異なるモダリティは、エージェントからの情報がクラウドアプリケーションサーバ1800でどのように受信されるかに影響を及ぼし得る。したがって、マスター位置特定シグネチャテーブル1805またはマスター3Dセマンティックマップ1810への寄与は、それらの寄与が車両の端部で生成された位置特定モードに基づいて、より高いまたはより低いレベルの信頼性を与えることができる。
図21は、地図の作成と検査のための典型的なシステム操作、及びここに提示されたフレームワークにおける車両の認知及び判定エンジンとのインターフェースを示す。種々のセンサ及び位置特定シグネチャテーブルを用いて、車両は、正確な場所を取得する(ステップS2100)。車両のこの場所と所望の目的地に基づいて、関連する3Dセマンティックマップデータが特定場所でキャッシュされたマップからロードされる(ステップS2105)。車両が環境を通って進むにつれて、車両はそのセンサを用いてその周囲を観測する(ステップS2110)。3つのケースが発生する:
a.マップ内に存在するアセットが環境内で検出されると、それらは、認知エンジン125に転送され、それは、それらを使用して車両周辺からコンテキストを抽出し、そのコンテキストを判定エンジン130に送信する(ステップS2120)。
b.マップ上に存在するアセットが環境内で検出されていない場合には、これらのオミッションをマップ更新装置に通知する(ステップS2130)。マップ更新装置は、クラウドサーバとのマップ差異の通信を担当する特定場所のアプリケーションモジュールである。
c.マップに存在しないアセットが環境内で検出されると、それらは車両の特定場所の認知エンジン125に転送され、マップ更新装置のコミッションのリストに追加される(ステップS2140)。
a.マップ内に存在するアセットが環境内で検出されると、それらは、認知エンジン125に転送され、それは、それらを使用して車両周辺からコンテキストを抽出し、そのコンテキストを判定エンジン130に送信する(ステップS2120)。
b.マップ上に存在するアセットが環境内で検出されていない場合には、これらのオミッションをマップ更新装置に通知する(ステップS2130)。マップ更新装置は、クラウドサーバとのマップ差異の通信を担当する特定場所のアプリケーションモジュールである。
c.マップに存在しないアセットが環境内で検出されると、それらは車両の特定場所の認知エンジン125に転送され、マップ更新装置のコミッションのリストに追加される(ステップS2140)。
本明細書で開示されるいくつかの実施形態で提示されるマシンビジョンシステムは、自律型システム及び運転援助システムなどの他の搭載型システム(すなわち補助システム135)とも通信することができる。これらのシステム間で情報を交換することにより、位置特定シグネチャ生成ならびに3Dセマンティックマッピング及び検査が強化され、それによって、潜在的にアセットの検出の正確性を高め、及び/またはマシンビジョンデータから加工物を除去することができる。そのような統合は、車両のデータバス(例えば、車内のCANバス、または電車内のMVB)を包含することができる。車両の操舵角、制動/スロットル、速度などの情報は、慣性システム及びマシンビジョンシステム内のノイズのあるセンサデータ源を説明するために利用されてもよい。本明細書の例示的な実施態様では、位置特定及びマッピングエンジンは、車両上の運転支援システムの出力を利用することができる。そのようなシステムは、車両の近くの動的オブジェクト(例えば、他の車両、またはサイクリスト)を検出することができる。これらのオブジェクトは、マシンビジョンデータに影をつくることができ、車両がそれを越えているのを観測するのを防ぐので、したがって、これらのセクションからの未処理センサデータを除去することができる。
本発明の特定の実施形態は、明瞭化及び理解のために詳細に記載されているが、前述の説明及び図面は本発明を説明及び例示するに過ぎず、本発明はこれに限定されない。当業者の前に本発明の開示を有すれば、当業者は、本発明の範囲または添付の特許請求の範囲から逸脱することなく、本明細書に開示されたものに対して修正及び変形を行うことができることが理解されよう。
Claims (32)
- 搭載型マシンビジョンセンサを有する車両を位置特定するコンピュータ実装方法であって、
前記マシンビジョンセンサによって、1つ以上のボクセルの各々に関連付けられたボクセルデータを観測することと、
各々のボクセルについての前記ボクセルデータを、コンピュータ実装エンコード機能に適用することによって、前記ボクセルの各々についてのボクセルシグネチャを計算することと、
前記ボクセルシグネチャをボクセルシグネチャ位置特定テーブル内でルックアップすることであって、前記ボクセルシグネチャ位置特定テーブルが、前記車両に近接するボクセルについての複数のボクセルシグネチャと、各々のボクセルシグネチャについて、関連付けられた既知の良好な場所と、を含む、ルックアップすることと、
前記ボクセルシグネチャ位置特定テーブル内に一致したシグネチャを有する1つ以上のボクセルについて、前記ボクセルシグネチャ位置特定テーブル内の前記ボクセルシグネチャに関連付けられた既知の場所を、前記マシンビジョンシステムによって決定された前記観測されたボクセルに対する前記車両の位置でオフセットすることによって、推定された車両場所を決定することと、を含む、方法。 - 前記ボクセルの各々についてボクセルシグネチャを計算する前記ステップが、車載コンピュータによって実行され、かつ
前記ボクセル内のそれらのジオメトリ及びそれらの信号特性に基づいて、前記ボクセル内のデータ点に重みを割り当てるサブステップと、
前記重み付けされたボクセルデータを、ハッシュアルゴリズムに適用して、固定長のボクセルシグネチャ出力を生成するサブステップと、を含む、請求項1に記載の方法。 - 推定された車両場所を決定する前記ステップが、前記ボクセルシグネチャ位置特定テーブルにおいて一致した複数のボクセルシグネチャの各々について実行され、前記方法が、観測されたボクセルに対して決定された前記推定された車両場所のうちの2つ以上に基づいて洗練された車両位置推定を組み合わせ的に計算するステップをさらに含む、請求項1に記載の方法。
- 前記方法が、ネットワーク接続されたサーバから、前記ボクセルシグネチャ位置特定テーブルの参照コンテンツを前記車両にダウンロードするステップをさらに含み、
前記ボクセルの各々についてのボクセルシグネチャを計算する前記ステップが、前記計算されたボクセルシグネチャ及び関連付けられた観測された場所をクエリテーブル内に格納するサブステップを含み、
推定された車両場所を決定する前記ステップが、前記参照テーブル及び前記クエリテーブルの両方における一致したボクセルの相対位置を決定するサブステップを含む、請求項1に記載の方法。 - 洗練された車両位置推定を計算する前記ステップが、剛体の6つの自由度の全てにおいて車両位置及び方向推定値を調整することと、特定場所で観測されたボクセルが前記参照テーブルに存在するボクセルと一致するように繰り返し試みることと、を含む、請求項3に記載の方法。
- 特定場所で計算されたボクセルシグネチャが、前記ボクセルシグネチャ位置特定テーブルに格納されたシグネチャと一致する頻度に基づいて、位置特定精度のレベルを決定するステップをさらに含む、請求項3に記載の方法。
- 洗練された車両位置推定を計算する前記ステップが、前記推定された車両場所のうちの2つ以上を平均化する前に外れ値をフィルタリングすることをさらに含む、請求項3に記載の方法。
- 前記ボクセルシグネチャをボクセルシグネチャ位置特定テーブル内でルックアップする前記ステップが、前記車両位置の以前の推定に基づいて決定された前記ボクセルシグネチャ位置特定テーブルのサブセット内で前記ボクセルシグネチャをルックアップすることを含む、請求項1に記載の方法。
- 前記ボクセルシグネチャ位置特定テーブルの前記サブセットが、前記車両位置の前記以前の推定からの前記車両の相対的な動きに基づいてさらに決定される、請求項8に記載の方法。
- 車両の特定場所の環境への参照を介してその絶対地理空間位置を決定する際に、車両によって使用される車両位置特定テーブルを作成する方法であって、
1つ以上の車両によって、特定場所の環境の複数の横断に従事することであって、各々の車両が、搭載型マシンビジョンセンサ及び搭載型コンピュータを有する、従事することと、
複数のボクセルの各々について、各々の横断中に、位置特定テーブル内の特定場所に両方とも格納されるボクセルシグネチャ及びボクセル場所仮説を前記ボクセルの各々について生成するために、観測することと、
前記横断から位置特定テーブルを集約することと、
各々の観測されたボクセルについて、前記集約された位置特定テーブル内の共通のボクセルシグネチャを共有するボクセル場所仮説に基づいて、洗練されたボクセル場所仮説を組み合わせ的に決定することと、を含む、方法。 - 位置特定テーブルを集約する前記ステップが、前記車両からワイドエリアデータネットワークを介して中央データ処理コンピュータに、ボクセルシグネチャ及び関連付けられる場所仮説を含む位置特定テーブルコンテンツを、各々の車両によって、送信することを含む、請求項10に記載の方法。
- 各々の横断中に、複数のボクセルの各々を観測する前記ステップが、その特別なボクセル場所について抽出されたシグネチャと共に各々のボクセルが観測された時間を、前記位置特定テーブル内の特定場所に格納するサブステップをさらに含む、請求項10に記載の方法。
- 洗練されたボクセル場所仮説を組み合わせ的に決定する前記ステップが、共通のボクセルシグネチャを共有する前記集約された位置特定テーブル内のボクセル場所仮説をフィルタリングすることを含む、請求項10に記載の方法。
- 洗練されたボクセル場所仮説を組み合わせ的に決定する前記ステップが、前記フィルタリングされたボクセル場所仮説を平均化することをさらに含む、請求項13に記載の方法。
- 洗練されたボクセル場所仮説を組み合わせ的に決定する前記ステップが、外れ値位置推定値をフィルタリングすることをさらに含む、請求項13に記載の方法。
- 前記中央データ処理コンピュータから各々の車両によって、更新されたマスター位置特定シグネチャテーブルを受信するステップをさらに含む、請求項11に記載の方法。
- 各々がマシンビジョンセンサ及び位置特定エンジンを有する複数のエージェントを使用して、特定場所の環境の三次元セマンティックマップを作成する方法であって、
セマンティックマッピングのために1つ以上のアセットを有する環境内で各々のエージェントを位置特定することと、
前記環境を通って走行中に各々のエージェントによって前記環境内のアセットをマッピングし、同時に前記マッピングされたアセットを特徴付ける情報を各々のエージェントによって特定場所に格納することと、
ランタイム操作中に前記エージェントの各々によって、前記エージェントのマッピングされたアセット情報をマスターサーバ側のアセットマップに集約するために、前記マッピングされたアセットを特徴付ける情報を中央マッピングサーバに送信することと、を含む、方法。 - セマンティックマッピングのための1つ以上のアセットを有する環境内で前記エージェントを位置特定する前記ステップが、
前記マシンビジョンセンサによって、1つ以上のボクセルの各々に関連付けられたボクセルデータを観測するサブステップと、
各々のボクセルについての前記ボクセルデータを、コンピュータ実装エンコード機能に適用することによって、前記ボクセルの各々についてボクセルシグネチャを計算するサブステップと、
前記ボクセルシグネチャをボクセルシグネチャ位置特定テーブル内でルックアップするサブステップであって、前記ボクセルシグネチャ位置特定テーブルが、前記車両に近接するボクセルについての複数のボクセルシグネチャと、各々のボクセルシグネチャについて、関連付けられる既知の良好な場所と、を含む、ルックアップするサブステップと、
前記ボクセルシグネチャ位置特定テーブルにおいて一致したシグネチャを有する1つ以上のボクセルについて、前記マシンビジョンシステムによって決定された前記観測されたボクセルに対する前記車両の位置によって、前記ボクセルシグネチャ位置特定テーブル内の前記ボクセルシグネチャに関連付けられた既知の場所をオフセットすることによって、推定された車両場所を決定するサブステップと、を含む、請求項17に記載の方法。 - 前記マッピングされたアセットを特徴付ける情報を送信する前記ステップが、前記マッピングエージェントのランタイム操作中に無線セルラデータ接続を介して前記マッピングされたアセットを特徴付ける情報を送信することを含む、請求項17に記載の方法。
- 前記マッピングされたアセットを特徴付ける情報を送信する前記ステップが、
前記マッピングされたアセットを特徴付ける前記観測された情報と、前記マッピングされたアセットに関連付けられる特定場所でキャッシュされたマッピングデータとの間の1つ以上の差異を識別するサブステップと、
前記差異を、前記中央マッピングサーバに送信するサブステップと、を含む、請求項17に記載の方法。 - 共通アセットに関連付けられる複数のエージェントから受信したアセット情報を前記中央マッピングサーバによって前記共通アセットのサーバ側マップに結合するステップをさらに含む、請求項17に記載の方法。
- 各々のエージェントによって、中央マッピングサーバから受信したマスターセマンティックマップコンテンツをキャッシュするステップをさらに含み、
前記環境内のアセットをマッピングする前記ステップが、前記キャッシュされたマスターセマンティックマップに反映されていない前記特定場所の環境内のアセットを観測することを含み、
前記マッピングされたアセットを特徴付ける情報を送信する前記ステップが、アセットオミッションを前記中央マッピングサーバに報告することを含む、請求項17に記載の方法。 - 様々なハードウェア仕様を有するマシンビジョン及び位置特定システムを有する複数のエージェント車両を使用して、特定場所の環境の三次元セマンティックマップを作成する方法であって、
前記エージェントのマシンビジョンハードウェアによって実行されるボクセル観測に基づいてボクセルシグネチャを計算し、シグネチャ位置特定テーブル内で計算された前記ボクセルシグネチャをルックアップして前記エージェント位置が決定されるボクセル参照位置を決定することにより、環境内にそれら自体を正確に位置特定する際に、前記エージェント車両によって使用されるために、前記エージェント車両の各々にボクセルシグネチャ位置特定テーブルを、中央マッピングサーバによって、提供することと、
前記複数のエージェント車両からの所与のアセットの複数のセマンティックマップの特徴付けを、前記中央マッピングサーバによって、受信することであって、前記特徴付けがベクトル及びセマンティックスを含む、受信することと、
前記複数のエージェントの車両から前記複数の特徴付けに統計的処理を適用することによって、前記所与のアセットのマスターセマンティックマップの特徴付けを決定することと、を含む方法。 - 前記複数の特徴付けに統計的処理を適用する前記ステップが、外れ値を除外するアセット地理空間位置の特徴付けをフィルタリングすることと、前記フィルタリングされた位置を平均して洗練された場所推定を決定することと、を含む、請求項23に記載の方法。
- 前記中央マッピングサーバによって、各々のエージェント内に存在する前記マシンビジョン及び位置特定システムを特徴付ける情報を受信する先行ステップと、
前記選択されたエージェントのマシンビジョンまたは位置特定システムの前記特徴付けに少なくとも部分的に基づいてマッピングタスクのための1つ以上のエージェントを選択する先行ステップと、
前記選択されたエージェントに、アセットの特徴付けのためのマッピングタスクを送信する先行ステップと、を含む、請求項23に記載の方法。 - 前記中央マッピングサーバによって、各々のエージェントの履歴性能を正確にマッピングするアセットで評価する先行ステップと、
前記エージェントの履歴マッピング性能の前記評価に少なくとも部分的に基づいて、マッピングタスクのための1つ以上のエージェントを選択する先行ステップと、
前記選択されたエージェントに、アセットの特徴付けのためのマッピングタスクを送信する先行ステップと、を含む、請求項23に記載の方法。 - マッピングタスクのために1つ以上のエージェントを選択する前記ステップが、マッピングタスクのための1つ以上のエージェントを、以下の基準、各々の特定のエージェントのタスク優先度、エージェント場所、既知の性能履歴、及び同様のハードウェア仕様を有するエージェントの既知の性能履歴、のうちの1つ以上に少なくとも部分的に基づいて選択することをさらに含む、請求項25に記載の方法。
- 前記中央マッピングサーバによって、前記所与のアセットの更新されたマスターセマンティックマップの特徴付けを、前記複数のエージェント車両に送信するステップをさらに含む、請求項23に記載の方法。
- 各々が、マシンビジョンセンサ及び位置特定エンジンを有する複数のエージェント車両を使用して、特定場所の環境の三次元セマンティックマップを作成する方法であって、
各々のエージェント車両によって、前記車両が前記特定場所の環境を横断する間に位置特定される位置特定精度のレベルを評価することと、
位置特定精度の前記レベルがエージェント車両についての閾値レベルを下回ると、前記キャッシュされた位置特定テーブル内のシグネチャと比較するため、ボクセルシグネチャを計算して関連付けられる地理空間位置を決定するためにその車両のマシンビジョンシステムを利用することと、ランタイム操作中に計算されたシグネチャ及び関連付けられる地理空間位置を中央マッピングサーバに報告することと、
位置特定精度の前記レベルがエージェント車両についての閾値レベルを超えるとき、その車両マシンビジョンシステムを利用して前記特定場所の環境内のアセットをマッピングすることと、を含む、方法。 - その車両マシンビジョンシステムを利用して前記特定場所の環境内のアセットをマッピングする前記ステップが、
アセットが、特定場所でキャッシュされたセマンティックマップに格納されたアセット情報と一致してマッピングされている場合、前記アセットを特徴付ける情報を、車両認知エンジンに送信することと、
特定場所でキャッシュされたセマンティックマップに反映されたアセットが前記車両マシンビジョンシステムによって観測されない場合、前記アセットのオミッションを中央マッピングサーバに報告することと、
アセットが前記車両マシンビジョンシステムによって特定場所の環境内に観測されるが、前記特定場所でキャッシュされたセマンティックマップ内に反映されない場合、前記アセットを特徴付ける情報を前記車両認知エンジンに送信し、前記アセットの前記存在を前記中央マッピングサーバに報告することと、を含む、請求項29に記載の方法。 - 各々のエージェント車両によって位置特定精度の前記レベルを評価する前記ステップが、特定場所で計算された位置特定シグネチャが前記キャッシュされた位置特定テーブル内に格納されたシグネチャと一致する前記頻度を評価することを含む、請求項29に記載の方法。
- 前記ボクセルシグネチャが、重み付けされたボクセルデータをハッシュすることによって計算される、請求項29に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662308798P | 2016-03-15 | 2016-03-15 | |
US62/308,798 | 2016-03-15 | ||
PCT/US2017/022598 WO2017161054A1 (en) | 2016-03-15 | 2017-03-15 | Systems and methods for providing vehicle cognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019510240A true JP2019510240A (ja) | 2019-04-11 |
Family
ID=59847182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018568168A Pending JP2019510240A (ja) | 2016-03-15 | 2017-03-15 | 車両認知を提供するためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (4) | US10366289B2 (ja) |
EP (1) | EP3430352A4 (ja) |
JP (1) | JP2019510240A (ja) |
CN (2) | CN116659526A (ja) |
WO (1) | WO2017161054A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019070640A (ja) * | 2017-10-05 | 2019-05-09 | 富士ゼロックス株式会社 | パーティクルフィルタを使用した位置特定のために、事前分布としてグラフベースのマップ情報を利用するシステム及び方法、コンピュータ実施方法、プログラム、及びシステム |
JPWO2021005734A1 (ja) * | 2019-07-10 | 2021-01-14 |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9616773B2 (en) | 2015-05-11 | 2017-04-11 | Uber Technologies, Inc. | Detecting objects within a vehicle in connection with a service |
US10712160B2 (en) | 2015-12-10 | 2020-07-14 | Uatc, Llc | Vehicle traction map for autonomous vehicles |
US9840256B1 (en) | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
US9841763B1 (en) | 2015-12-16 | 2017-12-12 | Uber Technologies, Inc. | Predictive sensor array configuration system for an autonomous vehicle |
US9990548B2 (en) | 2016-03-09 | 2018-06-05 | Uber Technologies, Inc. | Traffic signal analysis system |
WO2018002910A1 (en) | 2016-06-28 | 2018-01-04 | Cognata Ltd. | Realistic 3d virtual world creation and simulation for training automated driving systems |
US10474162B2 (en) | 2016-07-01 | 2019-11-12 | Uatc, Llc | Autonomous vehicle localization using passive image data |
US10066946B2 (en) * | 2016-08-26 | 2018-09-04 | Here Global B.V. | Automatic localization geometry detection |
US11067996B2 (en) | 2016-09-08 | 2021-07-20 | Siemens Industry Software Inc. | Event-driven region of interest management |
US10585409B2 (en) | 2016-09-08 | 2020-03-10 | Mentor Graphics Corporation | Vehicle localization with map-matched sensor measurements |
US10317901B2 (en) | 2016-09-08 | 2019-06-11 | Mentor Graphics Development (Deutschland) Gmbh | Low-level sensor fusion |
US10678240B2 (en) | 2016-09-08 | 2020-06-09 | Mentor Graphics Corporation | Sensor modification based on an annotated environmental model |
US10645156B2 (en) * | 2016-12-12 | 2020-05-05 | University Of South Florida | Tools and methods for distributed spatial control of swarms via multiplex information networks |
US10401500B2 (en) * | 2016-12-30 | 2019-09-03 | DeepMap Inc. | Encoding LiDAR scanned data for generating high definition maps for autonomous vehicles |
US10252717B2 (en) | 2017-01-10 | 2019-04-09 | Toyota Jidosha Kabushiki Kaisha | Vehicular mitigation system based on wireless vehicle data |
US10436595B2 (en) * | 2017-02-02 | 2019-10-08 | Baidu Usa Llc | Method and system for updating localization maps of autonomous driving vehicles |
US20180314253A1 (en) | 2017-05-01 | 2018-11-01 | Mentor Graphics Development (Deutschland) Gmbh | Embedded automotive perception with machine learning classification of sensor data |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11042155B2 (en) | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11573573B2 (en) | 2017-06-06 | 2023-02-07 | Plusai, Inc. | Method and system for distributed learning and adaptation in autonomous driving vehicles |
US10757485B2 (en) | 2017-08-25 | 2020-08-25 | Honda Motor Co., Ltd. | System and method for synchronized vehicle sensor data acquisition processing using vehicular communication |
CN107679562B (zh) * | 2017-09-20 | 2021-01-19 | 北京航空航天大学 | 三维模型的解析处理方法和装置 |
DE102017217444B4 (de) * | 2017-09-29 | 2024-03-07 | Volkswagen Ag | Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit |
DE102017220291A1 (de) * | 2017-11-14 | 2019-05-16 | Robert Bosch Gmbh | Verfahren zur automatischen Führung eines Fahrzeugs entlang eines virtuellen Schienensystems |
US11145146B2 (en) | 2018-01-31 | 2021-10-12 | Mentor Graphics (Deutschland) Gmbh | Self-diagnosis of faults in an autonomous driving system |
US10553044B2 (en) | 2018-01-31 | 2020-02-04 | Mentor Graphics Development (Deutschland) Gmbh | Self-diagnosis of faults with a secondary system in an autonomous driving system |
US11093759B2 (en) | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
JP7077691B2 (ja) * | 2018-03-16 | 2022-05-31 | トヨタ自動車株式会社 | 自己位置検出装置 |
WO2019188877A1 (ja) * | 2018-03-27 | 2019-10-03 | パイオニア株式会社 | 情報送信装置、データ構造、制御方法、プログラム及び記憶媒体 |
DE102018205322A1 (de) * | 2018-04-10 | 2019-10-10 | Audi Ag | Verfahren und Steuervorrichtung zum Erkennen einer Fehlfunktion zumindest eines Umfeldsensors eines Kraftfahrzeugs |
US10906536B2 (en) | 2018-04-11 | 2021-02-02 | Aurora Innovation, Inc. | Control of autonomous vehicle based on determined yaw parameter(s) of additional vehicle |
US11550061B2 (en) * | 2018-04-11 | 2023-01-10 | Aurora Operations, Inc. | Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data |
US11334753B2 (en) | 2018-04-30 | 2022-05-17 | Uatc, Llc | Traffic signal state classification for autonomous vehicles |
US10747224B2 (en) | 2018-06-19 | 2020-08-18 | Toyota Research Institute, Inc. | Debugging an autonomous driving machine learning model |
US11181929B2 (en) | 2018-07-31 | 2021-11-23 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
US11163317B2 (en) | 2018-07-31 | 2021-11-02 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
CN112639884A (zh) * | 2018-08-30 | 2021-04-09 | 松下电器(美国)知识产权公司 | 三维数据编码方法、三维数据解码方法、三维数据编码装置及三维数据解码装置 |
DK180774B1 (en) | 2018-10-29 | 2022-03-04 | Motional Ad Llc | Automatic annotation of environmental features in a map during navigation of a vehicle |
US11349903B2 (en) * | 2018-10-30 | 2022-05-31 | Toyota Motor North America, Inc. | Vehicle data offloading systems and methods |
US11256263B2 (en) | 2018-11-02 | 2022-02-22 | Aurora Operations, Inc. | Generating targeted training instances for autonomous vehicles |
US11209821B2 (en) | 2018-11-02 | 2021-12-28 | Aurora Operations, Inc. | Labeling autonomous vehicle data |
US11829143B2 (en) | 2018-11-02 | 2023-11-28 | Aurora Operations, Inc. | Labeling autonomous vehicle data |
US11403492B2 (en) | 2018-11-02 | 2022-08-02 | Aurora Operations, Inc. | Generating labeled training instances for autonomous vehicles |
US11163312B2 (en) | 2018-11-02 | 2021-11-02 | Aurora Operations, Inc. | Removable automotive LIDAR data collection POD |
US11086319B2 (en) | 2018-11-02 | 2021-08-10 | Aurora Operations, Inc. | Generating testing instances for autonomous vehicles |
CN109583409A (zh) * | 2018-12-07 | 2019-04-05 | 电子科技大学 | 一种面向认知地图的智能车定位方法及系统 |
KR20200071293A (ko) * | 2018-12-11 | 2020-06-19 | 삼성전자주식회사 | 3차원 컬러 맵 기반의 측위 방법 및 장치 |
US11520347B2 (en) * | 2019-01-23 | 2022-12-06 | Baidu Usa Llc | Comprehensive and efficient method to incorporate map features for object detection with LiDAR |
US11162798B2 (en) * | 2019-05-13 | 2021-11-02 | GM Cruise Holdings, LLC | Map updates based on data captured by an autonomous vehicle |
US11209824B1 (en) * | 2019-06-12 | 2021-12-28 | Kingman Ag, Llc | Navigation system and method for guiding an autonomous vehicle through rows of plants or markers |
CN112129281B (zh) * | 2019-06-25 | 2022-02-22 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
US11391578B2 (en) * | 2019-07-02 | 2022-07-19 | Nvidia Corporation | Using measure of constrainedness in high definition maps for localization of vehicles |
CN110579216B (zh) * | 2019-09-12 | 2022-02-18 | 阿波罗智能技术(北京)有限公司 | 测试场景库构建方法、装置、电子设备和介质 |
US11958183B2 (en) | 2019-09-19 | 2024-04-16 | The Research Foundation For The State University Of New York | Negotiation-based human-robot collaboration via augmented reality |
DE102019216536A1 (de) * | 2019-10-28 | 2021-04-29 | Zf Friedrichshafen Ag | Verfahren und Steuereinrichtung zur Fahrzeugnavigation |
US11340081B2 (en) * | 2020-04-08 | 2022-05-24 | Pony Ai Inc. | System and method for updating map |
WO2021207999A1 (zh) * | 2020-04-16 | 2021-10-21 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
CN115734896A (zh) | 2020-05-22 | 2023-03-03 | 马格纳电子系统公司 | 显示系统和方法 |
US11737627B2 (en) * | 2020-10-03 | 2023-08-29 | Viabot Inc. | Methods for setting and programming zoning for use by autonomous modular robots |
CN112837372A (zh) * | 2021-03-02 | 2021-05-25 | 浙江商汤科技开发有限公司 | 数据生成方法及装置、电子设备和存储介质 |
TWI825468B (zh) * | 2021-08-25 | 2023-12-11 | 財團法人資訊工業策進會 | 導航裝置及方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5636123A (en) * | 1994-07-15 | 1997-06-03 | Rich; Richard S. | Traffic alert and collision avoidance coding system |
JP2011511281A (ja) * | 2008-02-04 | 2011-04-07 | テレ アトラス ノース アメリカ インコーポレイテッド | センサにより検出されたオブジェクトとマップマッチングする方法 |
JP2011191239A (ja) * | 2010-03-16 | 2011-09-29 | Mazda Motor Corp | 移動体位置検出装置 |
JP2014228637A (ja) * | 2013-05-21 | 2014-12-08 | 株式会社デンソー | 道路情報送信装置、地図生成装置、道路情報収集システム |
JP2015095125A (ja) * | 2013-11-12 | 2015-05-18 | 富士通株式会社 | 負荷軽減プログラム、情報処理装置および負荷軽減方法 |
JP2015148601A (ja) * | 2014-02-08 | 2015-08-20 | 本田技研工業株式会社 | マッピング、位置特定、及び姿勢補正のためのシステム及び方法 |
US20160110433A1 (en) * | 2012-02-01 | 2016-04-21 | Sri International | Method and apparatus for correlating and viewing disparate data |
US20160290805A1 (en) * | 2013-12-02 | 2016-10-06 | The Regents Of University Of California | Systems and methods for gnss snr probabilistic localization and 3-d mapping |
US20170039222A1 (en) * | 2014-04-29 | 2017-02-09 | Farrow Norris Pty Ltd | Method and system for comparative data analysis |
JP2018535892A (ja) * | 2015-11-04 | 2018-12-06 | ズークス インコーポレイテッド | ロボット車両のための内部安全システム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2909202B1 (fr) * | 2006-11-23 | 2009-02-13 | Inc 01 Soc Par Actions Simplif | Procede d'analyse de la disposition de produits dans un lineaire de magasin. |
KR100873474B1 (ko) * | 2006-12-04 | 2008-12-15 | 한국전자통신연구원 | 영상상의 교통 시설물의 픽셀 사이즈 및 위치를 이용한차량 위치 추정 장치 및 그 방법 |
US9846025B2 (en) * | 2012-12-21 | 2017-12-19 | Wabtec Holding Corp. | Track data determination system and method |
US8867819B2 (en) * | 2013-01-28 | 2014-10-21 | International Business Machines Corporation | Information technology asset location using visual detectors |
CN103116628A (zh) * | 2013-01-31 | 2013-05-22 | 新浪网技术(中国)有限公司 | 图像文件数字签名、以及重复图像文件判断方法和装置 |
CN104748736A (zh) * | 2013-12-26 | 2015-07-01 | 电信科学技术研究院 | 一种定位方法及装置 |
CN105021201B (zh) * | 2015-08-17 | 2017-12-01 | 武汉光庭信息技术有限公司 | 利用交通标示牌的坐标反推汽车自身位置的系统及方法 |
US9910441B2 (en) * | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
-
2017
- 2017-03-15 WO PCT/US2017/022598 patent/WO2017161054A1/en active Application Filing
- 2017-03-15 CN CN202310634124.4A patent/CN116659526A/zh active Pending
- 2017-03-15 CN CN201780017483.8A patent/CN108885105B/zh active Active
- 2017-03-15 EP EP17767482.7A patent/EP3430352A4/en not_active Withdrawn
- 2017-03-15 US US15/460,120 patent/US10366289B2/en active Active
- 2017-03-15 JP JP2018568168A patent/JP2019510240A/ja active Pending
-
2018
- 2018-09-29 US US16/147,669 patent/US20190034728A1/en not_active Abandoned
- 2018-09-29 US US16/147,671 patent/US10489650B2/en active Active
- 2018-09-29 US US16/147,675 patent/US20190034730A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5636123A (en) * | 1994-07-15 | 1997-06-03 | Rich; Richard S. | Traffic alert and collision avoidance coding system |
JP2011511281A (ja) * | 2008-02-04 | 2011-04-07 | テレ アトラス ノース アメリカ インコーポレイテッド | センサにより検出されたオブジェクトとマップマッチングする方法 |
JP2011191239A (ja) * | 2010-03-16 | 2011-09-29 | Mazda Motor Corp | 移動体位置検出装置 |
US20160110433A1 (en) * | 2012-02-01 | 2016-04-21 | Sri International | Method and apparatus for correlating and viewing disparate data |
JP2014228637A (ja) * | 2013-05-21 | 2014-12-08 | 株式会社デンソー | 道路情報送信装置、地図生成装置、道路情報収集システム |
JP2015095125A (ja) * | 2013-11-12 | 2015-05-18 | 富士通株式会社 | 負荷軽減プログラム、情報処理装置および負荷軽減方法 |
US20160290805A1 (en) * | 2013-12-02 | 2016-10-06 | The Regents Of University Of California | Systems and methods for gnss snr probabilistic localization and 3-d mapping |
JP2015148601A (ja) * | 2014-02-08 | 2015-08-20 | 本田技研工業株式会社 | マッピング、位置特定、及び姿勢補正のためのシステム及び方法 |
US20170039222A1 (en) * | 2014-04-29 | 2017-02-09 | Farrow Norris Pty Ltd | Method and system for comparative data analysis |
JP2018535892A (ja) * | 2015-11-04 | 2018-12-06 | ズークス インコーポレイテッド | ロボット車両のための内部安全システム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019070640A (ja) * | 2017-10-05 | 2019-05-09 | 富士ゼロックス株式会社 | パーティクルフィルタを使用した位置特定のために、事前分布としてグラフベースのマップ情報を利用するシステム及び方法、コンピュータ実施方法、プログラム、及びシステム |
JP7238305B2 (ja) | 2017-10-05 | 2023-03-14 | 富士フイルムビジネスイノベーション株式会社 | パーティクルフィルタを使用した位置特定のために、事前分布としてグラフベースのマップ情報を利用するシステム及び方法、コンピュータ実施方法、プログラム、及びシステム |
JPWO2021005734A1 (ja) * | 2019-07-10 | 2021-01-14 | ||
WO2021005734A1 (ja) * | 2019-07-10 | 2021-01-14 | 日本電信電話株式会社 | 計測方法、計測装置、及びプログラム |
JP7223237B2 (ja) | 2019-07-10 | 2023-02-16 | 日本電信電話株式会社 | 計測方法、計測装置、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN116659526A (zh) | 2023-08-29 |
US20190034728A1 (en) | 2019-01-31 |
EP3430352A4 (en) | 2019-12-11 |
CN108885105B (zh) | 2023-06-13 |
CN108885105A (zh) | 2018-11-23 |
WO2017161054A1 (en) | 2017-09-21 |
US10489650B2 (en) | 2019-11-26 |
US10366289B2 (en) | 2019-07-30 |
US20190034730A1 (en) | 2019-01-31 |
US20170270361A1 (en) | 2017-09-21 |
US20190034729A1 (en) | 2019-01-31 |
EP3430352A1 (en) | 2019-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10489650B2 (en) | Systems and methods for providing vehicle cognition | |
KR102493094B1 (ko) | 자율주행 차량을 위한 상대적인 아틀라스 및 그 생성 | |
US10486485B1 (en) | Perception based suspension control | |
RU2737874C1 (ru) | Способ хранения информации транспортного средства, способ управления движением транспортного средства и устройство хранения информации транспортного средства | |
US20190101649A1 (en) | Systems, devices, and methods for autonomous vehicle localization | |
EP3818339A1 (en) | Systems and methods for vehicle navigation | |
WO2020165650A2 (en) | Systems and methods for vehicle navigation | |
WO2021053393A1 (en) | Systems and methods for monitoring traffic lane congestion | |
US20210381848A1 (en) | Bandwidth management for map generation and refinement | |
JP2024025803A (ja) | センサを利用して獲得した空間情報を活用する車両、センサを利用して獲得した空間情報を活用するセンシング装置、及びサーバ | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
WO2019195388A1 (en) | Systems and methods for inferring lane obstructions | |
US20230195122A1 (en) | Systems and methods for map-based real-world modeling | |
WO2023129656A1 (en) | Calculating vehicle speed for a road curve | |
WO2023131867A2 (en) | Crowdsourced turn indicators | |
CN117651668A (zh) | 用于监测车道标记质量的系统和方法 | |
Jiménez et al. | Improving the lane reference detection for autonomous road vehicle control | |
US11932245B2 (en) | Systems and methods for improving path selection for automated driving | |
EP4127852A1 (en) | Control loop for navigating a vehicle | |
US11809524B2 (en) | System and method for training an adapter network to improve transferability to real-world datasets | |
US11859994B1 (en) | Landmark-based localization methods and architectures for an autonomous vehicle | |
US20240135728A1 (en) | Graph neural networks for parsing roads | |
US20230195506A1 (en) | Systems and methods for processing atomic commands | |
WO2023067385A2 (en) | Radar-camera fusion for vehicle navigation | |
WO2024086778A1 (en) | Graph neural networks for parsing roads |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210402 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211029 |