JP2020527761A - 高度自動運転マップを更新するためのシステムおよび方法 - Google Patents

高度自動運転マップを更新するためのシステムおよび方法 Download PDF

Info

Publication number
JP2020527761A
JP2020527761A JP2018565276A JP2018565276A JP2020527761A JP 2020527761 A JP2020527761 A JP 2020527761A JP 2018565276 A JP2018565276 A JP 2018565276A JP 2018565276 A JP2018565276 A JP 2018565276A JP 2020527761 A JP2020527761 A JP 2020527761A
Authority
JP
Japan
Prior art keywords
map
terminals
processor
data
change object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018565276A
Other languages
English (en)
Inventor
テン マー
テン マー
シャオジー チュー
シャオジー チュー
バオリー リー
バオリー リー
Original Assignee
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド, ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド filed Critical ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Publication of JP2020527761A publication Critical patent/JP2020527761A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本開示の実施形態は、複数の端末を使用してHADマップを更新するための方法およびシステムを提供する。システムは、ネットワークを介して複数の端末と通信するように構成された通信インターフェースを含んでもよい。システムは、HADマップを記憶するように構成されたストレージをさらに含んでもよい。システムはまた、少なくとも1つのプロセッサを含んでもよい。少なくとも1つのプロセッサは、少なくとも1つの変化オブジェクトを含む対象領域を識別するように構成されてもよい。少なくとも1つのプロセッサは、さらに、少なくとも1つの変化オブジェクトを含む対象領域を識別するように構成されてもよい。少なくとも1つのプロセッサは、さらに、異なる視野位置における対象領域のデータを取得するように複数の端末に命令し、複数の端末から取得されたデータを受信するように構成されてもよい。少なくとも1つのプロセッサは、さらに、取得されたデータから少なくとも1つの変化オブジェクトの三次元モデルを構築し、三次元モデルに基づいてHADマップを更新するように構成されてもよい。
【選択図】図5

Description

技術分野
本開示は、高度自動運転(Highly Automated Driving(HAD))マップを更新するためのシステムおよび方法に関し、より詳細には、HADマップを更新するための複数のデータ取得端末からのクラウドソーシングのためのシステムおよび方法に関する。
背景
自律駆動技術は、正確なマップに大きく依存している。例えば、ナビゲーションマップの精度は、位置決め、雰囲気認識、意思決定、および制御などの自律走行車両の機能にとって重要である。実際には、HADマップは、車両が走行しているときに、車両上の様々なセンサ、検出器、および他のデバイスによって取得された集約画像および情報から生成することができる。例えば、調査車両は、道路または周囲の物体の特徴を捕捉するために、LiDAR(Light Detection and Ranging)レーダ、高分解能カメラ、GPS(Global Positioning System)、またはIMU(Inertial Measurement Unit)などの1つまたは複数のセンサを備えることができる。取り込まれたデータは、例えば、車線の中心線または境界線座標、建物、別の車両、標識、歩行者、または交通標識などの物体の座標およびパターンを含むことができる。
再計画、新しい開発、建設、および他のインフラストラクチャ変更のために、HADマップは、道路情報を正確に反映するために定期的に更新される必要がある。例えば、1車線の道路を2車線の道路に拡張することができ、それに応じて、道路標識、交通サイン、交通信号、ならびに木や建物のような周囲の物体が変化または移動することができる。HAD更新マップは、通常、調査車両によって変更された道路の部分を再調査することを必要とする。しかし、マップのわずかな変更に関するデータを取得するために100万ドル相当の調査車両を派遣することは多数の調査車両を維持することにつながり、これはかなりのコストとなり得、したがって、経済的に実行可能ではない。それはまた、かなりの人間の介入を必要とし得、これはさらに高いコストにつながる。一方、低コストの機器で取得した低解像度データでマップを更新すると、マップの品質が損なわれる。したがって、高分解能マップを更新するための改善されたシステムおよび方法が必要とされる。
本開示の実施形態は、複数のデータ取得端末からのクラウドソーシングに基づいて高解像度マップを更新するための方法およびシステムによって、上記の問題に対処する。
本開示の実施形態は、複数の端末を使用してHADマップを更新するシステムを提供する。システムは、ネットワークを介して複数の端末と通信するように構成された通信インターフェースを含むことができる。システムは、HADマップを記憶するように構成されたストレージ装置をさらに含むことができる。システムは、また、少なくとも1つのプロセッサを含むことができる。少なくとも1つのプロセッサは、少なくとも1つの変化オブジェクトを含む対象領域を識別するように構成されてもよい。少なくとも1つのプロセッサは、さらに、異なる視点位置における対象領域のデータを取得するように複数の端末に命令し、取得されたデータを複数の端末から受信するように構成されてもよい。少なくとも1つのプロセッサは、取得されたデータから少なくとも1つの変化オブジェクトの三次元モデルを構築し、三次元モデルに基づいてHADマップを更新するように構成されてもよい。
本開示の実施形態は、複数の端末を使用してHADマップを更新する方法をさらに開示する。前記方法は、少なくとも1つのプロセッサによって、少なくとも1つの変化オブジェクトを含む対象領域を識別するステップことを含むことができる。前記方法は、少なくとも1つのプロセッサによって、異なる視点位置における対象領域のデータを取得するように複数の端末に命令するステップと、複数の端末から取得されたデータを受信するステップと、をさらに含んでもよい。前記方法は、また、少なくとも1つのプロセッサによって、取得されたデータから少なくとも1つの変化オブジェクトの三次元モデルを構築するステップと、少なくとも1つのプロセッサによって、三次元モデルに基づいてHADマップを更新するステップと、を含んでもよい。
本開示の実施形態は、コンピュータプログラムが格納された非一時的なコンピュータ可読媒体をさらに開示する。コンピュータプログラムは、少なくとも1つのプロセッサによって実行されると、複数の端末を使用してHADマップを更新する方法を実行することができる。前記方法は、少なくとも1つの変化オブジェクトを含む対象領域を識別するステップを含むことができる。前記方法は、異なる視点位置における対象領域のデータを取得するように複数の端末に命令するステップと、取得されたデータを複数の端末から受信するステップと、をさらに含んでもよい。前記方法は、また、取得されたデータから少なくとも1つの変化オブジェクトの三次元モデルを構築するステップと、三次元モデルに基づいてHADマップを更新するステップと、を含むことができる。
当然ながら、上記の一般的記載と下記の詳細な記載単に例示的かつ説明的なものであり、主張されているように発明を制限するものではない。
図1は、本発明の実施形態による、HADマップを更新するための例示的なシステムの概略図を示す。 図2は、本開示の実施形態による、HADマップを更新するための例示的なシステムのブロック図を示す。 図3は、本開示の実施形態による、HADマップを更新するためにデータを取得するために端末によって実行される例示的な方法のフローチャートである。 図4は、本開示の実施形態による、画像から変化オブジェクトを検出することを示す。 図5は、本開示の実施形態による、HADマップを更新するための例示的な方法のフローチャートである。 図6は、本開示の実施形態による、変化オブジェクトの三次元モデルを再構成するための例示的な方法のフローチャートである。
詳細な説明
ここで、例示的な実施形態を詳細に参照し、その例を添付の図面に示す。図面において、同一の参照符号は、可能な限り同一または類似の構成要素に用いる。
図1は、本開示の実施形態による、HADマップを更新するための例示的なシステム100の概略図を示す。いくつかの実施形態と一致して、システム100は、端末131、132、133、および134を含む複数の端末と通信可能に接続されたサーバ140を含むことができる。いくつかの実施形態では、サーバ140は、ローカル物理サーバ、クラウドサーバ(図1に示す)、仮想サーバ、分散サーバ、または任意の他の好適なコンピュータ装置であってもよい。本開示と一致して、サーバ140は、HADマップを記憶することができる。いくつかの実施形態では、HADマップは、元々、LiDARによって取得されたポイントクラウドデータを使用して構築されてもよい。LiDARは、パルスレーザ光でターゲットを照射し、反射パルスをセンサで測定することによって、ターゲットまでの距離を測定する。次いで、レーザ光の送出および戻りの時間および波長の差を用いて、ターゲットのデジタル三次元(3−D)表現を作成することができる。LiDAR走査に使用される光は、紫外線、可視光、または近赤外線であってもよい。オブジェクト再構成の高い精度および効率のために、LiDARは、HADを構成するための空間データ取得に特に適している。
本開示と一致して、サーバ140は、また、HADマップの特定の部分での変化を反映するために、時々HADマップを更新する責任を負ってもよい。LiDARで領域を再調査する代わりに、サーバ140は、様々な視点位置にある複数の端末によって、変化オブジェクトの取り込まれたデータをクラウドソースし、そのようなデータを統合してHADマップを更新することができる。例えば、サーバ140は、端末131〜134からのデータをクラウドソースすることができる。サーバ140は、無線ローカルエリアネットワーク(WLAN)、広域ネットワーク(WAN)、電波などの無線ネットワーク、全国的なセルラネットワーク、衛星通信ネットワーク、および/またはローカル無線ネットワーク(例えば、Bluetooth(登録商標)またはWiFi)などのネットワークを介して端末131〜134と通信することができる。サーバ140は、端末131〜134にデータを送信し、または端末131〜134からデータを受信することができる。サーバ140は、図1に示されたものよりも多いまたは少ない端末からクラウドソースしてもよいと考えられる。
いくつかの実施形態では、端末131〜134は、画像を取り込むように構成されたモバイル端末であってもよい。例えば、端末131〜134は、カメラまたは他の費用効果の高いイメージング装置であってもよい。いくつかの実施形態では、端末131〜134は、端末が車両によって持ち運びされ得るように、車両に装備され、取り付けられ、または他の方法で取り付けられ得る。車両は、車両を占有するオペレータによって、遠隔制御および/または自律的に操作されるように構成されてもよい。いくつかの実施形態では、端末131〜134のうちのいくつかは、信号機、建物、木などに設置された監視カメラなどの静止型であってもよい。
端末131〜134がモバイル端末である場合、それらは、異なるソースから取得された位置情報の組み合わせを使用して位置決めされ得る。例えば、端末は、端末を運ぶ車両によって提供されるGPS信号およびIMU信号、端末によって取り込まれた画像、ならびにサーバ140によって提供されるHADマップを使用して、それ自体を位置決めすることができる。いくつかの実施形態では、SLAM(Simultaneous Localization and Mapping)方法を実行して、各端末を位置決めすることができる。GPS/IMU信号およびHADマップは、SLAMアルゴリズムに追加の情報を提供し、したがって、その位置決め精度および信頼性を高めることができる。
端末131〜134は、異なる視点位置から道路110の画像を取得することができる。取得された画像に基づいて、端末131〜134は、シーン内の少なくとも1つのオブジェクトにおける変化を検出することができる。例えば、道路110は、2つの車線を分割する車線標識111を有する2車線道路であった。最近、道路110は、建設中であり、道路110を分割する車線標識111、112を有する3車線道路に広がった。取得された画像から、端末131〜134は、道路110の変化、例えば、車線標示112および修正された歩行者交差線標示113(すなわち、ゼブラ線)の加算を検出することができる。検出された変化は、取り込まれた画像と共に、サーバ140に提供される。
変化が生じたことを知ると、サーバ140は、マップ更新プロセスを開始することができる。いくつかの実施形態では、サーバ140は、変化オブジェクトを含む対象領域を識別することができる。例えば、端末131が変化を報告する場合、サーバ140は、端末131の位置と、端末131によって検出された標示112および113などの変化オブジェクトとに基づいて、対象領域を決定することができる。次いで、サーバ140は、変化オブジェクトの近くに位置する端末131〜134にデータ取得命令を送信することができる。いくつかの実施形態では、命令は、対象領域を指定し、対象領域の画像を取得するように端末131〜134に命令することができる。例えば、対象領域は、図1に示す道路110の一部であってもよい。
端末131〜134は、対象領域に対して異なる角度および/または距離で位置決めされるので、異なる視点位置から同じシーンの画像を取得することができる。したがって、視点位置の変化によって、端末131〜134は、道路110に関する一意の情報を得ることができる。このような情報は、統合されると、サーバ140が道路110の3Dモデルを再構成するのを助けることができる。サーバ140は、さらに、再構成された3DモデルをHADマップと照合し、マップの対応する部分を更新することができる。
図1は、道路110の領域を、標識112および113などの例示的な変化オブジェクトを含むものとして示しているが、開示されたシステムおよび方法は、他の変化オブジェクトを反映するようにHADマップを更新するために適用できることが企図される。例えば、オブジェクトの変更は、新しいまたは修正された交通標識、道路110の側面の建物の建設または解体、道路110に沿った景観の変更などを含むことができる。
図2は、本開示の実施形態による、HADマップを更新するための例示的なシステムのブロック図を示す。本開示と一致して、サーバ140は、端末131〜134を介してデータを収集し、複数のソースからのデータを統合して、HADマップを更新することができる。
いくつかの実施形態では、図2に示すように、サーバ140は、通信インターフェース202、プロセッサ204、メモリ212、およびストレージ214を含むことができる。いくつかの実施形態では、サーバ140は、スタンドアロンコンピューティングデバイスなどの単一のデバイス、または専用機能を有する別個のデバイス内に異なるモジュールを有することができる。いくつかの実施形態では、サーバ140の1以上のコンポーネントは、クラウド内に配置されてもよく、あるいは単一の場所または分散された場所に配置されてもよい。サーバ140のコンポーネントは、統合されたデバイス内にあってもよく、または異なる場所に分散されてもよいが、ネットワーク(図示せず)を介して互いに通信する。
図2によって省略されているが、端末131〜134の各々は、サーバ140に示されたものと同様のハードウェアコンポーネント、例えば、プロセッサ230、通信インターフェース(図示せず)、メモリ(図示せず)およびストレージ(図示せず)を含むことも考えられる。
通信インターフェース202は、通信ケーブル、無線ローカルエリアネットワーク(WLAN)、広域ネットワーク(WAN)、電波などの無線ネットワーク、全国的なセルラネットワーク、および/またはローカル無線ネットワーク(例えば、Bluetooth(登録商標)またはWiFi)、または他の通信方法を介して、端末131〜134または端末が取り付けられる(例えば、車両)他のシステムもしくはデバイスにデータを送信し、そこからデータを受信することができる。いくつかの実施形態では、通信インターフェース202は、ISDN(integrated services digital network)カード、ケーブルモデム、衛星モデム、またはデータ通信接続を提供するモデムとすることができる。別の例として、通信インターフェース202は、互換性のあるLANへのデータ通信接続を提供するローカルエリアネットワーク(LAN:local area network)カードであり得る。無線リンクは、通信インターフェース202によっても実現できる。そのような実装形態では、通信インターフェース202は、ネットワークを介して様々なタイプの情報を表すデジタルデータストリームを搬送する電気信号、電磁信号、または光信号を送受信することができる。
本開示のいくつかの実施形態と一致して、通信インターフェース202は、端末131〜134によって取り込まれた画像を受信し、受信したデータを記憶のためにストレージ214に、または処理のためにプロセッサ204に提供することができる。通信インターフェース202は、また、プロセッサ204によって生成された情報または信号を受信し、それらを端末131〜134に提供して、それらの画像取得を調整することができる。
プロセッサ204およびプロセッサ230は、任意の適切なタイプの汎用または専用マイクロプロセッサ、デジタル信号プロセッサ、またはマイクロコントローラを含み得る。いくつかの実施形態では、プロセッサ204は、HADマップの更新に専用の別個のプロセッサモジュールとして構成されてもよい。プロセッサ230は、HADマップを更新するための画像を取得する専用の別個のプロセッサモジュールとして構成することができる。あるいは、プロセッサ204およびプロセッサ230は、マップ更新とは関係のない他の機能を実行するための共有プロセッサモジュールとして構成されてもよい。
図2に示すように、プロセッサ230は、位置決めユニット231、画像取得ユニット232、変化検出ユニット233などのような多数のモジュールを含むことができる。これらのモジュール(および任意の対応するサブモジュールまたはサブユニット)は、他のコンポーネントと共に使用するために、またはプログラムの一部を実行するために設計されたプロセッサ230のハードウェアユニット(例えば、集積回路の一部)であり得る。プログラムは、コンピュータ可読媒体に格納することができ、プロセッサ230によって実行されると、1以上の機能を実行することができる。図2は、ユニット231〜233をすべて1つのプロセッサ230内に示しているが、これらのユニットは、互いに近くまたは遠隔に配置された複数プロセッサに分散されてもよいと考えられる。
位置決めユニット231は、端末131を位置決めするように構成することができる。いくつかの実施形態では、位置決めユニット231は、位置を決定するためにSLAM方法を実行してもよい。しかしながら、単眼画像のみに適用されるSLAM方法は、通常、正確な位置決め情報を提供することができず、位置決め誤差が累積する可能性がある。本開示と一致して、位置決めユニット231は、ガイダンスとしてGPSおよびIMUデータをSLAM方法に統合することができる。いくつかの実施形態では、位置決めユニット231は、特に、GPS信号が失われた場合、または高い建物のような物体をブロックすることによって妨害された場合、既存のHADマップによって提供される情報をさらに統合することができる。GPS/IMUデータおよびHADマップの両方は、SLAM方法を改善するための制約またはアプリオリ情報として使用され得る絶対測位情報を提供し得る。したがって、改良されたSLAM方法は、端末131をより正確かつ確実に位置する。
画像取得ユニット232は、周囲のオブジェクトの画像を取り込むように構成され得る。いくつかの実施形態では、画像取得ユニット232は、単眼カメラの設定および動作を制御するコントローラを含むことができる。例えば、画像取得ユニット232は、カメラの焦点、絞り、シャッタ速度、ホワイトバランス、測光、フィルタ、および他の設定を制御および調整し得る。いくつかの実施形態では、画像取得ユニット232は、カメラが所定の視点角および位置で画像を取り込むように、カメラの向きおよび位置を制御および調整し得る。いくつかの実施形態では、カメラは、トリガするときに、連続的に、または定期的に、画像を取り込むように設定されてもよく、ある時点で取り込まれた各画像はフレームと呼ばれる。
変化検出ユニット233は、取り込まれた画像に基づいて少なくとも1つの変化オブジェクトを検出するように構成され得る。画像セグメンテーションおよび機械学習技術は、変化オブジェクトを検出するために適用され得る。いくつかの実施形態では、変化検出ユニット233は、画像を既存のHADマップ内の対応する情報と比較して、変化を判定することができる。例えば、変化検出ユニット233は、道路110上の標示112および113が変更されたことを検出し得る。
変化オブジェクトを検出すると、端末131は、取り込まれた画像、検出された変化オブジェクト、およびその位置情報をサーバ140に提供することができる。通信インターフェース202は、データを受信し、そのデータをプロセッサ204に送信することができる。図2に示すように、プロセッサ204は、対象領域識別ユニット241、命令ユニット242、クラウドソーシングユニット243、モデル再構成ユニット244、マップ更新ユニット245などのような多数のモジュールを含むことができる。これらのモジュール(および任意の対応するサブモジュールまたはサブユニット)は、他のコンポーネントと共に使用するために、またはプログラムの一部を実行するために設計されたプロセッサ204のハードウェアユニット(例えば、集積回路の一部)であり得る。プログラムは、コンピュータ可読媒体に格納することができ、プロセッサ204によって実行されると、1以上の機能を実行することができる。この場合も、図2は、ユニット241〜245をすべて1つのプロセッサ204内に示しているが、これらのユニットは、互いに近くまたは遠隔に配置された複数プロセッサに分散されてもよいと考えられる。
対象領域識別ユニット241は、端末131によって提供されるデータに基づいて対象領域を識別することができる。対象領域は、検出された変化オブジェクトを含むことができる。例えば、図1によって示される例では、対象領域は、変更された標示112および113を含む道路110の一部であってもよい。次いで、命令ユニット242は、対象領域の画像を取得するための命令を決定することができる。命令ユニット242は、さらに、画像取得命令を送信するために、端末131〜134などの複数の端末を識別することができる。端末を識別する際に、命令ユニット242は、端末の位置(例えば、対象領域に対する撮像範囲内であるかどうか)、対象領域に対する端末の視点位置などを考慮することができる。いくつかの実施形態では、命令ユニット242は、様々な視点位置から対象領域の画像を取り込むことができる端末を選択してもよい。
画像取得命令は、通信インターフェース202を介して端末131〜134に送信することができる。端末131〜134の各画像取得ユニットは、命令に従って対象領域の画像を取得し、サーバ140に画像を返信してもよい。画像は、モデル再構成ユニット244に渡される前に、クラウドソーシングユニット243によって収集および編成されてもよい。
モデル再構成ユニット244は、少なくとも1つの変化オブジェクトの3Dモデルを再構成するように構成され得る。いくつかの実施形態では、モデル再構成ユニット244は、端末131によって提供される少なくとも1つの変化オブジェクトの検出結果を採用することができる。一部の他の実施形態では、モデル再構成ユニット244は、端末131によって提供される画像に基づいて、結果を検証するか、または少なくとも1つのオブジェクト自体を再検出し得る。同様の技術は、少なくとも1つの変化オブジェクトを検出および抽出するために、同様の画像セグメント化および機械学習技術を実行することができる。
画像は、様々な視点位置から端末131〜134によって取り込まれるので、モデル再構成ユニット244は、これらの画像からオブジェクトの異なる視点を抽出することができる。抽出されたオブジェクトは、2次元である。3Dモデルを構築するために、モデル再構成ユニット244は、変化オブジェクトの異なる視点が抽出されるそれぞれの画像の位置および姿勢に従って、オブジェクトの異なる視点を組み合わせることができる。いくつかの実施形態では、モデル再構成ユニット244は、ストラクチャ フロム モーション(SfM(Structure from Motion))法を使用して、各画像の位置および姿勢を再構成することができる。いくつかの実施形態では、モデル再構成ユニット244は、利用可能な画像が良好な再構成には十分でないと判断することができる。例えば、ある視点位置で取り込まれた画像が欠落している。それは、端末131〜134および/または追加の端末(図示せず)に、補足するためにより多くの画像を取得するように命令することができる。
マップ更新ユニット245は、変化オブジェクトの3Dモデルを既存のHADマップと照合し、そのオブジェクトに対応するマップ上の部分を、そのマップに照合した3Dモデルに置き換えてもよい。いくつかの実施形態では、モデル再構成ユニット244によって再構成される3Dモデルは、少なくとも1つの変化オブジェクトを表すポイントクラウドであってもよい。したがって、マップ更新ユニット245は、変化オブジェクトのポイントクラウドをHADマップのポイントクラウドと照合することができる。いくつかの実施形態では、マッチングプロセスの一部として、マップ更新ユニット245は、HADマップの座標への再構成された3Dモデルのデータの座標変換を実行してもよい。
サーバ140は、何らかの変化が生じたとき、大きな変化が生じたとき、所定の頻度で周期的に、または上記の何らかの適切な組合せで、マップ更新を実行することができると考えられる。
メモリ212およびストレージ214は、プロセッサ204が動作させる必要があり得る任意のタイプの情報を記憶するために提供される任意の適切なタイプの大容量記憶装置を含み得る。メモリ212およびストレージ214は、ROM、フラッシュメモリ、ダイナミックRAM、およびスタティックRAMを含むがこれらに限定されない、揮発性または不揮発性、磁気、半導体、テープ、光、リムーバブル、非リムーバブル、または他のタイプの記憶デバイスまたは有形(すなわち、非一時的)コンピュータ可読媒体とすることができる。メモリ212および/またはストレージ214は、本出願において開示されるマップ更新機能を実行するためにプロセッサ204によって実行され得る1以上のコンピュータプログラムを記憶するように構成され得る。例えば、メモリ212および/またはストレージ214は、画像取得のために端末131〜134と通信するためにプロセッサ204によって実行され得るプログラム(複数可)を記憶し、画像を使用してHADマップを更新するように構成され得る。
メモリ212および/またはストレージ214は、プロセッサ204によって使用される情報およびデータを記憶するようにさらに構成され得る。例えば、メモリ212および/またはストレージ214は、そのポイントクラウドデータ、ならびに端末131〜134によって取り込まれた画像、機械学習モデル(例えば、モデルパラメータ)、および特徴マップ、ならびに処理中に作成された他の中間データを含むHADマップを記憶するように構成され得る。これらのデータは、永久的に記憶されてもよいし、定期的に除去されてもよいし、データの各フレームが処理された直後に無視されてもよい。
図3は、本開示の実施形態による、HADマップを更新するためにデータを取得するために端末によって実行される例示的な方法300のフローチャートである。例えば、方法300は、端末131のプロセッサ230によって実施されてもよい。方法300は、以下に説明するステップS302〜S314を含むことができる。
ステップS302において、端末131は、それ自体を位置決めするように構成され得る。例えば、位置決めユニット231は、端末131の位置を決定するためにSLAM方法を実行するように構成され得る。SLAMアルゴリズムは、未知の環境のマップを構築しようと試みると同時に、その内部の車両または装置の位置を追跡し続ける。したがって、SLAMアルゴリズムは、ガイダンスとして絶対位置情報なしで実行される場合、測位誤差を累積することができる。本開示と一致して、位置決め231は、GPS/IMUデータおよび/またはHADマップを使用して、SLAM方法を誘導し、改善することができる。GPS/IMUデータおよびHADマップは、制約またはアプリオリ情報として絶対位置情報をSLAM方法に提供することができる。HADマップの使用は、GPS信号が弱いかまたは完全に失われた場合でさえ、位置決め精度および信頼性を保証するのに役立ち得る。
ステップS304において、端末131は、シーン画像を取り込むように構成されてもよい。例えば、画像取得ユニット232は、単眼カメラを制御して、シーンの画像を取り込むことができる。いくつかの実施形態では、画像取得ユニット232は、画像が取り込まれる方法を制御してもよい。例えば、画像取得ユニット232は、カメラが所定の視点角および位置で画像を取り込むように、カメラの向きおよび位置を制御および調整し得る。いくつかの実施形態では、画像が連続的または定期的に、トリガ時に取り込まれてもよい。
ステップS306において、端末131は、取り込まれた画像に基づいて、少なくとも1つの変化オブジェクトを検出することができる。例えば、変化検出ユニット233は、画像セグメンテーションおよび機械学習技法を使用して、少なくとも1つの変化オブジェクトを検出するように構成され得る。少なくとも1つの変化オブジェクトは、停車または降車標識などの交通標識、および高速道路標識などを含むことができる。少なくとも1つの変化オブジェクトは、また、車線標示、方向/方向転換標示、および歩行者交差点標示などの路面標示を含むことができる。いくつかの実施形態では、画像を既存のHADマップ内の対応する情報と比較して、変化を判定することができる。
例えば、図4は、本発明の実施形態による、画像400から変化する物体を検出することを示す。変化検出ユニット233は、最初に、交通標識411〜413、車両420、および道路標識430など、画像400によって取り込まれた様々な物体を識別することができる。オブジェクトは、バインディングボックスで抽出することができる。変化検出ユニット233は、移動オブジェクト、例えば車両420を識別し、そのようなオブジェクトは、マップの一部として含まれてはならないので、そのようなオブジェクトを除去することができる。いくつかの実施形態では、オブジェクト領域は、HADマップ上の対応する領域と比較されて、いずれかのオブジェクトが変更されたかどうかが判定されてもよい。例えば、変化検出ユニット233は、交通標識411が新しいこと、または交通標識412上のテキストが変更されたことを決定することができる。いくつかの実施形態では、機械学習方法を使用して、交通標識上のテキストおよびテキストの意味を認識することができる。
図3に戻ると、ステップS308において、変化オブジェクトを検出すると、端末131は、変化オブジェクトをサーバ140に報告することができる。さらに、端末131は、変化が検出された、取り込み画像を、サーバ140に対して検証または再検出するために、サーバ140に送ることもできる。サーバ140は、端末131よりもずっと高い計算能力を有することができるので、サーバ140は、より正確ではあるが複雑な方法を使用して、変化オブジェクトを検出することができる。端末131は、また、その位置情報をサーバ140に送信することができる。
ステップS310において、端末131は、サーバ140から対象領域の画像データを取得する命令を受信する。いくつかの実施形態では、命令は、サーバ140が端末131に画像を取り込むように望む視点位置をさらに含むことができる。ステップS312において、端末131は、命令に従って、視点位置における対象領域の画像を取り込むことができる。例えば、画像取得ユニット232は、単眼カメラを視点位置に調整してもよい。ステップS314において、取り込まれた画像データは、サーバ140に移送される。
S316において、端末131は、サーバ140から他の命令を受信して、対象領域の補足データを取得してもよい。いくつかの実施形態では、補足データが以前と同じ視点位置から、または異なる視点位置から取得することができる。補足データの命令がS316で受信された場合、方法300は、ステップS310に戻り、補足データを取得することができる。そうでなければ、方法300は、ステップS302に戻り、画像の取り込みおよび変化の検出を継続することができる。
図5は、本開示の実施形態による、HADマップを更新するための例示的な方法500のフローチャートである。例えば、方法500は、サーバ140のプロセッサ204によって実施されてもよい。方法500は、以下に説明するステップS502〜S518を含むことができる。
ステップS502において、サーバ140は、少なくとも1つの変化オブジェクトが検出されたように、1つ以上の端末から報告を受信することができる。いくつかの実施形態では、サーバ140は、端末によって取り込まれた画像を受信することもできる。任意選択のステップS504では、サーバ140は、画像に基づいて少なくとも1つの変化オブジェクトを検証または再検出することができる。サーバ140は、端末よりも高い計算能力を有し得るので、その検出は、より正確であり得る。例えば、サーバ140は、全てが同じオブジェクトを取り込む複数の端末から画像を受信し、したがって、変化オブジェクトを検出するためのより多くのデータを有することができる。
ステップS506において、サーバ140は、端末によって提供されるデータに基づいて、対象領域を識別することができる。例えば、対象領域識別ユニット241は、検出された変化オブジェクトを含む対象領域を決定してもよい。
ステップS508において、サーバ140は、様々な視点位置における対象領域の画像データの取得を端末に指示する。例えば、命令ユニット242は、画像を取得するように命令されるべき、端末131〜134などの複数の端末を識別することができる。識別は、端末の位置(例えば、対象領域への撮像範囲内であるかどうか)、対象領域に対する端末の視点位置などに基づくことができる。いくつかの実施形態では、命令ユニット242は、様々な視点位置から対象領域の画像を取り込むことができる端末を選択してもよい。
ステップS510において、端末131〜134が取得画像をサーバ140に送り返すと、クラウドソーシングユニット243は、画像を受信し、モデル再構成のために通過する前に、ある順序でそれらを編成することができる。例えば、クラウドソーシングユニット243は、変化オブジェクト(複数可)の視点位置、解像度、およびカバレージなどに従って画像を編成することができる。
ステップS512において、サーバ140は、少なくとも1つの変化オブジェクトの3Dモデルを再構成することができる。いくつかの実施形態では、ステップS512で再構成される3Dモデルは、少なくとも1つの変化オブジェクトを表すポイントクラウドであってもよい。いくつかの実施形態では、モデル再構成ユニット244は、様々な視点位置から取り込まれた画像からオブジェクトの異なる視点を抽出することができる。3Dモデルを構築するために、モデル再構成ユニットは、2Dオブジェクト画像が抽出されるそれぞれの画像の位置および姿勢に従って、抽出された2Dオブジェクト画像を組み合わせてもよい。
いくつかの実施形態では、モデル再構成ユニット244は、SfM方法を使用して、各画像の位置および姿勢を再構成することができる。例えば、図6は、本発明の実施形態による、SfM方法を使用して変化する物体の3D再構成のための例示的な方法512のフローチャートである。例えば、方法512は、サーバ140のプロセッサ204によって実施されてもよい。方法512は、以下に説明するステップS602〜S618を含むことができる。
ステップS602〜S608は、取り込まれた画像間の対応を計算するために実行される。ステップS602において、サーバ140は、端末によって取り込まれた各画像内の特徴を検出することができる。いくつかの実施形態では、検出される画像特徴は、画素強度、コントラスト、勾配、パッチなどの意味的なもの、または画像に関連する情報の一部である非意味的なものとすることができる。ステップS604において、キーポイントは、画像の各ペア間で照合され得る。いくつかの実施形態では、キーポイント照合は、ステップS602において検出された特徴に基づいて、機械学習方法によって実行され得る。ステップS606において、F行列は、ステップS604の照合を精緻化するために、画像の各ペアに対して推定され得る。ステップS608において、各ペアにおけるマッチしたポイントは、編成され、トラックにスタックされる。
ステップS610〜S616は、3Dモデルを再構成するためのSfM方法の一部である。ステップS610において、サーバ140は、再構成をシードするために一対の初期画像を選択することができる。いくつかの実施形態では、初期画像のペアは、変化オブジェクトの最良のカバレッジを有することができる。サーバ140は、画像品質、解像度、画像が取り込まれる視点位置、画像間の全体的な対応レベルなど、初期画像のペアを選択する際に様々な要因を考慮することができる。ステップS612において、再構成を精緻化するために、追加の画像は、追加されてもよい。例えば、S602〜S608で決定された画像のペアを追加してもよい。追加の画像は、様々な視点からの追加の情報を提供し、したがって、3Dモデル再構成を改善することができる。ステップS614では、バンドル調整を実行して、3Dモデル全体をより現実的なものにすることができる。S616において、サーバ140は、再構成に追加されるべきトラックから、さらなる画像が利用可能であるかどうかを決定することができる。そうである場合、方法512は、ステップS612に戻り、再構成を継続することができる。そうでなければ、方法512は、ステップS618において、再構成された3Dモデルを提供してもよい。
図5に戻り、S514において、サーバ140は、3Dモデルに基づいて、対象領域の補足データが必要であるかどうかの構築結果を判定する。そうである場合、モデル再構成ユニット244は、補足画像が端末によって取り込まれるべき視点位置を決定することができる。例えば、受信された画像が0〜180度の視点角から取り込まれるが、180〜360度の視点角からは何も取り込まれない場合、モデル再構成ユニット244は、180〜360度の視点角で取り込まれた補足データを要求することができる。補足データが必要である場合、方法500は、ステップS508に戻り、命令ユニット242は、所望の視点位置でより多くの画像を取得するように端末に指示することができる。
ステップS516において、サーバ140は、変化オブジェクトの3Dモデルを既存のHADマップと照合することができる。いくつかの実施形態では、マップ更新ユニット245は、変化オブジェクトのポイントクラウドをHADマップのポイントクラウドと照合することができる。いくつかの実施形態では、マップ更新ユニット245は、再構成された3Dモデルのデータをその元の座標からHADマップの座標に変換することができる。座標変換は、本質的に、回転および並進変換によって、ある座標系から別の座標系にデータをマッピングする。
いくつかの実施形態では、ステップS516は、2つのサブステップを含むことができる。第1に、再構成された3Dモデルのポイントクラウドは、端末によって提供される位置情報に基づいて、HADマップの座標系にマッピングされ得る。第2に、マップ更新ユニット245は、3DモデルのポイントクラウドおよびHADマップのポイントクラウドからの対応するポイントを使用してコスト関数を構築することができる。例えば、例示的なコスト関数fは、式1として構築することができる:
ここで、pおよびpは、3DモデルのポイントクラウドおよびHADマップのポイントクラウドからの対応する点のペアであり、Nは、ポイントのペアの総数である。RおよびTは、それぞれ回転行列および並進行列である。いくつかの実施形態では、最適なR行列およびT行列は、コスト関数fを最小化することによって得ることができる。例えば、最適化は、反復的最近接点(ICP:Interative Closest Points)方法またはその変化量を用いて解くことができる。
ステップS518において、サーバ140は、HADマップを更新することができる。いくつかの実施形態では、マップ更新ユニット245は、オブジェクトに対応するマップ内の部分を、マップ座標系に変換された3Dモデルで置き換えてもよい。例えば、マップ更新ユニット245は、座標変換のために最適化されたR行列およびT行列を使用することができる。あるいは、マップ更新ユニット245は、3Dモデルに基づいて、対応するマップを修正してもよい。
本開示の別の態様は、実行されると、上述のような方法を1以上のプロセッサに実行させる命令を記憶する非一時的コンピュータ可読媒体に関する。コンピュータ可読媒体は、揮発性または不揮発性、磁気、半導体、テープ、光、リムーバブル、非リムーバブル、または他のタイプのコンピュータ可読媒体またはコンピュータ可読記憶装置を含むことができる。例えば、コンピュータ可読媒体は、開示されるように、コンピュータ命令が格納されたストレージ装置またはメモリモジュールであってもよい。いくつかの実施形態では、コンピュータ可読媒体は、コンピュータ命令が格納されたディスクまたはフラッシュドライブであってもよい。
開示されたシステムおよび関連する方法に対して様々な修正および変形を行うことができることは、当業者には明らかであろう。他の実施形態は、開示されたシステムおよび関連する方法の明細書および実施を考慮することから、当業者には明らかであろう。
明細書および実施例は、例示としてのみ考慮され、真の範囲は、以下の特許請求の範囲およびそれらの均等物によって示されることが意図される。

Claims (20)

  1. 複数の端末を用いてHADマップを更新するシステムであって、
    ネットワークを介して前記複数の端末と通信するように構成された通信インターフェースと、
    前記HADマップを格納するように構成されたストレージと、
    少なくとも1つのプロセッサと、
    を備え
    前記少なくとも1つのプロセッサは、
    少なくとも1つの変化オブジェクトを含む対象領域を識別し、
    異なる視野位置における前記対象領域のデータを取得するように前記複数の端末に命令し、
    前記複数の端末から取得された前記データを受信し、
    取得された前記データから前記少なくとも1つの変化オブジェクトの三次元モデルを構築し、
    前記三次元モデルに基づいて前記HADマップを更新する
    ように構成される、システム。
  2. 前記複数の端末は、画像データを取得するように構成された少なくとも1つのカメラを含む、請求項1に記載のシステム。
  3. 前記複数の端末は、前記HADマップに基づいて位置決めされる、請求項1に記載のシステム。
  4. 前記複数の端末は、
    前記HADマップに関連付けられたオブジェクトを示す画像データを取得し、
    前記画像データに基づいて前記少なくとも1つの変化オブジェクトを検出し、
    前記少なくとも1つの変化オブジェクトを前記少なくとも1つのプロセッサに報告する
    ように構成される、請求項1に記載のシステム。
  5. 前記少なくとも1つのプロセッサは、ストラクチャーフロムモーション(Structure from Motion)アルゴリズムを使用して前記少なくとも1つの変化オブジェクトを再構成するようにさらに構成される、請求項1に記載のシステム。
  6. 所定の形状は、前記ストラクチャーフロムモーション(Structure from Motion)アルゴリズムの制約として使用される、請求項5に記載のシステム。
  7. 前記三次元モデルは、ポイントクラウドモデルである、請求項1に記載のシステム。
  8. 前記少なくとも1つのプロセッサは、前記三次元モデルに基づいて前記複数の端末を調整して補足データを取得させるようにさらに構成される、請求項1に記載のシステム。
  9. 前記HADマップを更新するために、前記少なくとも1つのプロセッサは、少なくとも1つの変化オブジェクトに関連付けられた第1のポイントクラウドを、前記HADマップに関連付けられた第2のポイントクラウドと照合するようにさらに構成される、請求項1に記載のシステム。
  10. 前記HADマップを更新するために、前記少なくとも1つのプロセッサは、前記三次元モデルを前記HADマップの座標に変換するようにさらに構成される、請求項1に記載のシステム。
  11. 複数の端末を用いてHADマップを更新する方法であって、
    少なくとも1つのプロセッサによって、少なくとも1つの変化オブジェクトを含む対象領域を識別するステップと、
    前記少なくとも1つのプロセッサによって、異なる視野位置における前記対象領域のデータを取得するように前記複数の端末に命令するステップと、
    前記複数の端末から取得された前記データを受信するステップと、
    前記少なくとも1つのプロセッサによって、取得された前記データから前記少なくとも1つの変化オブジェクトの三次元モデルを構築するステップと、
    前記少なくとも1つのプロセッサによって、前記三次元モデルに基づいて前記HADマップを更新するステップと、
    を備える、方法。
  12. 前記HADマップに基づいて前記複数の端末を位置決めするステップをさらに含む、請求項11に記載の方法。
  13. 前記複数の端末によって、前記HADマップに関連付けられたオブジェクトを示す画像データを取得するステップと、
    前記複数の端末によって、前記画像データに基づいて前記少なくとも1つの変化オブジェクトを検出するステップと、
    をさらに含む、請求項11に記載の方法。
  14. ストラクチャーフロムモーション(Structure from Motion)アルゴリズムを使用して前記少なくとも1つの変化オブジェクトを再構成するステップをさらに含む、請求項11に記載の方法。
  15. 所定の形状は、ストラクチャーフロムモーション(Structure from Motion)アルゴリズムの制約として使用される、請求項14に記載の方法。
  16. 前記三次元モデルは、ポイントクラウドモデルである、請求項11に記載の方法。
  17. 前記三次元モデルに基づいて前記複数の端末を調整して補足データを取得させるステップをさらに含む、請求項11に記載の方法。
  18. 前記HADマップを更新するステップは、前記対象領域に関連付けられた第1のポイントクラウドを、前記HADマップに関連付けられた第2のポイントクラウドと照合するステップをさらに含む、請求項11に記載の方法。
  19. 前記HADマップを更新するステップは、前記三次元モデルを前記HADマップの座標に変換するステップをさらに含む、請求項11に記載の方法。
  20. 少なくとも1つのプロセッサによって実行されると、複数の端末を使用してHADマップを更新する方法を実行する、コンピュータプログラムが格納された非一時的コンピュータ可読媒体であって、前記方法は、
    少なくとも1つの変化オブジェクトを含む対象領域を識別するステップと、
    異なる視野位置における前記対象領域のデータを取得するように前記複数の端末に命令するステップと、
    前記複数の端末から取得された前記データを受信するステップと、
    取得された前記データから前記少なくとも1つの変化オブジェクトの三次元モデルを構築するステップと、
    前記三次元モデルに基づいて前記HADマップを更新するステップと、
    を備える、非一時的コンピュータ可読媒体。

JP2018565276A 2018-06-22 2018-06-22 高度自動運転マップを更新するためのシステムおよび方法 Pending JP2020527761A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/092317 WO2019241983A1 (en) 2018-06-22 2018-06-22 Systems and methods for updating highly automated driving maps

Publications (1)

Publication Number Publication Date
JP2020527761A true JP2020527761A (ja) 2020-09-10

Family

ID=68980740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018565276A Pending JP2020527761A (ja) 2018-06-22 2018-06-22 高度自動運転マップを更新するためのシステムおよび方法

Country Status (9)

Country Link
US (1) US10896539B2 (ja)
EP (1) EP3610225B1 (ja)
JP (1) JP2020527761A (ja)
CN (1) CN110859043A (ja)
AU (1) AU2018278993A1 (ja)
CA (1) CA3027787A1 (ja)
SG (1) SG11201811275UA (ja)
TW (1) TWI798305B (ja)
WO (1) WO2019241983A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021515254A (ja) * 2019-01-30 2021-06-17 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転車のためのリアルタイム地図生成システム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107536A1 (ja) * 2017-11-30 2019-06-06 三菱電機株式会社 三次元地図生成システム、三次元地図生成方法および三次元地図生成プログラム
US11017674B1 (en) * 2018-10-15 2021-05-25 Waymo Llc Managing and tracking scouting tasks using autonomous vehicles
US11280620B2 (en) * 2019-02-14 2022-03-22 Here Global B.V. Method, apparatus, and system for providing a campaign management platform to update map data
US11087543B1 (en) * 2019-06-20 2021-08-10 Snap Inc. Crowd sourced mapping system
US11153010B2 (en) * 2019-07-02 2021-10-19 Waymo Llc Lidar based communication
KR102327185B1 (ko) * 2019-12-24 2021-11-17 한국도로공사 정밀도로지도 갱신을 위한 객체 변화 탐지 시스템 및 그 방법
CN111241623B (zh) * 2020-01-20 2023-03-31 国网经济技术研究院有限公司 一种变电站道路设施的建模方法及系统
TWI726630B (zh) * 2020-02-25 2021-05-01 宏碁股份有限公司 地圖建構系統以及地圖建構方法
CN113433566B (zh) * 2020-03-04 2023-07-25 宏碁股份有限公司 地图建构系统以及地图建构方法
CN116318556A (zh) * 2020-03-20 2023-06-23 华为技术有限公司 地图数据采集方法、装置及系统
CN111553844B (zh) 2020-04-29 2023-08-29 阿波罗智能技术(北京)有限公司 用于更新点云的方法及装置
CN112067044A (zh) * 2020-08-25 2020-12-11 五邑大学 一种基于三维地图重构的环境探测方法、系统及设备
CN111928857B (zh) * 2020-10-14 2021-01-05 蘑菇车联信息科技有限公司 一种动态环境中实现slam定位的方法及相关装置
CN112559539A (zh) * 2020-12-07 2021-03-26 北京嘀嘀无限科技发展有限公司 更新地图数据的方法与装置
US20220250642A1 (en) * 2021-02-11 2022-08-11 GM Cruise Holdings, LLC High definition map updates using assets generated by an autonomous vehicle fleet
EP4363800A1 (en) * 2021-06-30 2024-05-08 Grabtaxi Holdings Pte. Ltd. Server and method for generating road map data
CN113515536B (zh) * 2021-07-13 2022-12-13 北京百度网讯科技有限公司 地图的更新方法、装置、设备、服务器以及存储介质
CN113762397B (zh) * 2021-09-10 2024-04-05 北京百度网讯科技有限公司 检测模型训练、高精度地图更新方法、设备、介质及产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095000A (ja) * 2013-11-08 2015-05-18 キヤノン株式会社 画像処理装置および画像処理方法
JP2017027101A (ja) * 2015-07-15 2017-02-02 凸版印刷株式会社 デプスマップ生成装置、デプスマップ生成方法及びプログラム
WO2018060313A1 (en) * 2016-09-28 2018-04-05 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001280975A (ja) * 2000-03-31 2001-10-10 Toshiba Corp 地図情報更新機能を持つ車載情報処理装置、車載システム、地図情報更新方法、プログラムを記録した記録媒体
JP2004020292A (ja) * 2002-06-14 2004-01-22 Kenwood Corp 地図情報更新システム
US7099882B2 (en) * 2003-04-29 2006-08-29 Navteq North America, Llc Method and system for forming, updating, and using a geographic database
KR100671529B1 (ko) * 2006-05-08 2007-01-19 (주)대한지적기술단 복수의 항공 촬영 화상을 이용한 3차원 입체지도의작성방법
TW201022700A (en) 2008-12-15 2010-06-16 Ind Tech Res Inst Localization and detecting system applying sensors, and method thereof
US8880568B2 (en) 2008-12-16 2014-11-04 Here Global B.V. Report generation for a navigation-related database
JP5802279B2 (ja) * 2011-11-22 2015-10-28 株式会社日立製作所 自律移動システム
US9406153B2 (en) * 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US8793046B2 (en) * 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
JP6484228B2 (ja) * 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
US9625612B2 (en) * 2013-09-09 2017-04-18 Google Inc. Landmark identification from point cloud generated from geographic imagery data
US9285230B1 (en) * 2013-12-20 2016-03-15 Google Inc. Methods and systems for detecting road curbs
JP2015207996A (ja) * 2014-04-07 2015-11-19 パナソニックIpマネジメント株式会社 通信制御方法および通信制御装置
CN103941748B (zh) 2014-04-29 2016-05-25 百度在线网络技术(北京)有限公司 自主导航方法及系统和地图建模方法及系统
US9613455B1 (en) * 2014-11-02 2017-04-04 Google Inc. Local georeferenced data
CA3067177A1 (en) 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
JP5997797B2 (ja) * 2015-03-03 2016-09-28 富士重工業株式会社 車両の地図データ処理装置
CN104677366B (zh) 2015-03-19 2019-05-07 南京宜开数据分析技术有限公司 基于gps信息的道路地图更新方法
US9891057B2 (en) * 2015-03-23 2018-02-13 Kabushiki Kaisha Toyota Chuo Kenkyusho Information processing device, computer readable storage medium, and map data updating system
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
US9711050B2 (en) * 2015-06-05 2017-07-18 Bao Tran Smart vehicle
EP3131020B1 (en) * 2015-08-11 2017-12-13 Continental Automotive GmbH System and method of a two-step object data processing by a vehicle and a server database for generating, updating and delivering a precision road property database
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US10223380B2 (en) 2016-03-23 2019-03-05 Here Global B.V. Map updates from a connected vehicle fleet
JP6421782B2 (ja) * 2016-04-22 2018-11-14 トヨタ自動車株式会社 周辺情報収集システム
US10764713B2 (en) 2016-05-11 2020-09-01 Here Global B.V. Map based feedback loop for vehicle observation
US10502577B2 (en) * 2016-06-30 2019-12-10 Here Global B.V. Iterative map learning based on vehicle on-board sensor data
JP6684681B2 (ja) 2016-08-10 2020-04-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 動的地図構成方法、動的地図構成システム及び移動端末
US10565682B2 (en) * 2016-11-07 2020-02-18 Ford Global Technologies, Llc Constructing map data using laser scanned images
CN108121764B (zh) * 2016-11-26 2022-03-11 星克跃尔株式会社 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质
EP3563265B1 (en) 2016-12-30 2021-06-02 DeepMap Inc. High definition map updates
US10859395B2 (en) 2016-12-30 2020-12-08 DeepMap Inc. Lane line creation for high definition maps for autonomous vehicles
WO2018191651A1 (en) 2017-04-13 2018-10-18 Donoma Inc. Call traffic diagnostics in telecommunications networks
CN107229690B (zh) * 2017-05-19 2019-01-25 广州中国科学院软件应用技术研究所 基于路侧传感器的高精度动态地图数据处理系统及方法
CN107451526A (zh) * 2017-06-09 2017-12-08 蔚来汽车有限公司 地图的构建及其应用

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095000A (ja) * 2013-11-08 2015-05-18 キヤノン株式会社 画像処理装置および画像処理方法
JP2017027101A (ja) * 2015-07-15 2017-02-02 凸版印刷株式会社 デプスマップ生成装置、デプスマップ生成方法及びプログラム
WO2018060313A1 (en) * 2016-09-28 2018-04-05 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021515254A (ja) * 2019-01-30 2021-06-17 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転車のためのリアルタイム地図生成システム
JP7019731B2 (ja) 2019-01-30 2022-02-15 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転車のためのリアルタイム地図生成システム

Also Published As

Publication number Publication date
CN110859043A (zh) 2020-03-03
TWI798305B (zh) 2023-04-11
EP3610225B1 (en) 2022-03-02
US20190392635A1 (en) 2019-12-26
EP3610225A4 (en) 2020-02-19
US10896539B2 (en) 2021-01-19
SG11201811275UA (en) 2020-01-30
CA3027787A1 (en) 2019-12-22
TW202001786A (zh) 2020-01-01
WO2019241983A1 (en) 2019-12-26
AU2018278993A1 (en) 2020-01-16
EP3610225A1 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
EP3610225B1 (en) Systems and methods for updating highly automated driving maps
CN110174093B (zh) 定位方法、装置、设备和计算机可读存储介质
US10937231B2 (en) Systems and methods for updating a high-resolution map based on binocular images
JP7485749B2 (ja) ビデオベースの位置決め及びマッピングの方法及びシステム
US11971274B2 (en) Method, apparatus, computer program, and computer-readable recording medium for producing high-definition map
US9928594B2 (en) Automatic spatial calibration of camera network
JP2018533721A (ja) ローカライゼーション基準データを生成及び使用する方法及びシステム
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
JP2006105661A (ja) ステレオ画像による平面推定方法
US20200342620A1 (en) Object location coordinate determination
JP5435294B2 (ja) 画像処理装置及び画像処理プログラム
AU2018102194A4 (en) Systems and methods for updating highly automated driving maps
CN113196341A (zh) 用于对道路的表面上的对象进行检测和建模的方法
CN115457084A (zh) 一种多相机目标检测跟踪方法、装置
JP7229111B2 (ja) 地図更新データ生成装置及び地図更新データ生成方法
CN116917936A (zh) 双目相机外参标定的方法及装置
JP2020017198A (ja) 情報処理装置
KR20230065730A (ko) 3차원 시설물 위치 정보를 이용한 모바일 장치의 위치 결정 방법 및 이를 이용한 장치
KR20230065731A (ko) 3차원 시설물 위치 정보를 업데이트하는 방법 및 이를 이용한 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210323