JP7440005B2 - 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム - Google Patents

高精細地図の作成方法、装置、デバイス及びコンピュータプログラム Download PDF

Info

Publication number
JP7440005B2
JP7440005B2 JP2022541610A JP2022541610A JP7440005B2 JP 7440005 B2 JP7440005 B2 JP 7440005B2 JP 2022541610 A JP2022541610 A JP 2022541610A JP 2022541610 A JP2022541610 A JP 2022541610A JP 7440005 B2 JP7440005 B2 JP 7440005B2
Authority
JP
Japan
Prior art keywords
point
point cloud
registration
cloud data
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022541610A
Other languages
English (en)
Other versions
JP2023533625A (ja
Inventor
シア、デグオ
フアン、ジジョウ
ワン、ハイフェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023533625A publication Critical patent/JP2023533625A/ja
Application granted granted Critical
Publication of JP7440005B2 publication Critical patent/JP7440005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Instructional Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、コンピュータ応用技術の分野に関し、特に人工知能技術の分野における自動運転及びディープラーニング技術に関する。
[関連出願の相互参照]
本出願は、出願日が2021年06月08日、出願番号が202110637791.9、発明名称が「高精細地図の作成方法、装置、デバイス及びコンピュータ記憶媒体」である中国特許出願の優先権を主張している。
高精細地図は自動運転システムにおける重要な一環として、自動運転の発展を推進する重要な要素の一つである。従来の地図は精度が低く、道路レベルの経路計画しか提供できなかった。高精細地図は、高精度測位、車線レベルのルート計画能力、豊富な道路要素情報を提供することで、事前に位置情報を知り、走行ルートを正確に計画し、路面の複雑な情報を予知し、潜在的なリスクをよりよく回避することなどに寄与する。そのため、高精細地図の作成をいかに実現するかが早急な解決を要する問題となっている。
これに鑑みて、本発明は、高精細地図の作成方法、装置、デバイス及びコンピュータ記憶媒体を提供する。
本開示の第1の態様によれば、採集装置が各位置点でそれぞれ採集した点群データ及び正面画像データを取得して点群シーケンス及び正面画像シーケンスを得、前記点群シーケンス及び正面画像シーケンスに対して正面画像と点群データのレジストレーションを行い、前記レジストレーションの結果に基づいて前記正面画像シーケンスを平面図に変換して前記平面図における各画素の座標情報を決定し、前記平面図に対して地図要素の認識を行って高精細地図データを得ることを含む高精細地図の作成方法が提供される。
本開示の第2の態様によれば、採集装置が各位置点でそれぞれ採集した点群データ及び正面画像データを取得して点群シーケンス及び正面画像シーケンスを得る取得部と、前記点群シーケンス及び正面画像シーケンスに対して正面画像及び点群データのレジストレーションを行うレジストレーション部と、前記レジストレーションの結果に基づいて、前記正面画像シーケンスを平面図に変換して前記平面図における各画素の座標情報を決定する変換部と、前記平面図に対して地図要素の認識を行って高精細地図データを得る認識部とを備える高精細地図の作成装置が提供される。
本開示の第3の態様によれば、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに上述した方法を実行させる電子デバイスが提供される。
本開示の第4の態様によれば、コンピュータに上述した方法を実行させるためのコンピュータコマンドを記憶した非一時的なコンピュータ可読記憶媒体が提供される。
本開示の第5の態様によれば、プロセッサにより実行されると、上述した方法を実現するコンピュータプログラムを含むコンピュータプログラム製品が提供される。
理解すべきなのは、本セクションで説明される内容は、本開示の実施形態の重要な又は肝心な特徴を標識することでもなく、本開示の範囲を制限することでもない。本開示の他の特徴は、以下の明細書により容易に理解されるであろう。
図面は、本技術案をより良く理解するためのものであり、本願に制限されない。
本開示の実施形態により提供される高精細地図の作成方法のフローチャートである。 本開示の実施形態により提供される好適なレジストレーション処理のフローチャートである。 本開示の実施形態により提供されるフレームごとに点群データをレジストレーションする方法のフローチャートである。 正面画像の一例を示す図である。 平面図の一例を示す図である。 本開示の実施形態により提供される高精細地図の作成装置の構成図である。 本発明の実施形態を実現するための電子デバイスのブロック図である。
以下、図面に基づいて、本開示の例示的な実施例を説明する。理解を容易にするために、本開示の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
現在、いくつかの高精細地図の作成が存在しているが、主に点群技術に基づいている。すなわち、レーザレーダ装置によって大量の稠密な点群データを収集し、点群データを処理・識別した後、道路や地上標識などの情報を得、さらにこれらのデータを人工的に修正し、最終的に高精細な地図データを生成する。しかし、この従来の方法は点群データに強く依存している。都市部の道路空間の構造が複雑であるため、高精細地図の精度を保証するために、大量の人力をかけてレジストレーション作業を行う必要がある結果、高精細地図の作成効率が低く、人件費が高く、作業員の専門技能が厳しく要求され、最終的に高精細地図の大規模作成に影響を与える。
これに鑑みて、本開示は、上記従来の方法とは異なる高精細地図の作成方法を提供する。本開示で提供される方法は、実施形態に関連して以下に詳細に説明される。
図1は本開示の実施形態により提供される高精細地図の作成方法のフローチャートである。この方法の実行主体は、推奨装置であってよい。この装置は、ローカル端末に配置されたアプリケーションであってもよく、ローカル端末に配置されたアプリケーションにおけるプラグイン又はソフトウェア開発キット(Software Development Kit;SDK)のような機能ユニットであってもよく、サーバ側に配置されてもよく、本発明の実施形態は特に限定しない。図1に示されるように、この方法は以下のことを含んで良い。
101では、採集装置が各位置点でそれぞれ取得した点群データ及び正面画像データを取得し、点群シーケンス及び正面画像シーケンスを得る。
102では、点群シーケンス及び正面画像シーケンスに対して正面画像と点群データとのレジストレーションを行う。
103では、レジストレーション結果に基づいて、正面画像シーケンスを平面図に変換し、平面図における各画素の座標情報を決定する。
104では、平面図に対して地図要素の認識を行って高精細地図データを得る。
以上の技術案からわかるように、本開示の考え方は画像採集装置で採集した画像データとレーザレーダ装置で採集した点群データを統合することにより、相互統合された自動化のレジストレーションを実現し、レジストレーション結果に基づいて最終的な高精細地図を生成することである。この方式は人工によるレジストレーションを行うために余分に多くの労力を費やす必要がなく、作成効率が向上し、人件費及び作業者への専門技能の要求が低減され、高精細地図の大規模作成の基礎を提供する。
以下、上記実施形態の各ステップについて詳細に説明する。
まず、上記ステップ101、即ち「採集装置が各位置点でそれぞれ取得した点群データ及び正面画像データを取得して点群シーケンス及び正面画像シーケンスを得る」について、実施形態に関連して詳細に説明する。
このステップに係わる採集装置は、主に、例えばカメラ、レコーダーなどのように定刻に、或いはトリガにより画像採集を実行可能な画像採集装置と、定刻に或いはトリガによりレーザ光を照射してスキャンすることにより、周囲環境の表面の反射点の集合のデータ、すなわち点群データを取得可能なレーザレーダ装置と、の二種類の装置を含む。これらの点群データには、通常にレーザレーダ装置の座標系における座標である点の座標情報が含まれる。
また、例えばGNSS(Global Navigation Satellite System、全球測位衛星システム)装置のような、位置情報の採集を担う測位機能を有する装置を含むこともできる。
本開示では、移動可能なデバイス(例えば採集車)を用いて上記採集装置を搬送し、そして移動可能なデバイスが移動する過程において、各採集装置が一定の頻度でデータ採集を行うか、同じ位置点でトリガされてデータ採集を行って良い。
例えば、画像採集装置が一定の採集頻度で採集した正面画像により正面画像シーケンス
Figure 0007440005000001
を構成する。ここで、Iは、時刻tで採集された1フレームの正面画像である。
レーザレーダ装置が一定の採集頻度で採集した点群データにより点群シーケンス
Figure 0007440005000002
を構成する。ここで、Pは時刻tで採集された1フレームの点群データである。各フレームの点群データはM個点の座標情報を含み、即ち1フレームの点群データに含まれる座標情報は
Figure 0007440005000003
である。ここで、pはj点目の座標情報である。
位置採集装置が一定の採集頻度で採集した位置データにより位置シーケンス
Figure 0007440005000004
を構成する。ここで、Lは時刻tで採集された位置データである。
上記Nは、採集装置がデータ採集を行った回数であり、すなわち採集装置の種類ごとに得られたデータの数である。
好ましい実施形態として、データの同期化及び後続のレジストレーション処理を確保するために、採集装置に対してクロック同期化及び/又はジョイントキャリブレーションを事前に行うことができる。
ここで、採集装置間のクロック同期を行う際には、ミリメートルレベルを達成する必要があることが好ましい。具体的な同期方式としては、GPSベースの「PPS(Pulse Per Second、1秒間のパルス数)+NMEA(National Marine Electronics Association、米国国家海洋電子協会)」、又はイーサネット(登録商標)ベースのIEEE 1588(又はIEEE 802.1AS)クロック同期プロトコルが選択できる。
採集装置に対してジョイントキャリブレーションを行うことは、主に採集装置のうち画像採集装置の内、外参照情報、レーザレーダ装置の外参照情報、レーザレーダ座標系から画像採集装置の座標系への変換及び平行移動行列M、及び画像採集装置の内参照情報行列Mを得るためである。
ジョイントキャリブレーションの方式は主に1つのキャリブレーションテンプレートを予め設定し、レーザレーダ装置と画像採集装置を調整してキャリブレーションテンプレートに対して写真撮影と点群捕捉を行う。次に、少なくとも3つの対応する画像における2次元点と点群の3次元点を探し、すなわち3点対を構成する。この3点対を用いてPNP(Pespective-n-point)求解を行うことにより、レーザレーダ装置の座標系と画像採集装置の座標系との変換関係を導出することができる。
デバイス間のクロック同期とジョイントキャリブレーションは、現在の比較的成熟した技術を用いることができるため、ここでは詳述しない。
以上のステップ102、即ち「点群シーケンス及び正面画像シーケンスに対して正面画像及び点群データとのレジストレーションを行う」について、実施形態に関連して詳細に説明する。
本ステップでは、点群シーケンス及び正面画像シーケンスに対して正面画像及び点群データとのレジストレーションを行うことは、正面画像シーケンスにおける隣接画像をまずレジストレーションして隣接画像における対応する画素からなる集合を得、次にその集合に点群データを投影して集合における各画素の座標情報を得ることが考えられる。レジストレーションのプロセスは、実際には、一方では、より正確な画素を特定し、他方では、その画素部分の座標情報を特定することである。以下で好適な実施形態を説明する。図2は本開示の実施形態により提供される好適なレジストレーション処理のフローチャートである。図2に示すように、当該フローは以下のステップを含むことができる。
201では、正面画像シーケンスにおける隣接画像をレジストレーションして隣接画像における対応する画素の集合を得る。
画像採集装置では、一定の頻度で画像採集が行われるため、隣接する2つのフレームの画像は異なる。本ステップの目的は、隣接する画像中のどの画素点が対応しているかを導出することである。
Figure 0007440005000005
レジストレーションを行う際には、特徴に基づく方法やディープラーニング方法などを用いることができる。ここで、特徴に基づく方法は、主に、2つのフレームの画像における、例えばSIFT(Scale-invariant feature transform)を採用可能な各画素の特徴を決定し、次に類似度の方式に基づいて特徴マッチングを行って対応する画素点を得ることを含む。例えば、特徴間の類似度が予め設定された類似度閾値を超える2つの画素点間でマッチングが成功する。
ディープラーニング方法は主に、畳み込みニューラルネットワーク、VGG(Visual Geometry Group Network)層などを用いて各画素の特徴ベクトル表現を生成し、次に2フレームの画像における各画素の特徴ベクトル表現に基づいて特徴マッチングを行って対応する画素点を得ることを含む。例えば、特徴ベクトル表現間の類似度が予め設定された類似度閾値を超える2つの画素点間でマッチングが成功する。
202では、点群データを採集したレーザレーダ装置が1回転する運動量に応じて、点群データに対して歪み補正を行う。
このステップは好適に実行されており、後続のレジストレーションプロセスにおける点群データの精度を向上させることに寄与する。
画像採集装置はグローバルシャッタを採用しており、瞬時に得られたものと考えられる。一方、レーザレーダ装置は瞬間的に得られるものではなく、通常は送受信機を1周、すなわち360度回転させた後に採集される。仮に1回転を100msとすると、1回の採集周期内に形成された1フレームの点群データでは、最初の点と最後の点の間に100msの差があり、さらにレーザレーダ装置が移動中に採集されるため、点群データには歪みがあり、ある時点の実際の環境をリアルに反映できない。画像データと点群データとをより良くレジストレーションするために、このステップでは、点群データに対して歪み補正を行う。
レーザレーダはレーザ点座標を算出する際に、レーザ光を受けた時点におけるレーザレーダ自身の座標系に基づいているため、レーザレーダの移動中にレーザ点の列ごとに基準座標系が異なる。ただし、これらは同じフレームの点群内にあるため、歪み補正を行う際には同じ座標系に統一する必要がある。
歪み補正の考え方は、採集中のレーザレーダの動きを計算し、そして回転と平行移動の補正を含めて、各フレームの点群上でこの動き量を補正することである。まずは1フレームの点群内の最初のレーザ点を決定し、後続のレーザ点は最初のレーザ点に対する回転角度と平行移動量を決定し、その後に回転してから平行移動することである補正変換を行うことにより、補正後のレーザ点の座標情報を得ることができる。
さらに、ステップ202の後に、隣接画像における対応する点群の集合を決定することもできる。
具体的には、まず、画像採集装置の内部参照情報行列、画像採集装置の座標系から画像平面への回転行列、及びレーザレーダ座標系から画像採集装置の座標系への変換及び平行移動行列に基づいて、点群から画像への投影行列を得、次に投影行列を用いて点群データを画像上に投影して良い。投影を行った後、隣接画像における対応する点群の集合を決定することができる。連続された2フレームの画像xと画像yが上記の投影により、画像xに投影されたK個の点からなる集合と画像yに射影されたK個の点からなる集合を得ると仮定する。これら2つの集合に対して積集合を導出すると、画像xと画像yにおける対応する点群からなる集合となる。この集合の用途は、後続の実施形態に関連する。
203では、点群シーケンスにおける基準点群を決定する。
具体的には、点群シーケンスにおける最初のフレームを基準点群として使用することができる。
しかし、実際には、点群シーケンスにおける最初のフレームの点群が最も正確ではない場合がある。したがって、本開示は、基準点群を決定するための好ましい方法を提供する。具体的には、点群シーケンスにおける最初のフレームを基準として、フレームごとに他の点群データに対してレジストレーションを行い、点群画像シーケンスのうち、前後2フレームの点群データとのレジストレーション点が占める割合が最も高い1フレームの点群を基準点群とすることができる。
ここで、フレームごとに他の点群データに対してレジストレーションを行う際に、図3のような方法を使用して、次の手順を実行することができる。
301では、基準となる点群と、レジストレーションされていない隣接点群とから、2つのフレームの点群間の変換行列を学習する。
最初のフレームから点群を基準とすると、最初のフレームの点群と2番目のフレームの点群を決定し、この2つのフレームの点群から両方の変換行列を学習する。
隣接する2つのフレームの点群は、実際には回転と平行移動の関係にあるため、最初のフレームの点群を回転と平行移動すると、理論的には2番目のフレームの点群が得られる。一方、実際の場合に、採集装置が走行中に揺れたりして多少のずれが生じる可能性があるため、例えばICP(Iterative Closest Point)などの方法を用いて変換行列の学習を行うことができる。たとえば、回転行列をR、平行移動行列をtと表すと、Rとtを学習する際に、損失関数は、基準となる点群における各点が変換行列によって変換された各変換点と、隣接点群における各変換点とのうち最も近い点の間の距離平均値又は加重平均値とすることができる。
たとえば、次のような損失関数を使用できる。
Figure 0007440005000006
ここで、E(R,t)は損失関数を示し、xは基準となる点群、例えば最初のフレームの点群における点を示し、R(x)+tは変換行列によるxに対する変換を示し、
Figure 0007440005000007
はxに対して変換した後に隣接する点群、例えば2番目のフレームの点群においてマッチングされた最近点を示す。nはマッチング可能な点の数である。点ごとに学習を行った後、上記損失関数を最小化することを目標として、最終的に変換行列Rとtを学習することができる。
さらに、例えば、次のような損失関数を用いることもできる。
Figure 0007440005000008
上記式(1)とは異なることは、基準となる点群における点が対応する点群からなる集合Px,yに属するか否かによって決定される加重係数wが付加されている。たとえば、次のような式を採用可能である。
Figure 0007440005000009
ここで、α≧1である。例えば、α=1.5又はα=2.0を取ることができる。
上記のICP方法に加えて、DGR(Deep Global Registration)などのディープ特徴学習に基づく方法を用いることもできる。
302では、この変換行列を用いて基準となる点群を変換してレジストレーションされた隣接点群を得る。
例えば、最初のフレームの点群における各点を上記変換行列Rとtを用いて変換した後、2番目のフレームの点群においてレジストレーションされた各点を得る。
303では、レジストレーションされていない隣接点群が点群シーケンスに存在するか否かを判定し、肯定の場合にステップ304を実行し、否定の場合に現在のレジストレーションプロセスを終了する。
304では、隣接点群を新たな基準としてステップ301へ進む。
例えば、続いてレジストレーションされた2番目のフレームの点群を新たな基準として3番目のフレームの点群に対して上記手順を実行してレジストレーションしてレジストレーションされた各点を得る。次に、レジストレーションされた3番目のフレームを新たな基準として、4番目のフレームの点群に対して上記手順を実行してレジストレーションし、これによって類推すれば良い。
点群シーケンスにおけるすべてのフレーム点群のレジストレーションが完了した後、点群画像シーケンスのうち、前後2フレームの点群データとのレジストレーション点が占める割合が最も高い1フレームの点群を基準点群とする。ここで、j番目のフレームの点群Pのレジストレーション点の割合Aは、次の式で決定され得る。
Figure 0007440005000010
ここで、match()は前後2フレームの点群におけるレジストレーション可能な点の積集合を示し、1フレームの点群を変換行列に従って変換して得られた各点と、他の1フレームの点群における各点との積集合として表現することができる。
Figure 0007440005000011
は集合内の点の数を示す。たとえば、|Pj-1|はj-1番目のフレームの点群内の点の数を示す。
図2に進む。204では、基準点群を基準として、フレーム毎に他の点群データをレジストレーションする。
基準点群が決定されると、図3に示すような方法で、基準点群を基準としてフレーム毎に他の点群データをレジストレーションする。基準点群が最初のフレームである場合、次のフレームの点群が順番にレジストレーションされる。基準点群が最初のフレームでない場合に、基準点群を基準として各フレーム点群を前後へレジストレーションする。最終的に、レジストレーションされた点群シーケンスが得られる。
205では、ステップ201で得られた集合にレジストレーションされた点群データを投影して集合における各画素の座標情報を得る。
具体的には、点群データの座標を集合に投影して正面画像における画素に対応する点群の座標情報を得、レーザレーダ座標系から画像採集装置の座標系への変換及び平行移動行列に基づいて、正面画像における画素に対応する点群の座標情報を画素の座標情報に変換することを含んで良い。
ここで、上記の集合は、実際には、隣接画像のレジストレーションによって得られた対応する画素である。点群データをそれぞれ画像上に投影し、上記の集合に入る点(すなわちレーザ点)を取ることにより、正面画像におけるこれらの集合内の各画素に対応する点群の座標情報を得ることができる。点群データの画像への投影方式については、先の実施形態の記載を参照でき、ここでは言及しない。
正面画像における画素に対応する点群の座標情報を取得した後、レーザレーダ装置の座標系と画像採集装置の座標系が異なるため、点群の座標情報を画素の座標情報に変換し、すなわち画像採集装置の座標系に変換する必要がある。
以上のステップ103、即ち「レジストレーション結果に基づいて、正面画像シーケンスを平面図に変換し、平面図における各画素の座標情報を決定する」について、以下で実施形態と併せて詳細に説明する。
このステップでは、まず、逆透視変換に基づいて、正面図シーケンスにおける各フレームの正面画像を平面図に変換し、次に正面画像における画素の座標情報に基づいて平面図においてマッチングを行って平面図における各画素の座標情報を決定して良い。
ここで、逆透視変換は、現在に画像投影変換を行う常用方式である。その本質は、画像採集装置によって採集された正面画像を世界座標系におけるz=0平面に変換することである。
正面図における画素の座標情報が(u,v)で表されると仮定すると、世界座標系における座標(x,y,z)に変換する必要がある。ジョイントキャリブレーションプロセスにおいて、次のパラメータを取得することができる。
γ:画像採集装置の光軸oのz=0平面への投影とy軸の角度、
θ:画像採集装置の光軸oのz=0平面からのずれの角度、
2α:画像採集装置の視角、
:画像採集装置の水平方向の解像度、
:画像採集装置の垂直方向の解像度。
逆透視変換モデルは以下のように表すことができる。
Figure 0007440005000012
Figure 0007440005000013
ここで、hは画像採集装置の地面からの高さ、cot()はコタンジェント関数である。
以上の逆透視変換により、例えば図4aに示すような正面画像を、図4bに示すような平面図に変換することができる。
上述の逆透視変換理論に従って、実際に正面図シーケンスにおける各フレームの正面画像をそれぞれ1枚の平面図に変換することができる。Nフレームの正面画像が存在すれば、N枚の平面図を得ることができる。これらの平面図は実際には互いに重なり合っており、特に隣接する2つの平面図は、殆どの領域が重なり合っている。以上の手順では、平面視における画素の座標情報を得ることができるため、各平面視における画素の位置情報に基づいて、1枚ずつのスプライシングを行い、最終的に高精細地図を得ることができる。
以上のステップ104、即ち「平面図に対して地図要素の認識を行って高精細地図データを得る」について、以下で実施形態と併せて詳細に説明する。
このステップでは、ステップ103で得られた平面図に対して道路情報の認識を行い、次に認識された道路情報を平面図に重ねて表示することにより、高精細地図データを得ることができる。
ここで、道路情報は、車線ライン、車線ラインタイプ(例えば、白色の実線、シングル黄色の実線、ダブル黄色の実線、黄色の点実線、導流ライン、黄色の駐車禁止ライン等)、色、車線の案内矢印情報、車線タイプ(例えば本線、バスレーン、潮流車線等)等を含むことができる。
以上の認識を行う際には、ディープニューラルネットワークに基づく語義分割モデル、たとえばDeepLabV3を用いて道路情報を分割することができる。上述した道路情報は、例えばFaster-RCNN(Regions with CNN features)のようなディープニューラルネットワークに基づく画像認識技術を用いて識別することもできる。
説明すべきなのは、上記の平面図に基づく認識は、主に地面要素の認識、すなわち、主に道路情報の認識である。一方、交通標識や建物などの他の地図要素の認識については、正面画像から認識する。この部分は、従来技術における方式を採用することができ、本開示では限定されない。
識別された道路情報を平面図に重ねて表示した後、作業者は平面図のデータに直接に基づいて重ねた道路情報と比較し、問題のあるデータを修正し、最終的な高精細地図データを作成することができる。
以上は、本開示で提供される方法の詳細な説明である。以下は、本開示で提供される装置について実施形態に関連して詳細に説明する。
図5は、本開示の実施形態により提供される高精細地図の作成装置の構成図である。図5に示されるように、当該装置500は、取得部510と、レジストレーション部520と、変換部530と、認識部540とを備えてよい。これらの構成要素の主な機能は以下のとおりである。
取得部510は、採集装置が各位置点でそれぞれ取得した点群データ及び正面画像データを取得し、点群シーケンス及び正面画像シーケンスを得る。
ここで、前記採集装置は、少なくとも、正面画像を取得する画像採集装置と、点群データを取得するレーザレーダ装置とを含む。
好ましい実施形態の一つとして、データの同期化及び後続のレジストレーション処理を確保するために、採集装置に対してクロック同期化及び/又はジョイントキャリブレーションを事前に行うことができる。
レジストレーション部520は、点群シーケンス及び正面画像シーケンスに対して正面画像及び点群データのレジストレーションを行う。
変換部530は、レジストレーション結果に基づいて、正面画像シーケンスを平面図に変換し、平面図における各画素の座標情報を決定する。
認識部540は、平面図に対して地図要素を認識して高精細地図データを得る。
具体的には、レジストレーション部520は、第1レジストレーションサブユニット521及び投影サブユニット522を備えてよく、更に校正サブユニット523と、基準サブユニット524と、第2レジストレーションサブユニット525と、第3レジストレーションサブユニット526とを備えてよい。
ここで、第1レジストレーションサブユニット521は、正面画像シーケンスにおける隣接画像をレジストレーションして隣接画像における対応する画素からなる集合を得る。
投影サブユニット522は、点群データを集合に投影して集合における各画素の座標情報を得る。
好ましい実施形態の一つとして、校正サブユニット523は、点群データを採集したレーザレーダ装置が1回転する運動量に応じて、点群データを歪み補正して投影サブユニット522に供給する。
別の好ましい実施形態の一つとして、基準サブユニット524は、点群シーケンスにおける基準点群を決定する。
第2レジストレーションサブユニット525は、基準点群を基準として他の点群データをフレーム毎にレジストレーションし、レジストレーションされた点群データを投影サブユニット522に供給する。
例えば、校正サブユニット523を用いて点群データの歪み補正を行い、次に基準サブユニット524により基準点群を決定し、第2レジストレーションサブユニット525によりレジストレーションするように、上記2つの方法を組み合わせることができる。
基準サブユニット524は、点群シーケンスにおける最初のフレームの点群を基準点群とすることができる。しかし、好ましい実施形態の一つとして、基準サブユニット524は、具体的に、点群シーケンスにおける最初のフレームを第2レジストレーションサブユニット525に提供して基準として、フレーム毎に他の点群データをレジストレーションし、第2レジストレーションサブユニット525からレジストレーション結果を取得し、点群シーケンスのうち、前後2フレームの点群データとのレジストレーション点が占める割合が最も高い1フレームの点群を基準点群とする。
第2レジストレーションサブユニット525は、基準となる点群と、レジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習し、基準となる点群を変換行列を用いて変換してレジストレーションされた隣接点群を得、点群画像シーケンスにおけるすべての点群データのレジストレーションが完了するまで、隣接点群を新たな基準として、基準となる点群と、レジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習する処理に移行する。
実現可能な方式として、第2レジストレーションサブユニット525は、基準となる点群とレジストレーションされていない隣接点群とから2フレームの点群間の変換行列を学習する際に、具体的に、反復最近接点ICPアルゴリズムを用いて、基準となる点群及び隣接点群から2フレームの点群間の変換行列を学習する。ここで、ICPアルゴリズムの損失関数は、基準となる点群における各点を変換行列により変換して得られた各変換点と、隣接点群における各変換点とのうち最も近い点の間の距離平均値又は加重平均値である。
好ましい実施形態の一つとして、第3レジストレーションサブユニット526は、隣接画像における対応する点群からなる集合を決定する。
第2レジストレーションサブユニット525は、加重平均値を決定する際に、基準となる点群における点が対応する点群からなる集合に属するか否かに応じて、各距離に用いる重みを決定する。
投影サブユニット522は、具体的に、点群データの座標を集合に投影して正面画像における画素に対応する点群の座標情報を得、レーザレーダ座標系から画像採集装置の座標系への変換及び平行移動行列に基づいて、正面画像における画素に対応する点群の座標情報を画素の座標情報に変換する。
変換部530は、具体的に、逆透視変換に基づいて、正面図シーケンスにおける各フレームの正面画像を平面図に変換し、正面画像における画素の座標情報に基づいて平面視においてマッチングを行って平面視における各画素の座標情報を決定する。
認識部540は、具体的に、平面図に対して道路情報の認識を行い、認識された道路情報を平面図に重ねて表示することにより、高精細地図データを得る。
ここで、道路情報は、車線ライン、車線ラインタイプ(例えば、白色の実線、シングル黄色の実線、ダブル黄色の実線、黄色の点実線、導流ライン、黄色の駐車禁止ライン等)、色、車線の案内矢印情報、車線タイプ(例えば、本線、バスレーン、潮流車線等)等を含むことができる。
以上の認識を行う際には、ディープニューラルネットワークに基づく語義分割モデル、たとえばDeepLabV3を用いて道路情報を分割することができる。上述した道路情報は、例えばFaster-RCNN(Regions with CNN features)のようなディープニューラルネットワークに基づく画像認識技術を用いて識別することもできる。
本明細書における様々な実施形態は、漸進的に説明されており、様々な実施形態の間の同じ/類似する部分は互いに参照されて良く、各実施形態は、他の実施形態との相違点に焦点を当てて説明されている。特に、装置の実施形態については、方法の実施形態と実質的に類似しているので、説明は比較的簡単であり、関連部分について方法の実施形態の一部の説明を参照すればよい。
本開示の実施形態によれば、電子デバイス、可読記憶媒体、及びコンピュータプログラム製品も提供される。
図6は、本開示の実施形態による高精細地図の作成方法の電子デバイスのブロック図である。電子デバイスは、ラップトップ、デスクトップコンピュータ、ワークベンチ、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータのような、様々な形態のデジタルコンピュータを表す。電子デバイスは更に、PDA、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことができる。本明細書に示す構成要素、それらの接続及び関係、ならびにそれらの機能は、単なる一例であり、本明細書に記載及び/又は要求された本開示の実現を制限することではない。
図6に示すように、デバイス600は、読み取り専用メモリ(ROM)602に記憶されたコンピュータプログラム、又は記憶手段608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに従って、様々な適切な動作及び処理を実行することができる演算手段601を含む。RAM603には、デバイス600の動作に必要な各種のプログラムやデータが記憶されてもよい。演算手段601、ROM602及びRAM603は、バス604を介して接続されている。入出力(I/O)インターフェース605もバス604に接続されている。
例えばキーボード、マウス等の入力手段606と、例えば様々なタイプのディスプレイ、スピーカ等の出力手段607と、例えば磁気ディスク、光ディスク等の記憶手段608と、例えばネットワークカード、モデム、無線通信トランシーバなどの通信手段609を含むデバイス600の複数の構成要素は、I/Oインターフェース605に接続される。通信手段609は、デバイス600が例えばインターネットのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
演算手段601は、処理能力及び演算能力を有する様々な汎用及び/又は専用の処理コンポーネントであってよい。演算手段601のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、様々な専用の人工知能(AI)演算チップ、機械学習モデルアルゴリズムを実行する様々な演算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。演算手段601は、上述した様々な方法及び処理、例えば高精細地図の作成方法を実行する。例えば、幾つかの実施形態では、高精細地図の作成方法は、例えば記憶手段608のような機械可読媒体に物理的に組み込まれたコンピュータソフトウェアプログラムとして実装されてもよい。
幾つかの実施形態では、コンピュータプログラムの一部又は全部は、ROM602及び/又は通信手段609を介してデバイス600にロード及び/又はインストールすることができる。コンピュータプログラムがRAM603にロードされ、演算手段601により実行されると、上述した高精細地図の作成方法の1つ又は複数のステップを実行することができる。代替的に、他の実施形態では、演算手段601は、車両制御方法を実行するように、他の任意の適切な方法で(例えば、ファームウェアを介する)構成されてもよい。
本明細書で前述したシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブル論理デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせにおいて実装されてもよい。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含んで良い。当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/又は解釈することができる。当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであって、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置にデータ及び命令を転送することができる。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせを用いて記述することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供することにより、プログラムコードがプロセッサ又はコントローラにより実行されると、フローチャート及び/又はブロック図に指定された機能/動作を実行するようにすることができる。プログラムコードは、全てがマシン上で実行されても良く、一部がマシン上で実行されても良く、スタンドアロンパッケージとして一部的にマシン上で実行され且つ一部的にリモートマシン上で実行され、或いは全てがリモートマシン又はサーバ上で実行されても良い。
本開示の文脈では、機械可読媒体は、有形の媒体であって、命令実行システム、装置又はデバイスにより使用され、或いは命令実行システム、装置又はデバイスと合わせて使用されるプログラムを含むか記憶することができる。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってよい。機械可読媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体的なシステム、装置又はデバイス、あるいはこれらの任意の適切な組み合わせを含んで良いが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、本明細書に記載されたシステム及び技術は、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、ユーザにより入力をコンピュータに提供するキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)と備えるコンピュータ上に実施されてよい。他の種類の装置は、ユーザとのインタラクションを提供するためにも使用され得る。例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であって良く、ユーザからの入力を任意の形式(音声入力、音声入力、又は触覚入力を含む)で受信して良い。
本明細書に記載されたシステム及び技術は、バックエンド構成要素を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア構成要素を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータであり、ユーザは、当該グラフィカルユーザインターフェースもしくは当該ウェブブラウザを通じて本明細書で説明されるシステムと技術の実施形態とインタラクションすることができる)、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実施されることが可能である。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることが可能である。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイド・エリア・ネットワーク(「WAN」)、インターネットワークを含む。
コンピュータシステムは、クライアントとサーバーを含み得る。クライアントとサーバーは、一般的に互いから遠く離れており、通常は、通信ネットワークを通じてインタラクトする。クライアントとサーバとの関係は、相応するコンピュータ上で実行され、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生じる。サーバはクラウドサーバ、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれ、従来の物理ホストと仮想専用サーバ(VPs;Virtual Private Server)サービスにおいて管理が難しく、ビジネスの拡張性が弱いという欠点を解決するクラウドコンピューティングサービスシステムのホスト製品の1つであって良い。サーバは、分散システムのサーバであっても良く、ブロックチェーンを組み合わせたサーバであってもよい。
以上で示された様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除できることを理解されたい。例えば、本開示に説明される各ステップは、並列の順序又は順次的な順序で実施されてもよいし、又は異なる順序で実行されてもよく、本開示で開示された技術案の望ましい結果が達成できる限り、ここで制限されない。
上記の具体的な実施形態は本開示の保護範囲に対する制限を構成しない。設計要件及び他の要因に従って、様々な修正、組み合わせ、部分的組み合わせ及び置換を行うことができることを当業者は理解するべきである。本開示の精神及び原則の範囲内で行われる修正、同等の置換、改善は、何れも本開示の保護範囲内に含まれるべきである。

Claims (25)

  1. 採集装置が各位置点でそれぞれ採集した点群データ及び正面画像データを取得し、点群シーケンス及び正面画像シーケンスを取得することと、
    前記点群シーケンス及び前記正面画像シーケンスに対して正面画像及び点群データのレジストレーションを行うことであって、前記正面画像及び点群データのレジストレーションは、点群データのフレーム毎のレジストレーション、正面画像の画素ベースの特徴ベクトル表現のレジストレーション、及び、正面画像及び点群データの統合のレジストレーションを含む、ことと
    前記レジストレーションの結果に基づいて、前記正面画像シーケンスを平面図に変換し、前記平面図における各画素の座標情報を決定することと、
    前記平面図に対して地図要素の認識を行って高精細地図データを得ることと、
    含み、
    前記レジストレーションの結果に基づいて前記正面画像シーケンスを平面図に変換し、前記平面図における各画素の座標情報を決定することは、
    逆透視変換に基づいて、前記正面画像シーケンスにおける各フレームの正面画像を各平面図に変換し、
    正面画像における画素の座標情報に基づいて対応する平面視においてマッチングを行って平面視における画素の座標情報を決定し、
    前記平面図における画素の座標情報に基づいて、前記各平面図に対してスプライシング処理を行って最終的な平面図を得る、
    ことを含む、高精細地図の作成方法。
  2. 前記点群シーケンス及び前記正面画像シーケンスに対して前記正面画像及び前記点群データのレジストレーションを行うことは、
    前記正面画像シーケンスにおける隣接画像をレジストレーションして前記隣接画像における対応する画素からなる集合を得、
    前記点群データを前記集合に投影して前記集合における各画素の座標情報を得る、
    ことを含む請求項1に記載の高精細地図の作成方法。
  3. 前記点群データを前記集合に投影することの前に、
    前記点群データを採集したレーザレーダ装置の1回転分の運動量に基づいて、前記点群データの歪み補正を行う、
    ことをさらに含む請求項2に記載の高精細地図の作成方法。
  4. 前記点群データを前記集合に投影することの前に、
    前記点群シーケンスにおける基準点群を決定し、
    前記基準点群を基準として他の点群データをフレーム毎にレジストレーションする、
    ことをさらに含む請求項2に記載の高精細地図の作成方法。
  5. 前記点群シーケンスにおける基準点群を決定することは、
    前記点群シーケンスにおける最初のフレームを基準として、前記フレーム毎に他の点群データをレジストレーションし、
    前記点群シーケンスにおける、前後2フレームの点群データとのレジストレーション点が占める割合が最も高い1フレームの点群を基準点群とする、
    ことを含む請求項4に記載の高精細地図の作成方法。
  6. 前記フレーム毎に他の点群データをレジストレーションすることは
    基準となる点群と、レジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習し、
    前記基準となる点群を前記変換行列を用いて変換してレジストレーションされた前記隣接点群を得、
    前記点群シーケンスにおけるすべての点群データのレジストレーションが完了するまで、前記隣接点群を新たな基準として、前記基準となる点群と、レジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習する処理に移行する、
    ことを含む請求項4又は5に記載の高精細地図の作成方法。
  7. 前記基準となる点群とレジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習することは、
    反復最近接点(ICP)アルゴリズムを使用して、前記基準となる点群及び前記隣接点群から2つのフレームの点群間の変換行列を学習することを含み、
    前記ICPアルゴリズムの損失関数は、前記基準となる点群における各点を変換行列に基づいて変換して得られた各変換点と、前記隣接点群における各変換点とのうち最も近い点の間の距離平均値である、
    請求項6に記載の高精細地図の作成方法。
  8. 前記基準となる点群とレジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習することは、
    反復最近接点(ICP)アルゴリズムを使用して、前記基準となる点群及び前記隣接点群から2つのフレームの点群間の変換行列を学習することを含み、
    前記ICPアルゴリズムの損失関数は、前記基準となる点群における各点を変換行列に基づいて変換して得られた各変換点と、前記隣接点群における各変換点とのうち最も近い点の間の加重平均値である、
    請求項6に記載の高精細地図の作成方法。
  9. 前記点群シーケンスにおける前記基準点群を決定することの前に、
    前記隣接画像における対応する点群からなる集合を決定し、
    前記加重平均値を決定する際に、基準となる点群における点が前記対応する点群からなる集合に属するか否かに応じて、各距離に採用される重み値を決定する、
    ことをさらに含む請求項8に記載の高精細地図の作成方法。
  10. 前記点群データを前記集合に投影して、前記集合における各画素の座標情報を得ることは、
    前記点群データの座標を前記集合に投影して、正面画像における画素に対応する点群の座標情報を得、
    レーザレーダの座標系から画像採集装置の座標系への変換及び平行移動行列に基づいて、前記正面画像における画素に対応する点群の座標情報を画素の座標情報に変換する、
    ことを含む請求項2に記載の高精細地図の作成方法。
  11. 前記平面図に対して地図要素の認識を行って高精細地図データを得ることは、
    前記平面図に対して道路情報の認識を行い、
    認識された前記道路情報を平面図に重ねて表示することにより、高精細地図データを得る、
    ことを含む請求項1に記載の高精細地図の作成方法。
  12. 採集装置が各位置点でそれぞれ採集した点群データ及び正面画像データを取得し、点群シーケンス及び正面画像シーケンスを得る取得部と、
    前記点群シーケンス及び前記正面画像シーケンスに対して正面画像及び点群データのレジストレーションを行うレジストレーション部であって、前記正面画像及び点群データのレジストレーションは、点群データのフレーム毎のレジストレーション、正面画像の画素ベースの特徴ベクトル表現のレジストレーション、及び、正面画像及び点群データの統合のレジストレーションを含む、レジストレーション部と
    前記レジストレーションの結果に基づいて、前記正面画像シーケンスを平面図に変換し、前記平面図における各画素の座標情報を決定する変換部と、
    前記平面図に対して地図要素の認識を行って高精細地図データを得る認識部と、
    を備え、
    前記変換部は、逆透視変換に基づいて前記正面画像シーケンスにおける各フレームの正面画像を各平面図に変換し、正面画像における画素の座標情報に基づいて対応する平面視においてマッチングを行って平面視における画素の座標情報を決定し、前記平面図における画素の座標情報に基づいて、前記各平面図に対してスプライシング処理を行って最終的な平面図を得る、
    精細地図の作成装置。
  13. 前記レジストレーション部は、
    前記正面画像シーケンスにおける隣接画像をレジストレーションして前記隣接画像における対応する画素からなる集合を得る第1レジストレーションサブユニットと、
    前記点群データを前記集合に投影して前記集合における各画素の座標情報を得る投影サブユニットと、
    を備える請求項12に記載の高精細地図の作成装置。
  14. 前記レジストレーション部は、
    前記点群データを採集したレーザレーダ装置の1回転分の運動量に応じて、前記点群データの歪み補正を行って前記投影サブユニットに供給する校正サブユニットをさらに備える請求項13に記載の高精細地図の作成装置。
  15. 前記レジストレーション部は、
    前記点群シーケンスにおける基準点群を決定する基準サブユニットと、
    前記基準点群を基準として、他の点群データをフレーム毎にレジストレーションしてレジストレーションされた点群データを前記投影サブユニットに供給する第2レジストレーションサブユニットと、
    をさらに備える請求項13に記載の高精細地図の作成装置。
  16. 前記基準サブユニットは、前記点群シーケンスにおける最初のフレームを基準として前記第2レジストレーションサブユニットに提供し、前記フレーム毎に他の点群データをレジストレーションし、前記第2レジストレーションサブユニットからレジストレーション結果を取得し、前記点群シーケンスにおける、前後2フレームの点群データとのレジストレーション点が占める割合が最も高い1フレームの点群を基準点群とする、
    請求項15に記載の高精細地図の作成装置。
  17. 前記第2レジストレーションサブユニットは、
    基準となる点群と、レジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習し、
    前記基準となる点群を前記変換行列を用いて変換してレジストレーションされた前記隣接点群を得、
    前記点群シーケンスにおけるすべての点群データのレジストレーションが完了するまで、前記隣接点群を新たな基準として、前記基準となる点群と、レジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習する処理に移行する、
    請求項15又は16に記載の高精細地図の作成装置。
  18. 前記第2レジストレーションサブユニットは、前記基準となる点群とレジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習する際に、
    反復最近接点(ICP)アルゴリズムを使用して、前記基準となる点群及び前記隣接点群から2つのフレームの点群間の変換行列を学習し、
    前記ICPアルゴリズムの損失関数は、前記基準となる点群における各点を変換行列に基づいて変換して得られた各変換点と、前記隣接点群における各変換点とのうち最も近い点の間の距離平均値である、
    請求項17に記載の高精細地図の作成装置。
  19. 前記第2レジストレーションサブユニットは、前記基準となる点群とレジストレーションされていない隣接点群とから2つのフレームの点群間の変換行列を学習する際に、
    反復最近接点(ICP)アルゴリズムを使用して、前記基準となる点群及び前記隣接点群から2つのフレームの点群間の変換行列を学習し、
    前記ICPアルゴリズムの損失関数は、前記基準となる点群における各点を変換行列に基づいて変換して得られた各変換点と、前記隣接点群における各変換点とのうち最も近い点の間の加重平均値である、
    請求項17に記載の高精細地図の作成装置。
  20. 前記レジストレーション部は、前記隣接画像における対応する点群からなる集合を決定する第3レジストレーションサブユニットを更に備え、
    前記第2レジストレーションサブユニットは、前記加重平均値を決定する際に、基準となる点群における点が前記対応する点群からなる集合に属するか否かに応じて、各距離に採用される重み値を決定する、
    請求項19に記載の高精細地図の作成装置。
  21. 前記投影サブユニットは、前記集合に前記点群データの座標を投影して、正面画像における画素に対応する点群の座標情報を得、レーザレーダの座標系から画像採集装置の座標系への変換及び平行移動行列に基づいて、前記正面画像における画素に対応する点群の座標情報を画素の座標情報に変換する、
    請求項13に記載の高精細地図の作成装置。
  22. 前記認識部は、前記平面図に対して道路情報の認識を行い、認識された前記道路情報を前記平面図に重ねて表示することにより、高精細地図データを得る、
    請求項12に記載の高精細地図の作成装置。
  23. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、
    前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~11のいずれか1項に記載の高精細地図の作成方法を実行させる電子デバイス。
  24. コンピュータに請求項1~11のいずれか1項に記載の高精細地図の作成方法を実行させるためのコンピュータコマンドを格納する非一時的なコンピュータ可読記憶媒体。
  25. プロセッサにより実行されると、請求項1~11のいずれか1項に記載の高精細地図の作成方法を実現するコンピュータプログラム。
JP2022541610A 2021-06-08 2021-11-17 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム Active JP7440005B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110637791.9A CN113409459B (zh) 2021-06-08 2021-06-08 高精地图的生产方法、装置、设备和计算机存储介质
CN202110637791.9 2021-06-08
PCT/CN2021/131180 WO2022257358A1 (zh) 2021-06-08 2021-11-17 高精地图的生产方法、装置、设备和计算机存储介质

Publications (2)

Publication Number Publication Date
JP2023533625A JP2023533625A (ja) 2023-08-04
JP7440005B2 true JP7440005B2 (ja) 2024-02-28

Family

ID=77676974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022541610A Active JP7440005B2 (ja) 2021-06-08 2021-11-17 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム

Country Status (5)

Country Link
EP (1) EP4174786A4 (ja)
JP (1) JP7440005B2 (ja)
KR (1) KR20220166779A (ja)
CN (1) CN113409459B (ja)
WO (1) WO2022257358A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311743B (zh) * 2020-03-27 2023-04-07 北京百度网讯科技有限公司 三维重建精度测试方法、测试装置和电子设备
CN113409459B (zh) * 2021-06-08 2022-06-24 北京百度网讯科技有限公司 高精地图的生产方法、装置、设备和计算机存储介质
CN114419165B (zh) * 2022-01-17 2024-01-12 北京百度网讯科技有限公司 相机外参校正方法、装置、电子设备和存储介质
CN115965756B (zh) * 2023-03-13 2023-06-06 安徽蔚来智驾科技有限公司 地图构建方法、设备、驾驶设备和介质
CN116467323B (zh) * 2023-04-11 2023-12-19 北京中科东信科技有限公司 一种基于路侧设施的高精地图的更新方法及系统
CN116863432B (zh) * 2023-09-04 2023-12-22 之江实验室 基于深度学习的弱监督激光可行驶区域预测方法和系统
CN117934573A (zh) * 2024-03-25 2024-04-26 北京华航唯实机器人科技股份有限公司 点云数据的配准方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106910217A (zh) 2017-03-17 2017-06-30 驭势科技(北京)有限公司 视觉地图建立方法、计算装置、计算机存储介质和智能车辆
CN111311709A (zh) 2020-02-05 2020-06-19 北京三快在线科技有限公司 一种生成高精地图的方法及装置
CN111784836A (zh) 2020-06-28 2020-10-16 北京百度网讯科技有限公司 高精地图生成方法、装置、设备及可读存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976429B (zh) * 2010-10-27 2012-11-14 南京大学 基于游弋图像的水面鸟瞰图成像方法
CN105678689B (zh) * 2015-12-31 2020-01-31 百度在线网络技术(北京)有限公司 高精地图数据配准关系确定方法及装置
US10452927B2 (en) * 2017-08-09 2019-10-22 Ydrive, Inc. Object localization within a semantic domain
CN108230247B (zh) * 2017-12-29 2019-03-15 达闼科技(北京)有限公司 基于云端的三维地图的生成方法、装置、设备及计算机可读的存储介质
CN109059942B (zh) * 2018-08-22 2021-12-14 中国矿业大学 一种井下高精度导航地图构建系统及构建方法
CN108801171B (zh) * 2018-08-23 2020-03-31 南京航空航天大学 一种隧道断面形变分析方法及装置
CN110160502B (zh) * 2018-10-12 2022-04-01 腾讯科技(深圳)有限公司 地图要素提取方法、装置及服务器
CN109543520B (zh) * 2018-10-17 2021-05-28 天津大学 一种面向语义分割结果的车道线参数化方法
CN111160360B (zh) * 2018-11-07 2023-08-01 北京四维图新科技股份有限公司 图像识别方法、装置及系统
JP7019731B2 (ja) * 2019-01-30 2022-02-15 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転車のためのリアルタイム地図生成システム
CN110568451B (zh) * 2019-08-02 2021-06-18 北京三快在线科技有限公司 一种高精度地图中道路交通标线的生成方法和装置
KR20210061722A (ko) * 2019-11-20 2021-05-28 팅크웨어(주) 고정밀 지도 제작 방법, 고정밀 지도 제작 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
CN111508021B (zh) * 2020-03-24 2023-08-18 广州视源电子科技股份有限公司 一种位姿确定方法、装置、存储介质及电子设备
CN111652179B (zh) * 2020-06-15 2024-01-09 东风汽车股份有限公司 基于点线特征融合激光的语义高精地图构建与定位方法
CN112434119A (zh) * 2020-11-13 2021-03-02 武汉中海庭数据技术有限公司 一种基于异构数据融合的高精度地图生产装置
CN112434706B (zh) * 2020-11-13 2023-06-06 武汉中海庭数据技术有限公司 一种基于图像点云融合的高精度交通要素目标提取方法
CN113409459B (zh) * 2021-06-08 2022-06-24 北京百度网讯科技有限公司 高精地图的生产方法、装置、设备和计算机存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106910217A (zh) 2017-03-17 2017-06-30 驭势科技(北京)有限公司 视觉地图建立方法、计算装置、计算机存储介质和智能车辆
CN111311709A (zh) 2020-02-05 2020-06-19 北京三快在线科技有限公司 一种生成高精地图的方法及装置
CN111784836A (zh) 2020-06-28 2020-10-16 北京百度网讯科技有限公司 高精地图生成方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
CN113409459A (zh) 2021-09-17
JP2023533625A (ja) 2023-08-04
EP4174786A1 (en) 2023-05-03
EP4174786A4 (en) 2024-04-03
CN113409459B (zh) 2022-06-24
KR20220166779A (ko) 2022-12-19
WO2022257358A1 (zh) 2022-12-15

Similar Documents

Publication Publication Date Title
JP7440005B2 (ja) 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム
CN109493407B (zh) 实现激光点云稠密化的方法、装置及计算机设备
CN110160502B (zh) 地图要素提取方法、装置及服务器
CN111486855B (zh) 一种具有物体导航点的室内二维语义栅格地图构建方法
EP3579188B1 (en) Method, apparatus, device and computer readable storage medium for reconstructing three-dimensional scene
CN111174799B (zh) 地图构建方法及装置、计算机可读介质、终端设备
US10297074B2 (en) Three-dimensional modeling from optical capture
US20190026400A1 (en) Three-dimensional modeling from point cloud data migration
JP2022524069A (ja) 自律走行車のナビゲーション用高精度地図を生成するためのポーズグラフの分散処理
EP4116462A2 (en) Method and apparatus of processing image, electronic device, storage medium and program product
CN112799096B (zh) 基于低成本车载二维激光雷达的地图构建方法
CN112833892B (zh) 一种基于轨迹对齐的语义建图方法
WO2023123837A1 (zh) 地图的生成方法、装置、电子设备及存储介质
WO2022237821A1 (zh) 生成交通标志线地图的方法、设备和存储介质
WO2023065657A1 (zh) 地图构建方法、装置、设备、存储介质及程序
KR20210041305A (ko) 차선 추출 장치 및 방법
CN114758337A (zh) 一种语义实例重建方法、装置、设备及介质
JP7351892B2 (ja) 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム
Gao et al. Multi-source data-based 3D digital preservation of largescale ancient chinese architecture: A case report
WO2022246812A1 (zh) 定位方法、装置、电子设备及存储介质
CN114627438A (zh) 目标检测模型生成方法、目标检测方法、设备及介质
CN116978010A (zh) 图像标注方法和装置、存储介质和电子设备
WO2023155580A1 (zh) 一种对象识别方法和装置
CN115187736A (zh) 目标地图生成方法以及装置、ar地图生成方法以及装置
Han et al. Construction Site Top-View Generation Using Drone Imagery: The Automatic Stitching Algorithm Design and Application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240130

R150 Certificate of patent or registration of utility model

Ref document number: 7440005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150