JP2021508095A - カラー・ポイント・クラウド生成のための方法およびシステム - Google Patents

カラー・ポイント・クラウド生成のための方法およびシステム Download PDF

Info

Publication number
JP2021508095A
JP2021508095A JP2018568214A JP2018568214A JP2021508095A JP 2021508095 A JP2021508095 A JP 2021508095A JP 2018568214 A JP2018568214 A JP 2018568214A JP 2018568214 A JP2018568214 A JP 2018568214A JP 2021508095 A JP2021508095 A JP 2021508095A
Authority
JP
Japan
Prior art keywords
point cloud
point
segment
vehicle
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018568214A
Other languages
English (en)
Inventor
シャオリン チュー
シャオリン チュー
テン マー
テン マー
ルー フェン
ルー フェン
Original Assignee
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド, ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド filed Critical ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Publication of JP2021508095A publication Critical patent/JP2021508095A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本開示の実施形態は、カラー・ポイント・クラウドを生成するための方法およびシステムを提供する。本方法は、車両が軌道に沿って移動する際に、車両に関連付けられた複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信することを含み得る。本方法は、ポイント・クラウドを、各々が車両の軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割することを含み得る。本方法はまた、開始ポイントおよび終了ポイントに基づいて、ポイント・クラウドの各セグメントを、複数の画像のうちの1つまたは複数と関連付けることを含み得る。本方法は、ポイント・クラウドのセグメントと車両との間の異なる距離における較正パラメータに基づいて、ポイント・クラウドの各セグメントと複数の画像のうちの1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成することを更に含み得る。【選択図】図7

Description

本開示は、ポイント・クラウド生成のための方法およびシステムに関し、より詳細には、光検出および測距(Light Detection And Ranging、LiDAR)、カメラおよびナビゲーション・センサーを用いたカラー・ポイント・クラウドの生成のための方法およびシステムに関する。
自律走行技術は、正確なマップに大きく依拠する。例えば、ナビゲーション・マップの正確性は、位置決め、周囲環境認識、意思決定および制御等の自律走行車両の機能にとって必須である。車両が走り回る際に車両上の様々なセンサーおよび検出器によって取得されるデータを集約することによって高精細度マップを得ることができる。例えば、高精細度マップのための一般的なデータ取得システムは、通例、車両が走行している道路および周囲の物体の特徴を捕捉するための、LiDAR、全地球測位システム(GPS)受信機、慣性計測装置(IMU)センサーおよび1つまたは複数のカメラ等の複数の統合センサーを装備した車両である。捕捉されるデータは、例えば、車線の中心線または境界線の座標、建築物、別の車両、ランドマーク、歩行者または標識等の物体の座標および画像を含むことができる。
LiDARは、周囲の物体の3次元(3−D)情報、および周囲の物体からの反射信号の強度情報を迅速に得ることで知られている。しかしながら、LiDARは、周囲の物体のテクスチャ情報を捕捉することができず、このため、レーザー・ポイント・クラウド・データを単独で処理および解釈することが難しくなる。一方で、カメラは豊富なテクスチャ情報を有する画像を捕捉することができるにもかかわらず、これらを周囲の物体の3−D情報を得るために直接用いることはできない。このため、いくつかの既知のシステムは、同じ物体のポイント・クラウドおよび画像を集約することによってカラー・ポイント・クラウドを生成するために、LiDARおよびカメラを統合する。これは、視覚化、物体認識および分類、3−Dモデリング等において用いることができる。
既知のシステムにおいて、パノラマ・カメラが、その360°の視野(FOV)に起因して、カラー・ポイント・クラウドを作成するために広く用いられてきた。しかしながら、パノラマ・カメラは高価であり、したがって目的に対しコスト効率が良くない。対照的に、単眼カメラは低コストであり、画像の処理が容易であるが、単眼カメラのFOVはパノラマ・カメラと比較してはるかに小さい。例えば、LiDARのFOVは非常に大きく、通例360°であるため、LiDARによって捕捉される各レーザー・ポイント・クラウドは、単眼カメラによって撮られる複数の画像に対応することができる。この差異は、カラー・ポイント・クラウドを作成する際のポイント・クラウドおよび画像の集約の正確性および効率に影響を及ぼす可能性がある。
本開示の実施形態は、カラー・ポイント・クラウド生成のための改善された方法およびシステムによって上記の問題に対処する。
本開示の実施形態は、カラー・ポイント・クラウドを生成するための方法を提供する。本方法は、車両が軌道に沿って移動する際に、車両に関連付けられた複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信することを含むことができる。本方法は、プロセッサによって、ポイント・クラウドを、各々が車両の軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割することを含むことができる。本方法はまた、プロセッサによって、開始ポイントおよび終了ポイントに基づいて、ポイント・クラウドの各セグメントを、複数の画像のうちの1つまたは複数と関連付けることを含むことができる。本方法は、プロセッサによって、ポイント・クラウドのセグメントと車両との間の異なる距離における較正パラメータに基づいて、ポイント・クラウドの各セグメントと複数の画像のうちの1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成することを更に含むことができる。
本開示の実施形態はまた、カラー・ポイント・クラウドを生成するためのシステムを提供する。本システムは、車両が軌道に沿って移動する際に、車両に装備された複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信するように構成された通信インターフェースを備えることができる。本システムは、ポイント・クラウドおよび複数の画像を記憶するように構成されたストレージを更に備えることができる。本システムはまた、ポイント・クラウドを、各々が車両の軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割するように構成されたプロセッサを備えることができる。プロセッサはまた、開始ポイントおよび終了ポイントに基づいて、ポイント・クラウドの各セグメントを、複数の画像のうちの1つまたは複数と関連付けるように構成することができる。プロセッサは、ポイント・クラウドのセグメントと車両との間の異なる距離における較正パラメータに基づいて、ポイント・クラウドの各セグメントと複数の画像のうちの1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成するように更に構成することができる。
本開示の実施形態は、1つまたは複数のプロセッサによって実行されると、この1つまたは複数のプロセッサに、動作を行わせる命令を記憶した非一時的コンピュータ可読媒体を更に提供する。動作は、車両が軌道に沿って移動する際に、車両に関連付けられた複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信することを含むことができる。動作は、ポイント・クラウドを、各々が車両の軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割することを含むことができる。動作はまた、開始ポイントおよび終了ポイントに基づいて、ポイント・クラウドの各セグメントを、複数の画像のうちの1つまたは複数と関連付けることを含むことができる。動作は、ポイント・クラウドのセグメントと車両との間の異なる距離における較正パラメータに基づいて、ポイント・クラウドの各セグメントと複数の画像のうちの1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成することを更に含むことができる。
上記の包括的な説明および以下の詳細な説明の双方が例示的で説明的なものにすぎず、特許請求される本発明を限定するものではないことが理解されよう。
本開示の実施形態による、センサーを有する例示的な車両の概略図を示す。 本開示の実施形態による、カラー・ポイント・クラウド生成のための例示的なコントローラのブロック図を示す。 本開示の実施形態による、例示的なポイント・クラウド・セグメント、および車両軌道上のその関連付けられた開始ポイントおよび終了ポイントを示す。 本開示の実施形態による、ポイント・クラウド・セグメントおよび画像シーケンスのマッチングの例示的なプロセスを示す。 本開示の実施形態による、センサー較正の例示的なプロセスを示す。 本開示の実施形態による、例示的な生成されたカラー・ポイント・クラウドを示す。 本開示の実施形態による、カラー・ポイント・クラウドを生成するための例示的な方法のフローチャートを示す。 本開示の実施形態による、較正パラメータを決定するための例示的な方法のフローチャートを示す。 本開示の実施形態による、ポイント・クラウド・セグメントおよび複数の画像を集約するための例示的な方法のフローチャートを示す。
ここで、例示的な実施形態が詳細に参照される。例示的な実施形態の例は添付の図面に示されている。可能な限り、同じ参照符号が図面全体にわたって同じまたは類似のパーツを指すのに用いられる。
図1は、本開示の実施形態による、複数のセンサー140、150および160を有する例示的な車両100の概略図を示す。いくつかの実施形態によれば、車両100は、高精細マップまたは3次元(3−D)都市モデリングを構築するためのデータを取得するために構成された調査車両とすることができる。車両100は、電気自動車、燃料電池車両、ハイブリッド車両、または従来の内燃機関車両であり得ることが予期される。車両100は、本体110および少なくとも1つの車輪120を有することができる。本体110は、スポーツカー、クーペ、セダン、ピックアップ・トラック、ステーション・ワゴン、多目的スポーツカー(SUV)、ミニバンまたはコンバージョン・バン等の任意のボディー・スタイルとすることができる。いくつかの実施形態では、図1に示されるように、車両100は、一対の前輪および一対の後輪を含むことができる。しかしながら、車両100は、より少ない車輪、または車両100が動き回ることを可能にする等価な構造を有する場合があることが予期される。車両100は、全輪駆動(AWD)、前輪駆動(FWR)または後輪駆動(RWD)となるように構成することができる。いくつかの実施形態では、車両100は、車両に乗っている運転者によって操作され、遠隔制御され、かつ/または自律走行するように構成することができる。
図1に示されているように、車両100は、取付構造130を介して本体110に取り付けられたセンサー140および160を装備することができる。取付構造130は、車両100の本体110に設置されるかまたは他の形で付けられた電気機械デバイスとすることができる。いくつかの実施形態では、取付構造130は、ねじ、接着剤または別の取付機構を用いることができる。車両100は、任意の適切な取付機構を用いて本体110の内側または外側にセンサー150を更に装備することができる。各センサー140、150または160を車両100上にどのように装備することができるかは、図1に示される例に限定されず、所望の検知性能を達成するために、センサー140〜160および/または車両100のタイプに応じて変更されてもよいことが予期される。
いくつかの実施形態によれば、センサー140〜160は、車両100が軌道に沿って移動する際にデータを捕捉するように構成することができる。例えば、センサー140は、周囲を走査し、ポイント・クラウドを取得するように構成されたLiDARスキャナ/レーダとすることができる。LiDARは、ターゲットをパルス・レーザー光で照明し、センサーを用いて反射パルスを測定することによってターゲットへの距離を測定する。次に、レーザー戻り時間および波長における差異を用いて、ターゲットのデジタル3−D表現を作成することができる。LiDAR走査に用いられる光は、紫外光、可視光、または近赤外光とすることができる。狭レーザー・ビームは、非常に高い解像度で物理的特徴をマッピングすることができるため、LiDARスキャナは、高精細マップ調査に特に適している。いくつかの実施形態では、LiDARスキャナは、ポイント・クラウドを捕捉することができる。車両100が軌道に沿って移動する際、センサー140は、データを継続的に捕捉することができる。一定の時間範囲で捕捉されるシーン・データの各組は、データ・フレームとして知られる。
図1に示されているように、車両100は、GPS受信機および1つまたは複数のIMUセンサー等の、ナビゲーション・ユニットにおいて用いられるセンサーを含むことができる、センサー150を更に装備することができる。GPSは、ジオロケーションおよび時間情報をGPS受信機に提供するグローバル・ナビゲーション衛星システムである。IMUは、加速器およびジャイロスコープ等の様々な慣性センサーを用いて、場合によっては磁力計も用いて、車両の比力(specific force)、角速度、および場合によっては車両の周囲の磁場を測定し提供する電子デバイスである。GPS受信機およびIMUセンサーを組み合わせることによって、センサー150は、各タイム・スタンプにおける車両100の位置および方向(例えば、オイラー角)を含む走行する際の車両100のリアルタイム姿勢情報を提供することができる。
本開示によれば、車両100は、1つまたは複数のカメラ等の、デジタル画像を捕捉するように構成されたセンサー160を更に装備することができる。いくつかの実施形態では、センサー160は、360°FOVを有するパノラマ・カメラまたは360°未満のFOVを有する単眼カメラを含むことができる。車両100が軌道に沿って移動する際に、シーン(例えば、車両100の周囲の物体を含む)に関するデジタル画像をセンサー160によって取得することができる。各画像は、ピクセルによって表される、捕捉されたシーン内の物体のテクスチャ情報を含むことができる。各ピクセルは、画像内のカラー情報および座標に関連付けられたデジタル画像の最小の単一の構成要素とすることができる。例えば、カラー情報は、RGBカラー・モデル、CMYKカラー・モデル、YCbCrカラー・モデル、YUVカラー・モデル、または任意の他の適切なカラー・モデルによって表すことができる。各ピクセルの座標は、画像内のピクセルのアレイの行および列によって表すことができる。いくつかの実施形態では、センサー160は、車両100における異なるロケーションにかつ/または異なる角度で取り付けられた複数の単眼カメラを含むことができ、このため、様々な視点位置および/または視野角を有することができる。結果として、画像は、正面図画像、側面図画像、上面図画像および底面図画像を含むことができる。
本開示によれば、車両100は、センサー140〜160によって効率的かつ効果的な方式で収集された様々なタイプのデータに基づいてカラー・ポイント・クラウドを生成するために、車両100の本体110の内部にローカル・コントローラ170を含むことができるか、またはリモート・コントローラ(図1には示されていない)と通信することができる。いくつかの実施形態では、処理速度を上げるために、ポイント・クラウドは複数のセグメントに分割することができ、複数のセグメントの各々は別個に(例えば並列に)対応する画像と集約することができる。センサー160からの画像を、1つまたは複数の単眼カメラによって、同じシーンの様々な視点で捕捉し、共にマージして、LiDARスキャナ等の360°FOVを有するセンサー140によって捕捉されたシーンの3−Dポイント・クラウドとマッチングすることができる。いくつかの実施形態では、カラー・ポイント・クラウドの正確性を改善するために、ポイント・クラウドおよび対応する画像を集約する際に、距離と較正パラメータ(例えば、回転行列および並進ベクトル)との間の相関を考慮に入れることができる。まず、ポイントとセンサーとの間の異なる距離に対応する一連の較正パラメータを決定することができ、後に、対応する距離を有するポイントを処理するのに適した較正パラメータを選択することができる。
いくつかの実施形態では、集約レイテンシを更に低減するために、全ての画像が対応するポイント・クラウド・セグメントと集約される必要はない。例えば、ポイント・クラウド・セグメントは、m個ごとのマッチング画像と集約することができ、ここで、mは、軌道に沿った車両100の移動速度、画像サンプリング・レート等の様々な要因に基づいて決定することができる。別の例では、シーンの正面図画像は、まず、ポイント・クラウド・セグメントと集約することができ、正面図によってカバーすることができない任意のポイントが存在する場合、他の視点を有する画像を集約に用いることができる。更に別の例では、ポイントが車両100から離れているほど、ポイントが画像にマッチングされるときの誤差が大きくなる場合があり、車両100から離れすぎているポイントをポイント・クラウドから除去するためのしきい値として有効距離を予め決定することができる。
例えば、図2は、本開示の実施形態による、ポイント・クラウドを生成するための例示的なコントローラ200のブロック図を示す。本開示によれば、コントローラ200は、シーンのカラー・ポイント・クラウドを生成するために様々なタイプのデータを用いることができる。様々なタイプのデータは、車両100が軌道に沿って動く際に、シーンに対して車両100に装備されたセンサー140〜160によって捕捉することができる。データは、センサー140(例えば、LiDARスキャナ)によって捕捉されたポイント・クラウド201、センサー150(例えば、GPS受信機および/または1つもしくは複数のIMUセンサー)によって取得された車両100の軌道情報203、およびセンサー160(例えば、1つまたは複数の単眼カメラ)によって捕捉された複数の画像205を含むことができる。いくつかの実施形態では、ポイント・クラウド201は、GPS受信機およびIMUセンサーからのリアルタイム姿勢情報(例えば、位置および方向)に基づいて、局所座標系におけるLiDARスキャナからのネイティブ・データを、グローバル座標系(例えば、経度/緯度座標)に変換することによって得ることができる。
いくつかの実施形態では、図2に示されるように、コントローラ200は、通信インターフェース202、プロセッサ204、メモリ206およびストレージ208を含むことができる。いくつかの実施形態では、コントローラ200は、集積回路(IC)チップ(特定用途向け集積回路(ASIC)もしくはフィールドプログラマブル・ゲート・アレイ(FPGA)として実装される)等の、単一のデバイスにおける異なる複数のモジュールを有してもよく、または専用機能を有する別個の複数のデバイスを有してもよい。いくつかの実施形態では、コントローラ200の1つまたは複数の構成要素は、車両100の内部に配置されてもよく(例えば、図1のローカル・コントローラ170)、または代替的に、モバイル・デバイス内、クラウド内、または別のリモート・ロケーションにあってもよい。コントローラ200の構成要素は、集積デバイスであってもよく、または異なるロケーションに分散されるが、ネットワーク(図示せず)を通じて互いに通信してもよい。例えば、プロセッサ204は、車両100に内蔵のプロセッサ、モバイル・デバイス内部のプロセッサ、もしくはクラウド・プロセッサ、またはそれらの任意の組み合わせとすることができる。
通信インターフェース202は、センサー140〜160等の構成要素との間で通信ケーブル、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、ワイド・エリア・ネットワーク(WAN)、電波等のワイヤレス・ネットワーク、全国規模のセルラ・ネットワークおよび/もしくはローカル・ワイヤレス・ネットワーク(例えば、Bluetooth(登録商標)またはWiFi)または他の通信方法を介してデータを送信および受信することができる。いくつかの実施形態では、通信インターフェース202は、総合サービス・デジタル・ネットワーク(ISDN)カード、ケーブル・モデム、衛星モデム、またはデータ通信接続を提供するモデムとすることができる。別の例として、通信インターフェース202は、互換性のあるLANにデータ通信接続を提供するローカル・エリア・ネットワーク(LAN)カードとすることができる。無線リンクは、通信インターフェース202によって実施することもできる。そのような実施において、通信インターフェース202は、ネットワークを介して様々なタイプの情報を表すデジタル・データ・ストリームを搬送する電気、電磁または光信号を送信および受信することができる。
いくつかの実施形態によれば、通信インターフェース202は、ポイント・クラウド201、軌道情報203および画像205を含む、センサー140〜160によって捕捉されたデータを受信し、受信したデータを、記憶するためにストレージ208へ、または処理するためにプロセッサ204へ提供することができる。通信インターフェース202はまた、プロセッサ204によって生成されたカラー・ポイント・クラウドを受信し、カラー・ポイント・クラウドを、車両100内の任意のローカル構成要素に、またはネットワークを介して任意のリモート・デバイスに提供することもできる。
プロセッサ204は、任意の適切なタイプの汎用もしくは専用マイクロプロセッサ、デジタル信号プロセッサまたはマイクロコントローラを含むことができる。プロセッサ204は、カラー・ポイント・クラウドの生成に専用の別個のプロセッサ・モジュールとして構成されてもよい。代替的に、プロセッサ204は、カラー・ポイント・クラウド生成に無関係の他の機能を実行するための共有プロセッサ・モジュールとして構成されてもよい。
図2に示されるように、プロセッサ204は、ポイント・クラウド・セグメンテーション・ユニット210、ポイント・クラウド/画像マッチング・ユニット212、センサー較正ユニット214、ポイント・クラウド/画像集約ユニット216等の複数のモジュールを含むことができる。これらのモジュール(および任意の対応するサブモジュールまたはサブユニット)は、他の構成要素と共に用いるように、またはプログラムの一部を実行するように設計されたプロセッサ204のハードウェア・ユニット(例えば、集積回路の一部)とすることができる。プログラムは、コンピュータ可読媒体上に記憶することができ、プロセッサ204によって実行されると、1つまたは複数の機能を実行することができる。図2は、全て1つのプロセッサ204内にあるユニット210〜216を示しているが、これらのユニットは、互いの近くまたは遠隔に配置された複数のプロセッサ間で分散させることができることが予期される。
ポイント・クラウド・セグメンテーション・ユニット210は、計算複雑度を低減し、処理速度を増大させるために、軌道情報203に基づいて、ポイント・クラウド201を複数のポイント・クラウド・セグメントに分割するように構成することができる。各ポイント・クラウド・セグメントは、車両100の軌道上の開始ポイントおよび終了ポイントに関連付けることができる。軌道情報203は、GPS受信機および1つまたは複数のIMUセンサー等のセンサー150によって取得することができ、車両100が軌道に沿って移動する際の車両100のリアルタイム姿勢情報を含むことができる。例えば、リアルタイム姿勢情報は、各タイム・スタンプにおける車両100の位置および方向を含むことができる。
いくつかの実施形態では、各ポイント・クラウド・セグメントは、開始ポイントと終了ポイントとの間の軌道のセグメントに関連付けることができる。軌道の各セグメントは、車両100の同じ所定の移動距離に対応することができる。例えば、移動距離dを予め決定し、ポイント・クラウド・セグメンテーション・ユニット210において設定することができる。車両100の出発時点がtであると仮定すると、車両100の軌道に従って、ポイント・クラウド・セグメンテーション・ユニット210は、車両100の移動距離が時点tにdに到達するまでを記録することができる。車両100が時間間隔t〜t内で走行した軌道のセグメントに対応するポイント・クラウド201のセグメントは、移動距離dに関連付けられるように設定される。ポイント・クラウド・セグメンテーション・ユニット210はまた、軌道上の(時点tにおける)開始ポイントおよび(時点tにおける)終了ポイントを記録し、開始ポイントおよび終了ポイントをポイント・クラウド・セグメントに関連付けることができる。このようにして、ポイント・クラウド・セグメンテーション・ユニット210は、ポイント・クラウド201をn個のセグメントに分割することができ、その各々が所定の移動距離dに関連付けられる。例えば、図3は、本開示の実施形態による、例示的なポイント・クラウド・セグメント、ならびに車両軌道上のその関連付けられた開始ポイントおよび終了ポイントを示す。図3に示すように、ポイント・クラウド・セグメントは、車両100の軌道における開始ポイント302および終了ポイント304に関連付けられ、開始ポイント302および終了ポイント304間の移動距離は予め決定された値dである。
図2に戻ると、ポイント・クラウド/画像マッチング・ユニット212は、ポイント・クラウド・セグメントに関連付けられた開始ポイントおよび終了ポイントに基づいて各ポイント・クラウド・セグメントを画像205のうちの1つまたは複数の画像と関連付けるように構成することができる。ポイント・クラウド・セグメントごとに、各々がポイント・クラウド・セグメントにおける少なくともいくつかのポイントをカバーする2つ以上の対応する画像(すなわち、画像シーケンス)が存在し得る。ポイント・クラウド/画像マッチング・ユニット212は、基準ポイントとしてポイント・クラウド・セグメントに関連付けられた開始ポイントおよび終了ポイントを用いて、各ポイント・クラウド・セグメントを対応する画像シーケンスとマッチングすることができる。画像205を撮影するために使用される単眼カメラのFOVは、ポイント・クラウド201を捕捉するために用いられるLiDARスキャナのFOVよりも小さい場合があるため、マッチング画像シーケンスの位置は、ポイント・クラウド・セグメントの開始ポイントおよび終了ポイントの前にある場合がある。
いくつかの実施形態では、ポイント・クラウド/画像マッチング・ユニット212は、ポイント・クラウド・セグメントに関連付けられた開始ポイントPおよび第1のしきい値dに基づいて、画像205のうちの第1の画像imageを決定することができる。第1の画像imageが捕捉される車両100の軌道上の開始ポイントPと第1のベース・ポイントBP(センサー160が第1の画像imageを捕捉した位置)との間の第1の距離は、第1のしきい値dに等しくすることができる。ポイント・クラウド/画像マッチング・ユニット212は、ポイント・クラウド・セグメントに関連付けられた終了ポイントPおよび第2のしきい値dに基づいて、画像205のうちの第2の画像imageを決定することもできる。第2の画像imageが捕捉される車両100の軌道上の終了ポイントPと第2のベース・ポイントBP(センサー160が第2の画像imageを捕捉した位置)との間の第2の距離は、第2のしきい値dに等しくすることができる。次に、ポイント・クラウド/画像マッチング・ユニット212は、車両100の軌道上の第1のベース・ポイントBPと第2のベース・ポイントBPとの間で捕捉された画像として、マッチング画像シーケンス{image,…,image}を決定することができる。第1のベース・ポイントBPは、軌道上の開始ポイントPの前にある場合があり、第2のベース・ポイントBPは、軌道上の終了ポイントPの前にある場合がある。
例えば、図4は、本開示の実施形態による、ポイント・クラウド・セグメントおよび画像シーケンスのマッチングの例示的なプロセスを示す。第1のしきい値dおよび第2のしきい値dは、単眼カメラのFOV、画像の寸法および解像度、ポイント・クラウド・セグメントの寸法および解像度等のような任意の適切な要因に基づいて予め決定することができる。いくつかの実施形態では、第1のしきい値dおよび第2のしきい値dは異なることができる。例えば、図4に示されるように、第1のしきい値dは第2のしきい値dよりも大きくすることができる。マッチング画像シーケンス{image,…,image}は、第1の画像imageで開始し、第2の画像imageで終了する。第1の画像imageについて、第1のベース・ポイントBPとポイント・クラウド・セグメントの開始ポイントPとの間の距離は、第1のしきい値dと同じである。同様に、第2の画像imageについて、第2のベース・ポイントBPとポイント・クラウド・セグメントの終了ポイントPとの間の距離は、第2のしきい値dと同じである。マッチング画像シーケンスは、必ずしも、ポイント・クラウド・セグメントの少なくともいくつかの点をカバーすることができる画像205内の全ての画像を含むわけではないことが予期される。図4に示されるように、マッチング画像シーケンス{image,…,image}はすでにカラー・ポイント・クラウドを生成するための十分なテクスチャ情報を提供することができるため、第1のしきい値dおよび第2のしきい値dを設定することによって、第1の画像imageの前にあるかまたは第2の画像imageの後にあるいくつかの画像は、マッチング画像シーケンス{image,…,image}に含めないことができる。
図2に戻ると、センサー較正ユニット214は、ポイント・クラウド・セグメントと車両100との間の異なる距離における較正パラメータに基づいて、各ポイント・クラウド・セグメントに関連付けられた1つまたは複数の較正パラメータを決定するように構成することができる。統合されたLiDARスキャナおよびカメラの較正を含むセンサー較正は、ポイント・クラウドと画像との間の投影関係を得るのに必要である。センサー較正の正確性は、ターゲット(例えば、捕捉されたシーン内の車両100の周囲の物体)とセンサー(例えば、車両100に装備されたセンサー140〜160)との間の距離による影響を受ける場合がある。この距離が小さいほど、較正はより正確なものとなる。したがって、センサー較正ユニット214は、ポイント・クラウド・セグメント(シーン内の周囲物体の3−D情報を表す)と車両100(センサー140〜160が装備されている)との間の距離に基づいて較正パラメータのいくつかの組を決定することによってセンサー較正の正確性を高めることができる。センサー較正ユニット214は、ポイント・クラウド・セグメントから特徴点を選択し、それらの座標に基づいてマッチング画像内の対応するピクセルを特定することができる。センサー較正ユニット214は、特徴点の3−D対2−Dの変換関係に基づいて、回転行列および並進ベクトル等の、ポイント・クラウド・セグメントおよびマッチング画像の1つまたは複数の較正パラメータを計算することができる。較正の正確性を高めるために、センサー較正ユニット214は、ポイント・クラウド・セグメントと車両100との間の様々な距離に基づいて異なる較正パラメータを提供することができる。
いくつかの実施形態では、センサー較正ユニット214は、ポイントと車両との間の(有効距離D以内の)異なる距離に基づいて、ポイント・クラウド201をグループに分け、上記で説明したように、ポイント・クラウド・グループ内の特徴点の少なくとも3つの対および対応するマッチング画像に基づいて、ポイント・クラウド201のグループごとに較正パラメータを決定するように構成することができる。ポイント・クラウドは、1つまたは複数のポイント・クラウド・グループを含むことができる。センサー較正ユニット214は、対応するポイント・クラウド・グループ内の各ポイント・クラウド・セグメントに較正パラメータを割り当てるように更に構成することができる。図5は、本開示の実施形態による、センサー較正の例示的なプロセスを示す。車両に対するLiDARスキャナの測定範囲(有効距離D)に基づいて、ポイント・クラウド201は、異なる測定距離を有するn個のグループに分けることができる。n個のグループの各々について、マッチング画像を用いたセンサー較正のために特徴点の少なくとも3つの対を選択し、較正パラメータのn個の組{param,…,param}を得ることができる。較正パラメータの各組を用いて、一定の距離において、カメラおよびLiDARスキャナの対応する対を較正することができる。
図2に戻ると、ポイント・クラウド/画像集約ユニット216は、ポイント・クラウド・セグメントと車両100との間のそれぞれの距離に基づいて各ポイント・クラウド・セグメントおよびマッチング画像を集約して、カラー・ポイント・クラウドを生成するように構成することができる。ポイント・クラウド/画像集約ユニット216は、ポイント・クラウド・セグメントが属するポイント・クラウド・グループに基づいて、ポイント・クラウド・セグメントごとに適切な較正パラメータを特定することができる。すなわち、異なるポイント・クラウド・セグメントを、それらの測定距離に応じて異なる較正パラメータを用いてマッチング画像と集約することができる。ポイント・クラウド・セグメント内のポイントがマッチング画像に投影されるとき、ポイントと車両100との間の距離が離れているほど、誤差が大きくなる場合がある。このため、いくつかの実施形態では、有効距離Dは、D内のポイントのみが画像内の対応するピクセルによってカラーリングされることを可能にするように予め決定することができる。ポイント・クラウド/画像集約ユニット216は、画像内の対応するピクセルを、例えば、較正パラメータを用いてそれらの座標に基づいて、有効距離D内にある各ポイントとマッチングするように構成することができる。ポイント・クラウド/画像集約ユニット216は、各ピクセルに関連付けられたカラー情報(例えば、RGBカラー・モデルにおけるRGB値)を対応するポイントに割り当てて、ポイント・クラウドをカラーリングするように更に構成することができる。
いくつかの実施形態では、計算複雑度を低減し、処理速度を上げるために、ポイント・クラウド/画像集約ユニット216は、マッチング画像からm個ごとの画像を選択し、ポイント・クラウド・セグメントを、全てのマッチング画像ではなく、選択された画像と集約するように構成することができる。マッチング画像を選択するための値mは、車両100の移動速度および/または画像205のサンプリング・レート等の様々な要因に基づいて決定することができる。上記で説明したように、有効距離D内の各ポイントについて、選択された画像における対応するピクセルは、ポイント・クラウド/画像集約ユニット216によって、ポイント・クラウド・セグメントに固有の較正パラメータに基づいて特定することができる。次に、ポイント・クラウド/画像集約ユニット216は、特定されたピクセルのカラー情報を(有効距離D内の)各ポイントに割り当てて、カラー・ポイント・クラウド・セグメントを生成することができる。
いくつかの実施形態では、マッチング画像が、複数の単眼カメラによって捕捉された、正面図、側面図、上面図または底面図等の様々な視点を有する画像を含むとき、ポイント・クラウド/画像集約ユニット216は、ポイント・クラウド・セグメントを、まず正面図画像と集約するように更に構成することができる。正面図画像がポイント・クラウド・セグメント内の全てのポイントをカバーすることができない場合、ポイント・クラウド/画像集約ユニット216は、他の視点(例えば、側面図、上面図または底面図画像)を有する他のマッチング画像を用いて、ポイント・クラウド・セグメント内の全ての残りのポイントをカラーリングすることができる。ポイント・クラウド/画像集約ユニット216は、上記で全てのポイント・クラウド・セグメントについて説明されたのと同じ集約プロセスを行って、カラー・ポイント・クラウドを生成することができる。このため、カラー・ポイント・クラウドは、ポイントごとに3−D情報およびテクスチャ情報の双方を含むことができる。例えば、図6は、本開示の実施形態による、例示的な生成されたカラー・ポイント・クラウドを示す。画像610は、道路、および植物等の周囲の物体を含むシーンのカラー・ポイント・クラウドを示す。画像620は、画像610におけるカラー・ポイント・クラウドの拡張部分を示す。3−D情報およびテクスチャ情報(例えば、カラー)の双方を、画像610および620における捕捉されたシーンのカラー・ポイント・クラウドから得ることができる。
図2に戻って参照すると、メモリ206およびストレージ208は、プロセッサ204が操作する必要がある場合がある任意のタイプの情報を記憶するように提供された任意の適切なタイプのマスストレージを含むことができる。メモリ206およびストレージ208は、揮発性もしくは不揮発性、磁気、半導体、テープ、光、リムーバブル、非リムーバブル、または、限定ではないが、ROM、フラッシュ・メモリ、ダイナミックRAMおよびスタティックRAMを含む、他のタイプのストレージ・デバイスもしくは有形(すなわち、非一時的)コンピュータ可読媒体とすることができる。メモリ206および/またはストレージ208は、プロセッサ204によって、本明細書に開示されるカラー・ポイント・クラウド生成機能を行うために実行することができる1つまたは複数のコンピュータ・プログラムを記憶するように構成することができる。例えば、メモリ206および/またはストレージ208は、車両100が軌道に沿って移動しているときに様々なタイプのデータを捕捉するようにセンサー140〜160を制御し、捕捉されたデータを処理してカラー・ポイント・クラウドを生成するためにプロセッサ204によって実行することができるプログラムを記憶するように構成することができる。
メモリ206および/またはストレージ208は、プロセッサ204によって使用される情報およびデータを記憶するように更に構成することができる。例えば、メモリ206および/またはストレージ208は、センサー140〜160によって捕捉された様々なタイプのデータおよび生成されたカラー・ポイント・クラウドを記憶するように構成することができる。様々なタイプのデータは、各データのフレームが処理された後、永久的に記憶されてもよく、周期的に削除されてもよく、または即座に無視されてもよい。
図7は、本開示の実施形態による、カラー・ポイント・クラウドを生成するための例示的な方法700のフローチャートを示す。例えば、方法700は、中でも、コントローラ200およびセンサー140〜160を含む車両100のカラー・ポイント・クラウド生成システムによって実施することができる。しかしながら、方法700は、その例示的な実施形態に限定されない。方法700は、以下で説明されるようなステップS702〜S710を含むことができる。ステップのうちのいくつかは、本明細書において提供される開示を行うために任意選択である場合があることが理解されよう。更に、ステップのうちのいくつかは、同時に行うか、または図7に示すのと異なる順序で行うことができる。
ステップS702において、車両100が軌道に沿って移動する際に、シーンに関するポイント・クラウドおよび複数の画像を、車両100に関連付けられたセンサー140〜160によって捕捉することができる。例えば、車両100に装備されたLiDARスキャナは、シーンの3−D情報を表すポイント・クラウドを捕捉することができ、車両100に装備された1つまたは複数の単眼カメラは、シーンのテクスチャ情報を表す画像を捕捉することができる。いくつかの実施形態では、車両100に装備されたGPS受信機および1つまたは複数のIMUセンサーは、時間、位置および方向を含む車両100の軌道情報を取得することができる。
ステップS704において、ポイント・クラウドは、プロセッサ204によって、軌道情報に基づいて複数のポイント・クラウド・セグメントに分割することができ、それによって、ポイント・クラウド・セグメントは、車両100の軌道上の開始ポイントおよび終了ポイントに関連付けられる。各ポイント・クラウド・セグメントは、開始ポイントおよび終了ポイントに対応する軌道上の車両100の同じ予め決定された移動距離に関連付けることができる。
ステップS706において、ポイント・クラウド・セグメントは、プロセッサ204によって、車両100の軌道上の開始ポイントおよび終了ポイントに基づいて、画像のうちの1つまたは複数に関連付けることができる。いくつかの実施形態では、第1の画像は、ポイント・クラウド・セグメントおよび第1のしきい値に関連付けられた開始ポイントに基づいて決定することができる。第1のしきい値は、開始ポイントと、第1の画像がセンサー160によって捕捉された第1のベース・ポイントとの間の第1の距離として設定される。第2の画像は、ポイント・クラウド・セグメントおよび第2のしきい値に関連付けられた終了ポイントに基づいて決定することができる。第2のしきい値は、終了ポイントと、第2の画像がセンサー160によって捕捉された第2のベース・ポイントとの間の第2の距離として設定される。第1のベース・ポイントは、軌道上で開始ポイントの前にある場合があり、第2のベース・ポイントは、軌道上で終了ポイントの前にある場合がある。第1のしきい値および第2のしきい値は、単眼カメラのFOV、画像の寸法および解像度、ポイント・クラウド・セグメントの寸法および解像度等のような等の任意の適切な要因に基づいて予め決定することができる。画像のうちの1つまたは複数は、車両100の軌道上の第1のベース・ポイントと第2のベース・ポイントとの間で捕捉された画像を含むことができる。
ステップS708において、プロセッサ204によって、ポイント・クラウド・セグメントと車両100との間の異なる距離における較正パラメータに基づいて、ポイント・クラウド・セグメントの1つまたは複数の較正パラメータを決定することができる。較正パラメータは、例えば、ポイント・クラウド内の特徴点を関連画像内の対応するピクセルに変換するための回転行列および並進ベクトルを含む。例えば、図8は、本開示の実施形態による、較正パラメータを決定するための例示的な方法800のフローチャートを示す。ステップS802において、ポイント・クラウドは、複数のグループに分けることができる。各ポイント・クラウド・グループは、1つまたは複数のポイント・クラウド・セグメントを含むことができ、ポイント・クラウド・グループと車両100との間の距離に関連付けることができる。ステップS804において、各ポイント・クラウド・グループ内のポイントおよび画像内のそれぞれのピクセルは、例えば、ポイントおよびピクセルの座標に基づいて特定することができる。ステップS806において、対応するポイントおよびピクセルに基づいて、ポイント・クラウド・グループごとの1つまたは複数の較正パラメータを決定することができる。いくつかの実施形態では、LiDARスキャナの測定距離を、ポイント・クラウドを複数のグループに分けるための基礎として用いることができ、各ポイント・クラウド・グループにおける特徴点および関連画像における対応するピクセルを、ポイント・クラウド・グループに固有の較正パラメータ(例えば、回転行列および並進ベクトル)を計算するために用いることができる。
図7に戻ると、ステップS710において、各ポイント・クラウド・セグメントを、プロセッサ204によって、それぞれの較正パラメータに基づいて、関連する1つまたは複数の画像と集約し、カラー・ポイント・クラウドを生成することができる。図8に関して上記で説明したように、較正パラメータは、ポイント・クラウド・セグメントと車両100との間の距離に基づいて決定することができる。例えば、図9は、本開示の実施形態による、ポイント・クラウド・セグメントおよび複数の画像を集約するための例示的な方法900のフローチャートを示す。ステップS902において、関連する画像のうちのいくつかを選択することができる。いくつかの実施形態では、関連する画像からm個の画像を選択することができ、ここで、mは、軌道に沿った車両100の移動速度、および/または画像のサンプリング・レートに基づいて決定することができる。ステップS904において、選択された画像の各々について、較正パラメータに基づいて、画像内のピクセルを、ポイント・クラウド・セグメント内の各ポイントにマッチングすることができる。いくつかの実施形態では、ポイントは、車両100から予め決定された有効距離内にあることができる。いくつかの実施形態では、選択された画像が正面図画像を含む場合、この正面図画像は、他の視点の画像よりも、高い優先度で処理されることができる。ステップS906において、各ピクセルに関連付けられたカラー情報を、ポイント・クラウド・セグメント内のそれぞれのポイントに割り当て、ポイント・クラウド・セグメントをカラーリングすることができる。RGBモデルが用いられるいくつかの実施形態において、カラー情報は、RGBカラー・モデルに従ってピクセルのRGB値を含むことができる。
本開示の別の態様は、実行されると、1つまたは複数のプロセッサに、上記で論考した方法を実行させる命令を記憶する非一時的コンピュータ可読媒体を対象とする。コンピュータ可読媒体は、揮発性もしくは不揮発性、磁気、半導体、テープ、光、リムーバブル、非リムーバブル、または他のタイプのコンピュータ可読媒体もしくはコンピュータ可読ストレージ・デバイスを含むことができる。例えば、コンピュータ可読媒体は、開示されるように、コンピュータ命令が記憶されたストレージ・デバイスまたはメモリ・モジュールとすることができる。いくつかの実施形態では、コンピュータ可読媒体は、コンピュータ命令が記憶されたディスクまたはフラッシュ・ドライブとすることができる。
当業者には、開示されたシステムおよび関連する方法に対し様々な変更および変形を行うことができることが明らかであろう。開示されるシステムおよび関連する方法の明細書および実施を検討した当業者には他の実施形態が明らかであろう。
明細書および実施例は、例示のみとしてみなされることが意図され、真の範囲は、以下の特許請求の範囲およびそれらの均等物によって示される。

Claims (20)

  1. カラー・ポイント・クラウドを生成するための方法であって、
    車両が軌道に沿って移動する際に、前記車両に関連付けられた複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信するステップと、
    プロセッサによって、前記ポイント・クラウドを、各々が前記車両の前記軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割するステップと、
    前記プロセッサによって、前記開始ポイントおよび前記終了ポイントに基づいて、前記ポイント・クラウドの各セグメントを、前記複数の画像のうちの1つまたは複数と関連付けるステップと、
    前記プロセッサによって、前記ポイント・クラウドの前記セグメントと前記車両との間の異なる距離における較正パラメータに基づいて、前記ポイント・クラウドの各セグメントと前記複数の画像のうちの前記1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成するステップと、
    を含む、方法。
  2. 前記ポイント・クラウドの各セグメントは、前記開始ポイントと前記終了ポイントとの間の前記軌道上の前記車両の同じ移動距離に関連付けられる、請求項1に記載の方法。
  3. 前記ポイント・クラウドを分割するステップは、前記軌道上の前記車両の時間、位置および方向に基づく、請求項1に記載の方法。
  4. 前記ポイント・クラウドの前記セグメントを前記複数の画像のうちの前記1つまたは複数と関連付けるステップは、
    前記開始ポイントおよび第1のしきい値に基づいて、前記複数の画像のうちの第1の画像を決定するステップであって、前記開始ポイントと、前記第1の画像が捕捉される第1のベース・ポイントとの間の第1の距離は前記第1のしきい値に等しい、ステップと、
    前記終了ポイントおよび第2のしきい値に基づいて、前記複数の画像のうちの第2の画像を決定するステップであって、前記終了ポイントと、前記第2の画像が捕捉される第2のベース・ポイントとの間の第2の距離は前記第2のしきい値に等しい、ステップと、
    を含み、
    前記複数の画像のうちの前記1つまたは複数は、前記軌道上の前記第1のベース・ポイントと前記第2のベース・ポイントとの間で捕捉された画像を含む、請求項1に記載の方法。
  5. 前記第1のベース・ポイントは、前記軌道上で前記開始ポイントの前にあり、前記第2のベース・ポイントは、前記軌道上で前記終了ポイントの前にある、請求項4に記載の方法。
  6. 前記ポイント・クラウドの各セグメントと前記車両との間の前記距離に基づいて、前記ポイント・クラウドの前記セグメントに関連付けられた較正パラメータの複数の組を決定するステップと、
    前記較正パラメータに基づいて、前記ポイント・クラウドの前記セグメントと、前記複数の画像のうちの前記1つまたは複数とを集約するステップと、
    を更に含む、請求項1に記載の方法。
  7. 前記ポイント・クラウドの前記セグメントに関連付けられた較正パラメータの複数の組を決定するステップは、
    前記ポイント・クラウドを複数のグループに分けるステップであって、前記ポイント・クラウドの各グループは、前記ポイント・クラウドの前記それぞれのグループと前記車両との間の距離に関連付けられている、ステップと、
    前記ポイント・クラウドの前記グループ内のポイントに基づいて前記ポイント・クラウドのグループごとに較正パラメータを決定するステップと、
    前記ポイント・クラウドの前記セグメントに、前記ポイント・クラウドの前記セグメントが属する前記ポイント・クラウドの前記グループのための前記較正パラメータを割り当てるステップと、
    を含む、請求項6に記載の方法。
  8. 前記ポイント・クラウドの前記セグメントと前記複数の画像のうちの前記1つまたは複数とを集約するステップは、
    前記複数の画像のうちの前記1つまたは複数のうちのいくつかを選択するステップと、
    前記選択された画像ごとに、前記較正パラメータに基づいて、前記画像内の複数のピクセルを、前記ポイント・クラウドの前記セグメント内の各ポイントにマッチングするステップと、
    前記複数のピクセルの各々に関連付けられたカラー情報を、前記ポイント・クラウドの前記セグメント内の前記それぞれのポイントに割り当てるステップと、
    を含む、請求項6に記載の方法。
  9. 前記複数の画像のうちの前記1つまたは複数は、前記シーンの正面図画像を含む、請求項1に記載の方法。
  10. カラー・ポイント・クラウドを生成するためのシステムであって、
    車両が軌道に沿って移動する際に、前記車両に装備された複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信するように構成された通信インターフェースと、
    前記ポイント・クラウドおよび前記複数の画像を記憶するように構成されたストレージと、
    プロセッサであって、
    前記ポイント・クラウドを、各々が前記車両の前記軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割するように構成され、
    前記開始ポイントおよび前記終了ポイントに基づいて、前記ポイント・クラウドの各セグメントを、前記複数の画像のうちの1つまたは複数と関連付けるように構成され、
    前記ポイント・クラウドの前記セグメントと前記車両との間の異なる距離における較正パラメータに基づいて、前記ポイント・クラウドの各セグメントと前記複数の画像のうちの前記1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成するように構成された、プロセッサと、
    を備える、システム。
  11. 前記ポイント・クラウドの各セグメントは、前記開始ポイントと前記終了ポイントとの間の前記軌道上の前記車両の同じ移動距離に関連付けられる、請求項10に記載のシステム。
  12. 前記ポイント・クラウドを分割することは、前記軌道上の前記車両の時間、位置および方向に基づく、請求項10に記載のシステム。
  13. 前記ポイント・クラウドの前記セグメントを前記複数の画像のうちの前記1つまたは複数と関連付けるために、前記プロセッサは、
    前記開始ポイントおよび第1のしきい値に基づいて、前記複数の画像のうちの第1の画像を決定するように構成され、前記開始ポイントと、前記第1の画像が捕捉される第1のベース・ポイントとの間の第1の距離は前記第1のしきい値に等しく、
    前記終了ポイントおよび第2のしきい値に基づいて、前記複数の画像のうちの第2の画像を決定するように構成され、前記終了ポイントと、前記第2の画像が捕捉される第2のベース・ポイントとの間の第2の距離は前記第2のしきい値に等しく、
    前記複数の画像のうちの前記1つまたは複数は、前記軌道上の前記第1のベース・ポイントと前記第2のベース・ポイントとの間で捕捉された画像を含む、請求項10に記載のシステム。
  14. 前記第1のベース・ポイントは、前記軌道上で前記開始ポイントの前にあり、前記第2のベース・ポイントは、前記軌道上で前記終了ポイントの前にある、請求項13に記載のシステム。
  15. 前記プロセッサは、
    前記ポイント・クラウドの各セグメントと前記車両との間の前記距離に基づいて、前記ポイント・クラウドの前記セグメントに関連付けられた較正パラメータの複数の組を決定するように更に構成され、
    前記較正パラメータに基づいて、前記ポイント・クラウドの前記セグメントと、前記複数の画像のうちの前記1つまたは複数とを集約するように更に構成される、請求項10に記載のシステム。
  16. 前記ポイント・クラウドの前記セグメントに関連付けられた前記較正パラメータの前記複数の組を決定するために、前記プロセッサは、
    前記ポイント・クラウドを複数のグループに分けるように構成され、前記ポイント・クラウドの各グループは、前記ポイント・クラウドの前記それぞれのグループと前記車両との間の距離に関連付けられており、
    前記ポイント・クラウドの前記グループ内のポイントに基づいて前記ポイント・クラウドのグループごとに較正パラメータを決定するように構成され、
    前記ポイント・クラウドの前記セグメントに、前記ポイント・クラウドの前記セグメントが属する前記ポイント・クラウドの前記グループのための前記較正パラメータを割り当てるように構成される、請求項15に記載のシステム。
  17. 前記ポイント・クラウドの前記セグメントと前記複数の画像のうちの前記1つまたは複数とを集約するために、前記プロセッサは、
    前記複数の画像のうちの前記1つまたは複数のうちのいくつかを選択するように構成され、
    前記選択された画像ごとに、前記較正パラメータに基づいて、前記画像内の複数のピクセルを、前記ポイント・クラウドの前記セグメント内の各ポイントにマッチングするように構成され、
    前記複数のピクセルの各々に関連付けられたカラー情報を、前記ポイント・クラウドの前記セグメント内の前記それぞれのポイントに割り当てるように構成される、請求項15に記載のシステム。
  18. 前記複数の画像のうちの前記1つまたは複数は、前記シーンの正面図画像を含む、請求項10に記載のシステム。
  19. 前記複数のセンサーは、光検出および測距(LiDAR)レーザー・スキャナおよび1つまたは複数の単眼カメラを含む、請求項10に記載のシステム。
  20. 1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
    車両が軌道に沿って移動する際に、前記車両に関連付けられた複数のセンサーによって捕捉されるシーンに関するポイント・クラウドおよび複数の画像を受信することと、
    前記ポイント・クラウドを、各々が前記車両の前記軌道上の開始ポイントおよび終了ポイントに関連付けられた複数のセグメントに分割することと、
    前記開始ポイントおよび前記終了ポイントに基づいて、前記ポイント・クラウドの各セグメントを、前記複数の画像のうちの1つまたは複数と関連付けることと、
    前記ポイント・クラウドの前記セグメントと前記車両との間の異なる距離における較正パラメータに基づいて、前記ポイント・クラウドの各セグメントと前記複数の画像のうちの前記1つまたは複数とを集約することによってカラー・ポイント・クラウドを生成することと、
    を含む動作を行わせる命令を記憶した非一時的コンピュータ可読媒体。
JP2018568214A 2018-11-13 2018-11-13 カラー・ポイント・クラウド生成のための方法およびシステム Pending JP2021508095A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/115254 WO2020097796A1 (en) 2018-11-13 2018-11-13 Methods and systems for color point cloud generation

Publications (1)

Publication Number Publication Date
JP2021508095A true JP2021508095A (ja) 2021-02-25

Family

ID=70551297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568214A Pending JP2021508095A (ja) 2018-11-13 2018-11-13 カラー・ポイント・クラウド生成のための方法およびシステム

Country Status (9)

Country Link
US (1) US11474247B2 (ja)
EP (1) EP3735678A4 (ja)
JP (1) JP2021508095A (ja)
CN (1) CN111436216B (ja)
AU (1) AU2018286594A1 (ja)
CA (1) CA3028653C (ja)
SG (1) SG11201811601SA (ja)
TW (1) TWI695181B (ja)
WO (1) WO2020097796A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200069084A (ko) * 2018-12-06 2020-06-16 팅크웨어(주) 도로 제한 속도 판단 방법, 도로 제한 속도 판단 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
FR3098929B1 (fr) * 2019-07-16 2021-06-18 Yellowscan Procédé de détermination de paramètres d'étalonnage extrinseques d'un système de mesure
CN111144211B (zh) * 2019-08-28 2023-09-12 华为技术有限公司 点云显示方法和装置
SE544256C2 (en) * 2019-08-30 2022-03-15 Scania Cv Ab Method and control arrangement for autonomy enabling infrastructure features
JP2021131629A (ja) * 2020-02-18 2021-09-09 株式会社リコー 情報処理装置、プログラム、情報生成方法、情報処理システム
CN111784834B (zh) * 2020-06-24 2024-06-18 阿波罗智能技术(北京)有限公司 一种点云地图生成方法、装置以及电子设备
KR20220000171A (ko) * 2020-06-25 2022-01-03 현대자동차주식회사 라이다 데이터 기반 객체 인식 장치 및 그의 세그먼트 병합 방법
US11851086B2 (en) * 2020-06-26 2023-12-26 Waymo Llc Using simulations to identify differences between behaviors of manually-driven and autonomous vehicles
FR3112215B1 (fr) * 2020-07-01 2023-03-24 Renault Sas Système et procédé de détection d’un obstacle dans un environnement d’un véhicule
CN111860425B (zh) * 2020-07-30 2021-04-09 清华大学 一种深度多模态跨层交叉融合方法、终端设备及存储介质
US20220043154A1 (en) * 2020-08-04 2022-02-10 Quantum Spatial, Inc. Methods and apparatus for geospatial data generation
CN112235556B (zh) * 2020-09-27 2022-10-14 北京灵境世界科技有限公司 一种vr场景构建方法、系统和装置
CN112287860B (zh) * 2020-11-03 2022-01-07 北京京东乾石科技有限公司 物体识别模型的训练方法及装置、物体识别方法及系统
TWI768548B (zh) * 2020-11-19 2022-06-21 財團法人資訊工業策進會 定位用基礎資訊產生系統與方法以及自身定位判斷裝置
US11967111B2 (en) * 2020-12-15 2024-04-23 Kwangwoon University Industry-Academic Collaboration Foundation Multi-view camera-based iterative calibration method for generation of 3D volume model
CN113240813B (zh) * 2021-05-12 2023-05-16 北京三快在线科技有限公司 三维点云信息确定方法及装置
CN113487746B (zh) * 2021-05-25 2023-02-24 武汉海达数云技术有限公司 一种车载点云着色中最优关联影像选择方法及系统
CN113191459B (zh) * 2021-05-27 2022-09-09 山东高速建设管理集团有限公司 一种基于路侧激光雷达的在途目标分类方法
CN114511626B (zh) * 2022-04-20 2022-08-05 杭州灵西机器人智能科技有限公司 基于rgbd相机系统的图像处理装置、方法、设备及介质
CN114998744B (zh) * 2022-07-18 2022-10-25 中国农业大学 基于运动与视觉双特征融合的农机轨迹田路分割方法及装置
CN118151171A (zh) * 2024-05-09 2024-06-07 苏州大学 基于激光雷达和图像传感器融合的可感知调平检测设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535400A (ja) * 2012-09-10 2015-12-10 アエマス,インコーポレイテッド 複数デバイスを使用した周辺環境の多次元データキャプチャ
JP2017125790A (ja) * 2016-01-15 2017-07-20 株式会社Ihi 計測装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8731247B2 (en) 2012-01-20 2014-05-20 Geodigital International Inc. Densifying and colorizing point cloud representation of physical surface using image data
CN103390169B (zh) 2013-07-19 2016-08-31 武汉大学 一种车载激光扫描点云数据的城市地物分类方法
CN104318616A (zh) * 2014-11-07 2015-01-28 钟若飞 彩色点云系统及基于该系统的彩色点云生成方法
CN104732557A (zh) * 2015-04-16 2015-06-24 武汉海达数云技术有限公司 一种地面激光扫描仪彩色点云生成方法
CN104794743A (zh) * 2015-04-27 2015-07-22 武汉海达数云技术有限公司 一种车载激光移动测量系统彩色点云生产方法
WO2017023210A1 (en) * 2015-08-06 2017-02-09 Heptagon Micro Optics Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
EP3156942A1 (en) * 2015-10-16 2017-04-19 Thomson Licensing Scene labeling of rgb-d data with interactive option
KR102671067B1 (ko) 2016-04-08 2024-05-30 팅크웨어(주) 도로면 생성 방법, 도로면 생성 장치, 포인트 클라우드 데이터 처리 방법, 포인트 클라우드 데이터 처리 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
CN106087621B (zh) * 2016-05-31 2017-11-24 中铁第四勘察设计院集团有限公司 一种基于车载激光雷达技术的铁路既有线复测方法
CN107918753B (zh) * 2016-10-10 2019-02-22 腾讯科技(深圳)有限公司 点云数据处理方法及装置
JP7141403B2 (ja) 2017-01-27 2022-09-22 カールタ インコーポレイテッド 実時間オンライン自己運動推定を備えたレーザスキャナ
CN108629228B (zh) 2017-03-15 2020-12-01 阿里巴巴(中国)有限公司 一种道路对象识别方法和装置
CN107909645A (zh) * 2017-11-16 2018-04-13 青岛市光电工程技术研究院 建筑物视图生成方法、装置及系统
CN107992850B (zh) * 2017-12-20 2020-01-14 大连理工大学 一种室外场景三维彩色点云分类方法
AU2019262089B2 (en) 2018-05-01 2020-10-22 Commonwealth Scientific And Industrial Research Organisation Method and system for use in colourisation of a point cloud
CN108681525B (zh) * 2018-05-16 2020-12-25 福州大学 一种基于车载激光扫描数据的路面点云强度增强方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535400A (ja) * 2012-09-10 2015-12-10 アエマス,インコーポレイテッド 複数デバイスを使用した周辺環境の多次元データキャプチャ
JP2017125790A (ja) * 2016-01-15 2017-07-20 株式会社Ihi 計測装置

Also Published As

Publication number Publication date
CA3028653C (en) 2021-02-16
US20200150275A1 (en) 2020-05-14
US11474247B2 (en) 2022-10-18
SG11201811601SA (en) 2020-06-29
TWI695181B (zh) 2020-06-01
CN111436216B (zh) 2023-11-07
AU2018286594A1 (en) 2020-05-28
CN111436216A (zh) 2020-07-21
EP3735678A4 (en) 2021-03-24
WO2020097796A1 (en) 2020-05-22
TW202018328A (zh) 2020-05-16
CA3028653A1 (en) 2020-05-13
EP3735678A1 (en) 2020-11-11

Similar Documents

Publication Publication Date Title
CA3028653C (en) Methods and systems for color point cloud generation
US10937231B2 (en) Systems and methods for updating a high-resolution map based on binocular images
US11131752B2 (en) Vehicle navigation system using pose estimation based on point cloud
CA3027921C (en) Integrated sensor calibration in natural scenes
CN112005079B (zh) 用于更新高清地图的系统和方法
CN113240813B (zh) 三维点云信息确定方法及装置
CN114503044A (zh) 用于在3d点云中自动标记对象的系统和方法
AU2018102199A4 (en) Methods and systems for color point cloud generation
CN113874681B (zh) 点云地图质量的评估方法和系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210928