JPWO2019098318A1 - 三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置 - Google Patents

三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置 Download PDF

Info

Publication number
JPWO2019098318A1
JPWO2019098318A1 JP2019554304A JP2019554304A JPWO2019098318A1 JP WO2019098318 A1 JPWO2019098318 A1 JP WO2019098318A1 JP 2019554304 A JP2019554304 A JP 2019554304A JP 2019554304 A JP2019554304 A JP 2019554304A JP WO2019098318 A1 JPWO2019098318 A1 JP WO2019098318A1
Authority
JP
Japan
Prior art keywords
dimensional
point cloud
points
dimensional point
attribute values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019554304A
Other languages
English (en)
Other versions
JP7325332B2 (ja
Inventor
ポンサク ラサン
ポンサク ラサン
チー ワン
チー ワン
チェン ウー
チェン ウー
シェン メイ シェン
シェン メイ シェン
敏康 杉尾
敏康 杉尾
達也 小山
達也 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2019098318A1 publication Critical patent/JPWO2019098318A1/ja
Priority to JP2023125733A priority Critical patent/JP2023164425A/ja
Application granted granted Critical
Publication of JP7325332B2 publication Critical patent/JP7325332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

三次元点群データ生成方法は、プロセッサを用いて1以上の三次元点を備える三次元点群を生成する三次元点群データ生成方法であって、距離センサを用いて三次元オブジェクトをセンシングすることにより得られた第1三次元点群と、カメラを用いて三次元オブジェクトを撮像することにより得られた二次元画像とを取得し(S11、S12)、取得された二次元画像から、二次元画像上の位置に対応する二次元画像の属性値を1以上検出し、検出された1以上の属性値のそれぞれについて、(i)第1三次元点群を構成する複数の三次元点のうちで当該属性値の二次元画像上の位置が対応する1以上の第1三次元点を特定し(S16)、(ii)特定された1以上の第1三次元点に当該属性値を付加することで、それぞれが属性値を有する1以上の第2三次元点を含む第2三次元点群を生成する(S17)。

Description

本開示は、三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置に関する。
特許文献1には、三次元形状データを転送する方法について開示されている。特許文献1では、三次元形状のデータが、例えば、ポリゴンやボクセルなどの要素毎に、ネットワークに送り出される。そして、受信側では、その三次元形状のデータが取り込まれ、受け取った要素毎に画像展開して表示される。
特開平9−237354号公報
しかしながら、上記特許文献に係る技術には、更なる改善が必要とされていた。
上記目的を達成するために、本開示の一態様に係る三次元点群データ生成方法は、プロセッサを用いて複数の三次元点を含む三次元点群を生成する三次元点群生成方法であって、カメラを用いて三次元オブジェクトを撮像することにより得られた二次元画像と、距離センサを用いて前記三次元オブジェクトをセンシングすることにより得られた第1三次元点群とを取得し、取得された前記二次元画像から、前記二次元画像上の位置に対応する前記二次元画像の属性値を1以上検出し、検出された前記1以上の属性値のそれぞれについて、(i)前記第1三次元点群を構成する複数の三次元点のうちで当該属性値の前記二次元画像上の位置が対応する1以上の第1三次元点を特定し、(ii)特定された前記1以上の第1三次元点に当該属性値を付加することで、それぞれが前記属性値を有する1以上の第2三次元点を含む第2三次元点群を生成する。
また、本開示の一態様に係る位置推定方法は、プロセッサを用いて移動体の現在位置を推定する位置推定方法であって、三次元オブジェクトを撮像した第1二次元画像の属性値である第1属性値がそれぞれ予め付加された複数の三次元点を含む三次元点群を取得し、前記移動体が備えるカメラにより撮像された、前記移動体の周囲の第2二次元画像を取得し、取得された前記第2二次元画像から、前記第2二次元画像上の位置に対応する前記第2二次元画像の属性値である第2属性値を1以上検出し、検出された前記1以上の第2属性値のそれぞれについて、前記複数の三次元点のうちで、当該第2属性値に対応する1以上の第5三次元点を特定することで当該第2属性値および前記1以上の第5三次元点により構成される組合せを1以上生成し、記憶装置から前記移動体に対する前記カメラの位置および姿勢を取得し、生成された前記1以上の組合せと、取得された前記カメラの位置および姿勢とを用いて前記移動体の位置および姿勢を算出する。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示は、更なる改善を図ることができる。
図1は、位置推定システムの概要を示す図である。 図2は、位置推定システムの機能構成の一例を示すブロック図である。 図3は、クライアント機器としての車両の機能構成の一例を示すブロック図である。 図4は、位置推定システムの動作の一例を示すシーケンス図である。 図5は、位置推定システムの動作を説明するための図である。 図6は、マッピング部の機能構成の一例を示すブロック図である。 図7は、マッピング処理の詳細な処理の一例を示すフローチャートである。 図8は、変形例1における三次元点群データ生成装置の動作の一例を示すフローチャートである。 図9は、重要度の算出処理の詳細な処理の一例を示すフローチャートである。 図10は、第3三次元点のデータ構成の一例を示す図である。 図11は、符号化部の機能構成の一例を示すブロック図である。 図12は、符号化処理の詳細な処理の一例を示すフローチャートである。
(本開示の基礎となった知見)
三次元点群データは、製造、建築において普及しており、近年、自律走行などの情報技術アプリケーションにおいて重要になってきている。三次元点群データは、通常、データの格納、および、データの処理において大きく非効率的である。このため、実際のアプリケーションで三次元点群データを利用するために、コンパクトなサイズに圧縮した三次元点群データを生成することが求められている。このように、三次元点群データのデータ量を削減できることが必要とされていた。また、データ量を削減した三次元点群データを用いて、自己位置を推定することも必要とされていた。
本開示は、三次元点群データのデータ量を効果的に削減することができる、三次元点群データ生成方法および三次元点群データ生成装置、並びに、データ量を削減した三次元点群データを用いて、自己位置を推定することができる位置推定方法および位置推定装置を提供することを目的とする。
本開示の一態様に係る三次元点群データ生成方法は、プロセッサを用いて複数の三次元点を含む三次元点群を生成する三次元点群生成方法であって、カメラを用いて三次元オブジェクトを撮像することにより得られた二次元画像と、距離センサを用いて前記三次元オブジェクトをセンシングすることにより得られた第1三次元点群とを取得し、取得された前記二次元画像から、前記二次元画像上の位置に対応する前記二次元画像の属性値を1以上検出し、検出された前記1以上の属性値のそれぞれについて、(i)前記第1三次元点群を構成する複数の三次元点のうちで当該属性値の前記二次元画像上の位置が対応する1以上の第1三次元点を特定し、(ii)特定された前記1以上の第1三次元点に当該属性値を付加することで、それぞれが前記属性値を有する1以上の第2三次元点を含む第2三次元点群を生成する。
これによれば、距離センサを用いて得られた第1三次元点群を構成する複数の三次元点のうちで、カメラを用いて得られた二次元画像上における位置に対応する二次元画像の属性値を、当該二次元画像上における位置に対応する三次元点に付加した第2三次元点を含む第2三次元点群を生成する。このため、自己位置を推定する位置推定装置では、新たに三次元点群をセンシングしなくても、新たに自装置の周囲の二次元画像を撮像すれば、撮像して得られた二次元画像の位置に対応する属性値と、第2三次元点群の各第2三次元点に付加された属性値とを比較することで、自己位置を効率よく推定することができる。
また、前記取得では、それぞれが、互いに異なる位置および/または姿勢における前記カメラにより撮像されることにより得られた複数の前記二次元画像を取得し、前記検出では、取得された前記複数の二次元画像のそれぞれについて、前記1以上の属性値を検出し、前記三次元点群データ生成方法は、さらに、前記複数の二次元画像のそれぞれについて検出された前記1以上の属性値を用いて、前記複数の二次元画像のうちの2枚の二次元画像で対応する属性値をマッチングすることで、マッチングされた属性値のペアを1以上出力し、前記特定では、前記1以上のペアのそれぞれについて、当該ペアを構成する2つの属性値のそれぞれの前記二次元画像上の位置と、前記2枚の二次元画像のそれぞれが撮像されたときの前記カメラの位置および姿勢とを用いて、前記複数の三次元点のうちで当該ペアを構成する前記2つの属性値の前記二次元画像上の位置が対応する前記1以上の第1三次元点を特定し、前記生成では、前記1以上のペアのそれぞれについて、特定された前記1以上の第1三次元点に当該ペアを構成する前記2つの属性値に基づく属性値を付加することで、前記第2三次元点群を生成してもよい。
これによれば、2枚の二次元画像のそれぞれの属性値をマッチングすることで特定された属性値のペアを特定し、ペアの属性値それぞれの二次元画像に対応する位置を用いて当該位置に対応する三次元点を特定し、特定した三次元点にペアを構成する2つの属性値を付加する。このため、属性値に対応する三次元点を精度よく特定することができる。
また、前記生成では、特定された1つの前記第1三次元点に複数の前記属性値を付加することで、前記第2三次元点を生成してもよい。
これによれば、1つの第1三次元点に付加する属性値の数を複数とするため、位置推定において、位置推定を行うために取得する、二次元画像上の位置に対応する二次元画像の属性値と、第1三次元点との対応付けを精度よく行うことができる。
また、前記生成において前記1つの第1三次元点に付加される前記複数の属性値は、それぞれ、複数の前記二次元画像から検出された属性値であってもよい。
1つの第1三次元点は、複数の視点から撮像されうる。また、位置推定では、異なる位置で二次元画像を撮像するため、得られる二次元画像は、異なる複数の視点から撮像される。このため、複数の二次元画像から検出された複数の属性値を付加することで、位置推定において、異なる複数の視点それぞれで撮像された二次元画像を用いても、それぞれの二次元画像から得られる属性値と第1三次元点との対応付けを容易に行うことができる。よって、位置推定を容易に行うことができる。
また、前記生成において前記1つの第1三次元点に付加される前記複数の属性値は、それぞれ、属性の種類が互いに異なる属性値であってもよい。
これによれば、1つの第1三次元点に付加する属性値を異なる複数種類の属性値とするため、位置推定において、位置推定を行うために取得する、二次元画像上の位置に対応する二次元画像の属性値と、第1三次元点との対応付けを精度よく行うことができる。
また、前記検出では、取得された前記二次元画像を構成する複数の領域毎に算出された特徴量を、前記二次元画像上の位置に対応する前記二次元画像の前記1以上の属性値として検出してもよい。
このため、二次元画像の位置における特徴量を所定の方法で容易に算出することができる。
また、前記生成では、さらに、前記1以上の第2三次元点のそれぞれについて、(i)当該第2三次元点に付加された前記属性値に基づいて当該第2三次元点の重要度を算出し、(ii)算出された前記重要度を、当該第2三次元点に付加することで、それぞれが前記属性値および前記重要度を有する1以上の第3三次元点を含む第3三次元点群を生成してもよい。
このため、例えば、クライアント機器は、重要度が大きい第3三次元点ほど優先的に利用することができるため、処理の精度に悪影響を与えないように、処理に利用する三次元点群データのデータ量を調整することができる。
また、さらに、クライアント機器から閾値を受信し、前記1以上の第3三次元点のうち、受信された前記閾値を超える重要度が付加されている1以上の第4三次元点を抽出し、抽出された前記1以上の第4三次元点を含む第4三次元点群を前記クライアント機器に送信してもよい。
このため、クライアント機器の要求に応じて、送信する三次元点群データのデータ量を調製することができる。
また、本開示の一態様に係る位置推定方法は、プロセッサを用いて移動体の現在位置を推定する位置推定方法であって、三次元オブジェクトを撮像した第1二次元画像の属性値である第1属性値がそれぞれ予め付加された複数の三次元点を含む三次元点群を取得し、前記移動体が備えるカメラにより撮像された、前記移動体の周囲の第2二次元画像を取得し、取得された前記第2二次元画像から、前記第2二次元画像上の位置に対応する前記第2二次元画像の属性値である第2属性値を1以上検出し、検出された前記1以上の第2属性値のそれぞれについて、前記複数の三次元点のうちで、当該第2属性値に対応する1以上の第5三次元点を特定することで当該第2属性値および前記1以上の第5三次元点により構成される組合せを1以上生成し、記憶装置から前記移動体に対する前記カメラの位置および姿勢を取得し、生成された前記1以上の組合せと、取得された前記カメラの位置および姿勢とを用いて前記移動体の位置および姿勢を算出する。
これによれば、三次元オブジェクトを撮像した二次元画像の属性値が予め三次元点群に付加されているため、新たに三次元点群をセンシングしなくても、新たに自装置の周囲の第2二次元画像を撮像すれば、撮像して得られた第2二次元画像の位置に対応する第2属性値、および、当該第2属性値に対応する1以上の第5三次元点の組合せと、三次元点群の各三次元点に付加された第1属性値とを比較することで、自己位置を効率よく推定することができる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本開示の一態様に係る三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
まず、本実施の形態の概要を説明する。本実施の形態では、三次元点群データを用いて車両などの移動体の自己位置を推定する位置推定システムについて説明する。
図1は、位置推定システムの概要を示す図である。
図1には、三次元点群データ生成装置100と、車両200、300と、通信ネットワーク400と、移動通信システムの基地局410とが示されている。例えば、位置推定システム1は、これらの構成要素のうち、三次元点群データ生成装置100および車両200、300を備える。車両200および車両300は、互いに異なる種類の車両である。位置推定システム1では、1台の車両200を備えることに限らずに2台以上の車両200を備えていてもよいし、同様に、1台の車両300を備えることに限らずに3台以上の車両300を備えていてもよい。
三次元点群データ生成装置100は、車両200が備えるカメラ210により撮像された複数の二次元画像と、車両200が備えるLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)230により得られた三次元点群とを取得し、車両300による車両300の自己位置を推定するために用いる三次元点群データを生成する装置である。ここで、三次元点群データは、特徴点の特徴量が付加された複数の三次元点を含む三次元点群を示すデータである。特徴点の特徴量が付加された複数の三次元点については、後述する。三次元点群データ生成装置100は、例えば、サーバである。
車両200は、カメラ210およびLiDAR230を備え、車両200の周囲の三次元オブジェクトの二次元画像を撮像し、かつ、当該三次元オブジェクトの三次元点群を検出する車両である。三次元点群は、例えば、車両200の周囲の三次元オブジェクトの表面の複数の位置それぞれを示す複数の三次元座標(X、Y、Z)により構成される。車両200は、例えば、道路を走行しながらカメラ210による撮像を、異なる複数のタイミングで行うことで、それぞれのタイミングにおける車両200の位置から車両200のカメラ210が撮像した二次元画像を生成する。つまり、車両200は、移動経路を移動しながらカメラ210による撮像を異なる複数のタイミングで行う。このため、複数の二次元画像は、それぞれが、互いに異なる位置および/または姿勢におけるカメラ210により撮像されることにより得られることとなる。また、車両200は、例えば、道路を走行しながらLiDAR230によるセンシングを複数の異なるタイミングで行うことで、それぞれのタイミングにおける車両200の位置から車両200のLiDAR230がセンシングした三次元点群を生成する。
LiDAR230によるセンサデータは、車両200のカメラ210により撮像された二次元画像と、当該二次元画像を撮像したときのカメラ210の位置および姿勢を特定するために用いられてもよい。この場合、一般的な車両が自己位置を推定するために用いる正確な三次元マップ(Accurate 3D map)は、車両200とは異なる別の機器により得られた三次元点群を用いて生成されてもよい。正確な三次元マップは、第1三次元点群の一例であり、複数の三次元点により構成される。複数の三次元点は、例えば、X軸方向、Y軸方向およびZ軸方向の異なる三方向の座標で示されてもよい。
LiDAR230によるセンサデータは、一般的な車両が自己位置を推定するために用いる正確な三次元マップを生成するために用いられてもよい。この場合、LiDAR230は、一般の車両が自動運転または運転支援に用いるLiDARよりも、例えば、精度よく、多くの三次元点を計測することが可能な距離センサである。つまり、車両200は、自己位置推定に用いられる正確な三次元マップを生成するための三次元点群および二次元画像を取得するセンシング装置である。
なお、カメラ210による撮像のタイミングと、LiDAR230によるセンシングのタイミングとは、同期されていてもよいし、同期されていなくてもよい。カメラ210による撮像のタイミングと、LiDAR230によるセンシングのタイミングとは、互いに同じタイミングであってもよいし、互いに異なるタイミングであってもよい。
車両300は、カメラ310を備え、車両300の周囲の三次元オブジェクトの二次元画像を撮像する車両である。車両300は、カメラ310の撮像により得られた二次元画像と、三次元点群データ生成装置100から取得した三次元点群とを用いて、車両300の自己位置を推定する。車両300は、自己位置の推定結果を用いて、自動運転または運転支援を行う。つまり、車両300は、クライアント機器として機能する。
通信ネットワーク400は、インターネットなどの汎用のネットワークであってもよいし、専用のネットワークであってもよい。基地局410は、例えば、第3世代移動通信システム(3G)、第4世代移動通信システム(4G)、LTE(登録商標)、第5世代移動通信システム(5G)などのような移動通信システムで利用される基地局である。
次に、位置推定システムの機能構成の具体例について図2を用いて説明する。
図2は、位置推定システムの機能構成の一例を示すブロック図である。
まず、三次元点群データ生成装置100の機能構成について説明する。
三次元点群データ生成装置100は、通信部110と、マッピング部120と、符号化部130と、外部メモリ140とを備える。
通信部110は、通信ネットワーク400を介して車両200、300と通信する。通信部110は、二次元画像および三次元点群を、通信ネットワーク400を介した通信により車両200から受信することで取得する。また、通信部110は、LiDAR230に対するカメラ210の相対的な位置および姿勢を、通信ネットワーク400を介した通信により車両200から受信することで取得してもよい。また、通信部110は、車両300へ、特徴点の特徴量が付加された三次元点群を、通信ネットワーク400を介した通信により送信する。また、通信部110は、図示しない上位サーバへ、特徴点の特徴量が付加された三次元点群を、通信ネットワーク400を介した通信により送信してもよい。
なお、三次元点群データ生成装置100は、LiDAR230に対するカメラ210の相対的な位置および姿勢を、車両200の車種毎、または、車両毎のテーブルとして、予め外部メモリ140などの不揮発性の記憶装置に記憶していてもよい。この場合、三次元点群データ生成装置100は、車両200から車種または車両を特定するための情報を取得することで、車両200におけるLiDAR230に対するカメラ210の相対的な位置および姿勢を、不揮発性の記憶装置に記憶されているテーブルから特定することで取得してもよい。
なお、通信部110は、通信ネットワーク400に通信接続できる通信インタフェースにより実現される。具体的には、通信部110は、移動通信システムの基地局410との通信接続により、通信ネットワーク400と通信接続する。通信部110は、例えば、第3世代移動通信システム(3G)、第4世代移動通信システム(4G)、LTE(登録商標)、第5世代移動通信システム(5G)などのような移動通信システムで利用される通信規格に適合した無線通信インタフェースにより実現されてもよい。また、通信部110は、例えば、IEEE802.11a、b、g、n、ac規格に適合した無線LAN(Local Area Network)インタフェースにより実現されてもよく、図示しないルータ(例えば、モバイル無線LANルータ)との通信接続により、通信ネットワーク400と通信接続する通信インタフェースにより実現されてもよい。
マッピング部120は、通信部110により取得された二次元画像および三次元点群を用いて、二次元画像から検出された属性値を、三次元点群を構成する複数の三次元点に付加するマッピング処理を行う。マッピング部の詳細は、図6および図7を用いて後述する。
符号化部130は、マッピング処理により得られた三次元点群を符号化することで符号化ストリームを生成する。符号化部130は、生成した符号化ストリームを外部メモリ140に格納してもよい。また、符号化部130は、生成した符号化ストリームを通信部110に、通信ネットワーク400を介して車両300へ送信させてもよい。符号化部130による符号化処理の詳細は、図8および図9を用いて後述する。
マッピング部120および符号化部130のそれぞれは、プロセッサおよびメモリにより実現されてもよいし、専用回路により実現されてもよい。つまり、マッピング部120および符号化部130は、ソフトウェアにより実現されてもよいし、ハードウェアにより実現されてもよい。
外部メモリ140は、例えば、プログラムなどのような、プロセッサが必要とする情報を格納してもよい。外部メモリ140は、属性値が付加された三次元点群、符号化ストリームなどのような、プロセッサの処理で生じたデータを格納してもよい。外部メモリ140は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性記憶装置により実現される。
車両200は、カメラ210と、取得部220と、LiDAR230と、取得部240と、メモリ250と、通信部260とを備える。
カメラ210は、車両200の周囲の三次元空間上における三次元オブジェクトを撮像することで二次元画像を得る。カメラ210は、車両200に対して所定の位置および所定の姿勢で配置されている。例えば、カメラ210は、車両200の車室内に配置されていてもよいし、車室外に配置されていてもよい。また、カメラ210は、車両200の前方を撮像してもよいし、車両200の右側方または左側方を撮像してもよいし、車両200の後方を撮像してもよいし、車両200の360度全方位を撮像してもよい。カメラ210は、1つのカメラで構成されていてもよいし、2つ以上のカメラで構成されていてもよい。カメラ210は、異なる複数のタイミングにおいて撮像することにより、複数の二次元画像を得てもよい。カメラ210は、予め定められたフレームレートで複数の二次元画像としての複数のフレームを含む動画像を撮像してもよい。
取得部220は、カメラ210に対応して設けられ、カメラ210において異なる複数のタイミングで撮像されることにより得られた二次元画像を記憶し、記憶した二次元画像を通信部260に出力する。二次元画像には、当該二次元画像が撮像されたタイミングが対応付けられている。取得部220は、カメラ210に内蔵される処理部であってもよい。つまり、カメラ210は、取得部220の機能を有していてもよい。
LiDAR230は、車両200の周囲の三次元空間上における三次元オブジェクトをセンシングすることにより三次元点群を得る。LiDAR230は、車両200に保持され、車両200の水平方向において360度全方位、および、垂直方向において所定の角度(例えば30度)の角度範囲の検出範囲にある三次元オブジェクトとの距離を検出するレーザセンサである。LiDAR230は、距離センサの一例である。LiDAR230は、周囲にレーザを発し、周囲の物体に反射されたレーザを検知することで、LiDAR230から三次元オブジェクトまでの距離を計測する。LiDAR230は、例えば、センチメートルオーダーで当該距離を計測する。このように、LiDAR230は、車両200の周囲の地形表面の複数の点それぞれの三次元座標を検出する。つまり、LiDAR230は、周囲の地形表面の複数の三次元座標を検出することで、車両200の周囲の物体を含む地形の三次元形状を検出する。このように、LiDAR230では、複数の点の三次元座標で構成される三次元点群であって、車両200の周囲の物体を含む地形の三次元形状を示す三次元点群が得られる。なお、距離センサは、LiDAR230に限らずに、ミリ波レーダ、超音波センサ、ToF(Time of Flight)カメラ、ステレオカメラなどのような他の距離センサであってもよい。
取得部240は、LiDAR230に対応して設けられ、異なる複数のタイミングでLiDAR230においてセンシングされることにより得られた三次元点群を記憶し、記憶した三次元点群を通信部260に出力する。三次元点群には、当該三次元点群がセンシングされたタイミングが対応付けられている。取得部240は、LiDAR230に内蔵される処理部であってもよい。つまり、LiDAR230は、取得部240の機能を有していてもよい。
メモリ250は、車両200に対するカメラ210の位置および姿勢と、車両200に対するLiDAR230の位置および姿勢とを記憶している。また、メモリ250は、LiDAR230に対するカメラ210の相対的な位置および姿勢を記憶していてもよい。LiDAR230に対するカメラ210の相対的な位置および姿勢は、LiDAR230が出力するレーザ光の強度と、カメラ210により撮像されたLiDAR230によるレーザ光の三次元オブジェクトにおける反射光を含む二次元画像とを、相互情報量のような方法を用いてマッチングさせることで、検出してもよいし、カメラ210およびLiDAR230以外の機器を用いて検出してもよい。メモリ250は、例えば、不揮発性記憶装置により実現される。
通信部260は、通信ネットワーク400を介して三次元点群データ生成装置100と通信する。通信部260は、二次元画像および三次元点群を、通信ネットワーク400を介した通信により三次元点群データ生成装置100へ送信する。また、通信部260は、LiDAR230に対するカメラ210の相対的な位置および姿勢を、通信ネットワーク400を介した通信により三次元点群データ生成装置100へ送信してもよい。
なお、通信部260は、通信ネットワーク400に通信接続できる通信インタフェースにより実現される。具体的には、通信部260は、移動通信システムの基地局410との通信接続により、通信ネットワーク400と通信接続する。通信部260は、例えば、第3世代移動通信システム(3G)、第4世代移動通信システム(4G)、LTE(登録商標)、第5世代移動通信システム(5G)などのような移動通信システムで利用される通信規格に適合した無線通信インタフェースにより実現されてもよい。
次に、車両300の機能構成について説明する。
図3は、クライアント機器としての車両の機能構成の一例を示すブロック図である。
車両300は、カメラ310と、取得部320と、通信部330と、復号部340と、位置推定部350と、制御部360と、外部メモリ370とを備える。
カメラ310は、車両300に対して所定の位置および所定の姿勢で配置されており、車両300の周囲の三次元空間上における三次元オブジェクトを撮像する。カメラ310は、車両300に配置される点でカメラ210とは異なるが、それ以外においてカメラ210と同様の構成であるため、カメラ210の説明において、カメラ210をカメラ310に読み替え、車両200を車両300に読み替えることで説明できる。このため、カメラ310の詳細な説明を省略する。
取得部320は、カメラ310に対応して設けられ、カメラ310において撮像されることにより得られた二次元画像を記憶し、記憶した二次元画像を位置推定部350に出力する。取得部320は、カメラ310に内蔵される処理部であってもよい。つまり、カメラ310は、取得部320の機能を有していてもよい。
通信部330は、通信ネットワーク400を介して三次元点群データ生成装置100と通信する。通信部330は、三次元点群データ生成装置100から符号化ストリームを、通信ネットワーク400を介した通信により受信することで取得する。また、通信部330は、通信負荷を軽減するために、後述する重要度に関する閾値を、通信ネットワーク400を介して三次元点群データ生成装置100に送信してもよい。
通信部330は、三次元点群データ生成装置100が有する三次元点群に含まれる複数の三次元点の全てを取得してもよい。なお、通信部330は、三次元点群データ生成装置100から三次元点群を取得する場合、図示しないGPS(Global Positioning System)などのような粗い精度の位置検出デバイスにより検出される車両300の位置を基準とする所定の領域の三次元点群を、上記の全ての三次元点として取得してもよい。これにより、世界中の全ての道路などのような、移動体の移動経路の周辺の三次元点群を取得しなくてもよく、取得する三次元点群のデータ量を低減することができる。また、通信部330は、全ての三次元点を取得しなくてもよく、三次元点群データ生成装置100に上記閾値を送信することで上記複数の三次元点のうちで、閾値よりも重要度の大きい複数の三次元点を取得し、閾値以下の重要度の複数の三次元点を取得しなくてもよい。
なお、通信部330は、通信ネットワーク400に通信接続できる通信インタフェースにより実現される。具体的には、通信部330は、移動通信システムの基地局410との通信接続により、通信ネットワーク400と通信接続する。通信部330は、例えば、第3世代移動通信システム(3G)、第4世代移動通信システム(4G)、LTE(登録商標)、第5世代移動通信システム(5G)などのような移動通信システムで利用される通信規格に適合した無線通信インタフェースにより実現されてもよい。
復号部340は、通信部330により取得された符号化ストリームを復号することで、属性値が付加された三次元点群を生成する。
位置推定部350は、カメラ310により得られた二次元画像と、復号部340において復号されることで得られた、属性値が付加された三次元点群とを用いて、当該三次元点群におけるカメラ310の位置および姿勢を推定することで、車両300の位置および姿勢を推定する。
制御部360は、車両300の運転を制御する。具体的には、制御部360は、車輪の操舵を行うステアリング、車輪を回転駆動させるエンジン、モータなどの動力源、車輪の制動するブレーキなどを制御することで、車両300の自動運転または運転支援を行う。例えば、制御部360は、車両300の現在位置、車両300の目的地、および周囲の道路情報を用いて、車両300がどの道路を走行するかを示す経路を決定する。また、制御部360は、決定した経路上を走行するようにステアリング、動力源およびブレーキを制御する。
復号部340、位置推定部350および制御部360は、プロセッサにより実現されてもよいし、専用回路により実現されてもよい。つまり、復号部340、位置推定部350および制御部360は、ソフトウェアにより実現されてもよいし、ハードウェアにより実現されてもよい。
外部メモリ370は、例えば、プログラムなどのような、プロセッサが必要とする情報を格納してもよい。外部メモリ370は、属性値が付加された三次元点群、符号化ストリームなどのような、プロセッサの処理で生じたデータを格納してもよい。外部メモリ370は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性記憶装置により実現される。
次に、位置推定システム1の動作について説明する。
図4は、位置推定システムの動作の一例を示すシーケンス図である。図5は、位置推定システムの動作を説明するための図である。
まず、車両200は、カメラ210が車両200の周囲の三次元空間上における三次元オブジェクトを撮像することにより得られた二次元画像、および、LiDAR230が車両200の周囲の三次元空間上における三次元オブジェクトをセンシングすることにより得られた三次元点群を、通信ネットワーク400を介して三次元点群データ生成装置100に送信する(S1)。なお、車両200における詳細な処理は、図2を用いて既に説明したため省略する。
次に、三次元点群データ生成装置100では、通信部110は、車両200から通信ネットワーク400を介して、二次元画像および三次元点群を取得する(S3)。
そして、マッピング部120は、通信部110により取得された二次元画像および三次元点群を用いて、二次元画像から検出された属性値を、三次元点群を構成する複数の三次元点に付加するマッピング処理を行う(S4)。
次に、マッピング処理の詳細について、マッピング部120の詳細な構成と共に、図6および図7を用いて後述する。
図6は、マッピング部の機能構成の一例を示すブロック図である。図7は、マッピング処理の詳細な処理の一例を示すフローチャートである。
図6に示すように、マッピング部120は、特徴検出モジュール121と、特徴マッチングモジュール122と、点群登録モジュール123と、三角測量モジュール124と、位置姿勢算出モジュール125と、メモリ126とを有する。
マッピング部120には、二次元画像と、二次元画像が撮像されたタイミングに対応するタイミングでセンシングされた三次元点群が入力されることを前提として説明する。つまり、マッピング部120は、互いに対応するタイミングで、撮像された二次元画像と、センシングされた三次元点群とを対応付けてマッピング処理を行う。なお、二次元画像が撮像されたタイミングで得られた三次元点群は、当該二次元画像が撮像されたタイミングに最も近いタイミングでセンシングされた三次元点群としてもよいし、当該二次元画像が撮像されるタイミングより前にセンシングされた最新の三次元点群としてもよい。また、互いに対応するタイミングで得られた二次元画像および三次元点群は、カメラ210による撮像のタイミングと、LiDAR230によるセンシングのタイミングとが同期されている場合には、同一のタイミングにより得られた二次元画像および三次元画像としてもよい。
特徴検出モジュール121は、通信部110により取得された複数の二次元画像それぞれの特徴点を検出する(S11)。特徴検出モジュール121は、特徴点における特徴量を検出する。特徴量は、例えば、ORB(Oriented FAST and Rotated BRIEF)、SIFT、DAISYなどである。また、特徴量は、256ビットのデータ列で表されてもよい。また、特徴量には、二次元画像における各画素の輝度値が用いられてもよし、RGB値などで表される色が用いられてもよい。特徴点の特徴量は、二次元画像上の位置に対応する二次元画像の属性値の一例である。特徴量は、二次元画像上の位置に対応していれば特徴点の特徴量であることに限らずに、複数の領域毎に算出された特徴量であればよい。複数の領域は、二次元画像を構成する領域であり、各領域は、二次元画像の1画素であってもよいし、複数の画素の集合により構成されるブロックであってもよい。
位置姿勢算出モジュール125は、正確な三次元マップをメモリ126または外部メモリ140から取得し、取得した正確な三次元マップと、通信部110により取得された三次元点群、つまり、LiDAR230の検出結果である三次元点群とを用いて、正確な三次元マップにおけるLiDAR230の位置および姿勢を特定する(S12)。位置姿勢算出モジュール125は、例えば、ICP(Iterative Closest Point)などのようなパターンマッチングのアルゴリズムを用いて、LiDAR230の検出結果である三次元点群と、正確な三次元マップを構成している三次元点群とのマッチングを行う。これにより、位置姿勢算出モジュール125は、正確な三次元マップにおけるLiDAR230の位置および姿勢を特定する。なお、位置姿勢算出モジュール125は、正確な三次元マップを、三次元点群データ生成装置100の外部の上位サーバから取得してもよい。
次に、位置姿勢算出モジュール125は、正確な三次元マップにおけるLiDAR230の位置および姿勢と、メモリ250に記憶されているLiDAR230に対するカメラ210の相対的な位置および姿勢と取得する。そして、位置姿勢算出モジュール125は、取得した正確な三次元マップにおけるLiDAR230の位置および姿勢と、メモリ250に記憶されているLiDAR230に対するカメラ210の相対的な位置および姿勢とを用いて、複数の二次元画像それぞれが撮像されたタイミングにおけるカメラ210の位置および姿勢を算出する(S13)。
次に、特徴マッチングモジュール122は、特徴検出モジュール121において検出された複数の二次元画像それぞれの特徴点と、位置姿勢算出モジュール125において算出された複数の二次元画像それぞれが撮像されたタイミングにおけるカメラ210の位置および姿勢とを用いて、複数の二次元画像のうちのペア、つまり、2枚の二次元画像それぞれにおける特徴点をマッチングする(S14)。例えば、図5の「マッチング/三角測量」に示すように、特徴マッチングモジュール122は、タイミングTでカメラ210により撮像された二次元画像I1で特徴検出モジュール121により検出された複数の特徴点のうちの特徴点P1と、タイミングTの後のタイミングT+1でカメラ210により撮像された二次元画像I2により検出された複数の特徴点のうちの特徴点P2とをマッチングする。例えば、タイミングT+1は、タイミングTの次の撮像のタイミングであってもよい。これにより、特徴マッチングモジュール122は、複数の二次元画像のそれぞれについて検出された複数の特徴点を、異なる二次元画像間において対応付けする。このように、特徴マッチングモジュール122は、複数の二次元画像のそれぞれについて検出された複数の特徴点を用いて、複数の二次元画像のうちの2枚の二次元画像で対応する特徴点をマッチングすることで、マッチングされた特徴点のペアを複数出力する。
次に、三角測量モジュール124は、特徴マッチングモジュール122においてマッチングされた複数の特徴点のペアのそれぞれについて、当該ペアを構成する2つの特徴点それぞれの二次元画像上の位置と、当該ペアの特徴点が得られた2枚の二次元画像のそれぞれが撮像されたときのカメラ210の位置および姿勢とを用いて、例えば三角測量することで、マッチングされた特徴点のペアの二次元画像上の位置が対応する三次元位置を算出する(S15)。三角測量モジュール124は、例えば、図5の「マッチング/三角測量」に示すように、二次元画像I1において検出された特徴点P1と、二次元画像I2において検出された特徴点P2とを三角測量することで三次元位置P10を算出する。ここで用いられるカメラ210の位置および姿勢は、特徴点のペアが得られた2枚の二次元画像それぞれが撮像されたタイミングにおけるカメラ210の位置および姿勢である。
次に、点群登録モジュール123は、正確な三次元マップとしての第1三次元点群を構成する複数の三次元点のうち、三角測量モジュール124において算出された三次元位置に対応する三次元点である第1三次元点を複数特定する(S16)。点群登録モジュール123は、例えば、第1三次元点群を構成する複数の三次元点のうち、1つの三次元位置に最も近い位置の三次元点を第1三次元点として特定してもよい。点群登録モジュール123は、例えば、第1三次元点群を構成する複数の三次元点のうち、1つの三次元位置を基準とする所定範囲内に含まれる1以上の三次元点を第1三次元点として特定してもよい。つまり、点群登録モジュール123は、1つの三次元位置に対応する第1三次元点として、当該1つの三次元位置を基準とした所定の条件を満たす複数の三次元点を特定してもよい。
そして、点群登録モジュール123は、複数のペアのそれぞれについて、特定された複数の第1三次元点に当該ペアを構成する2つの特徴点それぞれの特徴量を付加することで、複数の第2三次元点群により構成される第2三次元点群を生成する(S17)。なお、点群登録モジュール123は、複数のペアのそれぞれについて、特定された複数の第1三次元点に、(i)当該ペアを構成する2つの特徴点のうちの一方の特徴量を付加することで、第2三次元点群を生成してもよいし、(ii)当該ペアを構成する2つの特徴点の2つの特徴量から算出される1つの特徴量を付加することで、第2三次元点群を生成してもよい。つまり、点群登録モジュール123は、特定された複数の第1三次元点に、複数のペアの2つの特徴量に基づく特徴量を付加することで、第2三次元点群を生成すればよい。なお、2つの特徴量から算出される1つの特徴量は、例えば、平均値である。なお、ここでいう「特徴量」は、属性値の一例であるため、点群登録モジュール123における処理では、他の属性値にも適用できる。
点群登録モジュール123は、ステップS16およびS17において、例えば、図5の「対応付け」に示すように、三角測量モジュール124により得られた三次元位置P10に対応する三次元点を特定することで、三次元位置P10に対応する特徴点P1、P2それぞれの特徴量を、三次元位置P10に対応する、正確な三次元マップにおける三次元点に付加する対応付けを行う。これにより、図5に示すような、それぞれに特徴点P1、P2の特徴量が付加された複数の三次元点を含む三次元点群C1が生成される。つまり、三次元点群C1に含まれる属性値が付加された三次元点は、三次元座標と、属性値としての、特徴点P1、P2の各二次元画像における照度(輝度)、特徴量とにより構成される。つまり、三次元点には、特徴点の特徴量が付加されるだけでなく、特徴点の二次元画像における照度(輝度)またはRGB値などの色のような属性値が付加されてもよい。
なお、点群登録モジュール123は、1つの第1三次元点に複数の属性値を付加することで第2三次元点を生成してもよい。点群登録モジュール123は、例えば上述したように、複数の属性値として、複数の二次元画像それぞれから検出された複数の特徴点それぞれの特徴量を1つの第1三次元点に付加してもよい。また、点群登録モジュール123は、複数の属性値として、種類が互いに異なる属性値を1つの第1三次元点に付加してもよい。
なお、メモリ126は、正確な三次元マップを格納していてもよい。メモリ126には、予め正確な三次元マップを格納していてもよいし、通信部110により上位サーバから受信された正確な三次元マップを格納していてもよい。メモリ126は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性記憶装置により実現される。
このように、点群登録モジュール123は、ステップS4のマッピング処理が行われることで、特徴点の特徴量が付加された複数の三次元点である複数の第2三次元点を含む第2三次元点群を生成する。
図4に戻り、ステップS4の後において、符号化部130は、マッピング部120において生成された第2三次元点群を符号化することで、符号化ストリームを生成する(S5)。
そして、通信部110は、符号化部130において生成された符号化ストリームを車両300に送信する(S6)。
車両300では、通信部330が三次元点群データ生成装置100から符号化ストリームを取得する(S7)。
次に、復号部340は、通信部330において取得された符号化ストリームを復号することで、第2三次元点群を取得する(S8)。つまり、車両300は、三次元オブジェクトを撮像した二次元画像の属性値がそれぞれ予め付加された複数の三次元点を含む三次元点群を取得する。
次に、位置推定部350は、カメラ310により得られた二次元画像と、復号部340において復号されることで得られた、属性値が付加された三次元点群とを用いて、当該三次元点群におけるカメラ310の位置および姿勢を推定することで、車両300の位置および姿勢を推定する(S9)。
位置推定部350による位置推定処理の詳細について説明する。
位置推定部350は、図3に示すように、特徴検出モジュール351と、特徴マッチングモジュール352と、メモリ353とを有する。
特徴検出モジュール351は、車両300が備えるカメラ310により撮像された、車両300の周囲の第2二次元画像を取得する。そして、特徴検出モジュール351は、取得された第2二次元画像から、第2二次元画像上の位置に対応する第2二次元画像の属性値である第2属性値を複数検出する。特徴検出モジュール351における処理は、車両200におけるマッピング部120の特徴検出モジュール121における処理と同様である。なお、特徴検出モジュール351における処理は、マッピング部120の特徴検出モジュール121における全ての処理が同じでなくてもよい。例えば、特徴検出モジュール121において属性値として複数の種類の第1属性値が検出される場合、特徴検出モジュール351は、複数の種類に含まれる1種類以上の属性値を第2属性値として検出すればよい。
次に、特徴マッチングモジュール352は、特徴検出モジュール351により検出された複数の第2属性値のそれぞれについて、複数の第2三次元点のうちで、当該第2属性値に対応する1以上の第5三次元点を特定することで当該第2属性値および1以上の第5三次元点からなる組合せを1以上生成する。具体的には、特徴マッチングモジュール352は、特徴検出モジュール351により検出された複数の属性値にそれぞれ対応付けられている二次元画像上の複数の二次元位置のそれぞれについて、複数の第2三次元点のうちで当該二次元位置に対応付けられている属性値に最も近い属性値が付加されている1以上の第2三次元点を第5三次元点として特定する。これにより、特徴マッチングモジュール352は、二次元画像上の二次元位置と、1以上の第5三次元点とにより構成される組合せを、1以上生成する。特徴マッチングモジュール352は、メモリ353から車両300に対するカメラ310の位置および姿勢を取得する。特徴マッチングモジュール352は、特定された1以上の組合せと、取得された車両300に対するカメラ310の位置および姿勢とを用いて車両300の位置および姿勢を算出する。なお、特徴マッチングモジュール352は、組合せをより多く生成するほど、車両300の位置および姿勢を精度よく算出することができる。
メモリ353は、車両300に対するカメラ310の位置および姿勢を格納していてもよい。メモリ353は、復号部340による復号により得られた第2三次元点群を格納していてもよい。メモリ353は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性記憶装置により実現される。
本実施の形態に係る三次元点群データ生成方法によれば、三次元点群データ生成装置100は、LiDAR230などの距離センサを用いて得られた第1三次元点群を構成する複数の三次元点のうちで、カメラ210を用いて得られた二次元画像上における位置に対応する二次元画像の属性値としての特徴点の特徴量を、当該二次元画像上における位置に対応する三次元点に付加した第2三次元点を含む第2三次元点群を生成する。このため、自己位置を推定する位置推定装置としての車両300は、車両300の周囲の三次元オブジェクトをセンシングしなくても、車両300の周囲の三次元オブジェクトの二次元画像を撮像すれば、撮像して得られた二次元画像の位置に対応する特徴点の特徴量と、三次元点群データ生成装置100から取得した第2三次元点群の各第2三次元点に付加された特徴点の特徴量とを比較することで、自己位置を効率よく推定することができる。
また、本実施の形態に係る三次元点群データ生成方法において、2枚の二次元画像のそれぞれの特徴点をマッチングすることで特定された特徴点のペアを特定し、ペアの特徴点それぞれの二次元画像に対応する位置を用いて当該位置に対応する三次元点を特定し、特定した三次元点にペアを構成する2つの特徴点の特徴量を付加する。このため、特徴点に対応する三次元点を精度よく特定することができる。
また、本実施の形態に係る三次元点群データ生成方法において、第2三次元点群の生成では、特定された1つの第1三次元点に複数の特徴点それぞれの特徴量を付加することで、第2三次元点を生成する。このように、1つの第1三次元点に付加する特徴点の数を複数とするため、車両300における位置推定において、位置推定を行うために取得する、二次元画像上の位置に対応する二次元画像の特徴点と、第1三次元点との対応付けを精度よく行うことができる。
また、本実施の形態に係る三次元点群データ生成方法において、第2三次元点群の生成において1つの第1三次元点に付加される複数の属性値は、それぞれ、複数の二次元画像から検出された属性値である。ここで、1つの第1三次元点は、複数の視点から撮像されうる点である。また、車両300における位置推定では、カメラ310が異なる位置で二次元画像を撮像する。このため、カメラ310により得られる二次元画像は、異なる複数の視点から撮像される。これにより、複数の二次元画像から検出された複数の属性値を付加することで、位置推定において、異なる複数の視点それぞれで撮像された二次元画像を用いても、それぞれの二次元画像から得られる属性値と第1三次元点との対応付けを容易に行うことができる。よって、位置推定を容易に行うことができる。
また、本実施の形態に係る三次元点群データ生成方法において、第2三次元点群の生成において1つの第1三次元点に付加される複数の属性値は、それぞれ、属性の種類が互いに異なる属性値である。このように、1つの第1三次元点に付加する属性値を異なる複数種類の属性値とするため、車両300における位置推定において、位置推定を行うために取得する、二次元画像上の位置に対応する二次元画像の属性値と、第1三次元点との対応付けを精度よく行うことができる。
また、本実施の形態に係る位置推定方法によれば、三次元オブジェクトを撮像した二次元画像の属性値が予め三次元点群に付加されているため、新たに三次元点群をセンシングしなくても、新たに車両300の周囲の第2二次元画像を撮像すれば、撮像して得られた第2二次元画像の位置に対応する第2属性値、および、当該第2属性値に対応する1以上の第5三次元点の組合せと、三次元点群の各三次元点に付加された第1属性値とを比較することで、車両300の自己位置を効率よく推定することができる。
(変形例)
(変形例1)
上記実施の形態に係る三次元点群データ生成装置100では、さらに、第2三次元点群に含まれる複数の第2三次元点のそれぞれに対して、重要度を算出し、算出した重要度を対応する第2三次元点に付加し、付加することにより得られた複数の第3三次元点を含む第3三次元点群を生成してもよい。また、三次元点群データ生成装置100は、付加された重要度に応じて、第3三次元点群に含まれる複数の第3三次元点のうち、車両300に送信する第3三次元点の数を絞り込み、絞り込んだ数の第3三次元点を車両300に送信するようにしてもよい。
動作について図8を用いて説明する。図8は、変形例1における三次元点群データ生成装置の動作の一例を示すフローチャートである。この動作は、図4のシーケンス図におけるステップS5の代わりに行われる。
三次元点群データ生成装置100では、マッピング部120の点群登録モジュール123は、さらに、1以上の第2三次元点のそれぞれについて、当該第2三次元点に付加された属性値に基づいて第2三次元点の重要度を算出する(S21)。そして、点群登録モジュール123は、1以上の第2三次元点のそれぞれについて、算出された重要度を、当該第2三次元点に付加することで、それぞれが属性値および重要度を有する1以上の三次元点を含む第3三次元点群を生成する。重要度の算出処理の詳細は、図9を用いて後述する。
次に、三次元点群データ生成装置100の符号化部130は、第3三次元点群を用いて符号化ストリームを生成する(S22)。符号化ストリームの生成処理の詳細は、図10および図11を用いて後述する。
図9は、重要度の算出処理の詳細な処理の一例を示すフローチャートである。
点群登録モジュール123は、生成した第2三次元点群に含まれる複数の第2三次元点のそれぞれについて、重要度の算出処理を行う。以下では、1つの第2三次元点について行われる処理について説明する。重要度の算出処理では、全ての第2三次元点の1つ1つについて同様の処理が行われる。
まず、点群登録モジュール123は、処理対象の第2三次元点を見ることができる二次元画像の数を算出する(S31)。点群登録モジュール123は、複数の二次元画像において、処理対象の第2三次元点が映り込んでいる二次元画像の数をカウントすることで、上記数を算出してもよい。
また、点群登録モジュール123は、処理対象の第2三次元点に対応付けられた複数の特徴点のマッチングにおけるマッチング誤差を算出する(S32)。点群登録モジュール123は、当該マッチング誤差を特徴マッチングモジュール122から取得してもよい。
また、点群登録モジュール123は、処理対象の第2三次元点(つまり、正確な三次元マップにおける三次元点)と、当該第2三次元点に対応付けられた特徴点との間のマッチングにおけるマッチング誤差を算出する(S33)。
点群登録モジュール123は、ステップS31〜S33において算出された、処理対象の第2三次元点を見ることができる二次元画像の数と、二次元画像の複数の特徴点間のマッチング誤差と、三次元マップと特徴点との間のマッチング誤差とを用いて、処理対象の第2三次元点の重要度を算出する(S34)。点群登録モジュール123は、例えば、処理対象の第2三次元点を見ることができる二次元画像の数が大きいほど、重要度を大きい値に算出する。また、点群登録モジュール123は、例えば、二次元画像の複数の特徴点間のマッチング誤差が大きいほど、重要度を小さい値に算出する。また、点群登録モジュール123は、例えば、三次元マップと特徴点との間のマッチング誤差が大きいほど、重要度を小さい値に算出する。このように、重要度は、大きい値であるほど、より重要であることを示す指標である。
点群登録モジュール123は、処理対象の第2三次元点の三次元座標を取得し(S35)、処理対象の第2三次元点に付加された二次元画像の特徴点を取得する(S36)。
そして、点群登録モジュール123は、算出した重要度および特徴点を、取得した三次元座標に付加することで、第3三次元点を生成する(S37)。なお、ステップS35およびS36で、処理対象の第2三次元点から三次元座標および特徴点をそれぞれ取得するとしたが、これに限らずに、ステップS37において、処理対象の第2三次元点に算出した重要度を付加することで第3三次元点を生成してもよい。
点群登録モジュール123は、ステップS31〜S37の処理を全ての第2三次元点のそれぞれについて実行することで、重要度がさらに付加された三次元点群である第3三次元点群を生成する。第3三次元点は、図10に示されるように、三次元座標と、第2三次元点を見ることができるN枚の二次元画像それぞれの特徴点と、重要度とを含む。
ここで、N個の特徴量のうち、値が近いものがあれば統合してもよい。例えば、2個の特徴量の値F0,F1の差が閾値以下であれば、値をF0とF1の平均値にした1個の特徴量に統合してもよい。これにより第2三次元点群のデータ量を削減できる。また、第2三次元点に割り当て可能な特徴量の個数Nの値に上限を設けてもよい。例えば、特徴量の個数がNより大きい場合は、特徴量の値を用いて上位N個を選択して、選択したN個の特徴量を三次元点に割り当てるようにしてもよい。
次に、符号化処理の詳細について、符号化部130の詳細な構成と共に、図11および図12を用いて後述する。
図11は、符号化部の機能構成の一例を示すブロック図である。図12は、符号化処理の詳細な処理の一例を示すフローチャートである。
図11に示すように、符号化部130は、特徴ソートモジュール131と、特徴組合せモジュール132と、メモリ133と、エントロピ符号化モジュール134とを有する。
符号化部130による符号化処理では、第3三次元点群に含まれる複数の第3三次元点に対して処理が行われる。
特徴ソートモジュール131は、第3三次元点群に含まれる複数の第3三次元点を、複数の第3三次元点のそれぞれに付加されている重要度が大きい順に並べ替える(S41)。
次に、特徴組合せモジュール132は、複数の第3三次元点のそれぞれについて以下のステップS43およびS44の処理を実行するループ1を開始する(S42)。特徴組合せモジュール132は、重要度が大きい順にループ1を実行する。
特徴組合せモジュール132は、処理対象の第3三次元点に付加されている重要度が閾値を超えるか否かを判定する(S43)。なお、閾値は、車両300から受信した値である。閾値は、車両300のスペックに応じて、異なる値に設定されていてもよい。つまり、閾値は、車両300の情報処理能力および/または検出能力が大きいほど大きい値に設定されていてもよい。
特徴組合せモジュール132は、処理対象の第3三次元点に付加されている重要度が閾値を超えると判定した場合(S43でYes)、ステップS44の処理を実行する。
一方で、特徴組合せモジュール132は、処理対象の第3三次元点に付加されている重要度が閾値未満であると判定した場合(S43でNo)、ステップS45の処理を実行する。これにより、ループ1は終了する。
ステップS44において、特徴組合せモジュール132は、処理対象の第3三次元点を符号化対象データとして追加する(S44)。特徴組合せモジュール132は、ステップS44の後で、次の第3三次元点を処理対象として、ループ1を実行する。
このように、特徴組合せモジュール132は、ステップS43およびS44を実行することで、複数の第3三次元点のうち閾値を超える重要度が付加されている複数の第4三次元点を抽出する。
なお、ステップS41の処理は必ずしも実行されなくてもよい。この場合、ループ1は、全ての複数の第3三次元点に対して実行され、ステップS43においてNoと判定された場合にも、次の第3三次元点に対してループ1が繰り返されることとなる。
ステップS45において、エントロピ符号化モジュール134は、符号化対象データとされた複数の第3三次元点に対してエントロピ符号化を実行し、符号化ストリームを生成する(S45)。エントロピ符号化モジュール134は、例えば、符号化対象データを8分木構造で表現してバイナリ化し、算術符号化することで符号化ストリームを生成してもよい。
生成された符号化ストリームは、図4のステップS6において、閾値を送信した車両300に送信される。
変形例1に係る三次元点群データ生成方法によれば、第2三次元点の生成では、さらに、(i)複数の第2三次元点のそれぞれについて、当該第2三次元点に付加された属性値に基づいて当該第2三次元点の重要度を算出し、(ii)算出された重要度を、当該第2三次元点に付加することで、それぞれが属性値および重要度を有する1以上の第3三次元点を含む第3三次元点群を生成する。このため、例えば、重要度が大きい第3三次元点ほど優先的に利用することができるため、処理の精度に悪影響を与えないように、処理に利用する三次元点群データのデータ量を調整することができる。
また、変形例1に係る三次元点群データ生成方法において、さらに、クライアント機器である車両300から閾値を受信し、1以上の第3三次元点のうち、受信された閾値を超える重要度が付加されている複数の第4三次元点を抽出し、抽出された複数の第4三次元点を含む第4三次元点群をクライアント機器に送信する。このため、車両300の要求に応じて、送信する三次元点群データのデータ量を調製することができる。
なお、上記変形例1における三次元点群データ生成装置100の符号化部130は、閾値を車両300から取得するとしたが、三次元点の数を車両300から取得してもよい。この場合、符号化部130は、重要度が大きい順に、取得した三次元点の数の第3三次元点を符号化対象データとして符号化してもよい。
(変形例2)
上記変形例1では、三次元点群データ生成装置100は、クライアント機器である車両300から閾値を受信することで、重要度が閾値以下の第3三次元点を符号化対象データから除外するとしたが、これに限らずに、全ての複数の第3三次元点を符号化対象データとして符号化することで、符号化ストリームを生成してもよい。つまり、三次元点群データ生成装置100は、全ての複数の第3三次元点を符号化したデータを車両300に送信してもよい。
この場合、車両300は、受信した符号化ストリームを復号することで、複数の第3三次元点を取得する。そして、車両300は、複数の第3三次元点のうち、閾値を超える重要度の第3三次元点を車両300の自己位置を推定する処理に利用してもよい。
なお、車両300の復号部340は、通信部330が全ての三次元点を取得した場合には、全ての三次元点のうち重要度の大きいものから優先的に復号してもよい。これにより、復号部340は、必要な数の三次元点を復号すればよいため、復号処理にかかる処理負荷を軽減することができる。また、この場合、符号化ストリームが重要度の大きい順に符号化されていれば、復号部340は、符号化ストリームを復号し、閾値以下の重要度の三次元点を復号した時点で復号処理を止めてもよいし、必要な数の三次元点が得られた時点で復号処理を止めてもよい。これにより、三次元点群データ生成装置100は、車両300毎に符号化ストリームを生成しなくても復号処理にかかる処理負荷を軽減できる。よって、三次元点群データ生成装置100の符号化ストリームを生成する処理にかかる処理負荷を軽減できる。
なお、車両300は、複数の第3三次元点を、自己位置を推定する処理に用いなくてもよく、三次元マップの三次元映像の再構成する処理に用いてもよい。つまり、クライアント機器としての車両300は、閾値を車両300が実施する用途に応じて切替えてもよい。例えば、車両300が自己位置推定を行う場合は、重要度が大きい三次元点のみが必要と判断し、閾値を第1の閾値に設定し、クライアントが地図を描画する場合は重要度が小さい三次元点まで必要と判断し、閾値を第1の閾値よりも小さい第2の閾値に設定することが考えられる。
(その他)
マッピング部120は、2枚の二次元画像内の特徴点のマッチングによって算出された三次元位置を、当該特徴点の特徴量を持つ三次元点として正確な三次元マップに追加してもよい。
マッピング部120は、1枚の二次元画像内の特徴点と正確な三次元マップの三次元点とをマッチングし、当該特徴点とマッチングされた三次元点に特徴点の特徴量を付加しても良い。この場合、カメラ210の姿勢を用いて、特徴点を三次元空間に逆投影する、または、三次元点を二次元画像に投影することにより、特徴点と正確な三次元マップの三次元点とのマッチングをしてもよい。つまり、マッピング部120は、複数の二次元画像のうちの2枚の二次元画像の特徴点をマッチングしたペアにより特定された三次元位置に近い三次元点を特定することで、特徴点と三次元点とをマッチングしていたがこれに限らずに、1枚の二次元画像の特徴点と、三次元点とをマッチングしてもよい。言い換えると、マッピング部120は、検出された1以上の属性値のそれぞれについて、(i)第1三次元点群を構成する複数の三次元点のうちで当該属性値の二次元画像上の位置が対応する1以上の第1三次元点を特定し、(ii)特定された1以上の第1三次元点に当該属性値を付加することで、それぞれが前記属性値を有する1以上の第2三次元点を含む第2三次元点群を生成してもよい。
また、三次元点の符号化には、エントロピ符号化に限らず、どのような符号化を適用しても構わない。例えば符号化対象データとされた三次元点群を8分木構造で符号化(octree coding)してもよい。
三次元点群データ生成装置100は、車両200とは異なるサーバであるとしたが、車両200に備えられていてもよい。つまり、三次元点群データ生成装置100による処理は、車両200により実行されてもよい。この場合、車両200により得られた第2三次元点群または第3三次元点群は、上位サーバに送信され、上位サーバが複数の車両200から各地の第2三次元点群または第3三次元点群を収集してもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の三次元点群データ生成方法または位置推定方法などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、プロセッサを用いて複数の三次元点を含む三次元点群を生成する三次元点群生成方法であって、カメラを用いて三次元オブジェクトを撮像することにより得られた二次元画像と、距離センサを用いて前記三次元オブジェクトをセンシングすることにより得られた第1三次元点群とを取得し、取得された前記二次元画像から、前記二次元画像上の位置に対応する前記二次元画像の属性値を1以上検出し、検出された前記1以上の属性値のそれぞれについて、(i)前記第1三次元点群を構成する複数の三次元点のうちで当該属性値の前記二次元画像上の位置が対応する1以上の第1三次元点を特定し、(ii)特定された前記1以上の第1三次元点に当該属性値を付加することで、それぞれが前記属性値を有する1以上の第2三次元点を含む第2三次元点群を生成する三次元点群データ生成方法を実行させる。
また、このプログラムは、コンピュータに、プロセッサを用いて移動体の現在位置を推定する位置推定方法であって、三次元オブジェクトを撮像した第1二次元画像の属性値である第1属性値がそれぞれ予め付加された複数の三次元点を含む三次元点群を取得し、前記移動体が備えるカメラにより撮像された、前記移動体の周囲の第2二次元画像を取得し、取得された前記第2二次元画像から、前記第2二次元画像上の位置に対応する前記第2二次元画像の属性値である第2属性値を1以上検出し、検出された前記1以上の第2属性値のそれぞれについて、前記複数の三次元点のうちで、当該第2属性値に対応する1以上の第5三次元点を特定することで当該第2属性値および前記1以上の第5三次元点により構成される組合せを1以上生成し、記憶装置から前記移動体に対する前記カメラの位置および姿勢を取得し、生成された前記1以上の組合せと、取得された前記カメラの位置および姿勢とを用いて前記移動体の位置および姿勢を算出する位置推定方法を実行させる。
以上、本開示の一つまたは複数の態様に係る三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれてもよい。
本開示は、更なる改善を図ることができる三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置として有用である。
1 位置推定システム
100 三次元点群データ生成装置
110 通信部
120 マッピング部
121、351 特徴検出モジュール
122、352 特徴マッチングモジュール
123 点群登録モジュール
124 三角測量モジュール
125 位置姿勢算出モジュール
126、133、250、353 メモリ
130 符号化部
131 特徴ソートモジュール
132 特徴組合せモジュール
134 エントロピ符号化モジュール
140、370 外部メモリ
200、300 車両
210、310 カメラ
220、240、320 取得部
230 LiDAR
260、330 通信部
340 復号部
350 位置推定部
360 制御部
400 通信ネットワーク
410 基地局

Claims (11)

  1. プロセッサを用いて複数の三次元点を含む三次元点群を生成する三次元点群生成方法であって、
    カメラを用いて三次元オブジェクトを撮像することにより得られた二次元画像と、距離センサを用いて前記三次元オブジェクトをセンシングすることにより得られた第1三次元点群とを取得し、
    取得された前記二次元画像から、前記二次元画像上の位置に対応する前記二次元画像の属性値を1以上検出し、
    検出された前記1以上の属性値のそれぞれについて、
    (i)前記第1三次元点群を構成する複数の三次元点のうちで当該属性値の前記二次元画像上の位置が対応する1以上の第1三次元点を特定し、
    (ii)特定された前記1以上の第1三次元点に当該属性値を付加することで、それぞれが前記属性値を有する1以上の第2三次元点を含む第2三次元点群を生成する
    三次元点群データ生成方法。
  2. 前記取得では、それぞれが、互いに異なる位置および/または姿勢における前記カメラにより撮像されることにより得られた複数の前記二次元画像を取得し、
    前記検出では、取得された前記複数の二次元画像のそれぞれについて、前記1以上の属性値を検出し、
    前記三次元点群データ生成方法は、さらに、
    前記複数の二次元画像のそれぞれについて検出された前記1以上の属性値を用いて、前記複数の二次元画像のうちの2枚の二次元画像で対応する属性値をマッチングすることで、マッチングされた属性値のペアを1以上出力し、
    前記特定では、前記1以上のペアのそれぞれについて、当該ペアを構成する2つの属性値のそれぞれの前記二次元画像上の位置と、前記2枚の二次元画像のそれぞれが撮像されたときの前記カメラの位置および姿勢とを用いて、前記複数の三次元点のうちで当該ペアを構成する前記2つの属性値の前記二次元画像上の位置が対応する前記1以上の第1三次元点を特定し、
    前記生成では、前記1以上のペアのそれぞれについて、特定された前記1以上の第1三次元点に当該ペアを構成する前記2つの属性値に基づく属性値を付加することで、前記第2三次元点群を生成する
    請求項1に記載の三次元点群データ生成方法。
  3. 前記生成では、特定された1つの前記第1三次元点に複数の前記属性値を付加することで、前記第2三次元点を生成する
    請求項1または2に記載の三次元点群データ生成方法。
  4. 前記生成において前記1つの第1三次元点に付加される前記複数の属性値は、それぞれ、複数の前記二次元画像から検出された属性値である
    請求項3に記載の三次元点群データ生成方法。
  5. 前記生成において前記1つの第1三次元点に付加される前記複数の属性値は、それぞれ、属性の種類が互いに異なる属性値である
    請求項3に記載の三次元点群データ生成方法。
  6. 前記検出では、取得された前記二次元画像を構成する複数の領域毎に算出された特徴量を、前記二次元画像上の位置に対応する前記二次元画像の前記1以上の属性値として検出する
    請求項1から5のいずれか1項に記載の三次元点群データ生成方法。
  7. 前記生成では、さらに、前記1以上の第2三次元点のそれぞれについて、
    (i)当該第2三次元点に付加された前記属性値に基づいて当該第2三次元点の重要度を算出し、
    (ii)算出された前記重要度を、当該第2三次元点に付加することで、それぞれが前記属性値および前記重要度を有する1以上の第3三次元点を含む第3三次元点群を生成する
    請求項1から6のいずれか1項に記載の三次元点群データ生成方法。
  8. さらに、
    クライアント機器から閾値を受信し、
    前記1以上の第3三次元点のうち、受信された前記閾値を超える重要度が付加されている1以上の第4三次元点を抽出し、
    抽出された前記1以上の第4三次元点を含む第4三次元点群を前記クライアント機器に送信する
    請求項7に記載の三次元点群データ生成方法。
  9. プロセッサを用いて移動体の現在位置を推定する位置推定方法であって、
    三次元オブジェクトを撮像した第1二次元画像の属性値である第1属性値がそれぞれ予め付加された複数の三次元点を含む三次元点群を取得し、
    前記移動体が備えるカメラにより撮像された、前記移動体の周囲の第2二次元画像を取得し、
    取得された前記第2二次元画像から、前記第2二次元画像上の位置に対応する前記第2二次元画像の属性値である第2属性値を1以上検出し、
    検出された前記1以上の第2属性値のそれぞれについて、前記複数の三次元点のうちで、当該第2属性値に対応する1以上の第5三次元点を特定することで当該第2属性値および前記1以上の第5三次元点により構成される組合せを1以上生成し、
    記憶装置から前記移動体に対する前記カメラの位置および姿勢を取得し、
    生成された前記1以上の組合せと、取得された前記カメラの位置および姿勢とを用いて前記移動体の位置および姿勢を算出する
    位置推定方法。
  10. プロセッサを備える三次元点群データ生成装置であって、
    前記プロセッサは、
    カメラを用いて三次元オブジェクトを撮像することにより得られた二次元画像と、距離センサを用いて前記三次元オブジェクトをセンシングすることにより得られた第1三次元点群とを取得し、
    取得された前記二次元画像から、前記二次元画像上の位置に対応する前記二次元画像の属性値を1以上検出し、
    検出された前記1以上の属性値のそれぞれについて、
    (i)前記第1三次元点群を構成する複数の三次元点のうちで当該属性値の前記二次元画像上の位置が対応する1以上の第1三次元点を特定し、
    (ii)特定された前記1以上の第1三次元点に当該属性値を付加することで、それぞれが前記属性値を有する1以上の第2三次元点を含む第2三次元点群を生成する
    三次元点群データ生成装置。
  11. プロセッサを備え、前記プロセッサを用いて移動体の現在位置を推定する位置推定装置であって、
    前記プロセッサは、
    三次元オブジェクトを撮像した第1二次元画像の属性値である第1属性値がそれぞれ予め付加された複数の三次元点を含む三次元点群を取得し、
    前記移動体が備えるカメラにより撮像された、前記移動体の周囲の第2二次元画像を取得し、
    取得された前記第2二次元画像から、前記第2二次元画像上の位置に対応する前記第2二次元画像の属性値である第2属性値を1以上検出し、
    検出された前記1以上の第2属性値のそれぞれについて、前記複数の三次元点のうちで、当該第2属性値に対応する1以上の第5三次元点を特定することで当該第2属性値および前記1以上の第5三次元点により構成される組合せを1以上生成し、
    記憶装置から前記移動体に対する前記カメラの位置および姿勢を取得し、
    生成された前記1以上の組合せと、取得された前記カメラの位置および姿勢とを用いて前記移動体の位置および姿勢を算出する
    位置推定装置。
JP2019554304A 2017-11-20 2018-11-16 三次元点群データ生成方法、および、三次元点群データ生成装置 Active JP7325332B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023125733A JP2023164425A (ja) 2017-11-20 2023-08-01 三次元点群データ生成方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762588596P 2017-11-20 2017-11-20
US62/588,596 2017-11-20
PCT/JP2018/042423 WO2019098318A1 (ja) 2017-11-20 2018-11-16 三次元点群データ生成方法、位置推定方法、三次元点群データ生成装置、および、位置推定装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023125733A Division JP2023164425A (ja) 2017-11-20 2023-08-01 三次元点群データ生成方法

Publications (2)

Publication Number Publication Date
JPWO2019098318A1 true JPWO2019098318A1 (ja) 2020-11-19
JP7325332B2 JP7325332B2 (ja) 2023-08-14

Family

ID=66537804

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019554304A Active JP7325332B2 (ja) 2017-11-20 2018-11-16 三次元点群データ生成方法、および、三次元点群データ生成装置
JP2023125733A Pending JP2023164425A (ja) 2017-11-20 2023-08-01 三次元点群データ生成方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023125733A Pending JP2023164425A (ja) 2017-11-20 2023-08-01 三次元点群データ生成方法

Country Status (5)

Country Link
US (1) US20200278450A1 (ja)
EP (2) EP3716210B1 (ja)
JP (2) JP7325332B2 (ja)
CN (1) CN111373442A (ja)
WO (1) WO2019098318A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689576B (zh) * 2019-09-29 2023-04-07 桂林电子科技大学 一种基于Autoware的动态3D点云正态分布AGV定位方法
US11158087B2 (en) * 2019-12-06 2021-10-26 Intel Corporation Adaptive virtual camera for indirect-sparse simultaneous localization and mapping systems
CN115088020A (zh) * 2020-02-18 2022-09-20 富士胶片株式会社 点云数据处理装置、点云数据处理方法及程序
CN113139996B (zh) * 2021-05-06 2024-02-06 南京大学 一种基于三维点云几何特征学习的点云配准方法及系统
US11764806B2 (en) 2021-09-06 2023-09-19 Nec Corporation Data compression system and method of using
US12062202B2 (en) * 2021-09-24 2024-08-13 Argo AI, LLC Visual localization against a prior map
WO2024034469A1 (ja) * 2022-08-12 2024-02-15 京セラ株式会社 情報処理装置、情報処理方法及びプログラム
CN117974747B (zh) * 2024-04-01 2024-07-09 北京理工大学长三角研究院(嘉兴) 360度点云2d深度盘三角剖分构图方法、装置及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069235A (ja) * 2011-09-26 2013-04-18 Asia Air Survey Co Ltd 対象物複数画像対応付け装置、そのデータ再生装置、画像処理システム
JP2013077165A (ja) * 2011-09-30 2013-04-25 Kakei Gakuen 3次元形状データ処理方法、3次元形状データ処理装置
JP2013101592A (ja) * 2011-10-12 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> 3次元座標算出装置、3次元座標算出方法、及びプログラム
JP2016110210A (ja) * 2014-12-02 2016-06-20 株式会社日立製作所 変化検出装置、変化検出方法、および、変化検出プログラム
US20170004649A1 (en) * 2015-06-30 2017-01-05 Alvaro Collet Romea Mixed three dimensional scene reconstruction from plural surface models
JP2017053795A (ja) * 2015-09-11 2017-03-16 株式会社リコー 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
JP2017058274A (ja) * 2015-09-17 2017-03-23 株式会社東芝 計測装置、方法及びプログラム
JP2017167974A (ja) * 2016-03-17 2017-09-21 株式会社東芝 推定装置、方法及びプログラム
WO2017163384A1 (ja) * 2016-03-24 2017-09-28 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09237354A (ja) 1996-02-29 1997-09-09 Chokosoku Network Computer Gijutsu Kenkyusho:Kk 3次元形状データ転送表示方法
CN101448338B (zh) * 2008-11-27 2010-08-11 北京理工大学 一种移动式三维空间无线测试网络系统
WO2010095107A1 (en) * 2009-02-19 2010-08-26 Dimensional Perception Technologies Ltd. System and method for geometric modeling using multiple data acquisition means
US8798357B2 (en) * 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
US9129435B2 (en) * 2012-12-04 2015-09-08 Fuji Xerox Co., Ltd. Method for creating 3-D models by stitching multiple partial 3-D models
RU2013109063A (ru) * 2013-02-28 2014-09-10 ЭлЭсАй Корпорейшн Процессор изображения с многоканальным интерфейсом между уровнем предварительной обработки и одним или несколькими более высокими уровнями
US9183459B1 (en) * 2014-05-06 2015-11-10 The Boeing Company Sensor fusion using detector confidence boosting
CN103997747B (zh) * 2014-05-14 2018-04-17 浪潮电子信息产业股份有限公司 一种基于虚拟力的空间网络节点均匀部署方法
WO2017022033A1 (ja) * 2015-07-31 2017-02-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9904867B2 (en) * 2016-01-29 2018-02-27 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
JP6632413B2 (ja) * 2016-02-12 2020-01-22 三菱電機株式会社 点群位置合わせ装置および点群位置合わせプログラム
US9972067B2 (en) * 2016-10-11 2018-05-15 The Boeing Company System and method for upsampling of sparse point cloud for 3D registration

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069235A (ja) * 2011-09-26 2013-04-18 Asia Air Survey Co Ltd 対象物複数画像対応付け装置、そのデータ再生装置、画像処理システム
JP2013077165A (ja) * 2011-09-30 2013-04-25 Kakei Gakuen 3次元形状データ処理方法、3次元形状データ処理装置
JP2013101592A (ja) * 2011-10-12 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> 3次元座標算出装置、3次元座標算出方法、及びプログラム
JP2016110210A (ja) * 2014-12-02 2016-06-20 株式会社日立製作所 変化検出装置、変化検出方法、および、変化検出プログラム
US20170004649A1 (en) * 2015-06-30 2017-01-05 Alvaro Collet Romea Mixed three dimensional scene reconstruction from plural surface models
JP2017053795A (ja) * 2015-09-11 2017-03-16 株式会社リコー 情報処理装置、位置姿勢計測方法、及び位置姿勢計測プログラム
JP2017058274A (ja) * 2015-09-17 2017-03-23 株式会社東芝 計測装置、方法及びプログラム
JP2017167974A (ja) * 2016-03-17 2017-09-21 株式会社東芝 推定装置、方法及びプログラム
WO2017163384A1 (ja) * 2016-03-24 2017-09-28 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FRANCOIS RAMEAU ET AL.: ""A Real-time Augmented Reality System to See-Through Cars"", [ONLINE], JPN7023001185, 23 March 2015 (2015-03-23), ISSN: 0005021702 *

Also Published As

Publication number Publication date
JP2023164425A (ja) 2023-11-10
EP3716210A4 (en) 2021-05-26
EP4250232A2 (en) 2023-09-27
EP3716210A1 (en) 2020-09-30
US20200278450A1 (en) 2020-09-03
JP7325332B2 (ja) 2023-08-14
CN111373442A (zh) 2020-07-03
EP4250232A3 (en) 2023-12-06
EP3716210B1 (en) 2023-09-06
WO2019098318A1 (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
JP7325332B2 (ja) 三次元点群データ生成方法、および、三次元点群データ生成装置
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
KR101947619B1 (ko) 모바일 디바이스에서의 slam
US11328479B2 (en) Reconstruction method, reconstruction device, and generation device
Chen et al. Crowd map: Accurate reconstruction of indoor floor plans from crowdsourced sensor-rich videos
US11295516B2 (en) Reconstruction method, reconstruction device, and generation method for generating a three-dimensional (3D) model
CN105009120B (zh) 基于客户端-服务器的动态搜索
KR20180062959A (ko) 모바일 디바이스의 환경의 3d 재구성을 위한 방법, 대응하는 컴퓨터 프로그램 제품 및 디바이스
JP7273927B2 (ja) 画像ベースの測位方法及びシステム
JP2020021326A (ja) 情報処理方法、情報処理装置およびプログラム
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
KR101551026B1 (ko) 차량 검출 방법
CN109643467B (zh) 图像处理设备和图像处理方法
CN107452016B (zh) 用于处理图像数据的方法和设备和用于车辆的驾驶员辅助系统
US20190020861A1 (en) High-speed and tunable scene reconstruction systems and methods using stereo imagery
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
Honegger et al. Embedded real-time multi-baseline stereo
Hildebrandt et al. Imu-aided stereo visual odometry for ground-tracking auv applications
CN116740669B (zh) 多目图像检测方法、装置、计算机设备和存储介质
KR102249381B1 (ko) 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법
Maurer et al. Geo-referenced 3d reconstruction: Fusing public geographic data and aerial imagery
CN115019167B (zh) 基于移动终端的融合定位方法、系统、设备及存储介质
KR20220050386A (ko) 맵 생성 방법 및 이를 이용한 이미지 기반 측위 시스템
Yang et al. Road detection by RANSAC on randomly sampled patches with slanted plane prior
Rill Speed estimation evaluation on the KITTI benchmark based on motion and monocular depth information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230801

R150 Certificate of patent or registration of utility model

Ref document number: 7325332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150