JP7266128B2 - 3次元マップ生成方法及びシステム - Google Patents

3次元マップ生成方法及びシステム Download PDF

Info

Publication number
JP7266128B2
JP7266128B2 JP2022030728A JP2022030728A JP7266128B2 JP 7266128 B2 JP7266128 B2 JP 7266128B2 JP 2022030728 A JP2022030728 A JP 2022030728A JP 2022030728 A JP2022030728 A JP 2022030728A JP 7266128 B2 JP7266128 B2 JP 7266128B2
Authority
JP
Japan
Prior art keywords
data
map
lidar
trajectory
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022030728A
Other languages
English (en)
Other versions
JP2022134119A (ja
Inventor
ヨンハン イ
スヨン ヨン
スヒョン リュー
ドクファ キム
ドンハン イ
Original Assignee
ネイバーラボス コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ネイバーラボス コーポレーション filed Critical ネイバーラボス コーポレーション
Publication of JP2022134119A publication Critical patent/JP2022134119A/ja
Application granted granted Critical
Publication of JP7266128B2 publication Critical patent/JP7266128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、3次元マップ生成方法及びシステムに関し、特に、空間で測位に活用できる3次元マップを生成する方法及びシステムに関する。
測位技術は、GPSベース、慣性センサベース、画像ベース、SLAM(Simultaneous Localization and Mapping)、VLC(Visible Light Communication)などの様々な方式のシステムが互いに密接な関係を有して発展してきている。
このような測位技術のうち、画像ベースの測位(Visual Localization)は、撮影した写真を用いて位置を検出する技術であり、GPSと比較すると、誤差が少なく、ユーザが見る方向までも正確に測定できるという利点がある。このような画像ベースの測位のためには、撮影した写真と比較して位置を特定するためのマップを構築しなければならない。
一方、マップ構築の対象が室内空間であるか、室外環境であるかによって考慮すべき点が異なる。例えば、室内空間は、一般的に室外環境より小さい空間であるので、カメラの小さな動きによっても視点の大きな変化がもたらされる。また、大型ショッピングモールや地下鉄駅などの大規模な室内空間の実際の環境では、時間帯に応じた混雑度の変化や、テクスチャ(質感)がない空間などにより、カメラポーズを正確に推定することが困難である。
このような問題により、室内空間では、SFM(Structure-From-Motion)が効果的なツールとして用いられる室外環境とは異なり、大規模でSFMを適用することが困難である。室内空間では、RGBDカメラやレーザスキャナなどを用いてマップを構築する方法が多く用いられているが、これは相対的に小さい室内空間に適している。RGBDカメラは測定距離が短く、レーザスキャナは色情報がなく、動く物体が多い場合に脆弱であるので、大規模な室内空間ではあまり用いられない。
よって、大規模な室内空間で画像ベースの測位用マップを生成するために、新たな形態のパイプラインを用いる方法が考慮される。
本発明は、大規模な室内空間に適用できる画像ベースの測位用3次元マップを生成する方法及びシステムを提供するものである。
より具体的には、本発明は、新たな形態のパイプラインを用いて画像ベースの測位に活用できる3次元特徴点マップを生成する方法を提供する。
また、本発明は、所定期間に時間間隔をおいて取得したデータを用いて大規模な室内空間のより正確なマップを生成する方法を提供する。
上記課題を解決するために、本発明による3次元マップ生成方法及びシステムにおいては、大規模な空間に対して、所定期間に収集したシーケンスデータに基づいてLiDARセンサの軌跡を活用したビジュアルマッピング(Visual Mapping)を行うことにより、3次元マップを構築する。例えば、本発明は、LiDAR SLAM(Simultaneous Localization and Mapping)からSFM(Structure-From-Motion)までのパイプラインを用いて空間の3次元マップを生成するプロセスを用いる。
具体的には、本発明による3次元マップ生成方法は、収集装置に備えられるLiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集するステップと、前記空間データを用いて前記LiDARセンサの移動軌跡を推定するステップと、前記画像データ及び前記移動軌跡を入力データとして用いてSFM(Structure-From-Motion)をベースとして前記空間に関する3次元構造データを生成するステップとを含む。
本発明の一実施形態において、前記収集するステップにおいては、前記LiDARセンサを用いたLiDAR SLAM(Simultaneous Localization and Mapping)により前記空間データ及び前記画像データを収集するようにしてもよい。
前記LiDAR SLAMの出力データは、前記画像データ及び前記移動軌跡を備え、前記LiDAR SLAM及び前記SFMがパイプラインを形成するように、前記出力データが前記入力データとして用いられるようにしてもよい。
本発明の他の実施形態において、前記3次元構造データを生成するステップは、前記画像データから特徴点を抽出し、画像間で前記特徴点をマッチングするステップと、前記移動軌跡を連続軌跡(Continuous Trajectory)に変換するステップと、前記連続軌跡に基づいて前記画像データのポーズ情報を算出するステップとを含む。
前記画像データのポーズ情報が前記連続軌跡に整合するように、前記移動軌跡は、連続時間軌跡(Continuous-Time Trajectory)としてモデリングされるようにしてもよい。前記生成された3次元構造データは、前記SFMの出力データとして、前記ポーズ情報が算出された画像及びポイントクラウドデータを備えるようにしてもよい。
本発明のさらに他の実施形態において、前記3次元構造データを生成するステップにおいては、前記移動軌跡を連続3次スプライン(continuous cubic Spline)で表現してポーズエラーを定義することにより、地図最適化を行うようにしてもよい。
本発明のさらに他の実施形態において、前記3次元マップ生成方法は、前記生成された3次元構造データを用いて画像の深度情報を推定して深度マップ(depthmap)を生成するステップをさらに含むようにしてもよい。
本発明のさらに他の実施形態において、前記推定された移動軌跡は、単一の地域で複数のデータとして算出され、前記3次元マップ生成方法は、前記複数のデータの整合を行うステップをさらに含むようにしてもよい。前記複数のデータの整合が行われるように、前記移動軌跡間で座標系変換を推定するか、又は前記移動軌跡間の相対ポーズを推定するようにしてもよい。
また、本発明は、LiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集し、前記LiDARセンサの移動軌跡を推定するステップと、前記画像データから特徴点を抽出し、画像間で前記特徴点をマッチングするステップと、前記移動軌跡を連続軌跡(Continuous Trajectory)に変換し、前記連続軌跡に基づいて前記特徴点及び前記画像データのポーズ情報を最適化して前記空間の3次元特徴点マップを生成するステップとを含む、3次元マップ生成方法を開示する。
さらに、本発明は、LiDARセンサ及びカメラセンサを備える収集装置と、前記収集装置を用いて空間の3次元特徴点マップを生成するマッピング装置とを含み、前記収集装置は、前記LiDARセンサ及び前記カメラセンサを用いて前記空間の空間データ及び画像データをそれぞれ収集し、前記マッピング装置は、前記空間データを用いて前記LiDARセンサの移動軌跡を推定し、前記画像データ及び前記移動軌跡を入力データとして用いてSFM(Structure-From-Motion)をベースとして前記空間に関する3次元構造データを生成する、マップ生成システムを開示する。
本発明による3次元マップ生成方法及びシステムは、LiDAR SLAMからSFMまでのパイプラインにより、大規模な空間で所定期間に収集したデータを用いる場合もより正確な室内マッピングを行うことができる。
このように、新たなパイプラインを用いて正確な3次元マップを生成することにより、大規模な室内空間、例えばデパートや地下鉄駅でクエリ画像を用いた画像ベースの測位を行うことができる。
また、本発明は、LiDARセンサの軌跡を活用したビジュアルマッピングを行うことにより、室外環境に適したSFMベースのアルゴリズムを用いて大規模な室内空間の正確なマッピングを実現することができる。
特に、LiDARセンサ(又は収集装置、プラットフォーム、マッピングロボット)の軌跡を連続時間軌跡で表現し、カメラセンサで取得した画像のポーズ情報を対応する連続軌跡とより精巧に整合することができる。
本発明による3次元マップを構築する動作を説明するための概念図である。 図1aの概念で提示する3次元マップの一例を示す図である。 本発明による3次元マップ生成システムを示す概念図である。 図2の収集装置を示す概念図である。 本発明による3次元マップ生成方法を示すフローチャートである。 図4のフローチャートの一実施形態を示す詳細フローチャートである。 図4のフローチャートの一実施形態を示す詳細フローチャートである。 LiDAR SLAMにおいてデータ整合を行う方法の一例を示す概念図である。 SFMにおいてデータ整合を行う方法の一例を示すフローチャートである。 本発明による3次元マップ生成方法により生成された3次元マップの実際の構築結果を示す図である。 本発明による3次元マップ生成方法により生成された3次元マップの実際の構築結果を示す図である。
以下、添付図面を参照して本明細書に開示される実施形態について詳細に説明するが、図面番号に関係なく同一又は類似の構成要素には同一又は類似の符号を付し、その説明は省略する。以下の説明で用いる構成要素の接尾辞である「モジュール」及び「部」は、明細書の作成を容易にするために付与又は混用されるものであり、それ自体が有意性や有用性を有するものではない。また、本明細書に開示される実施形態について説明するにあたって、関連する公知技術についての具体的な説明が本明細書に開示される実施形態の要旨を不明にする恐れがあると判断される場合は、その詳細な説明を省略する。なお、添付図面は本明細書に開示される実施形態を容易に理解できるようにするためのものにすぎず、添付図面により本明細書に開示される技術的思想が限定されるものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物又は代替物が本発明に含まれるものと理解されるべきである。
第1、第2などのように序数を含む用語は様々な構成要素を説明するために用いられるが、上記構成要素は上記用語により限定されるものではない。上記用語は1つの構成要素を他の構成要素と区別する目的でのみ用いられる。
ある構成要素が他の構成要素に「連結」又は「接続」されていると言及された場合は、他の構成要素に直接連結又は接続されていてもよく、中間にさらに他の構成要素が存在してもよいものと解すべきである。それに対して、ある構成要素が他の構成要素に「直接連結」又は「直接接続」されていると言及された場合は、中間にさらに他の構成要素が存在しないものと解すべきである。
単数の表現には、特に断らない限り複数の表現が含まれる。
本明細書において、「含む」や「有する」などの用語は、明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、又はそれらの組み合わせが存在することを指定しようとするもので、1つ又はそれ以上の他の特徴、数字、ステップ、動作、構成要素、部品、又はそれらの組み合わせの存在や付加可能性を予め排除するものではないと理解すべきである。
[1.大規模室内空間マッピングシステムについての説明]
本発明は、3次元マップ生成方法及びシステムに関し、具体的には、建物、施設物、道路、歩道などで測位を行う場合に活用できる3次元マップを生成する方法及びシステムに関する。
ここで、測位とは、位置を決定するか、又は位置に関する情報を取得することをいい、GPSや無線ネットワークの基地局の位置を活用するか、又は様々なセンサ情報を用いて、モバイル機器の正確な位置を把握する技術をいう。ここで、正確な位置は、絶対的位置、相対的位置、概念的位置など、様々な形態で存在する。特に、本発明における測位には、GPS信号を受信できない室内で位置を取得する、室内位置確認技術を適用することができる。
また、本発明におけるモバイル機器には、手に持ったり身につけて簡単に持ち運べる移動端末機と、自ら移動できるように構成される自律走行機器がどちらも含まれる。
例えば、移動端末機には、携帯電話、スマートフォン(smart phone)、ノートパソコン(laptop computer)、デジタル放送端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(例えば、スマートウォッチ(smartwatch)、スマートグラス(smart glass)、HMD(Head Mounted Display))などが含まれる。また、自律走行機器には、掃除ロボット、案内ロボット、配達ロボットなど、移動しながら位置ベースのサービスを提供するロボットや、建物内で自律的に移動するドローンなどがある。
なお、本発明の実施形態においては、空間で位置を取得するか、空間を移動しながら位置を取得する新たな方式の測位方法及びシステムについて、移動端末機や自律走行機器の位置を基準に説明するが、本発明は、必ずしもこれに限定されるものではない。移動端末機や自律走行機器は、ユーザの位置を測定する1つの手段であり、他の機器を本発明に適用することもできる。
この場合、測位には、モバイル機器が位置するゾーン(zone)を検出するか、モバイル機器のリアルタイム位置を検出するなど、様々な方式を適用することができる。なお、本発明における測位は、ローカライゼーション(Localization)、位置決定(Location Determination)、ポジショニング(Positioning)などともいう。
このような室内空間の測位技術のうち、画像ベースの測位は、撮影した写真を用いて位置を検出する技術であり、与えられたクエリ画像のカメラポーズ情報を推定してモバイル機器の位置を測定する。
本発明における画像は、カメラセンサを用いて撮影した写真や画像などを含む意味で用いられる。例えば、モバイル機器が空間を移動しながらカメラセンサにより撮影画像を取得して3次元マップデータと比較するプロセスにより、モバイル機器の位置をリアルタイムで追跡することができる。
このように、本発明における画像ベースの測位は、ユーザに現在の位置情報を提供し、そのために、画像を用いて生成された3次元マップを用いる。
図1aは、本発明による3次元マップを構築する動作を説明するための概念図であり、図1bは、図1aの概念で提示する3次元マップの一例を示す図である。
図1aに示すように、データを収集する収集装置としてロボットRが室内空間11に位置する。ロボットRは、3次元マップデータを構築するためにデータを収集するマッピングロボットであり得る。ただし、ロボットRが走行する空間の種類には制限がなく、ロボットRは、必要に応じて室内空間及び室外空間の少なくとも一方を走行することができる。本例において、ロボットRは、大型ショッピングモールや地下鉄駅などの大規模な室内空間11で3次元マップを生成するために、カメラセンサを用いてデータを収集しながら自律走行するように構成される。
しかし、大規模な室内空間11の実際の環境では、時間の経過に応じて大きな変化が生じるので、カメラセンサの正確なポーズ情報を推定することは非常に難しい。例えば、テクスチャ(質感)がない空間(textureless areas)12やサイネージ13でコンテンツの変化などにより生じる外観の変化(changing appearance)、時間帯に応じた混雑度(crowdedness)やオクルージョン(occlusions)の変化、動的環境(dynamic environment)の変化などにより、画像に対するカメラポーズの推定が難しくなる。
本発明においては、大規模な室内空間に対応するために、100日以上収集したデータを用いて3次元特徴点マップを生成し、そのために、新たな形態の3次元マップ生成方法を提示する。
図1bに示すように、本発明による3次元マップ生成方法により、画像及びポイントクラウドを含む3次元マップのデータセットを構築することができる。前記データセットは、正しく整列された3次元モデル及びカメラポーズ情報を含む高密度の画像サンプリングを提供することができる。
ここで、前記3次元マップは、3次元の特徴点に関するデータを有するマップであり、フィーチャマップ、特徴点マップ又は3次元特徴点マップともいう。なお、本例においては、前記空間として室内空間を例示するが、本発明は、必ずしもこれに限定されるものではなく、室外空間、室内空間及び室外空間などにも適用することができる。
以下、前記空間に対して前記3次元マップのデータセットを構築するシステムについてまず説明し、その後、前記3次元マップを生成する方法と構築されたデータの例について図面を参照してより詳細に説明する。
図2は、本発明による3次元マップ生成システムを示す概念図であり、図3は、図2の収集装置を示す概念図である。
前記3次元マップのデータセットは、図2に示す3次元マップ生成システム100により実現することができる。
3次元マップ生成システム100は、収集装置110及びマッピング装置120を備えてもよい。
ここで、収集装置110は、データを収集する装置であり、モバイルプラットフォームであってもよい。収集装置110は、LiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集することができる。
同図に示すように、収集装置110は、駆動部111、センシング部112及び通信部113の少なくとも1つを備える。
駆動部111は、収集装置100が空間を移動できるようにする手段を提供する。そのために、駆動部111は、モータ及び複数の車輪を含んでもよい。例えば、図3に示すように、駆動部111は、モータ及び複数の車輪が組み合わせられ、収集装置100を走行、方向転換、回転させる機能を実行する。
本発明においては、このような駆動部111として、2つの車輪及び4つのキャスタから構成された差動ドライブを例示する。ここで、前記車輪には、走行距離測定データを取得するためのエンコーダが備えられてもよい。
センシング部112は、LiDARセンサ112a及びカメラセンサ112dを含む。
LiDARセンサ112aは、遠隔探知方式で周辺の空間に関する3次元情報を取得するセンサであり、レーザを照射するレーザスキャナであってもよい。
前記レーザスキャナは、レーザパルスを発射し、発射したレーザパルスが周囲の対象物体から反射されて戻るとそれを受け、物体までの距離などを測定することにより、周辺の形状を精密に描き出す装置であってもよい。
本実施形態においては、LiDARセンサ112aとして3次元スキャニングLiDARを例示し、それにより3次元空間データを生成する。ただし、本発明は、必ずしもこれに限定されるものではなく、LiDARセンサ112aとして、例えば2次元レーザスキャナやレーザを照射しないセンサを適用してもよい。
図3に示すように、LiDARセンサ112aは、複数のLiDARセンサからなるようにしてもよい。第1LiDARセンサ112bは、収集装置110の上端に垂直に配置され、第2LiDARセンサ112cは、収集装置110の上端と下端間(例えば、中央部)に水平に配置されるようにしてもよい。この場合、垂直方向の第1LiDARセンサ112bは、プッシュブルームスキャン(push-broom scanning)技法により高密度の3次元ポイントクラウドを構成し、水平方向の第2LiDARセンサ112cは、室内空間でポーズを推定する上で必要な情報を水平方向に最大化する。
カメラセンサ112dは、6自由度(6DoF)を有するカメラであり、様々なタイプの装置を含むようにしてもよい。その例として、カメラセンサ112dは、産業用カメラ及びスマートフォンカメラを含んでもよい。同図において、カメラセンサ112dは、産業用カメラであり、収集装置110の上端には、スマートフォンカメラ(図示せず)の据え付けのための据付台112eが備えられる。
本例においては、複数の産業用カメラが収集装置110の外周に沿って間隔で配列され、よって、水平方向に360度全方位で画像を撮影することができる。この場合、画像内での地面のグラフィックを低減するように、各産業用カメラは、角度で上側を向くように配置されてもよい。一方、クエリ時間での実際の環境をより正確に反映するために、産業用カメラより上方に複数のスマートフォンカメラが配置され、周辺を撮影するようにしてもよい。このとき、収集装置110とセンシング部112とは、例えばNTP(Network Time Protocol)サーバを用いて同期化するようにしてもよい。
一方、センシング部112は、LiDARセンサ112a及びカメラセンサ112dの他に、様々なデータを収集できるセンサを備えてもよい。一例として、センシング部112は、障害物を認識するために、赤外線センサ、超音波センサ、姿勢センサ、衝突センサ、光センサなどを備えてもよい。他の例として、センシング部112は、空間内の異なる位置で無線信号(例えば、Wi-Fi信号、Bluetooth信号、ZigBee信号など)を測定するセンサを備えてもよい。
この場合、センシング部112で取得したデータは、通信部113によりマッピング装置120に送信することができる。通信部113は、収集装置110とマッピング装置120間で無線通信を行う。ここで、マッピング装置120は、収集装置110の通信部113との無線通信のために、通信部122を備えてもよい。ただし、本発明は、必ずしも無線通信に限定されるものではなく、通信部113と通信部122とは、有線通信を行うようにしてもよい。また、通信部113は、収集装置110と他の収集装置間、収集装置110とモバイル機器間、又は収集装置110と通信ネットワーク間で無線通信を行うことができる。このような無線通信を行うために、通信部113は、無線インターネットモジュール、近距離通信モジュール、位置情報モジュールなどを備えてもよい。
なお、本発明においては、収集装置110とマッピング装置120が別の装置である場合を例示するが、収集装置110とマッピング装置120は、単一の機器に備えられてもよい。この場合、前記データは、内部のデータ伝送経路で送受信する。
マッピング装置120は、収集装置110を用いて空間の3次元特徴点マップを生成する。この場合、マッピング装置120は、前記空間データを用いてLiDARセンサ112aの移動軌跡を推定し、前記画像データ及び前記移動軌跡を入力データとして用いてSFMをベースとして前記空間に関する3次元構造データを生成することができる。
一方、収集装置110は、センシング部112を用いてデータを収集する場合、SLAMを行うように構成される。すなわち、収集装置110は、リアルタイムで自身の位置を計測(測定)すると共に周辺環境の地図を作成するように構成される。前記SLAMは、収集装置110のプロセッサで行われるようにしてもよく、マッピング装置120の制御部121で行われるようにしてもよい。
前記SLAMが制御部121で行われる場合、マッピング装置120は、マップクラウドサーバであってもよい。この場合、収集装置110とマップクラウドサーバとが1つのデータ収集装置を構成する。
一方、制御部121は、無線通信を制御し、収集装置110のセンシング部112を用いて画像を撮影し、駆動部111を制御する動作と共に、通常、収集装置110の全般的な動作を制御する。
前記SLAMのためのデータ処理の例として、制御部121がセンサデータに基づいて同時位置推定及び地図作成機能を実行し、収集装置110が移動した経路を推定するようにしてもよい。例えば、収集装置110でセンシングされたデータに基づいてループ閉じ込み(loop closure)を検出し、ループ閉じ込みが検出されると位置データを生成し、位置データに基づいて移動経路情報及びターゲット建物の室内地図情報を生成するようにしてもよい。
この場合、制御部121は、保存部123と連携し、前述したデータセットを生成、保存及び更新する一連のプロセスを制御する。
保存部123には、前記データセットとして3次元マップのデータが保存され、前記3次元マップには、座標情報、ポイントクラウド情報、画像情報、ポーズ情報などが備えられる。
このようなデータセットを構築するために、本発明による3次元マップ生成方法においては、大規模な空間に対して、所定期間に収集したシーケンスデータに基づいてLiDAR SLAMからSFMまでのパイプラインを用いて空間の3次元マップを生成するプロセスを用いる。
以下、このような3次元マップを生成する方法について、図面を参照してより詳細に説明する。
[2.パイプラインの全体プロセスについての説明]
図4は、本発明による3次元マップ生成方法を示すフローチャートである。
本発明による3次元マップ生成方法においては、LiDAR SLAM131の出力値をSFM132の入力値として用いて、LiDAR SLAM131からSFM132につながる新たなパイプラインを提示する。
この場合、前記パイプラインは、LiDAR SLAMパイプライン及びSFMパイプラインからなるようにしてもよい。前記LiDAR SLAMパイプラインは、統合座標系に基づいてカメラポーズを推定するポーズグラフ最適化(pose-graph optimization)に基づいて構築する。
また、前記SFMパイプラインは、LiDAR SLAM131の初期画像ポーズ(又はカメラポーズ)を改善し、LiDARポイントクラウドに整列された3次元特徴点マップを再建する。
この場合、LiDAR SLAM131及びSFM132により、全ての画像に関する実際の資料(実際の写真、グラウンドトゥルース(Ground Truth))のポーズを生成することができる。LiDAR SLAM131では、制御部121(図2参照)が各シーケンスに収集装置のポーズを生成し、その後同じ空間のシーケンスを組み合わせて前記シーケンスが統合された座標系を有するようにデータを処理する。収集装置はプラットフォームともいう。以下、説明の便宜上、収集装置をプラットフォームで統一して説明する。
この場合、ポイントクラウド及びカメラポーズ情報は、プラットフォームポーズ及び補正パラメータに基づいて算出することができる。その後、前記カメラポーズ情報を改善(refine)するために、SFM132を用いることができる。前述したプロセスによれば、別途の手動のカメラキャリブレーションがなくても、前記カメラセンサの外部変数のカメラキャリブレーションが可能になる。
ここで、前記カメラポーズは、位置(position)を示す座標と、オリエンテーション(orientation)を示す姿勢とを含んでもよい。この場合、前記座標は、地面の座標に対して所定の高さ、例えばロボットの高さや人の目の高さなどを加えた座標に特定されるようにしてもよい。また、前記姿勢は、任意に特定されるが、ロボットや人が画像ベースの測位を用いる場合に実際にクエリ画像を送信する状況を仮定してそれに類似した姿勢に特定されるようにしてもよい。その例として、前記姿勢は、地面に水平な方向、看板を見る方向、徒歩の進行方向などを基準に特定されるようにしてもよい。
より具体的な例として、本発明におけるLiDAR SLAMパイプラインにおいては、まず、プラットフォームに備えられるLiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集するステップ(S111)が行われる。
ここで、前記LiDARセンサ及び前記カメラセンサとしては、図3を参照して説明したプラットフォームのLiDARセンサ112a及びカメラセンサ112dを備えてもよい。
前記空間データは、点群データ又はスキャンデータであってもよい。この場合、前記点群データ又は前記スキャンデータが収集されると、その次のステップで、LiDAR SLAMが点群データを用いて他の空間データや移動軌跡を導出するようにしてもよい。
ここで、前記空間データは、3次元ポイントクラウド、各シーケンスにおけるプラットフォームのポーズなどを備えてもよい。また、前記画像データは、前記カメラセンサにより撮影した撮影画像であってもよい。
このように、前記データを収集するステップ(S111)においては、前記LiDARセンサを用いたLiDAR SLAMにより前記空間データ及び前記画像データを収集する。
次に、LiDAR SLAM131では、前記空間データを用いて前記LiDARセンサの移動軌跡を推定するステップ(S112)が行われる。
例えば、前記プラットフォームの軌跡(又は、LiDARセンサやカメラセンサの軌跡)は、LiDARベースのポーズグラフSLAMを適用して推定するようにしてもよい。この場合、前記LiDAR SLAMのポーズは、同じ空間内の様々な軌跡に対するカメラポーズを算出するSFMプロセスの事前情報として用いるようにしてもよい。
また、本例においては、LiDARによる空間データの導出(マッピング)と移動軌跡の推定(ローカライゼーション)とが順次行われるか又は同時に行われるLiDAR SLAMアルゴリズムを用いることができる。
前述したように、本発明による3次元マップ生成方法は、LiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集するステップ(S111)と、前記LiDARセンサの移動軌跡を推定するステップ(S112)とを含む。
次に、LiDAR SLAM131からSFM132につながる新たなパイプラインを形成するために、前記画像データ及び前記移動軌跡を入力データとして用いてSFMをベースとして前記空間に関する3次元構造データを生成するステップ(S113)が行われる。このように、LiDAR SLAMパイプラインで取得した画像データ及び移動軌跡を入力データとして用いるSFMパイプラインにより、大規模な室内空間に対するマッピングが可能になる。
前述したように、本発明においては、LiDAR SLAM及びSFMアルゴリズムを用いることにより、大規模な室内空間の環境が変化しても、正確なカメラポーズを推定することができる。
以下、本発明による3次元マップ生成方法の各ステップについて、例を挙げてより詳細に説明する。
図5及び図6は、図4のフローチャートの一実施形態を示す詳細フローチャートであり、図7は、LiDAR SLAMにおいてデータ整合を行う方法の一例を示す概念図であり、図8は、SFMにおいてデータ整合を行う方法の一例を示すフローチャートであり、図9及び図10は、本発明による3次元マップ生成方法により生成された3次元マップの実際の構築結果を示す図である。
[3.各ステップの詳細についての説明-LiDAR SLAM]
まず、図5及び図6に示すように、LiDAR SLAM131では、スキャンデータ(scan data)を用いて中間データ(intermediate data)を算出する。
前記スキャンデータは、前記データを収集するステップ(S111)により収集され、前記中間データは、前記移動軌跡を推定するステップ(S112)により算出される。
前記スキャンデータは、単一のスキャン軌跡(Scan Trajectory)を用いて連続的に取得したデータであってもよい。ここで、前記スキャンデータは、LiDARスキャンの生データ(LiDAR raw scan)と、カメラセンサの画像データ(Camera images)とを備えてもよい。LiDAR SLAM131では、前記生データを処理してスキャンデータの軌跡を復元する。この場合、前記中間データは、前記画像データと共に復元されたLiDARセンサの軌跡(LiDAR sensor trajectory)を備えてもよい。
一方、LiDAR SLAM131では、ポイントクラウドの生成、ポーズグラフ及びグラフの組み合わせの過程で、前記プラットフォームのポーズ情報を取得することができる。
<歪みのないポイントクラウドの生成(Undistorted point cloud generation)>
ポイントクラウドの生成において、1つのノードで用いられるポイントクラウドデータの量を増やすために、複数、例えば2つのLiDARセンサで収集したポイントクラウドを組み合わせてもよい。ここで、異なるLiDAR座標系で表現されたポイントクラウドは、プラットフォーム座標系に変換されて互いに関連付けられる。
また、プラットフォームの移動速度が速くなるほど、動いている間、ポイントクラウドの歪みが引き起こされ、それを補うために、ホイールオドメトリ(wheel odometry)技術が適用される。よって、初期軌跡の推定及び動きによるLiDARデータの歪みを補正することができる。この場合、プラットフォーム座標系のポイントクラウドでのポイントの位置は下記式(1)により算出される。
Figure 0007266128000001

ここで、Lpは、LiDAR座標系で与えられたポイントクラウドでのポイントの位置であり、
[Rodom,todom]は、ポイントクラウドの基本時間とポイント取得時間間の相対的なプラットフォームポーズであり、ホイールオドメトリから計算され、
[RRL,tRL]は、プラットフォームからLiDARセンサまでの相対ポーズである。
<ポーズグラフSLAM(Pose-graph SLAM)>
歪みのない順次ポイントクラウドを用いて、推定された相対ポーズとしてグラフのエッジを設定することができる。しかし、順次ノード間の情報だけで累積されたポーズエラーを補償することは困難であるので、時間的には距離があるが空間的には隣接するノード間に追加エッジが算出され、ポーズグラフに追加されるようにしてもよい。
一方、この場合、前記推定された移動軌跡は、単一の地域で複数のデータとして算出されるようにしてもよい。前記複数のデータの整合のために、本発明による3次元マップ生成方法は、複数のデータの整合を行うステップを含むようにしてもよい。
前記複数のデータの整合を行うステップにおいては、前記移動軌跡間で座標系変換を推定すること、又は前記移動軌跡間の相対ポーズを推定することにより、前記複数のデータの整合を行うようにしてもよい。前記移動軌跡間で座標系変換を推定することは、LiDAR SLAM131で行われ、前記移動軌跡間の相対ポーズを推定することは、SFM132で行われるようにしてもよい。以下、前記移動軌跡間で座標系変換を推定する整合過程についてまず説明し、相対ポーズを推定する方法についてはSFM132の説明で後述する。
<軌跡間の整合>
前述した過程により、推定されたプラットフォームのポーズは、各シーケンスに対して独立した座標系で表現される。例えば、図7の(a)を参照すると、第1シーケンスのデータセット141と第2シーケンスのデータセット142とはそれぞれ独立した座標系で表現される。この場合、図7の(b)のように、レジストレーション(registration)技術により、空間的に隣接するキーフレーム間の整合を行うことができる。より具体的には、異なるシーケンスでICP(Iterative Closest Point)アルゴリズムを用いて相対ポーズを算出するように、時間的には距離があるが空間的には隣接するノードを再び検索することができる。従来のグラフと算出された相対ポーズとが新たなグラフを形成し、グラフ最適化により単一の座標系で表現されたプラットフォームポーズを取得することができる。
この場合、前記LiDARセンサとしては、前述したように、2つのLiDARセンサを用いてもよい。2つのLiDARセンサ間の補正のために、幾何学的特徴を用い、ICPアルゴリズムを用いて相対ポーズを推定することができる。また、プラットフォームのベースとカメラ間の補正のために、SFMによるオンライン補正を用いることができる。
このように、異なる座標系を1つの座標系に統合するためにデータセット間の整合が行われ、それにより、図7の(c)のように、軌跡座標系が整合した中間データが算出される。
前述したように、前記LiDAR SLAMの出力データは、中間データであって、前記画像データ及び前記移動軌跡を備えてもよい。そして、前記LiDAR SLAMの出力データは、前記LiDAR SLAM及び前記SFMがパイプラインを形成するように、SFM132の入力データとして用いられる。
SFM132は、ビジュアルマッピングと最適化を行うステップであり、前記中間データの入力を受けてSFMデータを出力する。
前記生成された3次元構造データは、前記SFMの出力データとして、前記ポーズ情報が算出された画像及びポイントクラウドデータを備えてもよい。例えば、前記SFMデータは、ポーズ情報を有する画像と、ポイントクラウドデータ(PCD)マップとを備えてもよい。
[4.各ステップの詳細についての説明-SFM]
図5及び図6に示すように、前記3次元構造データを生成するステップ(S113)は、特徴点をマッチングするステップ(S114)と、連続軌跡に変換するステップ(S115)と、ポーズ情報を算出するステップ(S116)とを含むようにしてもよい。
前記特徴点をマッチングするステップ(S114)においては、前記画像データから特徴点を抽出し、画像間で前記特徴点をマッチングする。例えば、それぞれの画像に対して画像の特徴点を抽出し、Guided Feature Matchingにより、位置及び角度が近い画像対(Image Pair)に対して特徴点間のマッチングを行う。
次に、前記移動軌跡を連続軌跡に変換し、前記連続軌跡に基づいて前記特徴点及び前記画像データのポーズ情報を最適化して前記空間の3次元特徴点マップを生成する。
以下、特徴点マッチングとマップ最適化についてより具体的に説明する。
<特徴点マッチング(Local feature matching)>
例えば、各画像毎に繰り返し可能で信頼できるR2D2(Reliable and Repeatable Detectors and Descriptors)特徴点が抽出される。その後、距離が近い画像対を用いて特徴点のマッチングが行われる。近い画像対を選択するために、2つの画像間の距離と視野角の差が閾値として設定されるようにしてもよい。
この場合、前記マッチングされた特徴点は、トライアンギュレーション(triangulation)技法により3次元ポイントを生成することができる。
次に、前記移動軌跡を連続軌跡に変換するステップ(S115)が行われる。
この場合、前記画像データのポーズ情報が前記連続軌跡に整合するように、前記移動軌跡は、連続時間軌跡としてモデリングされるようにしてもよい。また、前記ポーズ情報を算出するステップ(S116)においては、前記連続軌跡に基づいて前記画像データのポーズ情報を算出するようにしてもよい。
このような連続軌跡に変換するステップ(S115)及びポーズ情報を算出するステップ(S116)は、マップ最適化により行うことができる。前記マップ最適化は、LiDAR軌跡を連続時間軌跡で表現又はモデリングし、画像のポーズ情報が対応する連続軌跡と整合するように最適化するステップにしてもよい。この場合、SFM132は、従来のビジュアルマッピング(従来のSFM)とは異なり、事前に取得した移動軌跡を連続フォーム(Continuous Form)で表現して活用するので、精巧な最適化を行う。すなわち、事前のLiDAR SLAMで取得したポーズを連続軌跡であるスプライン(spline)で表現し、その後それを制約条件としてビジュアルマップの最適化を行う。
<マップ最適化(Map optimization)>
まず、センサ間のタイムスタンプの差を説明するために、SE(3)で各プラットフォームの軌跡は連続3次スプラインで表現する。具体的には、前記移動軌跡を連続3次スプラインで表現してポーズエラーを定義することにより、地図最適化を行う。
プラットフォーム軌跡スプライン、TWR(t)、カメラに対する外部ポーズ、C、TRCiを用いると、ポーズエラーesplineは、下記式(2)のように表される。
Figure 0007266128000002

ここで、
Figure 0007266128000003
は、SE(3)マニホールドに定義された一般化されたマイナスを示し、
WCiは、画像ポーズであり、tは、対応するタイムスタンプである。
プラットフォーム軌跡の連続的な表現により、LiDAR SLAM131からの非同期式の事前ポーズをSFM132で用いることができる。スプラインを介した提案されたポーズエラーは、下記式(3)のように特徴点再投影エラーで最適化することができる。
Figure 0007266128000004

このように、修正されたバンドル調整方法により、画像のポーズ情報及び特徴点を再建することができる。
ここで、SFMモデルは、バンドル調整とトライアンギュレーション技法を繰り返すことにより生成することができる。このようなSFMパイプラインは、LiDAR SLAMから出力されるデータを統合し、視覚的に目立たないか人が多い画像でも正確に登録できるようにする。
また、カメラ補正パラメータは、SFMパイプラインを用いて各データセットの3次元モデルを再構成する間、自動的に推定することができる。
なお、本発明による3次元マップ生成方法においては、密度が高いマップを生成するために、MVS(Multi-View Stereo)技法を適用することもできる。その例として、図5及び図6に示すように、本発明による3次元マップ生成方法は、MVS133を適用し、深度マップを生成するステップ(S117)を含むようにしてもよい。
前記深度マップを生成するステップ(S117)においては、前記生成された3次元構造データを用いて画像の深度情報を推定して深度マップを生成する。
MVS133は、SFM132で算出されるSFMデータから高密度のビジュアルマップ(Dense Visual Map)を生成するMVSアルゴリズムであってもよい。MVS133の深度マップを生成する過程で、MVSデータは、密度が高く、色があり得るポイントクラウドマップを備えてもよい。
図9及び図10は、実際に構築したSFMデータの低密度で再建(Sparse Reconstruction)された特徴点マップ、及びMVSデータの高密度で再建(Dense Reconstruction)された特徴点マップをそれぞれ示す写真である。図9の(a)においては、江南駅の地下1階の3次元マップの実際の事例を示し、図9の(b)においては、現代デパートの4階の3次元マップの実際の事例を示す。図10においては、MVS133の結果として、密度が高くなり、色がより明確になった3次元マップを示す。
前述した3次元マップ生成方法においては、新たなパイプラインを用いて正確な3次元マップを生成することにより、大規模な室内空間、例えばデパートや地下鉄駅でクエリ画像を用いた画像ベースの測位を行うことができる。
[5.SFMでのデータ整合についての説明]
前述したように、本発明において、データ整合は、相対ポーズを推定する方法でSFM132で行うこともできる。そのために、図8に示すように、特徴点をマッチングするステップ(S114)の後に相対ポーズを推定するステップ(S118)を行うようにしてもよい。
スキャンデータ(又は中間データ)の軌跡がそれぞれ処理されると、LiDAR SLAMが正確であってもデータ間で座標系が異なることがある。単一の地域に対してデータを整合するために、軌跡間の座標系変換を推定しなければならない。この場合、座標系変換は、データ間の6-DOF Relative Pose(3-DOF positon+3-DOF orientation)を求める問題として表される。
このとき、最適化プロセス中にプラットフォームでLiDARセンサ及びカメラセンサ間の配置(すなわち、相対ポーズ(Relative Pose))を共に解くことができる。また、最適化中に中間データに含まれるLiDARセンサの軌跡間の座標系変換を共に解き、中間データを互いに整合することもできる。
より具体的には、座標系変換の初期値計算で、LiDAR SLAMが算出するそれぞれのデータ毎のポイントクラウドデータマップをICPアルゴリズムで互いに整合して座標系変換を算出することができる。このとき、SFMで中間データに含まれる画像間のマッチングを行うので、それにより相対ポーズを推定することができる。
座標系変換の最適化において、初期値が与えられると最適化が可能になる。SFM132で画像のポーズ情報とマップのポイントの最適化を行う際に、軌跡間の相対ポーズをさらなる変数として設定すると、同時に最適化を行うことができる。ここで、軌跡間の相対ポーズが実際とは異なると、事前に取得した軌跡(Prior Trajectory)が間違ってしまうので、最適化コスト(Cost)に影響を与えるようになる。よって、相対ポーズに対する最適化コストのヤコビアン(Jacobian)を最適化フレームワーク(Framework)が計算し、正確な相対ポーズを算出することができる。
前述したLiDARセンサの軌跡を活用したビジュアルマッピングにより、室外環境に適したSFMベースのアルゴリズムを用いて大規模な室内空間の正確なマッピングを行うことができる。
特に、LiDARセンサ(又は収集装置、プラットフォーム、マッピングロボット)の軌跡を連続時間軌跡で表現し、カメラセンサで取得した画像のポーズ情報を対応する連続軌跡とより精巧に整合することができる。
また、前述した方法により構築された3次元マップは、ユーザのモバイル機器で画像ベースの測位サービスで活用することができる。例えば、ユーザは、徒歩移動中に空間で自身の位置を確認するために、スマートフォンで画像ベースの測位サービスに関連するアプリケーションを実行し、周辺の街頭を撮影する。前記アプリケーションは、撮影した写真の特徴点と3次元マップの特徴点とを比較し、前記モバイル機器の3次元位置及びポーズを推定する。
このように推定した3次元位置及びポーズを用いて、前記モバイル機器の正確な位置を推定することができる。この場合、前記モバイル機器では前記位置をベースとする様々なサービスを実行することができる。
前述した3次元マップ生成方法及びシステムは、上記実施形態の構成や方法に限定されるものではなく、上記実施形態に様々な変形が行われるように、各実施形態の全部又は一部を選択的に組み合わせて構成してもよい。
100 3次元マップ生成システム
110 収集装置
111 駆動部
112 センシング部
112a LiDARセンサ
112b 第1LiDARセンサ
112c 第2LiDARセンサ
112d カメラセンサ
112e 据付台
113 通信部
120 マッピング装置
121 制御部
122 通信部
123 保存部

Claims (15)

  1. 収集装置に備えられるLiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集するステップと、
    前記空間データを用いて前記LiDARセンサの移動軌跡を推定するステップと、
    前記画像データ及び前記移動軌跡を入力データとして用いてSFM(Structure-From-Motion)をベースとして前記空間に関する3次元構造データを生成するステップとを含むことを特徴とする3次元マップ生成方法。
  2. 前記収集するステップにおいては、前記LiDARセンサを用いたLiDAR SLAM(Simultaneous Localization and Mapping)により前記空間データ及び前記画像データを収集することを特徴とする請求項1に記載の3次元マップ生成方法。
  3. 前記LiDAR SLAMの出力データは、前記画像データ及び前記移動軌跡を備え、
    前記LiDAR SLAM及び前記SFMがパイプラインを形成するように、前記出力データが前記入力データとして用いられることを特徴とする請求項2に記載の3次元マップ生成方法。
  4. 前記3次元構造データを生成するステップは、
    前記画像データから特徴点を抽出し、画像間で前記特徴点をマッチングするステップと、
    前記移動軌跡を連続軌跡(Continuous Trajectory)に変換するステップと、
    前記連続軌跡に基づいて前記画像データのポーズ情報を算出するステップとを含むことを特徴とする請求項1に記載の3次元マップ生成方法。
  5. 前記画像データのポーズ情報が前記連続軌跡に整合するように、前記移動軌跡は、連続時間軌跡(Continuous-Time Trajectory)としてモデリングされることを特徴とする請求項4に記載の3次元マップ生成方法。
  6. 前記生成された3次元構造データは、前記SFMの出力データとして、前記ポーズ情報が算出された画像及びポイントクラウドデータを備えることを特徴とする請求項4に記載の3次元マップ生成方法。
  7. 前記3次元構造データを生成するステップにおいては、
    前記移動軌跡を連続3次スプライン(continuous cubic Spline)で表現してポーズエラーを定義することにより、地図最適化を行うことを特徴とする請求項1に記載の3次元マップ生成方法。
  8. 前記生成された3次元構造データを用いて画像の深度情報を推定して深度マップを生成するステップをさらに含むことを特徴とする請求項1に記載の3次元マップ生成方法。
  9. 前記推定された移動軌跡は、単一の地域で複数のデータとして算出され、
    前記複数のデータの整合を行うステップをさらに含むことを特徴とする請求項1に記載の3次元マップ生成方法。
  10. 前記複数のデータの整合が行われるように、前記移動軌跡間で座標系変換を推定するか、又は前記移動軌跡間の相対ポーズを推定することを特徴とする請求項9に記載の3次元マップ生成方法。
  11. LiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集し、前記LiDARセンサの移動軌跡を推定するステップと、
    前記画像データから特徴点を抽出し、画像間で前記特徴点をマッチングするステップと、
    前記移動軌跡を連続軌跡(Continuous Trajectory)に変換し、前記連続軌跡に基づいて前記特徴点及び前記画像データのポーズ情報を最適化して前記空間の3次元特徴点マップを生成するステップとを含むことを特徴とする3次元マップ生成方法。
  12. 前記3次元特徴点マップを生成するステップにおいては、
    前記移動軌跡を連続3次スプライン(continuous cubic Spline)で表現してポーズエラーを定義することにより、地図最適化を行うことを特徴とする請求項11に記載の3次元マップ生成方法。
  13. 前記画像データ及び前記移動軌跡は、LiDAR SLAM(Simultaneous Localization and Mapping)の出力データとして出力され、
    前記3次元特徴点マップは、前記画像データ及び前記移動軌跡を入力データとして用いてSFM(Structure-From-Motion)をベースとして生成されることを特徴とする請求項11に記載の3次元マップ生成方法。
  14. LiDARセンサ及びカメラセンサを備える収集装置と、
    前記収集装置を用いて空間の3次元特徴点マップを生成するマッピング装置とを含み、
    前記収集装置は、前記LiDARセンサ及び前記カメラセンサを用いて前記空間の空間データ及び画像データをそれぞれ収集し、
    前記マッピング装置は、前記空間データを用いて前記LiDARセンサの移動軌跡を推定し、前記画像データ及び前記移動軌跡を入力データとして用いてSFM(Structure-From-Motion)をベースとして前記空間に関する3次元構造データを生成することを特徴とするマップ生成システム。
  15. 電子機器で1つ以上のプロセスにより実行され、コンピュータ可読媒体に格納可能なプログラムであって、
    前記プログラムは、
    収集装置に備えられるLiDARセンサ及びカメラセンサを用いて空間の空間データ及び画像データをそれぞれ収集するステップと、
    前記空間データを用いて前記LiDARセンサの移動軌跡を推定するステップと、
    前記画像データ及び前記移動軌跡を入力データとして用いてSFM(Structure-From-Motion)をベースとして前記空間に関する3次元構造データを生成するステップとを実行させるコマンドを含むことを特徴とするコンピュータ可読媒体に格納可能なプログラム。
JP2022030728A 2021-03-02 2022-03-01 3次元マップ生成方法及びシステム Active JP7266128B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210027774A KR102577907B1 (ko) 2021-03-02 2021-03-02 3차원 맵 생성 방법 및 시스템
KR10-2021-0027774 2021-03-02

Publications (2)

Publication Number Publication Date
JP2022134119A JP2022134119A (ja) 2022-09-14
JP7266128B2 true JP7266128B2 (ja) 2023-04-27

Family

ID=83116063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022030728A Active JP7266128B2 (ja) 2021-03-02 2022-03-01 3次元マップ生成方法及びシステム

Country Status (3)

Country Link
US (1) US12025708B2 (ja)
JP (1) JP7266128B2 (ja)
KR (1) KR102577907B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240192372A1 (en) * 2022-12-12 2024-06-13 Phunware, Inc. Lidar enabled wayfinding system
CN116295406A (zh) * 2023-02-20 2023-06-23 中国矿业大学 一种室内三维定位方法及系统
KR20240133821A (ko) 2023-02-27 2024-09-05 충남대학교산학협력단 Lidar 기반 slam을 바탕으로 한 맵핑시스템
WO2024201868A1 (ja) * 2023-03-30 2024-10-03 株式会社Subaru 計測システム、計測装置、計測装置の制御方法及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237845A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2018131165A1 (ja) 2017-01-16 2018-07-19 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2021006677A2 (en) 2019-07-11 2021-01-14 Lg Electronics Inc. Mobile robot using artificial intelligence and controlling method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095842B1 (ko) * 2017-12-13 2020-04-28 연세대학교 산학협력단 격자지도 생성 장치 및 방법
KR20210015516A (ko) * 2019-08-02 2021-02-10 네이버랩스 주식회사 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237845A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2018131165A1 (ja) 2017-01-16 2018-07-19 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
WO2021006677A2 (en) 2019-07-11 2021-01-14 Lg Electronics Inc. Mobile robot using artificial intelligence and controlling method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Donghwan Lee, et.al.,Large-scale Localization Datasets in Crowded Indoor Spaces,CVPR 2021,3226-3235

Also Published As

Publication number Publication date
KR20220124051A (ko) 2022-09-13
JP2022134119A (ja) 2022-09-14
US20220283310A1 (en) 2022-09-08
US12025708B2 (en) 2024-07-02
KR102577907B1 (ko) 2023-09-14

Similar Documents

Publication Publication Date Title
JP7266128B2 (ja) 3次元マップ生成方法及びシステム
Ramezani et al. The newer college dataset: Handheld lidar, inertial and vision with ground truth
US9886774B2 (en) Photogrammetric methods and devices related thereto
Maier et al. Real-time navigation in 3D environments based on depth camera data
Montiel et al. Unified Inverse Depth Parametrization for Monocular SLAM.
CN102622762B (zh) 使用深度图的实时相机跟踪
JP7273927B2 (ja) 画像ベースの測位方法及びシステム
KR20220028042A (ko) 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
CN112750203A (zh) 模型重建方法、装置、设备及存储介质
CN112204345A (zh) 移动设备的室内定位方法、移动设备及控制系统
Pirker et al. GPSlam: Marrying Sparse Geometric and Dense Probabilistic Visual Mapping.
Zhu et al. Real-time global localization with a pre-built visual landmark database
KR101319526B1 (ko) 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 방법
CN115049910A (zh) 一种基于双目视觉里程计的足式机器人建图与导航方法
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
EP4332631A1 (en) Global optimization methods for mobile coordinate scanners
Junejo et al. Autoconfiguration of a dynamic nonoverlapping camera network
Liu et al. A low-cost and scalable framework to build large-scale localization benchmark for augmented reality
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
Lobo et al. World feature detection and mapping using stereovision and inertial sensors
KR20220059832A (ko) 맵 생성 방법 및 이를 이용한 이미지 기반 측위 시스템
Hadsell et al. Complex terrain mapping with multi-camera visual odometry and realtime drift correction
BA-SALEEM Depth Estimation From 3d Reconstructed Scene Using Stereo Vision
KR20240073270A (ko) 로봇 및 로봇의 위치 추정방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7266128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350