JP2021140780A - 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム - Google Patents

地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム Download PDF

Info

Publication number
JP2021140780A
JP2021140780A JP2021030704A JP2021030704A JP2021140780A JP 2021140780 A JP2021140780 A JP 2021140780A JP 2021030704 A JP2021030704 A JP 2021030704A JP 2021030704 A JP2021030704 A JP 2021030704A JP 2021140780 A JP2021140780 A JP 2021140780A
Authority
JP
Japan
Prior art keywords
frame
matching
panoramic image
image sequence
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021030704A
Other languages
English (en)
Other versions
JP7150917B2 (ja
Inventor
王志昊
Zhihao Wang
趙晨旭
Chenxu Zhao
秦子文
Ziwen Qin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021140780A publication Critical patent/JP2021140780A/ja
Application granted granted Critical
Publication of JP7150917B2 publication Critical patent/JP7150917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】対象領域のパノラマシーン画像からビジュアルマップを生成することと、を含む地図作成のためのコンピュータ実施方法を提供する。【解決手段】地図作成装置は、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定し、隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいてパノラマ画像シーケンスに対応する特徴軌跡を確定し、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成する。【効果】地図作成装置は、地図作成プロセスにおける画像採集の難しさを軽減し、採集した画像品質によるビジュアルマップ作成精度への悪影響を低減できる。【選択図】図2

Description

本出願の実施例は、コンピュータ技術分野に関し、具体的にはコンピューティング技術、ビジョン技術分野に関し、特には地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラムに関する。
ビジュアルマップ作成の分野において、通常、カスタマイズされた単眼または双眼カメラで対象シーンの画像データを採集する。次に、採集されたビデオストリームまたは画像を入力データとし、ビジュアルSLAM(Simultaneous Localization and Mapping、自己位置推定と環境地図作成の同時実行)技術またはSFM(Structure From Motion、多視点画像からの3次元形状復元)アルゴリズムによって対象シーンのビジュアルマップを作成する。
関連技術において、対象シーンの画像データを採集する場合に、異なるシーンに採集方法が異なっており、画像間のある程度の繰返しを確保する必要があるため、データ採集担当者に高度な専門的能力が要求される。特に、白い壁、床、大きなガラス片などの特別なシーンでは、カメラの画角が十分に大きくないため、画像全体のテクスチャが非常に少ないことが多く、従って、画像間の特徴追跡に失敗し、作成精度にある程度影響を及ぼす。
本出願の実施例は、地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラムを提案した。
第1態様において、本出願の実施例は、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定することと、隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいて、前記パノラマ画像シーケンスに対応する特徴軌跡を確定することと、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成することと、を含む地図作成のためのコンピュータ実施方法を提供する。
いくつかの実施例において、特徴軌跡は、パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、パノラマ画像シーケンス内の対象フレーム後の、1よりも大きい所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定する対象フレーム確定ステップと、対象フレームに対応する透視画像シーケンス、マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスのそれぞれを所定のスライディングウィンドウに読み込み、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡(partial feature track)を取得するスライディングウィンドウマッチングステップと、対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、スライディングウィンドウをクリアし、パノラマ画像シーケンスから対象フレームを削除し、更新後のパノラマ画像シーケンスを取得するシーケンス更新ステップと、パノラマ画像シーケンスにおける最後のパノラマ画像フレームがマッチングフレームとして対象フレームとフレーム間特徴点マッチングが完了するまで、更新後のパノラマ画像シーケンスに対して対象フレーム確定ステップと、スライディングウィンドウマッチングステップと、シーケンス更新ステップとを実行させる軌跡取得ステップと、によって取得される。
いくつかの実施例において、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得することは、スライディングウィンドウ内で対象フレームと、各マッチングフレームの透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を部分的特徴軌跡とすることを含む。
いくつかの実施例において、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得することは、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とすることと、対象フレームに対応する透視画像シーケンス内の各透視画像と、対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとをそれぞれフレーム間特徴点マッチングさせ、第2のマッチング結果を取得することと、第1のマッチング結果及び第2のマッチング結果に基づいて、部分的特徴軌跡を取得することと、を含む。
いくつかの実施例において、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定することは、各パノラマ画像フレームに対してセマンティックセグメンテーション(semantic segmentation)を行い、各パノラマ画像フレームから所定のセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得することと、前処理されたパノラマ画像フレームから各パノラマ画像フレームの姿勢情報を確定し、各パノラマ画像フレームから透視画像シーケンスを確定することと、を含む。
いくつかの実施例において、方法は、ビジュアルマップに対して、ビジュアルマップ内の特徴点に対して三角測量ステップを実行し、特徴点の3次元座標を確定することと、特徴点及び姿勢情報に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを実行し、更新後の特徴点及び姿勢情報を取得することと、更新後の特徴点に対してRANSACに基づいた三角測量ステップを実行し、特徴点のうちのミスマッチング点を削除し、2回目更新後の特徴点を取得することと、更新後の姿勢情報及び2回目更新後の特徴点に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを再度実行し、2回目更新後の姿勢情報と3回目更新後の特徴点を取得することと、2回目更新後の姿勢情報と3回目更新後の特徴点に基づいて、更新後のビジュアルマップを確定することと、をさらに含む。
第2態様において、本出願の実施例は、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから透視画像シーケンスを確定するように構成された画像処理ユニットと、隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいて、パノラマ画像シーケンスに対応する特徴軌跡を確定するように構成された特徴マッチングユニットと、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成するように構成された地図作成ユニットと、を備える地図作成装置を提供する。
いくつかの実施例において、特徴マッチングユニットは、
対象フレーム確定ユニットによって、パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、パノラマ画像シーケンス内の対象フレーム後の、1よりも大きい所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定する対象フレーム確定ステップと、
スライディングウィンドウマッチングユニットによって、対象フレームに対応する透視画像シーケンス、マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスのそれぞれを所定のスライディングウィンドウに読み込み、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得するスライディングウィンドウマッチングステップと、
シーケンス更新ユニットによって、対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、スライディングウィンドウをクリアし、パノラマ画像シーケンスから対象フレームを削除し、更新後のパノラマ画像シーケンスを取得するシーケンス更新ステップと、
軌跡取得ユニットによって、パノラマ画像シーケンス内の最後のパノラマ画像フレームがマッチングフレームとして対象フレームとの間でフレーム間特徴点マッチングが完了するまで、更新後のパノラマ画像シーケンスに対して対象フレーム確定ステップと、スライディングウィンドウマッチングステップと、シーケンス更新ステップとを実行させる軌跡取得ステップと、
によって特徴軌跡を取得する。
いくつかの実施例において、スライディングウィンドウマッチングユニットは、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を部分的特徴軌跡とするように構成される。
いくつかの実施例において、スライディングウィンドウマッチングユニットは、さらにスライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とし、対象フレームに対応する透視画像シーケンス内の各透視画像と、対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行い、第2のマッチング結果を取得し、第1のマッチング結果及び第2のマッチング結果に基づいて、部分的特徴軌跡を取得するように構成される。
いくつかの実施例において、装置は、各パノラマ画像フレームに対してセマンティックセグメンテーションを行い、各パノラマ画像フレームから所定のセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得することと、前処理されたパノラマ画像フレームから各パノラマ画像フレームの姿勢情報を確定し、各パノラマ画像フレームから1つの透視画像シーケンスを確定することと、を実行するように構成されたセマンティックセグメンテーションユニットをさらに備える。
いくつかの実施例において、装置は、ビジュアルマップに対して、ビジュアルマップの特徴点に対して三角測量ステップを実行し、特徴点の3次元座標を確定することと、特徴点及び姿勢情報に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを実行し、更新後の特徴点及び姿勢情報を取得することと、更新後の特徴点に対してRANSACに基づいた三角測量ステップを実行し、特徴点のうちのミスマッチング点を削除し、2回目更新後の特徴点を取得することと、更新後の姿勢情報及び2回目更新後の特徴点に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを再度実行し、2回目更新後の姿勢情報と3回目更新後の特徴点を取得することと、2回目更新後の姿勢情報と3回目更新後の特徴点に基づいて、更新後のビジュアルマップを確定することと、を実行するように構成された地図更新ユニットをさらに備える。
第3態様において、本出願の実施例は、1つ以上のプロセッサと、1つ以上のプログラムが記憶されているメモリとを備えており、1つ以上のプログラムが1つ以上のプロセッサにより実行されるとき、1つ以上のプロセッサに本出願の実施例の第1態様に記載の方法を実現させる電子機器を提供する。
第4態様において、本出願の実施例は、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、プログラムがプロセッサにより実行されるとき、本出願の実施例の第1態様に記載の方法が実現されるコンピュータ可読記憶媒体を提供する。
第5態様において、本出願の実施例は、コンピュータプログラムであって、コンピュータプログラムがプロセッサにより実行されると、本出願の実施例の第1態様に記載の方法が実現されるコンピュータプログラムを提供する。
本出願の実施例により提供される地図を作成するための方法及び装置は、対象領域のパノラマ画像シーケンスから確定された透視画像シーケンスに基づいて、対応する特徴軌跡を確定し、パノラマ画像フレームの姿勢情報と組み合わせてビジュアルマップを作成することにより、地図作成プロセスにおける画像採集の難さを軽減し、採集した画像品質によるビジュアルマップ作成精度への悪影響を低減することができる。
以下、添付図面を参照しながら非限定的な実施例を詳細に説明することにより、本出願の他の特徴、目的及び利点はより明らかになる。
本出願の一実施例が適用される例示的なシステムアーキテクチャを示す図である。 本出願に係る地図作成方法の一実施例を示すフローチャートである。 本出願の実施例に係る地図作成方法の一適用シーンを示す概略図である。 本出願に係る地図作成方法の他の実施例を示すフローチャートである。 本出願に係る地図作成装置の一実施例を示す概略構成図である。 本出願の実施例を実現するための電子機器の概略構成図である。
以下、添付図面及び実施例を参照しながら本出願をより詳細に説明する。ここで説明する具体的な実施例は、かかる発明を説明するためのものに過ぎず、当該発明を限定するものではないことを理解すべきである。なお、説明の便宜上、図面に発明と関連する部分のみが示されている。
なお、矛盾しない場合、本出願の実施例及び実施例の特徴は互いに組み合わせてもよい。以下、添付図面を参照して実施例により本出願を詳細に説明する。
図1では、本出願の実施例に係る地図作成方法又は地図作成装置が適用される例示的なシステムアーキテクチャ100を示した。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104及びサーバ105を含んでもよい。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクの媒体を提供するために用いられる。ネットワーク104は、例えば、有線、無線通信リンク又は光ケーブルなどのような様々な接続タイプを含んでもよい。
ユーザは、端末装置101、102、103を用いてネットワーク104を介してサーバ105と対話することによって、データを受信したり送信したりすることができる。端末装置101、102、103は、取得した対象領域のパノラマ画像シーケンス(例えば、パノラマ画像から構成された映像)をサーバ105に送信することができ、サーバ105が、本出願の実施例で提案された地図作成方法を実行し、取得した対象領域のパノラマ画像シーケンスに基づいてビジュアルマップを作成し、作成したビジュアルマップを端末装置に送信する。
端末装置101、102、103はハードウェアであってもよく、ソフトウェアであってもよい。端末装置101、102、103がハードウェアである場合、ディスプレイを有するとともに情報交換をサポートする各種電子機器であってもよく、スマートフォン、タブレット型パソコン、電子ブックリーダー、ラップトップコンピュータ及びデスクトップコンピュータなどを含むが、これらに限定されるものではない。端末装置101、102、103がソフトウェアである場合、前記電子機器にインストールされてもよい。例えば、分散サービスを提供するための複数のソフトウェアまたはソフトウェアモジュールとして実現されてもよく、単一ソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここでは、特に限定しない。
サーバ105は、端末装置101、102、103で取得した対象領域のパノラマ画像シーケンスをサポートするバックグラウンドアプリケーションサーバなどのような各種サービスを提供するサーバであってもよい。バックグラウンドアプリケーションサーバは、受信したパノラマ画像シーケンスに基づいて対象領域のビジュアルマップを作成し、作成したビジュアルマップを端末装置に送信することができる。
なお、本出願の実施例により提供される地図作成方法は端末装置101、102、103によって実行されてもよく、サーバ105によって実行されてもよい。従って、地図作成装置は端末装置101、102、103に構成されてもよく、サーバ105に構成されてもよい。ここでは、特に限定しない。
なお、サーバは、ハードウェアであってもよく、ソフトウェアであってもよい。 サーバがハードウェアである場合、複数のサーバで構成された分散型サーバクラスタとして実現されてもよく、単一サーバとして実現されてもよい。サーバがソフトウェアである場合、例えば、分散サービスを提供するために用いられる複数のソフトウェアまたはソフトウェアモジュールとして実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここでは、特に限定しない。
図1における端末装置、ネットワーク及びサーバの数は例示的なものに過ぎないことを理解すべきである。実現のニーズに応じて、任意の数の端末装置、ネットワーク及びサーバを備えてもよい。
次に、図2を参照されたい。図2では、本出願に係る地図作成方法の一実施例のフロー200を示した。該地図作成方法は以下のステップを含む。
ステップ201において、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから透視画像シーケンスを確定する。
本実施例において、透視画像シーケンスは、パノラマ画像シーケンスの特徴軌跡を確定するために用いられ、特徴軌跡及び姿勢情報は、ビジュアルマップの作成に重要なデータである。
本実施例において、地図作成方法の実行主体(例えば、図1に示されたサーバ)は、ユーザが地図作成のために用いる端末またはパノラマカメラから、対象領域のパノラマ画像シーケンスを有線接続方式又は無線接続方式によって受信することができる。なお、前記無線接続方式は3G/4G接続、WiFi(登録商標)接続、ブルートゥース(登録商標)接続、WiMAX(登録商標)接続、Zigbee(登録商標)接続、UWB(登録商標)(Ultra Wideband)接続、及びその他の既知又は将来開発される無線接続方式を含むが、これらに限定されない。
具体的な例示において、オペレータは、パノラマカメラで対象領域のパノラマ画像シーケンスを採集した後、パノラマ画像シーケンスを本実施例の実行主体(例えば、図1に示されたサーバまたは端末装置であってもよい)に送信し、実行主体が上述したステップによってパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報と対応する透視画像シーケンスを確定するようにしてもよい。
前記パノラマ画像とは、パノラマカメラで採集した画像を指し、対象領域の画像情報を360°の観察角度で全方向に採集でき、通常のカメラで採集した透視画像に比べて、パノラマ画像に含まれた情報がより豊富であるため、画像採集プロセスにおける情報ロス(loss)を回避することができる。ただし、パノラマ画像にはある程度の画像歪みが存在するため、通常のカメラで採集した透視画像のように地図の作成に直接使用することはできない。従って、後続の地図作成ステップの実行に使用できるように、パノラマ画像を前処理する必要がある。
本実施例において、実行主体(例えば、図1に示されたサーバ)は対象領域のパノラマ画像シーケンス(例えば、パノラマカメラで撮影した対象領域のパノラマ映像)を受信した後、画像の前処理ステップを実行し、ここで、パノラマ画像シーケンス内の画像フレームのそれぞれは対象領域のパノラマ画像である。例示として、まず、ビジュアルSLAM技術に基づいて、シーケンス内の各パノラマ画像フレームの姿勢情報を確定し、姿勢情報は、画像を採集するときのカメラの位置と姿勢を表すために用いられる。その後、パノラマ画像フレームのそれぞれから複数の透視画像を確定し、透視画像のそれぞれは所定の異なる観察角度に対応し、このプロセスにおいて、パノラマ画像フレーム内の歪んだ画像の部分を補正した。例えば、0°、90°、180°、270°の4つの観察角度でパノラマ画像フレームを分け、4つの透視画像を順次確定し、観察角度により透視画像をソートし、該パノラマ画像フレームに対応する透視画像シーケンスを取得する。なお、ビジュアルSLAM技術は、地図作成の分野における従来の技術に属しており、ここでは、説明を省略する。観察角度によりパノラマ画像から複数の透視画像を確定する技術もコンピュータ画像の分野における従来の技術に属しており、例えば、OpenCVアルゴリズムによって実現することができるが、本出願の実施例では特に限定しない。
本実施形態のいくつかの選択可能な実施例において、以下のステップによってパノラマ画像フレームから姿勢情報及び透視画像シーケンスを確定することができる。対象領域のパノラマ画像フレームに対してセマンティックセグメンテーションを実行し、パノラマ画像フレームから所定のセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得する。前処理されたパノラマ画像フレームから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから透視画像シーケンスを確定する。具体的なシーンを踏まえて例を挙げて説明する。対象領域のパノラマ画像に、地図作成に無効なコンテンツが含まれている場合、不要な演算を削減するために、パノラマ画像からそのコンテンツを削除する必要がある。例えば、人間、動物、植物などの対象をセグメンテーション対象(segmentation target)として設定し、パノラマ画像フレームをセマンティックセグメンテーションモデル(完全畳み込みニューラルネットワークモデル(full−convolutional neural network model)など)に入力し、パノラマ画像からセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得した後、ビジュアルSLAM技術に基づいて、前処理されたパノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームから1つの透視画像シーケンスを確定する。
ステップ202において、隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいて、パノラマ画像シーケンスに対応する特徴軌跡を確定する。
地図作成の分野では、異なる画像フレーム内の同じ特徴点をマッチングさせることで、各画像フレームに対応する特徴軌跡(feature track)を取得することができる。特徴軌跡からカメラの動き状態を推定し、特徴点の位置情報及びカメラの動き状態から特徴点の三次元座標を求めることができる。これは、ビジュアルマップの作成に不可欠なステップである。
本実施例において、ステップ201で得られた各パノラマ画像フレームに対応する透視画像シーケンスに対してフレーム間特徴点マッチングを行うことにより、パノラマ画像シーケンスに対応する特徴軌跡を取得する。具体的には、以下のステップを含む。まず、各透視画像シーケンスから特徴点を確定する。特徴点にはキーポイントと記述子が含まれる。キーポイントとは、画像フレームにおいて、地図を作成するための重要な情報(例えば、コーナーポイントのスケール、回転特性などの情報)を含むポイントである。記述子とは、特徴点のそれぞれを区別するためのものであり、異なる画像フレーム間の特徴点のマッチングに用いられ、記述子の類似度が高いほど、対応する特徴点の類似度が高いことを示す。次に、隣接したパノラマ画像フレームに対応する透視画像シーケンス間でフレーム間特徴点マッチングを行う。例えば、2つの透視画像シーケンス内の同じソート位置にある透視画像をマッチング対象とし、そのうちの同じまたは類似の特徴点をマッチングさせることができる。
特徴点の抽出方法及び特徴点の類似度計算方法は、従来の技術または将来開発される技術における特徴点の抽出方法及び特徴点の類似度計算方法であってもよい。本出願では特に限定しない。
具体的な例示において、ORB(Oriented FAST and Rotated BRIEF)特徴点アルゴリズムにより2つの透視画像から特徴点を抽出し、特徴点に含まれた記述子はBRIEFバイナリ記述子であり、ハミング距離(Hamming distance)で2つの特徴点間の類似度を表す。ハミング距離とは、2つの同じ長さの文字列間の異なるデータビットの数を指す。例えば、2つの8ビットバイナリ列00110100と10110100は、第1のデータビットのみが異なるため、ハミング距離は1である。ORBアルゴリズムの特徴マッチングでは、ハミング距離が小さいほど、特徴点の類似度が高くなる。これにより、2つの透視画像間における類似度が所定の基準を満たす2つの特徴点を同じ点と認め、特徴マッチングが完了する。
関連技術で2つの隣接した別個の画像フレーム間でフレーム間特徴点マッチングを行うことと異なることとして、本出願の実施例では、隣接した2つのパノラマ画像フレームに対応する2つの透視画像シーケンスに対してフレーム間特徴点マッチングを行うことである。透視画像シーケンスのうち、同じソート位置にある透視画像に対応する観察角度が同じであるため、それをマッチング対象としてフレーム間特徴点マッチングを行うことができ、その後、透視画像シーケンス内の全ての透視画像の特徴マッチング結果をマージして、得られた特徴マッチング結果は、2つのパノラマ画像フレーム間の特徴マッチング結果である。最後に、各パノラマ画像フレームの特徴マッチング結果をマージして、パノラマ画像シーケンスに対応する特徴軌跡を得ることができる。
なお、本出願の実施例における特徴マッチング結果と特徴軌跡のマージについて、その規則は、全ての特徴点を保持し、そのうちの同じ特徴点を1つにマージすることである。
以下、具体的なシーンを例として説明する。パノラマ画像シーケンスは、3つの透視画像シーケンスa、b、cにそれぞれ対応する3つのパノラマ画像フレームA、B、Cを含み、各透視画像シーケンスは4つの透視画像を含み、透視画像は、観察角度の大きさに応じて順次配列され、それぞれa1、a2、a3、a4、b1、b2、b3、b4、c1、c2、c3、c4である。a1とb1、a2とb2、a3とb3、a4とb4のそれぞれをマッチング対象としてフレーム間特徴点マッチングを行い、マッチング結果をマージして、透視画像シーケンスaとbのマッチング結果を取得し、同様に、透視画像シーケンスbとcのマッチング結果を取得することができ、この2組の透視画像シーケンスのマッチング結果をマージして、パノラマ画像シーケンスの特徴軌跡を取得する。
本実施形態のいくつかの選択可能な実施例において、スライディングウィンドウマッチング方法によって、透視画像シーケンスに対してフレーム間特徴点マッチングを行うことができ、対象フレームに対応する透視画像シーケンスと、隣接した複数のマッチングフレームに対応する透視画像シーケンスとの間で同時にフレーム間特徴点マッチングを行うことにより、パノラマ画像に対応する特徴軌跡を取得する。スライディングウィンドウマッチング方法は以下のステップを含んでもよい。パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、パノラマ画像シーケンス内の対象フレーム後の所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定し、所定数は1より大きい。対象フレームに対応する透視画像シーケンス、マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスをそれぞれ所定のスライディングウィンドウに読み込み、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得する。対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、スライディングウィンドウをクリアし、パノラマ画像シーケンスから対象フレームを削除し、更新後のパノラマ画像シーケンスを取得する。パノラマ画像シーケンス内の最後のパノラマ画像フレームをマッチングフレームとして、対象フレームとの間でフレーム間特徴点マッチングが完了するまで、更新後のパノラマ画像シーケンスに対して特徴点マッチングステップを実行し、特徴軌跡を取得する。
本実施形態のいくつかの選択可能な実施例において、前記の前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得することは、前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームの透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を部分的特徴軌跡とすることを含んでもよい。
具体的な例示において、パノラマ画像シーケンス内の1枚目のパノラマ画像フレームAを対象フレームとして確定し、所定数は3であり、2枚目、3枚目、4枚目のパノラマ画像フレームをマッチングフレームとして確定し、それぞれパノラマ画像フレームB、C、Dである。前記4つのパノラマ画像フレームに対応する透視画像シーケンスはそれぞれa、b、c、dであり、透視画像シーケンスのそれぞれには4つの透視画像が含まれている。これら4つのパノラマ画像フレームに対応する透視画像シーケンスを所定のスライディングウィンドウに同時に読み込み、以下の方法でフレーム間特徴点マッチングを行う。透視画像シーケンスa内の第1の透視画像a1と、b1、c1、d1との間で同時にフレーム間特徴点マッチングを行い、同様に、a内の4つの透視画像をそれぞれフレーム間特徴点マッチングさせた後、透視画像シーケンスaのマッチング結果を得ることができ、透視画像シーケンスaのマッチング結果をパノラマ画像フレームAに対応する部分的特徴軌跡とする。次に、パノラマ画像シーケンスからAを削除し、Bを対象フレームとして更新し、C、D、Fをマッチングフレームとして更新し、上記のステップによりパノラマ画像フレームBに対応する部分的特徴軌跡を取得する。パノラマ画像シーケンス内の最後のパノラマ画像をマッチングフレームとしてスライディングウィンドウに読み込み、フレーム間特徴点マッチングを行うまで、上記のステップを繰り返し、これにより、パノラマ画像シーケンス全体のフレーム間特徴点マッチングが完了し、各パノラマ画像シーケンスに対応する複数の部分的特徴軌跡をマージして、パノラマ画像シーケンスに対応する特徴軌跡を取得する。
本実施形態のいくつかの選択可能な実施例において、前記の前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得することは、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とすることと、対象フレームに対応する透視画像シーケンス内の各透視画像と、対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとをそれぞれフレーム間特徴点マッチングさせ、第2のマッチング結果を取得することと、第1のマッチング結果及び第2のマッチング結果に基づいて、部分的特徴軌跡を取得すること、とを含んでもよい。
前記例示を踏まえてさらに説明する。透視画像シーケンスa内の第1の透視画像a1と、b1、c1、d1との間で同時にフレーム間特徴点マッチングを行い、同様に、a内の4つの透視画像をそれぞれフレーム間特徴点マッチングさせて、透視画像シーケンスaのマッチング結果を得ることができ、このように得られた透視画像シーケンスaのマッチング結果をパノラマ画像フレームAに対応する第1のマッチング結果とする。また、a1をb1、b2、b3、b4とそれぞれフレーム間特徴点マッチングさせ、a2をb1、b2、b3、b4とそれぞれフレーム間特徴点マッチングさせ、同様に、a内の4つの透視画像をそれぞれフレーム間特徴点マッチングさせて、透視画像シーケンスaの他のマッチング結果を得ることができ、このマッチング結果をパノラマ画像フレームAに対応する第2のマッチング結果とする。次に、第1のマッチング結果と第2のマッチング結果をマージして、パノラマ画像フレームAに対応する部分的特徴軌跡を取得し、上記のステップを繰り返すことで、パノラマ画像シーケンスに対応する特徴軌跡を取得することができる。
ステップ203において、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成する。
本実施例において、パノラマ画像フレームの姿勢情報と組み合わせ、ステップ202で得られた特徴軌跡に対して三角測量を行い、そのうちの特徴点の3次元座標を確定し、対応する3次元点群を得ることができ、これらの3次元点群からなる3次元画像が対象領域のビジュアルマップの原型である。次に、閉ループ検出によって、姿勢を最適化し、類似した3次元点群をマージし、グローバル姿勢と3次元点群を共同最適化して、対象領域のビジュアルマップを取得することができる。なお、特徴軌跡に基づいたビジュアルマップの作成は当分野の従来の技術に属しており、本出願の実施例では特に限定しない。
続いて、図3を参照されたい。図3は、本実施例による地図作成方法の適用シーンの概略図である。図3の適用シーンにおいて、ユーザは、対象領域のパノラマ画像シーケンスを実行主体301(図1に示されたサーバであってもよく、端末装置であってもよい)に送信し、実行主体が画像処理によってパノラマ画像シーケンスから姿勢情報及び透視画像シーケンスを確定した後、フレーム間特徴点マッチングステップを行って特徴軌跡を取得し、最後に、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて対象領域のビジュアルマップを作成することにより、パノラマ画像に基づいたビジュアルマップの作成プロセスを実現した。
本出願の実施例により提供される地図を作成するための方法及び装置は、対象領域のパノラマ画像シーケンスから透視画像シーケンスを確定することに基づいて、対応する特徴軌跡を確定し、パノラマ画像フレームの姿勢情報と組み合わせてビジュアルマップを作成することで、地図作成プロセスにおける画像採集の難しさを軽減し、採集した画像品質によるビジュアルマップ作成への悪影響を低減した。
さらに、図4を参照されたい。図4では、地図作成方法の他の実施例のフローチャート400を示した。この地図作成方法のフローチャート400は、以下のステップを含む。
ステップ401において、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定する。このステップは前記ステップ201に対応しており、ここでは、説明を省略する。
ステップ402において、パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、パノラマ画像シーケンス内の対象フレーム後の所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定し、本実施例において、所定数は1より大きい整数に設定される。
ステップ403において、対象フレームに対応する透視画像シーケンス、マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスをそれぞれ所定のスライディングウィンドウに読み込む。
ステップ404において、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とする。このステップについては、前記選択可能な実施例において説明したので、ここでは説明を省略する。なお、隣接した2つの透視画像シーケンスの間でフレーム間特徴点マッチングを行うプロセスにおいて、画像がぼやけたり、物体の遮蔽が発生したりすると、マッチングに失敗することがある。スライディングウィンドウマッチング方法を用いる場合には、対象フレームを複数のマッチングフレームと同時にフレーム間特徴点マッチングさせるため、ある透視画像がマッチングに失敗したとしても、他の対応する透視画像とマッチングさせることができる。これによりマッチング失敗の可能性が低くなり、地図作成プロセスのロバスト性が向上された。
ステップ405において、対象フレームに対応する透視画像シーケンス内の各透視画像と、対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとの間でそれぞれフレーム間特徴点マッチングを行って、第2のマッチング結果を取得する。このステップについては、上記の実施形態の選択可能な実施例において説明したので、ここでは説明を省略する。なお、第1のマッチング結果に比べて、第2のマッチング結果は、カメラの動きによって一部の特徴が1つの透視画像の観察範囲から別の透視画像の観察範囲に移動してしまう可能性があることを考慮しているため、このようなマッチング結果はカメラの動き状態をより正確に推定することの助けになる。
ステップ406において、第1のマッチング結果及び第2のマッチング結果に基づいて、部分的特徴軌跡を取得する。このステップについては、上記の実施形態の選択可能な実施例において説明したので、ここでは説明を省略する。第1のマッチング結果と第2のマッチング結果をマージして、対象フレームに対応する部分的特徴軌跡を取得することができる。なお、第1のマッチング結果と第2のマッチング結果の組み合わせにより、地図作成プロセスのロバスト性が向上されただけでなく、作成されたビジュアルマップの精度も向上された。
ステップ407において、対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、スライディングウィンドウをクリアし、パノラマ画像シーケンスから対象フレームを削除し、更新後のパノラマ画像シーケンスを取得する。このステップについては、上記の実施形態の選択可能な実施例において説明したので、ここでは説明を省略する。
ステップ408において、パノラマ画像シーケンス内の最後のパノラマ画像フレームをマッチングフレームとして、対象フレームとの間でフレーム間特徴点マッチングが完了するまで、更新後のパノラマ画像シーケンスに対して特徴点マッチングステップを実行し、特徴軌跡を取得する。ステップ403〜ステップ408で得られた、パノラマ画像シーケンスに対応する部分的特徴軌跡をマージし、パノラマ画像シーケンスに対応する特徴軌跡を取得する。このステップについては、上記の実施形態の選択可能な実施例において説明したので、ここでは説明を省略する。
ステップ409において、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成する。このステップは、前記ステップ203に対応し、ここでは説明を省略する。
ステップ410において、ビジュアルマップに基づいて、更新後のビジュアルマップを取得する。本実施例において、さらに、以下のステップによりビジュアルマップの最適化精度を高め、更新後のビジュアルマップを得ることができる。ビジュアルマップの特徴点に対して三角測量ステップを実行し、特徴点の3次元座標を確定する。特徴点及び姿勢情報に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを実行し、更新後の特徴点及び姿勢情報を取得する。更新後の特徴点に対してRANSAC(Random Sample Consensus)に基づく三角測量ステップを実行し、特徴点のうちのミスマッチング点を削除し、2回目更新後の特徴点を取得する。更新後の姿勢情報及び2回目更新後の特徴点に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを再度実行し、2回目更新後の姿勢情報と3回目更新後の特徴点を取得する。2回目更新後の姿勢情報と3回目更新後の特徴点に基づいて、更新後のビジュアルマップを確定する。
上記のステップにより、作成したビジュアルマップを最適化することができる。例えば、RANSACに基づく三角測量ステップによってビジュアルマップ内の一部のミスマッチング点を削除し、また、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップによって特徴点の再投影誤差を減らすことができ、これによってより高精度のビジュアルマップを取得する。
なお、前記三角測量ステップと、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップは、所属する技術分野では比較的成熟した技術的手段であるが、上記ステップの組み合わせ方法は所属する技術分野の従来技術ではない。従って、本実施例で特定しているのは、各ステップを実現するための技術的手段ではなく、各ステップの組み合わせ方法である。
図4から分かるように、図2に対応する実施例に比べて、本実施例における地図作成方法のフロー400は、スライディングウィンドウマッチング方法に基づいて特徴軌跡を確定するステップと、作成したビジュアルマップを最適化するステップを具体化した。スライディングウィンドウマッチング方法によって、特徴点マッチングの失敗による重要な情報のロス(loss)を効果的に回避することができ、これにより地図作成プロセスのロバスト性が向上され、ビジュアルマップを最適化することでビジュアルマップの精度が向上される。
さらに、図5を参照されたい。前記各図に示された方法の実施形態として、本出願は、地図作成装置の一実施例を提供する。該装置の実施例は、図2に示される方法の実施例に対応し、該装置は具体的には様々な電子機器に適用できる。
図5に示すように、本実施例における地図作成装置500は、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから透視画像シーケンスを確定するように構成された画像処理ユニット501と、隣接した各パノラマ画像フレームの透視画像シーケンスに基づいて、パノラマ画像シーケンスに対応する特徴軌跡を確定するように構成された特徴マッチングユニット502と、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成するように構成された地図作成ユニット503と、を備える。
本実施例において、特徴マッチングユニット502は、以下のステップによって特徴軌跡を取得する。対象フレーム確定ユニットは、パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、パノラマ画像シーケンス内の対象フレーム後の所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定し、所定数が1より大きくなるように構成される。スライディングウィンドウマッチングユニットは、対象フレームに対応する透視画像シーケンス、マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスのそれぞれを所定のスライディングウィンドウに読み込み、スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得するように構成される。シーケンス更新ユニットは、対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、スライディングウィンドウをクリアし、パノラマ画像シーケンスから対象フレームを削除し、更新後のパノラマ画像シーケンスを取得するように構成される。軌跡取得ユニットは、パノラマ画像シーケンス内の最後のパノラマ画像フレームをマッチングフレームとして、対象フレームとの間でフレーム間特徴点マッチングが完了するまで、更新後のパノラマ画像シーケンスに対して特徴点マッチングを実行し、特徴軌跡を取得するように構成される。
本実施例において、スライディングウィンドウマッチングユニットは、以下の方法により部分的特徴軌跡を取得するように構成される。スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を部分的特徴軌跡とする。
本実施例において、スライディングウィンドウマッチングユニットは、さらに以下の方法により部分的特徴軌跡を取得するように構成される。スライディングウィンドウ内で対象フレームと、各マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とする。対象フレームに対応する透視画像シーケンス内の各透視画像と、対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとをそれぞれフレーム間特徴点マッチングさせ、第2のマッチング結果を取得する。第1のマッチング結果及び第2のマッチング結果に基づいて、部分的特徴軌跡を取得する。
本実施例において、該装置は、以下のステップを実行するように構成されたセマンティックセグメンテーションユニットをさらに備える。各パノラマ画像フレームに対してセマンティックセグメンテーションを行い、各パノラマ画像フレームから所定のセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得する。前処理されたパノラマ画像フレームから各パノラマ画像フレームの姿勢情報を確定し、各パノラマ画像フレームから透視画像シーケンスを確定する。
本実施例において、該装置は、ビジュアルマップに対して以下のステップを実行するように構成された地図更新ユニットをさらに備える。ビジュアルマップ内の特徴点に対して三角測量ステップを実行し、特徴点の3次元座標を確定する。特徴点及び姿勢情報に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを実行し、更新後の特徴点及び姿勢情報を取得する。更新後の特徴点に対してRANSACに基づいた三角測量ステップを実行し、特徴点のうちのミスマッチング点を削除し、2回目更新後の特徴点を取得する。更新後の姿勢情報及び2回目更新後の特徴点に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを再度実行し、2回目更新後の姿勢情報と3回目更新後の特徴点を取得する。2回目更新後の姿勢情報と3回目更新後の特徴点に基づいて、更新後のビジュアルマップを確定する。
図6を参照されたい。図6では、本出願の実施例を実現するのに適した電子機器(例えば、図1のサーバまたは端末装置)600の概略構成図を示した。本出願の実施例における端末装置は、携帯電話、ノートブックコンピュータ、デジタル放送受信機、PDA(パーソナルデジタルアシスタント)、PAD(タブレットコンピュータ)、PMP(ポータブルマルチメディアプレーヤー)、車載端末(例えば、車載ナビゲーション端末)等のモバイル端末、及びデジタルTV、デスクトップコンピュータなどの固定端末を含むが、これらに限定されない。図6に示された端末装置/サーバは単なる例示に過ぎず、本出願の実施例の機能及び使用範囲にいかなる制限をもたらすものとすべきでない。
図6に示すように、電子機器600は、読み出し専用メモリ(ROM)602に記憶されているプログラム又は記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムに基づいて様々な適切な動作及び処理を実行することができる処理装置(例えば、中央処理装置、グラフィックプロセッサ等)601を備えることができる。RAM603には、電子機器600の動作に必要な様々なプログラム及びデータがさらに記憶(格納)されている。処理装置601、ROM602及びRAM603は、バス604を介して互いに接続される。入力/出力(I/O)インターフェース605もバス604に接続される。
通常、I/Oインタフェース605には、例えば、タッチパネル、タッチパッド、キーボード、マウス、カメラ、マイクロホン、加速度計、ジャイロスコープなどを含む入力装置606、液晶ディスプレイ(LCD)、スピーカ、バイブレータなどを含む出力装置607、磁気テープ、ハードディスクなどを含む記憶装置608、並びに通信装置609が接続されている。通信装置609は、電子機器600と他の機器との間で無線または有線による通信を行い、データのやりとりを可能にする。なお、図6では、様々な装置を有する電子機器600を示しているが、図示された装置のすべてを実施または備える必要はないことを理解すべきである。代替して実施してもよく、より多くの装置またはより少ない装置を備えてもよい。図6に示す各ブロックは1つの装置を代表してもよく、必要に応じて複数の装置を代表してもよい。
特に、本出願の実施例によれば、以上のフローチャートを参照しながら記載したプロセスは、コンピュータソフトウェアプログラムとして実現することができる。例えば、本出願の実施例は、コンピュータ可読媒体にロードされるコンピュータプログラムを含むコンピュータプログラム製品を含み、該コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含んでもよい。このような実施例において、該コンピュータプログラムは、通信装置609を介してネットワークからダウンロードされてインストールされてもよく、又は記憶装置608またはROM602からインストールされてもよい。該コンピュータプログラムが処理装置601により実行されると、本出願の方法によって限定された前記機能が実行される。なお、本出願の実施例におけるコンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体、或いは前記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気的、磁気的、光学的、電磁的、赤外線の、又は半導体のシステム、装置又はデバイス、あるいは任意の前記の組み合わせであってもよいが、これらに限定するものではない。コンピュータ可読記憶媒体のより具体的な例として、1本又は複数本の導線を有する電気接続、携帯可能なコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ケーブル、携帯可能なコンパクトディスク読み出し専用メモリ(CD−ROM)、光記憶装置、磁気記憶装置、又は前記の任意の適切な組み合わせを含むが、これらに限定されない。本出願の実施例において、コンピュータ可読記憶媒体は、プログラムを含有又は記憶するいずれの有形媒体であってもよく、該プログラムは、コマンド実行システム、装置又はデバイスに用いられ、又はそれらに組み合わせて用いられてもよい。本出願の実施例において、コンピュータ可読信号媒体は、ベースバンドにおいて又はキャリアの一部として伝搬されるデータ信号を含み、コンピュータ可読プログラムコードがロードされる。このように伝搬されるデータ信号は、電磁気信号、光信号又は前記任意の適切な組み合わせを含む種々の形式を採ることができるが、これらに限定されない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体以外のいかなるコンピュータ可読媒体であってもよく、該コンピュータ可読媒体は、コマンド実行システム、装置又はデバイスにより使用され、又はそれらと組み合わせて使用されるためのプログラムを送信、伝搬又は伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、電線、光ケーブル、RF(無線周波数)など、又は前記任意の適切な組み合わせを含む任意の適切な媒体を用いて伝送することができるが、それらに限定されない。
前記コンピュータ可読媒体は、前記電子機器に含まれるものであってもよく、該電子機器に実装されずに別体として存在するものであってもよい。前記コンピュータ可読媒体に1つ又は複数のプログラムがロードされ、前記1つ又は複数のプログラムが該電子機器により実行される時、該電子機器は、対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定することと、隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいて、パノラマ画像シーケンスに対応する特徴軌跡を確定することと、特徴軌跡及び各パノラマ画像フレームの姿勢情報に基づいて、対象領域のビジュアルマップを作成することと、を含む。
1つまたは複数のプログラミング言語またはそれらの組み合わせによって、本出願の実施例の動作の実行に用いられるコンピュータプログラムコードを作成してもよい。プログラミング言語は、Java、Smalltalk、C++などのようなオブジェクト指向のプログラミング言語を含み、さらに「C」言語または類似のプログラミング言語のような手続き型プログラミング言語を含む。プログラムコードは完全にユーザコンピュータ上で実行されてもよく、部分的にユーザコンピュータ上で実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、一部がユーザコンピュータ上で実行され一部がリモートコンピュータ上で実行されてもよく、或いは完全にリモートコンピュータまたはサーバ上で実行されてもよい。リモートコンピュータに関わる場合、リモートコンピュータはローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを通じてユーザコンピュータに接続されてもよく、または外部コンピュータ(例えばインターネットサービスプロバイダーによるインターネットを通じて接続する)に接続されてもよい。
添付図面におけるフローチャート及びブロック図は、本出願の各実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャー、機能及び動作を示した。この点において、フローチャート又はブロック図におけるそれぞれのブロックは、1つのモジュール、プログラムセグメント、又はコードの一部を代表することができ、該モジュール、プログラムセグメント、又はコードの一部は、所定のロジック機能を実現するための1つ又は複数の実行可能な指令を含む。なお、代替の実現において、ブロックに表示された機能は、図面に表示された順番と異なる順番で発生させることができる。例えば、2つの直列的に示されたブロックは、実際には、基本的に並行して実行することができ、機能によっては、逆の順番で実行することも可能である。なお、ブロック図及び/又はフローチャートにおけるそれぞれのブロックと、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は動作を実行するための専用のハードウェアに基づくシステムによって実現することができ、あるいは、専用ハードウェアとコンピュータ指令の組み合わせによって実現することができる。
本出願の実施例に記載されたユニットは、ソフトウェアによって実現されてもよく、ハードウェアによって実現されてもよい。記載されたユニットはプロセッサに構成されてもよい。例えば、画像処理ユニット、特徴マッチングユニット及び地図作成ユニットを備えるプロセッサとして記載されてもよい。なお、これらのユニットの名称は場合によってはユニット自体への限定を構成せず、例えば、画像処理ユニットは、「対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定するユニット」と記載されてもよい。
以上の記載は、本出願の好ましい実施例、及び適用される技術的原理の説明に過ぎない。当業者であれば、本出願の実施例に係る発明の範囲が、前記技術的特徴の特定な組み合わせからなる技術案に限定されるものではなく、前記発明の趣旨を逸脱しない範囲で、前記技術的特徴または均等の特徴の任意の組み合わせからなる他の技術案も含むべきであることを理解すべきである。例えば、前記特徴と、本出願の実施例に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。

Claims (15)

  1. 地図作成のためのコンピュータ実施方法であって、
    対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定することと、
    隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいて、前記パノラマ画像シーケンスに対応する特徴軌跡を確定することと、
    前記特徴軌跡及び前記各パノラマ画像フレームの姿勢情報に基づいて、前記対象領域のビジュアルマップを作成することと、を含む地図作成のためのコンピュータ実施方法。
  2. 前記特徴軌跡は、
    前記パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、前記パノラマ画像シーケンス内の前記対象フレーム後の、1よりも大きい所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定する対象フレーム確定ステップと、
    前記対象フレームに対応する透視画像シーケンス、前記マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスをそれぞれ所定のスライディングウィンドウに読み込み、前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得するスライディングウィンドウマッチングステップと、
    前記対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、前記スライディングウィンドウをクリアし、前記パノラマ画像シーケンスから前記対象フレームを削除し、更新後のパノラマ画像シーケンスを取得するシーケンス更新ステップと、
    前記パノラマ画像シーケンスにおける最後のパノラマ画像フレームがマッチングフレームとして前記対象フレームとのフレーム間特徴点マッチングが完了するまで、前記更新後のパノラマ画像シーケンスに対して前記対象フレーム確定ステップと、前記スライディングウィンドウマッチングステップと、前記シーケンス更新ステップとを実行させる軌跡取得ステップと、
    によって取得される請求項1に記載の方法。
  3. 前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得することは、
    前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームの透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を部分的特徴軌跡とすることを含む請求項2に記載の方法。
  4. 前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得することは、
    前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とすることと、
    前記対象フレームに対応する透視画像シーケンス内の各透視画像と、前記対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとをそれぞれフレーム間特徴点マッチングさせ、第2のマッチング結果を取得することと、
    前記第1のマッチング結果及び前記第2のマッチング結果に基づいて、部分的特徴軌跡を取得することと、
    を含む請求項2に記載の方法。
  5. 対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから1つの透視画像シーケンスを確定することは、
    各パノラマ画像フレームに対してセマンティックセグメンテーションを行い、前記各パノラマ画像フレームから所定のセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得することと、
    前処理されたパノラマ画像フレームから各パノラマ画像フレームの姿勢情報を確定し、各パノラマ画像フレームから透視画像シーケンスを確定することと、
    を含む請求項1に記載の方法。
  6. 前記方法は、前記ビジュアルマップに対して、
    前記ビジュアルマップ内の特徴点に対して三角測量ステップを実行し、前記特徴点の3次元座標を確定することと、
    前記特徴点及び姿勢情報に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを実行し、更新後の特徴点及び姿勢情報を取得することと、
    前記更新後の特徴点に対してRANSACに基づいた三角測量ステップを実行し、前記特徴点のうちのミスマッチング点を削除し、2回目更新後の特徴点を取得することと、
    前記更新後の姿勢情報及び前記2回目更新後の特徴点に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを再度実行し、2回目更新後の姿勢情報と3回目更新後の特徴点を取得することと、
    前記2回目更新後の姿勢情報と3回目更新後の特徴点に基づいて、更新後のビジュアルマップを確定することと、
    をさらに含む請求項1〜5のいずれか1項に記載の方法。
  7. 対象領域のパノラマ画像シーケンスから各パノラマ画像フレームの姿勢情報を確定し、パノラマ画像フレームのそれぞれから透視画像シーケンスを確定するように構成された画像処理ユニットと、
    隣接した各パノラマ画像フレームに対応する透視画像シーケンスに基づいて、前記パノラマ画像シーケンスに対応する特徴軌跡を確定するように構成された特徴マッチングユニットと、
    前記特徴軌跡及び前記各パノラマ画像フレームの姿勢情報に基づいて、前記対象領域のビジュアルマップを作成するように構成された地図作成ユニットと、
    を備える地図作成装置。
  8. 前記特徴マッチングユニットは、
    対象フレーム確定ユニットによって、前記パノラマ画像シーケンス内の1枚目のパノラマ画像フレームを対象フレームとして確定し、前記パノラマ画像シーケンス内の前記対象フレーム後の、1よりも大きい所定数のパノラマ画像フレームをマッチングフレームシーケンスとして確定する対象フレーム確定ステップと、
    スライディングウィンドウマッチングユニットによって、前記対象フレームに対応する透視画像シーケンス、前記マッチングフレームシーケンス内の各マッチングフレームに対応する透視画像シーケンスをそれぞれ所定のスライディングウィンドウに読み込み、前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果に基づいて、部分的特徴軌跡を取得するスライディングウィンドウマッチングステップと、
    シーケンス更新ユニットによって、前記対象フレームと各マッチングフレームとの間のフレーム間特徴点マッチングの完了に応答して、前記スライディングウィンドウをクリアし、前記パノラマ画像シーケンスから前記対象フレームを削除し、更新後のパノラマ画像シーケンスを取得するシーケンス更新ステップと、
    軌跡取得ユニットによって、前記パノラマ画像シーケンス内の最後のパノラマ画像フレームがマッチングフレームとして前記対象フレームとの間でフレーム間特徴点マッチングが完了するまで、前記更新後のパノラマ画像シーケンスに対して前記対象フレーム確定ステップと、前記スライディングウィンドウマッチングステップと、前記シーケンス更新ステップとを実行させる軌跡取得ステップと、
    によって特徴軌跡を取得する請求項7に記載の装置。
  9. 前記スライディングウィンドウマッチングユニットは、
    前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を部分的特徴軌跡とするように構成される請求項8に記載の装置。
  10. 前記スライディングウィンドウマッチングユニットは、さらに
    前記スライディングウィンドウ内で前記対象フレームと、各前記マッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行った結果を第1のマッチング結果とし、
    前記対象フレームに対応する透視画像シーケンス内の各透視画像と、前記対象フレームに最も近いマッチングフレームに対応する透視画像シーケンスとの間でフレーム間特徴点マッチングを行い、第2のマッチング結果を取得し、
    前記第1のマッチング結果及び前記第2のマッチング結果に基づいて、部分的特徴軌跡を取得する、ように構成される請求項8に記載の装置。
  11. 前記装置は、
    各パノラマ画像フレームに対してセマンティックセグメンテーションを行い、前記各パノラマ画像フレームから所定のセグメンテーション対象を削除し、前処理されたパノラマ画像フレームを取得することと、
    前処理されたパノラマ画像フレームから各パノラマ画像フレームの姿勢情報を確定し、各パノラマ画像フレームから1つの透視画像シーケンスを確定することと、
    を実行するように構成されたセマンティックセグメンテーションユニットをさらに備える請求項7に記載の装置。
  12. 前記装置は、前記ビジュアルマップに対して、
    前記ビジュアルマップの特徴点に対して三角測量ステップを実行し、前記特徴点の3次元座標を確定することと、
    前記特徴点及び姿勢情報に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを実行し、更新後の特徴点及び姿勢情報を取得することと、
    前記更新後の特徴点に対してRANSACに基づいた三角測量ステップを実行し、前記特徴点のうちのミスマッチング点を削除し、2回目更新後の特徴点を取得することと、
    前記更新後の姿勢情報及び前記2回目更新後の特徴点に対して、視覚的制約及び相対的姿勢制約に基づいたグローバルバンドル調整最適化ステップを再度実行し、2回目更新後の姿勢情報と3回目更新後の特徴点を取得することと、
    前記2回目更新後の姿勢情報と3回目更新後の特徴点に基づいて、更新後のビジュアルマップを確定することと、
    を実行するように構成された地図更新ユニットをさらに備える請求項7〜11のいずれか1項に記載の装置。
  13. 1つ以上のプロセッサと、1つ以上のプログラムが記憶されているメモリとを備えており、
    前記1つ以上のプログラムが前記1つ以上のプロセッサにより実行されるとき、前記1つ以上のプロセッサに請求項1〜6のいずれか1項に記載の方法を実現させる電子機器。
  14. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
    前記プログラムがプロセッサにより実行されると、請求項1〜6のいずれか1項に記載の方法が実現されるコンピュータ可読記憶媒体。
  15. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1〜6のいずれか一項に記載の方法が実現されるコンピュータプログラム。
JP2021030704A 2020-02-28 2021-02-26 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム Active JP7150917B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010126478.4A CN111292420B (zh) 2020-02-28 2020-02-28 用于构建地图的方法和装置
CN202010126478.4 2020-02-28

Publications (2)

Publication Number Publication Date
JP2021140780A true JP2021140780A (ja) 2021-09-16
JP7150917B2 JP7150917B2 (ja) 2022-10-11

Family

ID=71026558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021030704A Active JP7150917B2 (ja) 2020-02-28 2021-02-26 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Country Status (5)

Country Link
US (1) US11417014B2 (ja)
EP (1) EP3872764B1 (ja)
JP (1) JP7150917B2 (ja)
KR (1) KR102502651B1 (ja)
CN (1) CN111292420B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597787B (zh) * 2020-08-27 2021-10-15 禾多科技(北京)有限公司 用于融合局部图像的方法、装置、服务器和介质
CN112270754B (zh) * 2020-11-12 2024-06-18 Oppo广东移动通信有限公司 局部网格地图构建方法及装置、可读介质和电子设备
US20220172386A1 (en) * 2020-11-27 2022-06-02 Samsung Electronics Co., Ltd. Method and device for simultaneous localization and mapping (slam)
CN112562081B (zh) * 2021-02-07 2021-05-11 之江实验室 一种用于视觉分层定位的视觉地图构建方法
WO2023028892A1 (en) * 2021-08-31 2023-03-09 Intel Corporation Hierarchical segment-based map optimization for localization and mapping system
CN113935942A (zh) * 2021-09-02 2022-01-14 同致电子科技(厦门)有限公司 一种基于非线性优化的车底透明方法、装置、设备、存储介质及计算机程序产品
CN115049731B (zh) * 2022-06-17 2023-04-21 感知信息科技(浙江)有限责任公司 一种基于双目摄像头的视觉建图和定位方法
CN116934857A (zh) * 2023-07-17 2023-10-24 北京理工大学 一种基于全景图片的视觉定位方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム
WO2019233090A1 (zh) * 2018-06-07 2019-12-12 驭势科技(北京)有限公司 一种同时定位与建图的方法及装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007124664A1 (fr) 2006-04-29 2007-11-08 Shanghai Jietu Software Co., Ltd. Appareil et procédé permettant d'obtenir une représentation panoramique contenant des informations de position et procédé de création, d'annotation et d'affichage d'un service de cartographie électrique panoramique
CN101082766A (zh) * 2006-06-01 2007-12-05 上海杰图软件技术有限公司 一种快速采集全景图像的设备和方法
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US8787700B1 (en) * 2011-11-30 2014-07-22 Google Inc. Automatic pose estimation from uncalibrated unordered spherical panoramas
US9674507B2 (en) * 2013-04-30 2017-06-06 Qualcomm Incorporated Monocular visual SLAM with general and panorama camera movements
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN103996036B (zh) * 2014-06-09 2017-07-28 百度在线网络技术(北京)有限公司 一种地图数据采集方法及装置
ES2911400T3 (es) * 2016-06-24 2022-05-19 Bosch Gmbh Robert Sistema SLAM basado en cámara RGB-D y método del mismo
US11199414B2 (en) * 2016-09-14 2021-12-14 Zhejiang University Method for simultaneous localization and mapping
KR101891201B1 (ko) * 2016-12-09 2018-08-23 한국과학기술원 전방향 카메라의 깊이 지도 획득 방법 및 장치
CN106920279B (zh) * 2017-03-07 2018-06-19 百度在线网络技术(北京)有限公司 三维地图构建方法和装置
CN107843251B (zh) * 2017-10-18 2020-01-31 广东宝乐机器人股份有限公司 移动机器人的位姿估计方法
EP3474230B1 (en) * 2017-10-18 2020-07-22 Tata Consultancy Services Limited Systems and methods for edge points based monocular visual slam
CN107990899B (zh) * 2017-11-22 2020-06-30 驭势科技(北京)有限公司 一种基于slam的定位方法和系统
JP6676082B2 (ja) * 2018-01-18 2020-04-08 光禾感知科技股▲ふん▼有限公司 屋内測位方法及びシステム、ならびにその屋内マップを作成するデバイス
CN108489482B (zh) * 2018-02-13 2019-02-26 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及系统
US11210804B2 (en) * 2018-02-23 2021-12-28 Sony Group Corporation Methods, devices and computer program products for global bundle adjustment of 3D images
CN110555882B (zh) * 2018-04-27 2022-11-15 腾讯科技(深圳)有限公司 界面显示方法、装置及存储介质
CN108776976B (zh) 2018-06-07 2020-11-20 驭势科技(北京)有限公司 一种同时定位与建图的方法、系统及存储介质
CN111210476B (zh) * 2018-11-22 2023-06-23 驭势科技(北京)有限公司 一种同时定位与建图的方法及装置
CN109509230B (zh) * 2018-11-13 2020-06-23 武汉大学 一种应用于多镜头组合式全景相机的slam方法
CN109785357B (zh) * 2019-01-28 2020-10-27 北京晶品特装科技有限责任公司 一种适用于战场环境的机器人智能化全景光电侦察的方法
CN110310326B (zh) * 2019-06-28 2021-07-02 北京百度网讯科技有限公司 一种视觉定位数据处理方法、装置、终端及计算机可读存储介质
CN110322511B (zh) * 2019-06-28 2021-03-26 华中科技大学 一种基于物体和平面特征的语义slam方法和系统
CN110260857A (zh) * 2019-07-02 2019-09-20 北京百度网讯科技有限公司 视觉地图的校准方法、装置及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム
WO2019233090A1 (zh) * 2018-06-07 2019-12-12 驭势科技(北京)有限公司 一种同时定位与建图的方法及装置

Also Published As

Publication number Publication date
EP3872764B1 (en) 2022-09-07
KR20210110514A (ko) 2021-09-08
JP7150917B2 (ja) 2022-10-11
CN111292420B (zh) 2023-04-28
CN111292420A (zh) 2020-06-16
KR102502651B1 (ko) 2023-02-21
EP3872764A1 (en) 2021-09-01
US11417014B2 (en) 2022-08-16
US20210272313A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7150917B2 (ja) 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN109087359B (zh) 位姿确定方法、位姿确定装置、介质和计算设备
CN108805917B (zh) 空间定位的方法、介质、装置和计算设备
JP6348574B2 (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
Chen et al. Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing
CN112927363B (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
US11113882B2 (en) Generating immersive trip photograph visualizations
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、系统及装置
CN112927362A (zh) 地图重建方法及装置、计算机可读介质和电子设备
WO2021093679A1 (zh) 视觉定位方法和装置
CN109754464B (zh) 用于生成信息的方法和装置
CN111784776B (zh) 视觉定位方法及装置、计算机可读介质和电子设备
WO2024001959A1 (zh) 一种扫描处理方法、装置、电子设备及存储介质
CN112750203A (zh) 模型重建方法、装置、设备及存储介质
TW202244680A (zh) 位置姿勢獲取方法、電子設備及電腦可讀儲存媒體
CN112258647B (zh) 地图重建方法及装置、计算机可读介质和电子设备
CN112270242B (zh) 轨迹的显示方法、装置、可读介质和电子设备
CN116858215B (zh) 一种ar导航地图生成方法及装置
CN109816791B (zh) 用于生成信息的方法和装置
CN116188742A (zh) 虚拟对象的控制方法、装置、设备及存储介质
CN114419189A (zh) 地图构建方法及装置、电子设备、存储介质
CN116188583B (zh) 相机位姿信息生成方法、装置、设备和计算机可读介质
WO2023216918A1 (zh) 渲染图像的方法、装置、电子设备及存储介质
CN114332811A (zh) 一种基于视频识别的地图处理方法、装置和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R150 Certificate of patent or registration of utility model

Ref document number: 7150917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150