JP2022022190A - 画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体 - Google Patents

画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2022022190A
JP2022022190A JP2021120853A JP2021120853A JP2022022190A JP 2022022190 A JP2022022190 A JP 2022022190A JP 2021120853 A JP2021120853 A JP 2021120853A JP 2021120853 A JP2021120853 A JP 2021120853A JP 2022022190 A JP2022022190 A JP 2022022190A
Authority
JP
Japan
Prior art keywords
subspace
image
dimensional
panoramic
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021120853A
Other languages
English (en)
Other versions
JP7143924B2 (ja
Inventor
ジィア ハイジン
haijing Jia
イ ホォン
Hong Yi
リィウ リイェヌ
Liyan Liu
ワン ウェイ
Wei Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2022022190A publication Critical patent/JP2022022190A/ja
Application granted granted Critical
Publication of JP7143924B2 publication Critical patent/JP7143924B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体を提供する。【解決手段】方法は、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像及び三次元空間の画像を取得し、三次元空間の二次元画像に基づいて、三次元空間における少なくとも1つのサブ空間の二次元画像を取得することと、少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、かつ、少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することと、少なくとも一つのサブ空間の投影画像及び少なくとも一つのサブ空間の二次元画像に基づいて、少なくとも一つのサブ空間のパノラマ画像及び少なくとも1つのサブ空間の二次元画像のマッチング関係を取得し、かつ、マッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立することと、を含む。【選択図】図1

Description

本発明は画像処理分野に関し、特に画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体に関する。
仮想ローミングは、仮想現実(Virtual Reality、VR)技術の重要なブランチであって、建築、旅行、ゲーム、航空宇宙、医療など様々な業界に係る。仮想シーン構築技術と仮想ローミング技術との組み合わせによって、ユーザは建物、都市又はゲームシーン等の三次元シーンにおいて自律ローミングを行うことができることで、上記ローミングシーンに対して直感的な体験を生成する。
仮想ローミングのインタラクションプロセスにおいて、ユーザがローミングする三次元シーンと三次元シーン構造を記述する二次元画像との間に、サブ空間に対するマッチング関係を確立する必要があり、それによってローミングしたいサブ空間領域を自主的に制御するようにユーザを案内する。しかし、一般では、手動によって三次元シーン及び二次元画像に対してサブ空間マッチングを行うことで、三次元シーン及び二次元画像における各サブ空間の間の関連関係を確立することができ、例えば、手動でナビゲーションポイントを構築する方法によって三次元シーンと二次元画像とのサブ空間領域の間の相互マッチング及び相互ジャンプを実現することができる。
以上、上記三次元シーン及び二次元画像におけるサブ空間の間のマッチングを手動で実現する方法は時間がかかるほか労力も必要である。したがって、三次元シーンおよび二次元画像のサブ空間領域を自動的にマッチングすることができる方法および装置を構築することが望ましい。
本発明の目的は、少なくとも、画像マッチング精度を保証した上でコストを節約し、画像マッチング効率を効果的に向上させることができる画像マッチング方法及び装置を提供することにある。
画像マッチング方法は、三次元空間から少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の画像を取得することと、少なくとも1つのサブ空間で構成される前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することと、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立することと、を含む。
本発明のもうひとつに提供された画像マッチング装置は、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間が互いに重ならない画像マッチングユニットと、前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得するサブ空間取得ユニットと、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得する再構成ユニットと、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立するマッチングユニットと、を含む。
本発明のもうひとつに提供された画像マッチング装置は、プロセッサーと、コンピュータプログラムコマンドが格納されるメモリと、を含み、前記コンピュータプログラムコマンドが前記プロセッサーにより実行される時に、前記プロセッサーに、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得することと、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することと、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立することと、を含む。
本発明のまたのひとつはコンピュータプログラムが格納されるコンピュータ読み取り可能な記憶媒体を提供して、前記コンピュータプログラムはプロセッサーによって実行させる時、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得することと、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することと、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立することと、が実現される。
本発明の上記画像マッチング方法、装置及びコンピュータで読み取り可能な記憶媒体に基づき、三次元空間のサブ空間のパノラマ画像を投影して得た投影画像を、サブ空間の二次元画像とマッチングすることにより、サブ空間のパノラマ画像とサブ空間の二次元画像との間のマッチング関係を取得し、且つそれに基づいて関連関係を構築することができる。このように画像マッチングを自動的に行う方法、装置及びコンピュータ読み取り可能な記憶媒体は画像マッチング精度を保証した上でコストを節約し、画像マッチング効率を効果的に向上させることができる。
図示とあわせて本発明の実施例をより詳しく説明することによって、本発明の上記内容および目的、特徴、そして長所がより明白になる。
本発明の一実施例に係る画像マッチング方法のフローチャートである。 三次元空間における複数の部屋にそれぞれ対応するパノラマ画像を示す図である。 三次元空間の二次元間取り図である。 異なる第一ラベル情報を有する各部屋のパノラマ画像の分類イメージ図である。 二次元間取り図における各画素点の異なるセマンティックタイプの認識結果を示す図である。 二次元間取り図を分割して得られた各部屋の二次元画像及び各部屋の二次元画像に対応する各部屋タイプを示す図である。 マッチングが成功しなかった寝室のパノラマ画像を示す図である。 図7のパノラマ画像を三次元再構成するイメージ図である。 図7のパノラマ画像にターゲット検出及び位置決めを行うイメージ図である。 図7のパノラマ画像を投影して投影画像を得るイメージ図である。 本発明の一実施例に係る画像マッチング装置を示すブロック図である。 本発明の一実施例に係る画像マッチング装置を示すブロック図である。
以下、図面を参照して本発明の実施例に係わる画像マッチング方法、装置とコンピュータ読み取り可能な記憶媒体を説明する。図面には、同じ番号は同じ要素を終始に示す。ここで記述された実施例は説明のみに用いられて、本発明の範囲を制限するものではないことが自明である。
以下、図1を参照して本発明の実施例に係る画像マッチング方法について説明する。図1は、当該画像マッチング方法100のフローチャートを示す。
図1に示すように、ステップS101において、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならない。
本ステップにおいて、様々な方法で、三次元空間における少なくとも1つのサブ空間のパノラマ画像を取得することができる。例えば、パノラマカメラ(例えば、魚眼カメラ、両眼カメラなど)を用いて、前記少なくとも1つのサブ空間における各サブ空間のパノラマ画像を取得することができる(例えば、正距円筒図法)。また例えば、普通のカメラによって前記少なくとも1つのサブ空間における各サブ空間の複数の透視画像を取得し、且つ該複数の透視画像をつなぎ合わせて、前記サブ空間毎のパノラマ画像をそれぞれ取得することもできる。ここで、前記三次元空間は一つ又は複数のサブ空間で構成されることができ、これらのサブ空間は三次元空間において様々な方法によって分割された空間であってもよく、且つ前記三次元空間が複数のサブ空間で構成される場合、各サブ空間の間に互いに重ならなく、入れ子にならないことができる。例えば、前記三次元空間が建物室内空間である場合、建物室内空間の壁、ドア又は窓等の物体によって建物室内空間を互いに独立した複数の部屋に仕切りして、サブ空間とすることができる。
また、本ステップにおいて、さらに、三次元空間の二次元画像を取得することもできる。前記三次元空間の二次元画像は、三次元空間の各サブ空間の平面レイアウトを説明するためのものである。例えば、前記三次元空間が建物室内空間である場合、前記二次元画像は建物室内の各部屋の平面レイアウト図、例えば、二次元間取り図を説明することができる。
ステップS102において、前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得する。
本ステップにおいて、三次元空間の二次元画像を分割して、三次元空間中の各サブ空間の二次元画像を得ることができる。一例示において、事前トレーニングされたサブ空間二次元画像認識モデルを使用して、三次元空間の二次元画像の各画素点にセマンティック認識を行って、各画素点のセマンティック情報を得ることができる。その後、上記二次元画像における各画素点のセマンティック情報に基づいて、三次元空間の二次元画像を分割して、各サブ空間の二次元画像を得ることができる。また、画素点セマンティック情報を認識する用のサブ空間二次元画像認識モデルは、ディープニューラルネットワークモデルであってもよい。例えば、前記二次元画像が前記二次元間取り図である場合、DeepFloorplanディープニューラルネットワークモデルによって二次元間取り図に対してセマンティック認識を行うことができ、例えば二次元間取り図の壁、窓、ドア、部屋タイプ(例えば寝室、台所、トイレ)等の各画素点のセマンティック情報を認識することで、これらのセマンティック情報に基づいて二次元間取り図を分割して、各サブ空間(即ち各部屋)の二次元間取り図を得ることができる。分割プロセスにおいて、また、セマンティック情報が同じであることに基づき、セマンティック情報が異なる画素点(例えばセマンティック情報が壁、ドア又は窓の画素点である)に遭遇するまでに画素点(例えばセマンティック情報があるタイプの部屋の画素点である)に対して周囲へ拡張させ、且つ拡張して得た画像をサブ空間の二次元間取り図とすることができる。この例示において、DeepFloorplanディープニューラルネットワークは、二次元間取り図のグラフィックスセットと間取り図セマンティックラベルを使用して事前トレーニングすることができる。
ステップS103において、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得する。
本ステップにおいて、前記サブ空間のパノラマ画像に基づいて、前記サブ空間を形成する少なくとも1つの対象の空間特徴を取得し、かつ取得された少なくとも1つの対象の空間特徴に基づき三次元再構成を行うことができる。また、サブ空間を形成する少なくとも1つの対象の空間特徴は、当該対象の幾何形状、空間的位置座標、各対象の間の相対的な幾何関係などを含むことができる。前記少なくとも1つの対象の空間特徴を取得した後、前記サブ空間のパノラマ画像に対して三次元再構成を行うことができる。また、三次元再構成用のモデルは、ディープニューラルネットワークモデルであってもよい。一例示において、三次元空間は建物室内空間である場合、三次元空間のサブ空間が部屋であり、サブ空間を形成する少なくとも1つの対象が該部屋を形成する壁、地面、天井等であることができ、その空間特徴は該部屋を形成する壁、地面、天井の空間位置座標を含むことができ、壁-壁、壁-地面、壁-天井の間に垂直又は平行な幾何関係及び境界におけるエッジ位置等。上記空間特徴を取得した後、該部屋に対して三次元再構成を行って、部屋の三次元再構成モデルを得ることができる。この例示において、HorizonNetディープニューラルネットワークモデルによって三次元再構成を行うことができ、また、部屋のパノラマグラフィックスセットおよび部屋レイアウトラベルを用いて、このディープニューラルネットワークモデルをトレーニングすることができる。
次に、三次元再構成の後に、前記サブ空間のパノラマ画像中のターゲットに検出と位置決めを行い、前記サブ空間のパノラマ画像の三次元再構成結果及びパノラマ画像中のターゲットに対する検出と位置決めの結果に基づいて、前記サブ空間が前記三次元空間の二次元画像が所在する平面における投影画像を取得することができる。また、サブ空間のパノラマ画像中のターゲットに対する検出と位置決めの結果は、当該ターゲットの幾何形状、空間位置座標等を含むことができる。上記三次元再構成結果及びターゲットの検出と位置決めの結果を取得した後、サブ空間のパノラマ画像の三次元再構成モデルを投影することができ、その投影平面は三次元空間の二次元画像が所在する平面、又はこの平面に平行な平面であることができる。そして、投影画像において、検出されたターゲットが投影画像における形状、位置などの情報を表示することもできる。また、ターゲット検出用のモデルは、ディープニューラルネットワークモデルであってもよい。一例示において、三次元空間は建物室内空間である場合、三次元空間のサブ空間が部屋であり、サブ空間のパノラマ画像中のターゲットが該部屋内のドア、窓、タンス等の物体であることで、部屋中のドア、窓、タンス等の物体に対する検出に基づき、これらのターゲットの幾何形状、空間位置座標等の検出及び位置決め結果を得ることができる。上記結果を取得した後、当該部屋のパノラマ画像の三次元再構成モデルを、例えば地面上に投影して、部屋の投影画像を取得、かつ当該部屋のドア、窓、タンスなどの物体の位置を投影画像に表示することができ。この例示において、YOLOv3ディープニューラルネットワークモデルによってターゲット検出を行うことができ、また、部屋のパノラマグラフィックスセットおよび部屋ターゲット検出ラベルを用いて、このディープニューラルネットワークモデルをトレーニングすることができる。
ステップS104において、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立する。
また、前記少なくとも1つのサブ空間の投影画像及び前記少なくとも1つのサブ空間の二次元画像における対象と/或いはターゲットのレイアウトに基づいて、前記少なくとも1つのサブ空間の投影画像と前記少なくとも1つのサブ空間の二次元画像とのマッチング関係を取得することができる。その後、前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係に基づき、対応する前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得する。例えば、サブ空間が部屋である場合、部屋中の壁、地面、天井等に基づいて該部屋の対象の形状、数、位置、幾何関係等各要素を形成することで、サブ空間のパノラマ画像と二次元画像とのマッチング関係を判断することができる。さらに例えば、部屋中のドア、窓、タンス等のターゲットの形状、数、位置、幾何関係等に基づいてサブ空間のパノラマ画像と二次元画像とのマッチング関係を判断することもできる。
また、さらに前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とを形状マッチングして、マッチング結果に基づいて前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を確立することもできる。その後、前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係に基づき、対応する前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得する。
サブ空間のパノラマ画像とサブ空間の二次元画像とのマッチング関係を取得した後、サブ空間のパノラマ画像とサブ空間の二次元画像との間にリンクを構築することで、サブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立して、ユーザがクリック、タッチなど様々な方法によってサブ空間のパノラマ画像と対応するサブ空間の二次元画像との間のジャンプ表示を実行することができるようにすることが可能である。
本実施例において、さらに、三次元空間における少なくとも1つのサブ空間のパノラマ画像、および前記三次元空間の二次元画像を取得した後に、前記方法はさらに、前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得するステップと、前記三次元空間における少なくとも1つのサブ空間の二次元画像にそれぞれ対応する第二ラベル情報を取得するステップと、を含むことができる。
また、三次元空間における少なくとも1つのサブ空間のパノラマ画像を分類し、且つ分類結果に基づいて少なくとも1つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得することができる。例えば、ディープニューラルネットワークモデルを使用して少なくとも1つのサブ空間のパノラマ画像を分類することができ、ここのディープニューラルネットワークモデルはVGG16ディープネットワークモデルであってもよい。サブ空間が部屋である場合、異なる部屋タイプのパノラマ画像及び部屋タイプラベルを利用して各部屋のパノラマ画像を分類し、且つ分類結果を取得することができる。
それに、また、さらに三次元空間における少なくとも1つのサブ空間の二次元画像を分類し、且つ分類結果に基づいて三次元空間における少なくとも1つのサブ空間の二次元画像に対応する第二ラベル情報を取得することができる。例えば、前述した三次元空間における二次元画像の各画素点のセマンティック認識結果と合わせて、少なくとも1つのサブ空間の二次元画像に対応する第二ラベル情報を取得することができる。
続いて、上記第一ラベル情報及び第二ラベル情報を取得した後、前記第一ラベル情報及び第二ラベル情報に基づいて、前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得することができる。例えば、第一ラベル情報と第二ラベル情報とを比較することによって、あるサブ空間のパノラマ画像と二次元画像とがマッチしているか否かを判断することができる。また、第一ラベル情報と第二ラベル情報とが同じである場合に、あるサブ空間のパノラマ画像とサブ空間の二次元画像とがマッチしている(以下、簡単に粗略マッチングと称する)と認定することができる。また、第一ラベル情報と第二ラベル情報とが類似し、あるいは同じカテゴリに属する時にも、当該サブ空間のパノラマ画像とサブ空間の二次元画像とがマッチしていると認定することができる。上記第一ラベル情報及び第二ラベル情報に対する比較方法は例示に過ぎず、実際の応用において、具体的なシーンに基づいていかなる比較方法を採用することができ、ここでは限定されない。
少なくとも1つのサブ空間のパノラマ画像及び前記少なくとも1つのサブ空間の二次元画像に対して粗略マッチングを行った後に、粗略マッチング結果に基づき、ステップS103-S104を実行か否かを判断することができる。例えば、粗略マッチング結果に基づき、特定のサブ空間のパノラマ画像と少なくとも1つのサブ空間の二次元画像との間にマッチング関係の発生ができないことが示されると、当該マッチング関係を生成することができなかった特定のサブ空間のパノラマ画像に対して三次元再構成を行い、かつ対応する投影画像を取得する。その後、マッチング関係を生成できないサブ空間のパノラマ画像の投影画像及び少なくとも1つのサブ空間のパノラマ画像とマッチング関係を生成することができない少なくとも1つのサブ空間の二次元画像に対して、ステップS104を実行することができる。一例示において、特定のサブ空間のパノラマ画像又はその二次元画像にそれぞれ対応する第一ラベル情報と/或いは第二ラベル情報にエラーがある場合は、ラベル情報エラーに起因してマッチングができないサブ空間のパノラマ画像及びサブ空間の二次元画像に対して、ステップS103-S104を実行することが可能である。もうひとつの例示において、第一ラベル情報と第二ラベル情報との間にマッチング関係が確立できるが、第一ラベル情報及び第二ラベル情報のうちの少なくとも一つがサブ空間の複数のパノラマ画像/二次元画像に対応する場合にも、サブ空間のパノラマ画像とサブ空間の二次元画像との間に一対一対応ができないことによってマッチング関係を構築できないことで、続けてステップS103-S104を実行することも可能である。
第一ラベル情報及び第二ラベル情報をまず比較するマッチング方法によって、本発明の実施例における後続の三次元再構成及び投影プロセスにおけるリソースの占有を減少させて、画像マッチング時間を節約、画像マッチングの効率を向上させることができる。また、サブ空間のパノラマ画像とサブ空間の二次元画像とが一対一対応できずに、後続のステップS104を実行する場合において、サブ空間の投影画像とサブ空間の二次元画像とのマッチング過程に対して、まず同一、類似または同じカテゴリに属してマッチング関係を構築できる第一ラベル情報と第二ラベル情報にそれぞれ対応するサブ空間の投影画像とサブ空間の二次元画像とを同じグループに分け、かつ演算量をさら減らすように、同一グループにおいて、粗略マッチングにマッチング関係を生じなかったサブ空間に対して投影画像とサブ空間の二次元画像とのマッチング関係を構築することで、画像マッチング効率をさらに向上、画像マッチング精度を改善することができる。
本発明の実施例に係る画像マッチング方法に対する上記説明は例示に過ぎない。本発明の具体的な実施過程において、上記画像マッチング方法における各ステップは任意の方法で配列することができ、又はそのうちのいずれか二つ又はそれ以上のステップが同時に行うこともでき、ここでは限定しない。また、本発明の実施例に係る上記のサブ空間のパノラマ画像とサブ空間の二次元画像に対するラベル情報の取得及びマッチング方法は独立して行われることもでき、或いは三次元再構成及び投影によって画像マッチングを行う方法が終了した後に行われてもよい。例えば、本発明の実施例に係る画像マッチング方法は、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記少なくとも1つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得することと、前記三次元空間における少なくとも1つのサブ空間の二次元画像にそれぞれ対応する第二ラベル情報を取得することと、前記第一ラベル情報及び第二ラベル情報に基づき、前記少なくとも1つのサブ空間のパノラマ画像と前記少なくとも1つのサブ空間の二次元画像とのマッチング関係を取得することと、のみを含むことができる。勿論、上記本発明の実施例の方法ステップに対する全ての変形、修正及び最適化はいずれも本発明の実施例の限定範囲内に含まれる。
本発明の実施例に係る上記画像マッチング方法に基づき、三次元空間のサブ空間のパノラマ画像を投影して得た投影画像を、サブ空間の二次元画像とマッチングすることにより、サブ空間のパノラマ画像とサブ空間の二次元画像との間のマッチング関係を取得し、且つそれに基づいて関連関係を構築することができる。このように画像マッチングを自動的に行う方法は画像マッチング精度を保証した上でコストを節約し、画像マッチング効率を効果的に向上させることができる。
以下、本発明の実施例に係る画像マッチング方法の一例を示す。本例示において、三次元空間が建物室内空間であって、三次元空間のサブ空間は建物室内空間の各部屋であり、三次元空間の二次元画像が建物の各部屋の二次元間取り図であることができる。
当該例示において、まず、三次元空間のうち、少なくとも1つの部屋のパノラマ画像を取得することができる。図2は、三次元空間における複数の部屋にそれぞれ対応するパノラマ画像を示すが。これらのパノラマ画像はパノラマカメラによって各部屋をそれぞれ撮影して取得することができる。図2に示すように、取得された各部屋のパノラマ画像はリビングルーム、台所、トイレ、複数の寝室等の異なる部屋タイプにそれぞれ対応するパノラマ画像を含むことができる。次はさらに、この三次元空間の平面レイアウトを示す二次元間取り図を取得することもできる。図3は、当該三次元空間の二次元間取り図を示し、三次元空間における各部屋の幾何形状、配置状況及び位置関係などを示す。
三次元空間の各部屋のパノラマ画像及び三次元空間の二次元間取り図を取得した後、各部屋のパノラマ画像にそれぞれ対応する第一ラベル情報と各部屋の二次元間取り図にそれぞれ対応する第二ラベル情報とをそれぞれ取得することができる。具体的には、各部屋のパノラマ画像を取得した後、VGG16ディープネットワークモデルを利用してこれらのパノラマ画像を分類して、異なる部屋タイプにそれぞれ対応するパノラマ画像を得ることができる。ここでの部屋タイプは各パノラマ画像に対応する第一ラベル情報であってもよい。図4は異なる第一ラベル情報を有する各部屋のパノラマ画像の分類イメージ図である。
また、図3に示す二次元間取り図を取得した後、予めトレーニングされたDeepFloorplanディープニューラルネットワークモデルを利用して該二次元間取り図にセマンティック認識を行い、且つ二次元間取り図の各画素点のセマンティック情報を取得することができる。図5は二次元間取り図における各画素点の異なるセマンティックタイプの認識結果を示す図である。図5に示すように、二次元間取り図から各タイプを有する部屋(異なる階調で表示)、壁、ドア、窓のそれぞれのセマンティック情報を認識でき、且つこれらのセマンティック情報に基づいて対応する各画素点を分類して、少なくとも1つの部屋の二次元画像を取得することができる。これをもとに、各部屋の二次元画像に対応する部屋タイプをさらに取得することができる。図6は二次元間取り図を分割して得られた各部屋の二次元画像を示し、かつ各部屋の二次元画像が各自の部屋タイプ、即ち第二ラベル情報、例えばリビングルーム、寝室、ベランダ、トイレ等に対応する。
図4に示される各部屋のパノラマ画像及びそれぞれ対応する第一ラベル情報、及び図6に示される各部屋の二次元間取り図及びそれぞれ対応する第二ラベル情報を得た後、各自の第一ラベル情報及び第二ラベル情報に基づいて各部屋のパノラマ画像と各部屋の二次元間取り図とをマッチングさせることができる。また、第一ラベル情報と第二ラベル情報とが同じである場合、すなわちある部屋のパノラマ画像とある部屋の二次元間取り図に対応する部屋タイプとが同じである場合に、該部屋のパノラマ画像と該部屋の二次元間取り図との間にマッチング関係を有すると認定することができる。現在のステップでは、対応する第一ラベル情報と第二ラベル情報とが同一であり且つ1つのみのパノラマ画像及び二次元間取り図のみをマッチングすることができる。例えば、第一ラベル情報と第二ラベル情報とがリビングであり且つ共に一つのみを有する場合のみにおいて、両者にそれぞれ対応するリビングルームのパノラマ画像とリビングルームの二次元間取り図との間にマッチング関係を確立することができる。同様に、この時、トイレ、台所、ベランダ等に対してもマッチングを行うことができるが、図6に示されたように、第二ラベル情報が寝室であり且つ三つを有する場合は、現段階ではマッチングをしなくても良い。
第一ラベル情報及び第二ラベル情報によってマッチングを行う上記ステップが終了後、第一ラベル情報及び第二ラベル情報により、少なくとも一つの部屋のパノラマ画像と少なくとも一つの部屋の二次元画像とのマッチング関係を取得できない場合、マッチング関係を生成できない部屋のパノラマ画像に基づいて三次元再構成を行い、且つ対応する投影画像を取得することができる。例えば、部屋タイプ、即ち第一ラベル情報が寝室であるパノラマ画像に対して三次元再構成及びターゲット検出と位置決めを行うことができる。一例示において、図7はマッチングが成功しなかった寝室のパノラマ画像を示す図である。図8は図7に示すパノラマ画像を三次元再構成するイメージ図であって、HorizonNetディープニューラルネットワークモデルによって三次元再構成を行って、寝室中の壁-壁、壁-地面、壁-天井の境界において、例えば白線で示されるエッジ位置を取得することができる。勿論、三次元再構成プロセスでは、寝室を形成するこれらの対象の他の幾何学的空間特徴も得ることができる。また、図9は、図7のパノラマ画像にターゲット検出及び位置決めを行うイメージ図である。ここで、YOLOv3ディープニューラルネットワークモデルによって図7における寝室のパノラマ画像に対してドア窓検出を行うことで、黒枠に示されるドア及び窓の幾何形状と位置を得る。
上記三次元再構成とターゲット検出位置決めのステップを完了した後に、得られた結果に基づいて該寝室のパノラマ画像を地面に投影して、図10に示す投影画像を得ることができる。図10によると、当該寝室のパノラマ画像に対応する部屋の幾何形状および寸法が示され、かつ当該寝室中のドアおよび窓の具体的な位置を太い黒い線でさらに示している。
最後に、前に得られた各部屋の投影画像及び各部屋の二次元間取り図に基づき、対象、ターゲットのレイアウトの間の比較と/或いは形状認識の方法によって、各部屋の投影画像と各部屋の二次元間取り図との間のマッチング関係を構築し、且つ各部屋のパノラマ画像と各部屋の二次元間取りとの間のマッチング関係をさらに構築することができる。また、この時は各部屋のパノラマ画像と各部屋の二次元間取り図にそれぞれ対応する第一ラベル情報及び第二ラベル情報とを結合して、これらの画像を分類し、且つ分類を元にマッチング関係を構築することができる。例えば、第一ラベル情報及び第二ラベル情報がともに寝室であるパノラマ画像及びともに寝室である二次元間取り図を同じ類に分類し、且つこの類において寝室のパノラマ画像と寝室の二次元間取り図とのマッチングを行うことができる。また、マッチング関係を有する各部屋のパノラマ画像と各部屋の二次元画像との間にリンクを構築することで、ユーザがクリック、タッチなど様々な方法によって各部屋のパノラマ画像と対応する各部屋の二次元画像との間の相互ジャンプ表示を行うことができるようにすることも可能である。
以下、図11を参照して本発明の実施例に係る画像マッチング装置について説明する。図11は、本発明の実施例に係る画像マッチング装置1100のブロック図を示す。図11に示すように、画像マッチング装置1100は画像取得ユニット1110、サブ空間取得ユニット1120、再構成ユニット1130およびマッチングユニット1140を含む。これらのユニットのほか、画像マッチング装置1100はさらにほかの部材も含むことができるが、これらの部材は本発明の実施例の内容と関係がないため、ここでその図示および記述を省略する。それに、本発明の実施例に係わる画像マッチング装置1100によって行う下記操作の具体的な細部が上記図1-図10に記載された細部と同じであるため、重複を回避するために、同じ細部に対する重複した記述を省略する。
図11に示す画像マッチング装置1100の画像取得ユニット1110は、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならない。
画像取得ユニット1110は、様々な方法で、三次元空間における少なくとも1つのサブ空間のパノラマ画像を取得することができる。例えば、パノラマカメラ(例えば、魚眼カメラ、両眼カメラなど)を用いて、前記少なくとも1つのサブ空間における各サブ空間のパノラマ画像を取得することができる(例えば、正距円筒図法)。また例えば、普通のカメラによって前記少なくとも1つのサブ空間における各サブ空間の複数の透視画像を取得し、且つ該複数の透視画像をつなぎ合わせて、前記サブ空間毎のパノラマ画像をそれぞれ取得することもできる。ここで、前記三次元空間は一つ又は複数のサブ空間で構成されることができ、これらのサブ空間は三次元空間において様々な方法によって分割された空間であってもよく、且つ前記三次元空間が複数のサブ空間で構成される場合、各サブ空間の間に互いに重ならなく、入れ子にならないことができる。例えば、前記三次元空間が建物室内空間である場合、建物室内空間の壁、ドア又は窓等の物体によって建物室内空間を互いに独立した複数の部屋に仕切りして、サブ空間とすることができる。
また、画像取得ユニット1110はさらに、三次元空間の二次元画像を取得することもできる。前記三次元空間の二次元画像は、三次元空間の各サブ空間の平面レイアウトを説明するためのものである。例えば、前記三次元空間が建物室内空間である場合、前記二次元画像は建物室内の各部屋の平面レイアウト図、例えば、二次元間取り図を説明することができる。
サブ空間取得ユニット1120は前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得する。
サブ空間取得ユニット1120は、三次元空間の二次元画像を分割して、三次元空間中の各サブ空間の二次元画像を得ることができる。一例示において、事前トレーニングされたサブ空間二次元画像認識モデルを使用して、三次元空間の二次元画像の各画素点にセマンティック認識を行って、各画素点のセマンティック情報を得ることができる。その後、上記二次元画像における各画素点のセマンティック情報に基づいて、三次元空間の二次元画像を分割して、各サブ空間の二次元画像を得ることができる。また、画素点セマンティック情報を認識する用のサブ空間二次元画像認識モデルは、ディープニューラルネットワークモデルであってもよい。例えば、前記二次元画像が前記二次元間取り図である場合、DeepFloorplanディープニューラルネットワークモデルによって二次元間取り図に対してセマンティック認識を行うことができ、例えば二次元間取り図の壁、窓、ドア、部屋タイプ(例えば寝室、台所、トイレ)等の各画素点のセマンティック情報を認識することで、これらのセマンティック情報に基づいて二次元間取り図を分割して、各サブ空間(即ち各部屋)の二次元間取り図を得ることができる。分割プロセスにおいて、また、セマンティック情報が同じであることに基づき、セマンティック情報が異なる画素点(例えばセマンティック情報が壁、ドア又は窓の画素点である)に遭遇するまでに画素点(例えばセマンティック情報があるタイプの部屋の画素点である)に対して周囲へ拡張させ、且つ拡張して得た画像をサブ空間の二次元間取り図とすることができる。この例示において、DeepFloorplanディープニューラルネットワークは、二次元間取り図のグラフィックスセットと間取り図セマンティックラベルを使用して事前トレーニングすることができる。
再構成ユニット1130は前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得する。
再構成ユニット1130は、前記サブ空間のパノラマ画像に基づいて、前記サブ空間を形成する少なくとも1つの対象の空間特徴を取得し、かつ取得された少なくとも1つの対象の空間特徴に基づき三次元再構成を行うことができる。また、サブ空間を形成する少なくとも1つの対象の空間特徴は、当該対象の幾何形状、空間的位置座標、各対象の間の相対的な幾何関係などを含むことができる。前記少なくとも1つの対象の空間特徴を取得した後、前記サブ空間のパノラマ画像に対して三次元再構成を行うことができる。また、三次元再構成用のモデルは、ディープニューラルネットワークモデルであってもよい。一例示において、三次元空間は建物室内空間である場合、三次元空間のサブ空間が部屋であり、サブ空間を形成する少なくとも1つの対象が該部屋を形成する壁、地面、天井等であることができ、その空間特徴は該部屋を形成する壁、地面、天井の空間位置座標を含むことができ、壁-壁、壁-地面、壁-天井の間に垂直又は平行な幾何関係及び境界におけるエッジ位置等。上記空間特徴を取得した後、該部屋に対して三次元再構成を行って、部屋の三次元再構成モデルを得ることができる。この例示において、HorizonNetディープニューラルネットワークモデルによって三次元再構成を行うことができ、また、部屋のパノラマグラフィックスセットおよび部屋レイアウトラベルを用いて、このディープニューラルネットワークモデルをトレーニングすることができる。
次に、三次元再構成の後に、前記サブ空間のパノラマ画像中のターゲットに検出と位置決めを行い、前記サブ空間のパノラマ画像の三次元再構成結果及びパノラマ画像中のターゲットに対する検出と位置決めの結果に基づいて、前記サブ空間が前記三次元空間の二次元画像が所在する平面における投影画像を取得することができる。また、サブ空間のパノラマ画像中のターゲットに対する検出と位置決めの結果は、当該ターゲットの幾何形状、空間位置座標等を含むことができる。上記三次元再構成結果及びターゲットの検出と位置決めの結果を取得した後、サブ空間のパノラマ画像の三次元再構成モデルを投影することができ、その投影平面は三次元空間の二次元画像が所在する平面、又はこの平面に平行な平面であることができる。そして、投影画像において、検出されたターゲットが投影画像における形状、位置などの情報を表示することもできる。また、ターゲット検出用のモデルは、ディープニューラルネットワークモデルであってもよい。一例示において、三次元空間は建物室内空間である場合、三次元空間のサブ空間が部屋であり、サブ空間のパノラマ画像中のターゲットが該部屋内のドア、窓、タンス等の物体であることで、部屋中のドア、窓、タンス等の物体に対する検出に基づき、これらのターゲットの幾何形状、空間位置座標等の検出及び位置決め結果を得ることができる。上記結果を取得した後、当該部屋のパノラマ画像の三次元再構成モデルを、例えば地面上に投影して、部屋の投影画像を取得、かつ当該部屋のドア、窓、タンスなどの物体の位置を投影画像に表示することができ。この例示において、YOLOv3ディープニューラルネットワークモデルによってターゲット検出を行うことができ、また、部屋のパノラマグラフィックスセットおよび部屋ターゲット検出ラベルを用いて、このディープニューラルネットワークモデルをトレーニングすることができる。
マッチングユニット1140は前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立する。
また、マッチングユニット1140は、前記少なくとも1つのサブ空間の投影画像及び前記少なくとも1つのサブ空間の二次元画像における対象と/或いはターゲットのレイアウトに基づいて、前記少なくとも1つのサブ空間の投影画像と前記少なくとも1つのサブ空間の二次元画像とのマッチング関係を取得してもよい。その後、前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係に基づき、対応する前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得する。例えば、サブ空間が部屋である場合、部屋中の壁、地面、天井等に基づいて該部屋の対象の形状、数、位置、幾何関係等各要素を形成することで、サブ空間のパノラマ画像と二次元画像とのマッチング関係を判断することができる。さらに例えば、部屋中のドア、窓、タンス等のターゲットの形状、数、位置、幾何関係等に基づいてサブ空間のパノラマ画像と二次元画像とのマッチング関係を判断することもできる。
また、マッチングユニット1140はさらに前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とを形状マッチングして、マッチング結果に基づいて前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を確立することもできる。その後、前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係に基づき、対応する前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得する。
サブ空間のパノラマ画像とサブ空間の二次元画像とのマッチング関係を取得した後、マッチングユニット1140は、サブ空間のパノラマ画像とサブ空間の二次元画像との間にリンクを構築することで、サブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立して、ユーザがクリック、タッチなど様々な方法によってサブ空間のパノラマ画像と対応するサブ空間の二次元画像との間のジャンプ表示を実行することができるようにすることが可能である。
本実施例において、さらに、三次元空間における少なくとも1つのサブ空間のパノラマ画像、および前記三次元空間の二次元画像を取得した後に、前記装置はさらに、前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得するように配置される粗略マッチングユニット(図示せず)を含むこともでき、前記三次元空間における少なくとも1つのサブ空間の二次元画像にそれぞれ対応する第二ラベル情報を取得する。
また、粗略マッチングユニットは三次元空間における少なくとも1つのサブ空間のパノラマ画像を分類し、且つ分類結果に基づいて少なくとも1つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得することができる。例えば、ディープニューラルネットワークモデルを使用して少なくとも1つのサブ空間のパノラマ画像を分類することができ、ここのディープニューラルネットワークモデルはVGG16ディープネットワークモデルであってもよい。サブ空間が部屋である場合、異なる部屋タイプのパノラマ画像及び部屋タイプラベルを利用して各部屋のパノラマ画像を分類し、且つ分類結果を取得することができる。
それに、また、粗略マッチングユニットはさらに三次元空間における少なくとも1つのサブ空間の二次元画像を分類し、且つ分類結果に基づいて三次元空間における少なくとも1つのサブ空間の二次元画像に対応する第二ラベル情報を取得することができる。例えば、前述した三次元空間における二次元画像の各画素点のセマンティック認識結果と合わせて、少なくとも1つのサブ空間の二次元画像に対応する第二ラベル情報を取得することができる。
続いて、上記第一ラベル情報及び第二ラベル情報を取得した後、粗略マッチングユニットは前記第一ラベル情報及び第二ラベル情報に基づいて、前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得することができる。例えば、第一ラベル情報と第二ラベル情報とを比較することによって、あるサブ空間のパノラマ画像と二次元画像とがマッチしているか否かを判断することができる。また、第一ラベル情報と第二ラベル情報とが同じである場合に、あるサブ空間のパノラマ画像とサブ空間の二次元画像とがマッチしている(以下、簡単に粗略マッチングと称する)と認定することができる。また、第一ラベル情報と第二ラベル情報とが類似し、あるいは同じカテゴリに属する時にも、当該サブ空間のパノラマ画像とサブ空間の二次元画像とがマッチしていると認定することができる。上記第一ラベル情報及び第二ラベル情報に対する比較方法は例示に過ぎず、実際の応用において、具体的なシーンに基づいていかなる比較方法を採用することができ、ここでは限定されない。
粗略マッチングユニットは少なくとも1つのサブ空間のパノラマ画像及び前記少なくとも1つのサブ空間の二次元画像に対して粗略マッチングを行った後に、粗略マッチング結果に基づき、再構成ユニット及びマッチングユニットに入って更なるマッチングを行うか否かを判断することができる。例えば、粗略マッチング結果に基づき、特定のサブ空間のパノラマ画像と少なくとも1つのサブ空間の二次元画像との間にマッチング関係の発生ができないことが示されると、当該マッチング関係を生成することができなかった特定のサブ空間のパノラマ画像に対して三次元再構成を行い、かつ対応する投影画像を取得する。その後、マッチング関係を生成できないサブ空間のパノラマ画像の投影画像及び少なくとも1つのサブ空間のパノラマ画像とマッチング関係を生成することができない少なくとも1つのサブ空間の二次元画像を、再構成ユニット及びマッチングユニットに入ってさらなるマッチングを行なわせることができる。一例示において、特定のサブ空間のパノラマ画像又はその二次元画像にそれぞれ対応する第一ラベル情報と/或いは第二ラベル情報にエラーがある場合は、ラベル情報エラーに起因してマッチングができないサブ空間のパノラマ画像及びサブ空間の二次元画像を再構成ユニット及びマッチングユニットに入ってさらなるマッチングを行なわせることが可能である。もうひとつの例示において、第一ラベル情報と第二ラベル情報との間にマッチング関係が確立できるが、第一ラベル情報及び第二ラベル情報のうちの少なくとも一つがサブ空間の複数のパノラマ画像/二次元画像に対応する場合にも、サブ空間のパノラマ画像とサブ空間の二次元画像との間に一対一対応ができないことによってマッチング関係を構築できないことで、続けて再構成ユニット及びマッチングユニットに入ってさらなるマッチングを行うことも可能である。
第一ラベル情報及び第二ラベル情報をまず比較する操作によって、本発明の実施例における後続の三次元再構成及び投影プロセスにおけるリソースの占有を減少して、画像マッチング時間を節約、画像マッチングの効率を向上させることができる。また、サブ空間のパノラマ画像とサブ空間の二次元画像とが一対一対応できずに、再構成ユニットとマッチングユニットとをさらにマッチさせる場合において、サブ空間の投影画像とサブ空間の二次元画像とのマッチング過程に対して、まず同一、類似または同じカテゴリに属してマッチング関係を構築できる第一ラベル情報と第二ラベル情報にそれぞれ対応するサブ空間の投影画像とサブ空間の二次元画像とを同じグループに分け、かつ演算量をさら減らすように、同一グループにおいて、粗略マッチングにマッチング関係を生じなかったサブ空間に対して投影画像とサブ空間の二次元画像とのマッチング関係を構築することで、画像マッチング効率をさらに向上、画像マッチング精度を改善することができる。
本発明の実施例に係る画像マッチング装置に対する上記説明は例示に過ぎない。本発明の具体的な実施過程において、上記画像マッチング装置における各ユニットは任意の方法で配列することができ、又はそのうちのいずれか二つ又はそれ以上のユニットが並列して行うこともでき、ここでは限定しない。また、本発明の実施例に係る上記のサブ空間のパノラマ画像とサブ空間の二次元画像に対するラベル情報の取得及びマッチングの粗略マッチングユニットは独立して行われることもでき、或いは再構成ユニットとマッチングユニットに入って三次元再構成及び投影によって画像マッチングを行った後に行われてもよい。例えば、本発明の実施例の画像マッチング装置は粗略マッチングユニットのみを含んで、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記少なくとも1つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得することと、前記三次元空間における少なくとも1つのサブ空間の二次元画像にそれぞれ対応する第二ラベル情報を取得することと、前記第一ラベル情報及び第二ラベル情報に基づき、前記少なくとも1つのサブ空間のパノラマ画像と前記少なくとも1つのサブ空間の二次元画像とのマッチング関係を取得することと、を含むように配置されることができる。勿論、上記本発明の実施例の装置に対する全ての変形、修正及び最適化はいずれも本発明の実施例の限定範囲内に含まれる。
本発明の実施例に係る上記画像マッチング装置に基づき、三次元空間のサブ空間のパノラマ画像を投影して得た投影画像を、サブ空間の二次元画像とマッチングすることにより、サブ空間のパノラマ画像とサブ空間の二次元画像との間のマッチング関係を取得し、且つそれに基づいて関連関係を構築することができる。このように画像マッチングを自動的に行う装置は画像マッチング精度を保証した上でコストを節約し、画像マッチング効率を効果的に向上させることができる。
以下、図12を参照して本発明の実施例に係る画像マッチング装置について説明する。図12は、本発明の実施例に係る画像マッチング装置1200のブロック図を示す。図12に示すように、当該装置1200はコンピュータまたはサーバであることが可能である。
図12に示すように、画像マッチング装置1200は、1つまたは複数のプロセッサー1210とメモリ1220とを備えているが、これらに加えて、画像マッチング装置1200は、バスシステムおよび/または他の形式の接続機構を介して相互接続することができる入力装置、出力装置(図示せず)などを含むことができる。なお、図12に示した画像マッチング装置1200のコンポーネントや構成は例示的のみであって、制限されるものではなく、必要に応じて、画像マッチング装置1200は他のコンポーネントや構成を有することもできる。
プロセッサー1210は中央プロセスユニット(CPU)またはデータ処理能力と/またはコマンド執行能力を有するほかの形式のプロセスユニットであってもよく、かつメモリ1220内に記憶されたコンピュータプログラムコマンドを用いて所望の機能を実行できるが、少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得することと、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することと、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立することと、を含む。
メモリ1220は、1つまたは複数のコンピュータプログラムプロダクトを含むことができ、前記コンピュータプログラムプロダクトは、例えば、揮発性メモリおよび/または不揮発性メモリのような各種形式のコンピュータ読み出し可能な記録媒体を含むことができる。前記コンピュータ読み出し可能な記録媒体において一つまたは複数のコンピュータプログラムコマンドをメモリでき、プロセッサー1210は前記プログラムコマンドを実行することで、上記本発明の実施例の画像マッチング装置の機能及び/又ほかの所望の機能、かつ/または、本発明の実施例の画像マッチング方法を実行できる。前記コンピュータ読み出し可能な記録媒体において各種アプリケーションプログラムと各種データを格納することも可能である。
以下、本発明の実施例に係りコンピュータプログラムが格納されるコンピュータ読み取り可能な記憶媒体を説明して、前記コンピュータプログラムはプロセッサーによって、三次元空間から少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の画像を取得することと、少なくとも1つのサブ空間で構成される前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間同士が重ならないことと、前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、且つ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することと、前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、且つマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立することと、を実現できる。
勿論、上記具体的な実施例は例示のみであり、制限されたものではなく、かつ、当業者は本発明の思想に基づき上記分けて記述された各実施例から一部のステップと装置を合併および組み合わせて本発明の効果を実施できる。この種の合併と組合せによる実施例も本発明に含まれ、ここでは一々記述しない。
本発明に言及された優位点、メリット、効果などは例示的なもののみで、制限されたものではなく、これらの優位点、メリット、効果は本発明の各実施例に必須であることではない。また、上記より公開発明された具体的な細部は例示の作用と理解しやすいためのみであり、制限されたものではない。上記の細部は以下を制限するものではない。つまり、本発明を実現するために、上記の具体的な細部を用いることは必須である。
本発明に係る部材、装置、設備、システムのブロック図は例示的なものに過ぎなく、かつ必ずブロック図に示す方法で接続、レイアウト、配置するように要求または示唆しない。当業者に自明のように、任意の方法でこれらの部材、装置、設備、システムを接続、レイアウト、配置することが可能である。「包括」、「含む」、「具有」などの字句は開放的な単語であり、「含むが限定されない」を指し、かつ交換して使用することが可能である。ここで使用した単語の「或いは」と「と」は単語の「と/或いは」を指し、前後文に明確指示されないかぎり、交換して使用することが可能である。ここで使用した単語の「例えば」は、「例えが限定されない」を指し、かつ交換して使用することが可能である。
本発明におけるステップフローチャートおよび上記説明は例示的なものに過ぎなく、かつ必ず示された順番で各実施例のステップを行うように要求または示唆を意図しない。当業者に認知されたように、上記実施例内のステップの順番を任意の順序で行うことが可能である。「その後」、「以後」、「その次」などの単語はステップの順序を意図的に限定するものではない。これらの単語は読者にこれらの方法の説明を読むことにガイドさせるもののみである。それに、「一個」、「一」または「当該」を用いて単数の要素に対するいかなる引用は当該要素を単数に制限するものではない。
また、本明細書の各実施例におけるステップと装置はある実施例での実行に限られず、実際では、本発明の思想に基づき本明細書の各実施例の関係する一部のステップと装置と結合して新しい実施例を構築することができ、そして、これらの新しい実施例も本発明の範囲内に含まれる。
上記記述された方法における各操作は対応する機能を実行できるいかなる適切な手段によって実施することが可能である。当該手段は各種のハードウェアと/或いはソフトウェアコンポーネントと/或いはモジュールを含み、回路、特定用途向け集積回路(ASIC)またはプロセッサーを含むが、限られるではない。
ここで記述された機能を行うために設計された汎用プロセッサー、デジタル信号プロセッサー(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)或いはほかのプログラマブル論理デバイス(PLD)、離散ゲートまたはトランジスタ論理、離散ハードウェアコンポーネント、または、それらの任意の組み合わせを用いて、各例示の論理ブロック、モジュール、回路などを実施または述べることができる。汎用プロセッサーはマイクロプロセッサーでもよいが、代替としては、当該プロセッサーがいかなるビジネスにおいて取得できるプロセッサー、コントローラ、マイクロコントローラまたは状態機械でもよい。プロセッサーはさらに計算装置の組合せとして実施できる。例えば、DSPとマイクロプロセッサーとの組合せ、複数のマイクロプロセッサー、DSPコアーと提携するひとつまたは複数のマイクロプロセッサー或いはいかなるこのようなほかの配置でも良い。
本発明に記述された方法またはアルゴリズムを結合したステップは直接的にハードウェアに、プロセッサーにより実行されるソフトウェアモジュールまたはこの二種の組合せに嵌め込むことが可能である。ソフトウェアモジュールはいかなう形式の有形記録媒体に格納することができる。使用可能な記録媒体は、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、快速フラッシュメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、移動可能なディスク、CD-ROMなどを含む。記録媒体は、プロセッサーが当該記録媒体から情報と読み取り、および当該記録媒体に情報を記入するように、プロセッサーにカップリングされる。代替形態では、記録媒体がプロセッサーと一体になる。ソフトウェアモジュールはシングルコマンドまたは多数コマンドでもよく、かついくつかの異なるコード
セグメント上、異なるプログラムの間および複数の記録媒体を跨って分布することが可能である。
ここで発明された方法は述べた方法を実現するためのひとつまたは複数の動作を含む。方法と/或いは動作は請求項から離脱せずに互いに互換できる。言い換えれば、動作の具体的な順序を指定した場合を除き、請求項から離脱せずに具体的な動作の順序と/或いは実行を変更することが可能である。
前記機能はハードウェア、ソフトウェア、ファームウェアまたはその任意の組合せによって実施できる。ソフトウェアによって実施する場合、機能はひとつ或いは複数のコマンドとしてコンピュータの読取り可能媒体に格納できる。記録媒体はコンピュータにアクセスされることのできるいかなる使用可能な媒体でも良い。以下の例は制限されたものではない。このようなコンピュータ読取り可能媒体はRAM、ROM、EEPROM、CD-ROMまたはほかの光ディスク格納、磁気ディスク格納またはほかの磁気メモリあるいはコマンドまたはデータ構造形式の所望のプログラムコードを携帯または格納し、かつコンピュータにアクセスできるいかならほかの確実な媒体を含むことができる。ここで使用されたディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル汎用ディスク(DVD)、ソフト磁気ディスクとブルーレイディスクを含む。
このため、コンピュータプログラムプロダクトはここで記述された操作を実行できる。例えば、このようなコンピュータプログラムプロダクトはその上に有形に格納(と/或いはエンコード)されるコマンドを有するコンピュータに読み取り可能な有形媒体であり、当該コマンドはここで記述された操作を行うようにひとつまたは複数のプロセッサーによって実行される。コンピュータプログラムプロダクトはパッケージ材を含むことが可能である。
ソフトウェアまたはコマンドは伝送媒体によって伝送されることも可能である。例えば、同軸ケーブル、光ファイバー、ツイストペアケーブル、デジタル加入者線(DSL)または赤外、無線あるいはマイクロ波の無線技術の伝送媒体によってウェブサイト、サーバまたはほかのリモートソースからソフトウェアを伝送することが可能である。
この他、ここで記述された方法と技術を行うためのモジュールと/或いはほかの適切な手段は適切なときに、ユーザ端末と/或いはベースステーションによりダウンロードと/或いはほかの方法で得ることが可能である。例えば、このようなデバイスはサーバにカップリングすることで記述された方法を行うための手段の伝送を促す。または、ここで記述された各種方法はユーザ端末と/或いはベースステーションが当該デバイスにカップリングされ、または当該デバイスに記憶部材を提供する時に各種方法を取得するように、記憶部材(例えば、RAM、ROM、CD或いはソフト磁気ディスクなどの物理記録媒体)により提供されることが可能である。この他、ここで記述された方法と技術をデバイスに提供するためのいかなるほかの適切な技術を利用することも可能である。
ほかの例と実施方法は本発明と請求項および主旨内にある。例えば、ソフトウェアの性質により、以上記述された機能はプロセッサー、ハードウェア、ファームウェア、ハード・ワイヤードまたはこれらの任意の組合せによって実行されるソフトウェアを用いて実施できる。機能を実施する特徴も物理的に各位置に配置することが可能で、機能の部分が異なる物理的な位置において実施されるように分配されることも含む。しかも、ここで使用され、かつ請求項に使用されるのを含み、「少なくともひとつ」をはじめとした列挙に使われた「或いは」は分離の列挙を意味する。即ち、「A、B或いはCの少なくともひとつ」のような列挙はA或いはB或いはC、またはAB或いはAC或いはBC、またはABC(即ちAとBとC)を意味する。それに、「例示的」の用語は記述された例が最適またはほかの例よりも良いことを意味していない。
請求項に教示された技術を離脱せずに、ここで記述された技術を各種変更、取替えおよび修正を行うことができる。それに、本発明の請求項は上記の処理、機器、製造、イベントの構成、手段、方法および動作の具体的な内容に限られない。ここで記述された内容とほご同じ機能を実行またはほぼ同じ結果を実施して既存または開発される処理、機器、製造、イベントの構成、手段、方法または動作を利用することができる。したがって、請求項はその範囲内にあるこのような処理、機器、製造、イベントの構成、手段、方法または動作を含む。
提供された上記の発明内容は当業者に本発明を作成または使用させることができる。これらの方案の各種の補正は当業者にとって自明であり、かつここで定義した一般原理は本発明の範囲を逸脱せずにほかに応用されることも可能である。したがって、本発明はここで示した方案に限定されることが望ましくなく、ここで発明された原理と新規の特徴と一致する最も広い範囲に従うものである。
上記の記述は例示および記述のためになされたものである。そして、この記述は本発明の実施例をここで発明された形式に制限することが望ましくない。上記、複数の例示と実施例を検討したが、当業者にとって、それのある変形、補正、修正、追加とサブ組合せのことが自明である。

Claims (12)

  1. 少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間が互いに重ならないステップと、
    前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得するステップと、
    前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、かつ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得するステップと、
    前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とに基づいて、前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得し、かつマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立するステップと、を含む、ことを特徴とする画像マッチング方法。
  2. 前記方法はさらに、
    前記少なくとも1つのサブ空間のパノラマ画像にそれぞれ対応する第一ラベル情報を取得することと、前記三次元空間における少なくとも1つのサブ空間の二次元画像にそれぞれ対応する第二ラベル情報を取得することと、前記第一ラベル情報及び第二ラベル情報に基づき、前記少なくとも1つのサブ空間のパノラマ画像と前記少なくとも1つのサブ空間の二次元画像とのマッチング関係を取得することと、を含み、及び
    前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、かつ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得する前記ステップは、
    前記第一ラベル情報及び第二ラベル情報により、少なくとも一つのサブ空間のパノラマ画像と少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得できない場合、マッチング関係を生成できなかったサブ空間のパノラマ画像に基づいて三次元再構成を行い、かつ対応する投影画像を取得することことと、を含む、ことを特徴とする請求項1に記載の方法。
  3. 三次元空間から少なくとも1つのサブ空間のパノラマ画像を取得することは、
    パノラマカメラにより前記少なくとも1つのサブ空間における各サブ空間のパノラマ画像を取得すること、又は
    前記少なくとも1つのサブ空間における各サブ空間の複数の透視画像により、前記各サブ空間のパノラマ画像を取得すること、を含む、ことを特徴とする請求項1に記載の方法。
  4. 前記三次元空間の二次元画像により、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得することは、
    前記三次元空間の二次元画像の各画素点に対してセマンティック認識を行うことと、
    セマンティック認識の結果に基づき、前記三次元空間の二次元画像を分割して、少なくとも1つのサブ空間の二次元画像を得ることと、を含む、ことを特徴とする請求項1に記載の方法。
  5. 前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行うことは、
    前記サブ空間のパノラマ画像に基づいて、前記サブ空間を形成する少なくとも1つの対象の空間特徴を取得し、かつ取得された少なくとも1つの対象の空間特徴に基づき三次元再構成を行うこと、を含む、ことを特徴とする請求項1に記載の方法。
  6. 前記少なくとも1つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得することは、
    前記サブ空間のパノラマ画像におけるターゲットを検出と位置決めすることと、
    前記サブ空間のパノラマ画像の三次元再構成結果及びパノラマ画像中のターゲットに対する検出と位置決めの結果に基づいて、前記サブ空間の前記三次元空間の二次元画像が所在する平面における投影画像を取得すること、を含む、ことを特徴とする請求項5に記載の方法。
  7. 前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とに基づいて、前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得する前記ステップは、
    前記少なくとも1つのサブ空間の投影画像及び前記少なくとも1つのサブ空間の二次元画像における対象と/或いはターゲットのレイアウトに基づいて、前記少なくとも1つのサブ空間の投影画像と前記少なくとも1つのサブ空間の二次元画像とのマッチング関係を取得することと、
    前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係に基づき、対応する前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得すること、を含む、ことを特徴とする請求項6に記載の方法。
  8. 前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とに基づいて、前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得する前記ステップは、
    前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とを形状マッチングして、マッチング結果に基づいて前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を確立することと、
    前記少なくとも一つのサブ空間の投影画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係に基づき、対応する前記少なくとも一つのサブ空間のパノラマ画像と前記少なくとも一つのサブ空間の二次元画像とのマッチング関係を取得すること、を含む、ことを特徴とする請求項1に記載の方法。
  9. 少なくとも1つのサブ空間で構成される三次元空間から、少なくとも1つのサブ空間のパノラマ画像、及び前記三次元空間の二次元画像を取得し、かつ前記三次元空間が複数のサブ空間で構成される場合は、各サブ空間が互いに重ならない画像マッチングユニットと、
    前記三次元空間の二次元画像に基づいて、前記三次元空間における少なくとも1つのサブ空間の二次元画像を取得するサブ空間取得ユニットと、
    前記少なくとも一つのサブ空間のパノラマ画像に対して三次元再構成を行い、かつ前記少なくとも一つのサブ空間のパノラマ画像にそれぞれ対応する投影画像を取得する再構成ユニットと、
    前記少なくとも一つのサブ空間の投影画像及び前記少なくとも一つのサブ空間の二次元画像に基づいて、前記少なくとも一つのサブ空間のパノラマ画像及び前記少なくとも一つのサブ空間の二次元画像のマッチング関係を取得し、かつマッチング関係が生じたサブ空間のパノラマ画像とサブ空間の二次元画像との間に関連関係を確立するマッチングユニットと、を含む、ことを特徴とする画像マッチング装置。
  10. プロセッサーと、
    前記プロセッサーに接続され、かつコンピュータプログラムコマンドが格納されているメモリと、を含み、
    前記コンピュータプログラムコマンドは、前記プロセッサーにより実行される時に、前記プロセッサーに、請求項1乃至8のうちの何れか1項に記載の画像マッチング方法を実行させる、画像マッチング装置
  11. コンピュータに、請求項1乃至8のうちの何れか1項に記載の画像マッチング方法を実行させるためのプログラム。
  12. 請求項11に記載のプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
JP2021120853A 2020-07-24 2021-07-21 画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体 Active JP7143924B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010723161.9A CN113971628A (zh) 2020-07-24 2020-07-24 图像匹配方法、装置和计算机可读存储介质
CN202010723161.9 2020-07-24

Publications (2)

Publication Number Publication Date
JP2022022190A true JP2022022190A (ja) 2022-02-03
JP7143924B2 JP7143924B2 (ja) 2022-09-29

Family

ID=76999748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021120853A Active JP7143924B2 (ja) 2020-07-24 2021-07-21 画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US11948343B2 (ja)
EP (1) EP3944191B1 (ja)
JP (1) JP7143924B2 (ja)
CN (1) CN113971628A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023163420A (ja) * 2022-04-28 2023-11-10 株式会社スペースリー 三次元モデル生成装置及び三次元モデル生成プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
CN113408534B (zh) * 2020-03-17 2024-07-02 株式会社理光 在全景图像中识别地标的方法、设备及存储介质
US11501478B2 (en) * 2020-08-17 2022-11-15 Faro Technologies, Inc. System and method of automatic room segmentation for two-dimensional laser floorplans
CN117744196A (zh) * 2020-10-13 2024-03-22 弗莱瑞尔公司 通过自动分析传感器数据生成物理结构和环境的测量结果
CN115546445A (zh) 2021-06-30 2022-12-30 株式会社理光 子空间连接关系确定方法、装置及计算机可读存储介质
CN115330943B (zh) * 2022-08-11 2023-03-28 北京城市网邻信息技术有限公司 多层空间三维建模方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046106A (ja) * 2015-08-25 2017-03-02 オリンパス株式会社 撮像装置,撮像方法,撮像プログラム
JP2020038657A (ja) * 2018-09-05 2020-03-12 楽天株式会社 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101183000B1 (ko) * 2004-07-30 2012-09-18 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US20090237396A1 (en) * 2008-03-24 2009-09-24 Harris Corporation, Corporation Of The State Of Delaware System and method for correlating and synchronizing a three-dimensional site model and two-dimensional imagery
CN111145352A (zh) * 2019-12-20 2020-05-12 北京乐新创展科技有限公司 一种房屋实景图展示方法、装置、终端设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046106A (ja) * 2015-08-25 2017-03-02 オリンパス株式会社 撮像装置,撮像方法,撮像プログラム
JP2020038657A (ja) * 2018-09-05 2020-03-12 楽天株式会社 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENG SUN ET AL.: "HorizonNet: Learning Room Layout With 1D Representation and Pano Stretch Data Augmentation", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022033624, 15 June 2019 (2019-06-15), ISSN: 0004849911 *
CHONGYANG LUO ET AL.: "Indoor Scene Reconstruction: From Panorama Images to CAD Models", 2019 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY ADJUNCT (ISMAR-ADJUNCT), JPN6022033622, 10 October 2019 (2019-10-10), ISSN: 0004849910 *
古川 泰隆: "不動産画像データセットを利用したディープ多形態画像対応学習", 人工知能 第32巻 第4号, JPN6022033625, 1 July 2017 (2017-07-01), ISSN: 0004849912 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023163420A (ja) * 2022-04-28 2023-11-10 株式会社スペースリー 三次元モデル生成装置及び三次元モデル生成プログラム
JP7540671B2 (ja) 2022-04-28 2024-08-27 株式会社スペースリー 三次元モデル生成装置及び三次元モデル生成プログラム

Also Published As

Publication number Publication date
EP3944191B1 (en) 2024-09-04
EP3944191A1 (en) 2022-01-26
US11948343B2 (en) 2024-04-02
CN113971628A (zh) 2022-01-25
US20220027656A1 (en) 2022-01-27
JP7143924B2 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
JP2022022190A (ja) 画像マッチング方法、装置及びコンピュータ読み取り可能な記憶媒体
Rahimian et al. On-demand monitoring of construction projects through a game-like hybrid application of BIM and machine learning
US20200320327A1 (en) Systems and methods for extracting information about objects from scene information
CN110310175B (zh) 用于移动增强现实的系统和方法
Pintore et al. State‐of‐the‐art in automatic 3D reconstruction of structured indoor environments
US10055892B2 (en) Active region determination for head mounted displays
Tran et al. Shape grammar approach to 3D modeling of indoor environments using point clouds
US10030979B2 (en) Determining and/or generating a navigation path through a captured three-dimensional model rendered on a device
CN107065790B (zh) 用于确定虚拟环境中的虚拟机器人的配置的方法和系统
WO2020223975A1 (zh) 在地图上定位设备的方法、服务端及移动机器人
Fichtner et al. Semantic enrichment of octree structured point clouds for multi‐story 3D pathfinding
Limosani et al. Enabling global robot navigation based on a cloud robotics approach
Weinmann et al. Efficient 3d mapping and modelling of indoor scenes with the microsoft hololens: A survey
Mojtahedzadeh Robot obstacle avoidance using the Kinect
Yuan et al. A survey on indoor 3D modeling and applications via RGB-D devices
CN115393386A (zh) 三维场景图的生成方法、装置、设备及可读存储介质
CN115906226A (zh) 来自建筑物照片的分析的自动化测绘信息生成
Fernández-Chaves et al. ViMantic, a distributed robotic architecture for semantic mapping in indoor environments
Staats et al. Detection of doors in a voxel model, derived from a point cloud and its scanner trajectory, to improve the segmentation of the walkable space
CA3218954A1 (en) Automated inter-image analysis of multiple building images for building information determination
Ghani et al. Detecting negative obstacle using Kinect sensor
Kumar Rath et al. Real‐time moving object detection and removal from 3D pointcloud data for humanoid navigation in dense GPS‐denied environments
WO2022128896A1 (en) Method and apparatus for multiple robotic devices in an environment
Wu et al. Structural elements detection and reconstruction (SEDR): A hybrid approach for modeling complex indoor structures
Wang et al. Towards rich, portable, and large-scale pedestrian data collection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R151 Written notification of patent or utility model registration

Ref document number: 7143924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151