JP7485232B2 - 画像マッチング装置、制御方法、及びプログラム - Google Patents

画像マッチング装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP7485232B2
JP7485232B2 JP2023549942A JP2023549942A JP7485232B2 JP 7485232 B2 JP7485232 B2 JP 7485232B2 JP 2023549942 A JP2023549942 A JP 2023549942A JP 2023549942 A JP2023549942 A JP 2023549942A JP 7485232 B2 JP7485232 B2 JP 7485232B2
Authority
JP
Japan
Prior art keywords
aerial
image
partial
ground
aerial photography
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023549942A
Other languages
English (en)
Other versions
JP2024506962A (ja
Inventor
ロイストン ロドリゲス
真宏 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2024506962A publication Critical patent/JP2024506962A/ja
Application granted granted Critical
Publication of JP7485232B2 publication Critical patent/JP7485232B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)

Description

本開示は全体として、画像マッチング、特に、地上画像と空撮画像とのマッチングに関する。
グラウンド・トゥー・エアリアル・クロスビューマッチング(地上画像と空撮画像のマッチング)を行うコンピュータシステムが開発されている。例えば非特許文献1は、地上画像と空撮画像がマッチするか否かを判定するために、比較すべき地上画像と空撮画像から特徴量を抽出するための CNN(Convolutional Neural Network)のセットを有するシステムを開示する。
具体的には、一つの CNN が、地上画像を取得して、それから特徴量を抽出する。もう一つの CNN は、極変換された空撮画像を取得し、それから特徴量を抽出する。さらに、そのシステムは、地上画像から抽出された特徴量と空撮画像から抽出された特徴量との相関を算出することにより、空撮画像に対する地上画像の方向に関する配置を推定する。当該方向に関する配置に基づいて、そのシステムは、地上画像に対応すると推定される空撮画像の特徴量のセクションをクロップしてシフトする。そして、地上画像の特徴量が、クロップされた空撮画像の特徴量と比較され、地上画像と空撮画像とがマッチするか否かが特定される。
Yujiao Shi、Xin Yu、Dylan Campbell、及び Hongdong Li、「Where am I looking at? Joint Location and Orientation Estimation by Cross-View Matching」、Computer Research Repository、arXiv:2005.03860、2020年5月8日
地上画像に対応する空撮画像のセクションが、地上画像に含まれないオブジェクトを含みうる状況や、その逆の状況が存在しうる。これらの状況は、非特許文献1に開示されているシステムによって実行されるグラウンド・トゥー・エアリアル・クロスビューマッチングの精度に影響を与えると考えられる。本開示の目的は、グラウンド・トゥー・エアリアル・クロスビューマッチングの精度を向上する技術を提供することである。
本開示の画像マッチング装置は、少なくとも一つのプロセッサと、命令が格納されている記憶要素と、を有する。前記少なくとも一つのプロセッサは、前記命令を実行することにより、地上画像と空撮画像を取得し、前記地上画像から特徴量を抽出し、前記空撮画像から特徴量を抽出し、前記空撮画像から複数の部分空撮領域を抽出し、前記複数の前記部分空撮領域のそれぞれから特徴量を抽出し、前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出し、前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮特徴量と前記地上画像とがマッチするか否かを判定する、ように構成される。
本開示の制御方法は、コンピュータによって実行される。当該制御方法は、地上画像と空撮画像を取得することと、前記地上画像から特徴量を抽出することと、前記空撮画像から特徴量を抽出することと、前記空撮画像から複数の部分空撮領域を抽出することと、前記複数の前記部分空撮領域のそれぞれから特徴量を抽出することと、前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出することと、前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮特徴量と前記地上画像とがマッチするか否かを判定することと、を含む。
本開示の非一時的なコンピュータ可読記憶媒体はプログラムを格納する。当該プログラムは、地上画像と空撮画像を取得することと、前記地上画像から特徴量を抽出することと、
前記空撮画像から特徴量を抽出することと、前記空撮画像から複数の部分空撮領域を抽出することと、前記複数の前記部分空撮領域のそれぞれから特徴量を抽出することと、前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出することと、前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮特徴量と前記地上画像とがマッチするか否かを判定することと、をコンピュータに実行させる。
本開示によれば、グラウンド・トゥー・エアリアル・クロスビューマッチングの精度を向上する技術を提供することができる。
図1は、実施形態1の画像マッチング装置の概要を表す。 図2は、地上画像が撮像された場所が、その地上画像20に対応する空撮画像の中心に対応しないケースを表す。 図3は、画像マッチング装置の機能構成の例を表すブロック図である。 図4は、画像マッチング装置を実現するコンピュータのハードウエア構成の例を示すブロック図である。 図5Aは、画像マッチング装置2000によって実行される処理の流れの例を表すフローチャートを示す。 図5Bは、画像マッチング装置2000によって実行される処理の流れの例を表すフローチャートを示す。 図6は、画像マッチング装置が含まれるジオローカライゼーションシステムを示す。 図7は、放射状の複数の線を用いて得られる部分空撮領域を表す。 図8は、空撮画像内の円形領域から部分空撮領域が抽出されるケースを表す。
以下、本開示に係る実施形態について、図面を参照しながら説明する。複数の図を通して同じ要素には同じ符号が付され、冗長な説明は必要に応じて省略される。また、特に言及しない限り、所定の情報(例えば、所定の値や所定の閾値)は、その情報を利用するコンピュータからアクセス可能な記憶装置に予め格納される。
実施形態1
<概要>
図1は、実施形態1の画像マッチング装置2000の概要を示す。画像マッチング装置2000は、地上画像20と空撮画像30との間のマッチング(いわゆるグラウンド・トゥー・エアリアル・クロスビューマッチング)を行う識別器として機能する。
地上画像20は、或る場所のグラウンドビューを含む画像である。例えば、地上画像20は、歩行者によって保持されているカメラや、車に設置されているカメラから撮像される。画像マッチング装置2000によって扱われる地上画像20は、限られた(360°より小さい)画角を持ちうる。空撮画像30は、或る場所の平面視が含まれる画像である。例えば、空撮画像30は、ドローンに設置されたカメラ、飛行機に設置されたカメラ、又は人工衛星に設置されたカメラなどから撮像される。
地上画像20の画角が360度より小さい場合、地上画像20は、空撮画像30の全体とはマッチせずに、空撮画像30の一部とマッチしうる。そのため、画像マッチング装置2000は、地上画像20と空撮画像30とを取得し、空撮画像30が、取得した地上画像20とマッチする部分空撮領域32(すなわち、空撮画像30の一部)を含むか否かを判定する。取得した空撮画像30が地上画像20とマッチする部分空撮領域32を含む場合、地上画像20と空撮画像30とがマッチすると判定される。一方、取得した空撮画像30が地上画像20とマッチする部分空撮領域32を含まない場合、地上画像20と空撮画像30とがマッチしないと判定される。ここで、「地上画像と空撮画像とがマッチする」とは、地上画像に撮像されている場所が、空撮画像に撮像されている場所と十分に重複していることを意味する。同様に、「地上画像と部分空撮領域とがマッチする」とは、地上画像に撮像されている場所が、部分空撮領域に撮像されている場所と十分に重複していることを意味する。
上述した動作を実現するために、画像マッチング装置2000は、地上画像20と空撮画像30のそれぞれから特徴量を抽出する。さらに、画像マッチング装置2000は、空撮画像30から複数の部分空撮領域32を抽出し、各部分空撮領域32から特徴量を抽出する。地上画像20、空撮画像30、及び部分空撮領域32から抽出された特徴量はそれぞれ、「地上特徴量」、「空撮特徴量」、及び「部分空撮特徴量」と呼ばれる。そして、画像マッチング装置2000は、各部分空撮領域32について、空撮特徴量とその部分空撮領域32の部分空撮特徴量との組み合わせ(例えば、コンカチネーション)である結合空撮特徴量を算出する。
各部分空撮領域32について、画像マッチング装置2000は、地上特徴量と、その部分空撮領域32の結合空撮特徴量とを比較することにより、地上画像20と部分空撮領域32とがマッチするか否かを判定する。地上特徴量と部分空撮領域32の結合空撮特徴量との類似度が十分に高い(例えば、閾値以上である)場合、画像マッチング装置2000は、地上画像20と部分空撮領域32とがマッチすると判定する。一方で、地上特徴量と部分空撮領域32の結合空撮特徴量との類似度が十分に高くない(例えば、閾値未満である)場合、画像マッチング装置2000は、地上画像20と部分空撮領域32とがマッチしないと判定する。
地上画像20が撮像された場所において空撮画像30も撮像されている場合、部分空撮領域32のうちの1つは、地上画像20とマッチすると判定されうる。そのため、地上画像20とマッチすると判定された部分空撮領域32がある場合、画像マッチング装置2000は、地上画像20と空撮画像30とがマッチすると判定する。一方、地上画像20とマッチすると判定された部分空撮領域32がない場合、画像マッチング装置2000は、地上画像20と空撮画像30とがマッチしないと判定する。
<作用効果の例>
実施形態1の画像マッチング装置2000によれば、結合空撮特徴量を地上特徴量と比較することにより、部分空撮領域32の特徴量だけではなく空撮画像30の特徴量も(言い換えれば、局所的な特徴量だけではなく全体的な特徴量も)、部分空撮領域32と地上画像20とがマッチするか否かの判定において考慮される。そうすることにより、グラウンド・トゥー・エアリアル・クロスビューマッチングの精度を向上させることができる(特に、地上画像20に含まれないオブジェクトが部分空撮領域32に含まれている場合やその逆の場合において)。
例えば、地上画像20が撮像された場所が、その地上画像20に対応する空撮画像30の中心に対応しない場合、地上画像20に対応する部分空撮領域32には含まれていないオブジェクトが地上画像20に含まれたり、その逆であったりしうる。図2は、地上画像20が撮像された場所が、その地上画像20に対応する空撮画像30の中心に対応しないケースを表す。バツ印50は、空撮画像30の中心を表す。丸印60は、地上画像が撮像された場所を表す。矢印70は、地上画像20が撮像された時にカメラが向いていた方向を表す。図2の部分空撮領域32は、地上画像20に対応する。
カメラがバツ印50に対応する場所に位置する場合、地上画像20は、道路上の点線を含まない。しかしながら、カメラが丸印60に対応する場所に位置するため、実際の地上画像20は点線を含んでいる。この点線は、地上画像20から抽出される地上特徴量には含まれうるが、部分空撮領域32から抽出される部分空撮特徴量には含まれ得ない。このことは、これらに十分な差異を生じさせうる。
この問題に関し、画像マッチング装置2000は空撮画像30の特徴量も抽出し、その特徴量は部分空撮特徴量には含まれない点線の特徴量を含みうる。そのため、結合空撮特徴量は点線の特徴量を含みうる。結果として、部分空撮領域32の結合空撮特徴量が地上特徴量と十分に類似するようになるため、地上画像20と空撮画像30とがマッチすると判定される。
その他にも例えば、平面視では他の物体に隠されうる物体が地上視では隠されなかったり、その逆もありうる。例えば、平面視において道路の一部を覆う木が存在し、部分空撮領域32にその道路が含まれないとする。一方、その部分空撮領域32に対応する地上画像20が、木だけでなく道路も含むとする。
この場合、地上特徴量は道路の特徴を含みうる一方で、部分空撮特徴量はそれを含むことがない。そのため、それらの間には十分な差異がありうる。
この問題に関し、画像マッチング装置2000は、空撮画像30の特徴量も抽出し、その特徴量は、部分空撮特徴量には含まれないその道路も含みうる。そのため、結合空撮特徴量は、その道路の特徴量も含みうる。よって、結合空撮特徴量が地上特徴量と十分に類似し、地上画像20と部分空撮領域32とがマッチすると判定される。
以下、画像マッチング装置2000のより詳細な説明が記載される。
<機能構成の例>
図3は、画像マッチング装置2000の機能構成の例を表すブロック図である。画像マッチング装置2000は、取得部2020、地上特徴量抽出部2040、部分空撮領域抽出部200、空撮特徴量抽出部200、部分空撮特徴量抽出部2100、特徴量結合部2120、及び判定部2140を有する。
取得部2020は、グラウンド・トゥー・エアリアル・クロスビューマッチングの実行対象である地上画像20及び空撮画像30を取得する。地上特徴量抽出部2040は、地上画像20の地上特徴量を算出する。部分空撮領域抽出部200は、空撮画像30から複数の部分空撮領域32を抽出する。空撮特徴量抽出部200は、空撮画像30の空撮特徴量を算出する。部分空撮特徴量抽出部2100は、各部分空撮領域32の部分空撮特徴量を算出する。特徴量結合部2120は、各部分空撮領域32についてその部分空撮領域32の部分空撮特徴量と空撮画像30の空撮特徴量とを結合することにより、各部分空撮領域32について結合空撮特徴量を算出する。判定部2140は、各部分空撮領域32について、地上画像20の地上特徴量とその部分空撮領域32の結合空撮特徴量とを比較することにより、その部分空撮領域32と地上画像20とがマッチするか否かを判定する。
<ハードウエア構成の例>
画像マッチング装置2000は、1つ以上のコンピュータで実現されうる。それら1つ以上のコンピュータのそれぞれは、画像マッチング装置2000を実現するために作成された専用のコンピュータであってもよいし、パーソナルコンピュータ(PC: Personal Computer)、サーバマシン又はモバイルデバイスなどの汎用のコンピュータであってもよい。
画像マッチング装置2000は、コンピュータにアプリケーションをインストールすることで実現されうる。そのアプリケーションは、コンピュータを画像マッチング装置2000として機能させるプログラムで実現される。言い換えれば、そのプログラムは、画像マッチング装置2000の機能構成部を実装したものである。
図4は、画像マッチング装置2000を実現するコンピュータ1000のハードウエア構成の例を示すブロック図である。図4において、コンピュータ1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。
バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が相互にデータの送信及び受信をするためのデータ通信路である。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などといったプロセッサである。メモリ1060は、RAM(Random Access Memory)又は ROM(Read Only Memory)などの主記憶要素である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、又はメモリカードなどの補助記憶要素である。入出力インタフェース1100は、コンピュータ1000と周辺デバイス(キーボード、マウス、又はディスプレイデバイスなど)との間のインタフェースである。ネットワークインタフェース1120は、コンピュータ1000とネットワークとの間のインタフェースである。ネットワークは、LAN(Local Area Network)でもよいし、WAN(Wide Area Network)でもよい。ストレージデバイス1080は、前述したプログラムを格納しうる。プロセッサ1040は、そのプログラムを実行することで、画像マッチング装置2000の各機能構成部を実現する。
コンピュータ1000のハードウエア構成は、図4に示される構成に限定されない。例えば、前述したように、画像マッチング装置2000は複数のコンピュータで実現されうる。この場合、それらのコンピュータは、ネットワークを介して互いに接続されうる。
<処理の流れ>
図5及び5Bは、画像マッチング装置2000によって実行される処理の流れの例を表すフローチャートを示す。取得部2020は、地上画像20及び空撮画像30を取得する(S102)。地上特徴量抽出部2040は、地上画像0の地上特徴量を算出する(S104)。部分空撮領域抽出部2060は、空撮画像30の空撮特徴量を算出する(S106)。部分空撮領域抽出部2080は、空撮画像30から複数の部分空撮領域32を抽出する(S108)。
ステップS110からS120は、各部分空撮領域32について実行されるループ処理L1を構成する。ステップS110において、画像マッチング装置2000は、まだループ処理L1が実行されていない部分空撮領域32が1つ以上存在するか否かを判定する。まだループ処理L1が実行されていない部分空撮領域32が1つも無い(すなわち、全ての部分空撮領域32について既にループ処理L1が実行されている)場合、ループ処理L1は終了する。一方、まだループ処理L1が実行されていない部分空撮領域32が1つ以上ある場合、画像マッチング装置2000は、まだループ処理L1が実行されていない部分空撮領域32のうちの1つを選択する。以下、ここで選択される部分空撮領域32は、部分空撮領域iと表記される。
部分空撮領域iを選択した後、部分空撮特徴量抽出部2100は、部分空撮領域iの部分空撮特徴量を算出する(S112)。特徴量結合部2120は、S105で算出された空撮特徴量と、S112で算出された部分空撮領域iの部分空撮特徴量とを結合することで、部分空撮領域iについての結合空撮特徴量を算出する(S114)。
判定部2140は、ステップS110で算出された地上特徴量と、S114で算出された結合空撮特徴量とを比較することにより、地上画像20と部分空撮領域iとがマッチするか否かを判定する(S116)。地上画像20と部分空撮領域iとがマッチすると判定された場合(S116:YES)、判定部2140は、地上画像20と空撮画像30とがマッチすると判定する(S118)。そして、図5のフローは終了する。一方、地上画像20と部分空撮領域iとがマッチしないと判定された場合(S116:NO)、ループ処理L1の現在のイテレーションは終了し(S120)、S110が再度実行される。
地上画像20とマッチすると判定された部分空撮領域32が一つも無い場合、ステップS122が実行される。地上画像20とマッチすると判定された部分空撮領域32が一つも無いため、判定部2140は、地上画像20と空撮画像30とがマッチしないと判定する(S122)。
図5に示される処理は、画像マッチング装置2000によって実行される動作の流れの単なる一例であり、動作の流れは図5に示されるものに限定されない。例えば画像マッチング装置2000は、地上画像20と部分空撮領域32とがマッチするか否かの判定を、ループ処理L1の各イテレーションで実行する必要はない。そうする代わりに、画像マッチング装置2000は、地上特徴量と結合空撮特徴量との類似度を、ループ処理L1の各イテレーションにおいて算出し、地上特徴量との類似度が最大である結合空撮特徴量を特定してもよい。そして、画像マッチング装置2000は、地上画像20と、地上特徴量との類似度が最大であると特定された結合空撮特徴量を持つ部分空撮領域32とがマッチすると判定する。
<画像マッチング装置2000のアプリケーションの例>
画像マッチング装置2000のアプリケーションには様々なものがある。例えば画像マッチング装置2000は、画像ジオローカライゼーションを行うシステム(以下、ジオローカライゼーションシステム)の一部として利用することができる。画像ジオローカライゼーションは、入力された画像の撮像場所を特定する技術である。ここで、ジオローカライゼーションシステムはあくまで、画像マッチング装置2000のアプリケーションの一例であり、画像マッチング装置2000のアプリケーションは、ジオローカライゼーションシステムの中で利用されるものに限定されない。
図6は、画像マッチング装置2000が含まれるジオローカライゼーションシステム200を示す。ジオローカライゼーションシステム200は、画像マッチング装置2000及び位置データベース300を含む。位置データベース300は、それぞれに位置情報が付加された複数の空撮画像を含む。位置情報の例は、対応する空撮画像の撮像場所の GPS(Global Positioning System)座標でありうる。
ジオローカライゼーションシステム200は、クライアント(例えばユーザ端末)から地上画像を含むクエリを受信し、受信したクエリに含まれる地上画像とマッチする空撮画像を位置データベース30から探索し、これによって地上画像の撮像場所を特定する。具体的には、クエリに含まれる地上画像にマッチする空撮画像が検出されるまで、ジオローカライゼーションシステム200は、「位置データベース300から空撮画像を1つ取得し、地上画像と取得した空撮画像を画像マッチング装置2000に入力し、画像マッチング装置2000からの出力が、地上画像と空撮画像とがマッチすることを示しているか否かを判定する。」という処理を繰り返す。こうすることで、ジオローカライゼーションシステム200は、地上画像の撮像場所が含まれる空撮画像を見つけることができる。検出された空撮画像が GPS 座標などの位置情報に対応づけられているため、ジオローカライゼーションシステム200は、地上画像の撮像場所が、地上画像にマッチする空撮画像に対応づけられている位置情報によって示されている場所であると認識できる。
なお、ジオローカライゼーションシステム200は、1つ以上の、図4に示されているコンピュータなどによって実装されうる。
<画像の取得:S102>
取得部2020は、地上画像20及び空撮画像30を取得する(S102)。これらの画像を取得する方法は様々である。例えば取得部2020は、他のコンピュータから送信された、地上画像20と空撮画像30のセットを受信しうる。その他にも例えば、取得部2020は、アクセス可能な記憶装置から、地上画像20と空撮画像30のセットを取り出しうる。
その他にも例えば、図6に示されているように、取得部2020は、他のコンピュータから送信された地上画像20を受信し、その地上画像20とマッチする空撮画像を探索してもよい。この場合、地上画像0とマッチする空撮画像30が見つかるまで、又は、地上画像20とマッチする空撮画像30がないと判定されるまで、取得部2020は、記憶装置から繰り返し空撮画像30を取得する。同様に、取得部2020は、他の装置から送信された空撮画像30を受信し、その空撮画像30にマッチする地上画像20を探索してもよい。
<地上画像からの特徴量抽出:S104>
地上特徴量抽出部2040は、地上画像20の地上特徴量を算出する(S104)。地上画像20の地上特徴量は、地上画像20から抽出される特徴量である。画像から特徴量を抽出する方法は様々であり、そのうちの任意の方法が、地上特徴量抽出部2040を構成するために採用されうる。例えば地上特徴量抽出部2040は、ニューラルネットワークなどといった機械学習ベースのモデルで実現されうる。より具体的には、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)の特徴抽出層を採用して、地上特徴量抽出部2040を構成しうる。
<部分空撮領域32の抽出:S108>
空撮特徴量抽出部2080は、空撮画像30から複数の部分空撮領域32を抽出する(S108)。空撮画像30から部分空撮領域32を抽出する方法は様々である。例えば空撮特徴量抽出部2080は、放射状の複数の線を用いて、空撮画像30を複数の部分空撮領域32に分割する。図7は、放射状の複数の線を用いて得られる部分空撮領域を表す。図7において、空撮画像30の中心が原点として設定され、放射状の複数の線が空撮画像30の中心から描かれている。さらに、互いに隣接する2つの放射状の線が成す角度の大きさは、45°である。そのため、空撮画像30から、8つの部分空撮領域32-1から32-8が抽出される。
隣接する放射状の線が成す角度の大きさは、予め定められていてもよいし、画像マッチング装置2000のユーザによって指定されてもよいし、地上画像20の画角の大きさに基づいて決定されてもよい。隣接する放射状の線が成す角度の大きさは、地上画像20の画角と同じサイズに設定されることが好ましい。例えば、地上画像20の画角の大きさが45°である場合、隣接する2つの放射状の線が成す角度の大きさは45°に設定されることが好ましい。
地上画像20の画角の大きさを把握する方法は様々である。例えば画角の大きさは、地上画像20のメタデータで示されている。この場合、画像マッチング装置2000は、地上画像20のメタデータを読み取ることで地上画像20の画角の大きさを把握し、その把握されたサイズを、2つの放射状の線が成す角の大きさとして利用する。その他にも例えば、画像マッチング装置2000は、地上画像20の画角の大きさを表す情報を取得しうる。
部分空撮領域抽出部2080は、2つの隣接する放射状の線が成す角度として、複数の大きさを利用しうる。例えば、2つの隣接する放射状の線が成す角度として、45°と60°が利用されるとする。この場合、例えば部分空撮領域抽出部2080は、最初に、2つの隣接する放射状の線が成す角を45°に設定して、8つの部分空撮領域32を抽出する。次に、部分空撮領域抽出部2080は、2つの隣接する放射状の線が成す角を60°に設定して、6つの部分空撮領域32を抽出する。それにより、部分空撮領域抽出部2080は、合計14個の部分空撮領域32を得る。この方法を採用することで、画像マッチング装置2000は、地上画像20の画角に関する知識を持たずに、地上画像20とマッチする部分空撮領域32を見つけうる。
部分空撮領域抽出部2080は、部分空撮領域32が、1つ以上の部分空撮領域32の一部と重複する態様で、部分空撮領域32を抽出してもよい。この場合、例えば部分空撮領域抽出部2080は、スライディングウインドウ法を利用して、空撮画像30から部分空撮領域32を抽出するための放射状の線を定義する。以下、空撮画像30から部分空撮領域32を抽出するための2つの放射状の線はそれぞれ、「第1放射状線」と「第2放射状線」と呼ばれる。ここで、第1放射状線とx軸が成す角度は、第2放射状線とx軸が成す角度よりも小さい。
この場合、各部分空撮領域32について、部分空撮領域抽出部2080は、以下のように第1放射状線と第2放射状線を定めうる。
Figure 0007485232000001
式(1)において、α[i] は、i番目の部分空撮領域32を定める第1放射状線とx軸とが成す角の大きさを表す。β[i]は、i番目の部分空撮領域32を定める第2放射状線とx軸とが成す角の大きさを表す。sは、スライディングウインドウのストライドの大きさ(すなわち、2つの連接する部分空撮領域32の間の角度)を表す。wは、スライディングウインドウの大きさ(すなわち、第1放射状線と第2放射状線とが成す角度)を表す。
空撮画像30の全体から部分空撮領域32を抽出する代わりに、部分空撮領域抽出部2080は、空撮画像30の一部から部分空撮領域32を抽出してもよい。例えば部分空撮領域抽出部2080は、空撮画像30から円形領域をクロップし、放射状の線を利用して、当該円形領域から複数の部分空撮領域32を抽出する。そうすることにより、互いに同一のサイズかつ同一の形状を持つ複数の部分空撮領域32を得ることができる。図8は、空撮画像30内の円形領域から部分空撮領域32が抽出されるケースを表す。図8において、円形領域34は、空撮画像30上に描かれた円であり、その中心は空撮画像30の中心である。
<空撮画像30の特徴量抽出:S106,S112、S114>
画像マッチング装置2000は、各部分空撮領域32について、結合空撮特徴量を算出する。部分空撮領域32の結合空撮特徴量は、空撮画像30の空撮特徴量と、部分空撮領域32の部分空撮特徴量とが結合されたものである。
空撮画像30の空撮特徴量の算出については、地上画像20の地上特徴量の算出と同様に、画像から特徴量を抽出する種々の方法のうちの任意の1つを採用することができる。例えば空撮特徴量抽出部2060は、ニューラルネットワークなどの機械学習ベースのモデルによって実現されうる。より具体的には、CNN の特徴抽出層を採用して、空撮特徴量抽出部2060を構成しうる。
部分空撮領域32の部分空撮特徴量の算出は、地上特徴量の算出や空撮特徴量の算出と同様の態様で実現されうる。具体的には、画像から特徴量を抽出する種々の方法のうちの任意の一つを採用することができる。例えば部分空撮特徴量抽出部2100は、ニューラルネットワークなどの機械学習ベースのモデルによって実現されうる。より具体的には、CNN の特徴抽出層を採用して、部分空撮特徴量抽出部2100を構成しうる。
ここで、部分空撮特徴量抽出部2100は、部分空撮領域32を、その第1放射状線がx軸と平行になる様に回転してもよい。この場合、部分空撮特徴量抽出部2100は、部分空撮領域32を時計回りに45°回転させうる。
この場合、空撮画像30は、部分空撮領域32と同じ角度だけ回転されうる。この場合、部分空撮領域32ごとに異なる空撮特徴量が算出される。例えば、その第1放射状線がx軸と45°の角度を成す部分空撮領域 R1 と、その第1放射状線がx軸と60°の角度を成す部分空撮領域 R2 とが存在するとする。部分空撮領域 R1 について結合空撮特徴量を算出する場合、空撮画像30と部分空撮領域 R1 は、それらの特徴量を算出する前に、時計回りに45°回転されうる。一方、部分空撮領域 R2 について結合空撮特徴量を算出する場合、空撮画像30と部分空撮領域 R2 は、それらの特徴量を算出する前に、時計回りに60°回転されうる。
部分空撮領域32から部分空撮特徴量を得て、かつ、空撮画像30から空撮特徴量を得た後、特徴量結合部2120は、これらを結合して、結合空撮特徴量にする。2セットの特徴量を1セットの特徴量に結合する方法は様々である。例えば特徴量結合部2120は、部分空撮特徴量と空撮特徴量をコンカチネートし、このコンカチネーションを結合空撮特徴量として利用する。この場合、空撮特徴量と部分空撮特徴量は、それらのサイズの和が地上特徴量のサイズと一致するように構成される。
例えば地上特徴量抽出部2040、空撮特徴量抽出部2060、及び部分空撮特徴量抽出部2100が、ニューラルネットワークによって実現されるとする。この場合、これらは、地上特徴量抽出部2040の出力層のサイズが、空撮特徴量抽出部2060の出力層のサイズと部分空撮特徴量抽出部2100の出力層のサイズとの和と一致するように構成される。
その他にも例えば、特徴量結合部2120は、部分空撮特徴量と空撮特徴量との重み付き和を算出し、この重み付き和を結合空撮特徴量として利用する。この場合、空撮特徴量のサイズと部分空撮特徴量のサイズが、互いに一致し、かつ、地上特徴量のサイズと一致する態様で、空撮特徴量と部分空撮特徴量が構成される。例えば地上特徴量抽出部2040、空撮特徴量抽出部2060、及び部分空撮特徴量抽出部2100が、ニューラルネットワークによって実現されるとする。この場合、これらは、各部の出力層のサイズが互いに一致する態様で構成される。
部分空撮特徴量と空撮特徴量との重み付き和は、ニューラルネットワークを用いて算出されうる。このニューラルネットワークは、空撮特徴量と部分空撮特徴量とが入力され、かつ、それらの重み付き和を出力するように構成される。重みは、ニューラルネットワークの訓練によって決定することができる。
<地上画像と部分空撮画像とのマッチング:S116>
判定部2140は、地上特徴量と部分空撮領域32の結合空撮特徴量とを比較することにより、地上画像20と部分空撮領域32とがマッチするか否かを判定する(S116)。当該比較のために、例えば判定部2140は、地上画像20と部分空撮領域32との類似度合いを示す類似スコアを算出する。
類似スコアの算出には種々のメトリクスを利用できる。例えば類似スコアは、種々の距離のうちの1つ(例えば、L2 距離)、相関、コサイン類似度、又はニューラルネットワーク(NN)ベースの類似度として算出されうる。NN ベースの類似度は、2つの入力データ(この場合、地上特徴量と結合空撮特徴量)の類似度を算出するように訓練されたニューラルネットワークによって算出される類似度である。
判定部2140は、類似スコアに基づいて、地上画像20と部分空撮領域32とがマッチするか否かを判定する。概念的には、地上画像20と部分空撮領域32との類似度が高いほど、地上画像20と部分空撮領域32とがマッチする蓋然性が高い。そこで例えば、判定部2140は、類似スコアが所定の閾値以上であるか否かを判定する。類似スコアが所定の閾値以上である場合、判定部2140は、地上画像20と空撮画像30とがマッチすると判定する。一方、類似スコアが所定の閾値未満である場合、判定部2140は、地上画像20と空撮画像30とがマッチしないと判定する。
ここで、上述したケースにおいて、類似スコアは、地上特徴量と結合空撮特徴量との類似度合いが大きいほど、その値が大きくなると仮定されている。そのため、地上特徴量と結合空撮特徴量との類似度合いが高いほど、地上特徴量と結合空撮特徴量とについて算出される値が小さくなるメトリクス(例えば距離)が利用される場合、類似スコアは、地上特徴量と結合空撮特徴量とについて算出された値(例えば、地上特徴量と結合空撮特徴量の距離)の逆数として定義されうる。
その他にも例えば、地上特徴量と結合空撮特徴量の類似度が高いほど類似スコアが小さくなる場合、判定部2140は、類似スコアが所定の閾値以下であるか否かを判定する。類似スコアが所定の閾値以下である場合、判定部2140は、地上画像20と部分空撮領域32とがマッチするか否かを判定する。一方、類似スコアが所定の閾値より大きい場合、判定部2140は、地上画像20と部分空撮領域32とがマッチしないと判定する。
<画像マッチング装置2000からの出力>
画像マッチング装置2000は、判定結果を表す情報(以下、出力情報)を出力しうる。例えば出力情報は、地上画像20と空撮画像30とがマッチするか否かを示しうる。地上画像20と空撮画像30とがマッチする場合、出力情報は、地上画像20とマッチすると判定された部分空撮領域32を特定する情報をさらに含みうる。部分空撮領域32は、例えば、その画像データ、又は、第1放射状線とx軸とが成す角度及び第2放射状線とx軸とが成す角度のセットによって特定されうる。さらに、出力情報は地上画像20の画角の大きさを含みうる。
出力情報を出力する方法は様々である。例えば画像マッチング装置2000は、出力情報を記憶装置に格納しうる。その他にも例えば、画像マッチング装置2000は、出力情報の内容がディスプレイ装置に表示されるように、出力情報をディスプレイ装置に出力しうる。その他にも例えば、画像マッチング装置2000は、他のコンピュータ(例えば、図6に示されるジオローカライゼーションシステム200に含まれるもの)に対して出力情報を出力しうる。
<モデルの訓練>
画像マッチング装置2000は、ニューラルネットワークなどのように、機械学習ベースのモデルを1つ以上含みうる。例えば前述したように、地上特徴量抽出部2040、空撮特徴量抽出部2060、部分空撮特徴量抽出部2100、及び特徴量結合部2120は、ニューラルネットワーク(例えば、CNN の特徴抽出層)として実装されうる。画像マッチング装置2000が機械学習ベースのモデルを用いて実装される場合、それらのモデルは、訓練データセットを利用して予め訓練されている必要がある。例えば、モデルの訓練を行うコンピュータ(以下、訓練装置)は、訓練データセットを利用してトリプレットロス(triplet loss)を算出し、そのトリプレットロスに基づいて、モデルの訓練可能なパラメータを更新しうる。この場合、訓練データセットは、地上画像、空撮画像、地上画像とマッチする正例の部分空撮領域、及び地上画像とマッチしない負例の部分空撮領域を含みうる。地上画像、正例の部分空撮領域、及び負例の部分空撮領域はそれぞれ、アンカーの入力、正例の入力、及び負例の入力として利用される。
具体的には、例えば訓練装置は、地上画像を地上特徴量抽出部2040に入力して地上特徴量を取得し、空撮画像を空撮特徴量抽出部2060に入力して空撮特徴量を取得し、正例の部分空撮領域を部分空撮特徴量抽出部2100に入力して正例に対応する部分空撮特徴量を取得し、かつ、負例の部分空撮領域を部分空撮特徴量抽出部2100に入力して負例に対応する部分空撮特徴量を取得する。そして、空撮特徴量と、正例に対応する部分空撮特徴量とが特徴量結合部2120に入力されて、正例に対応する結合空撮特徴量が得られる。同様に、空撮特徴量と、負例に対応する部分空撮特徴量が特徴量結合部2120に入力されて、負例に対応する結合空撮特徴量が得られる。
次に、訓練装置は、地上特徴量、正例に対応する結合空撮特徴量、及び負例に対応する結合空撮特徴量に基づいて、トリプレットロスを算出する。そして、訓練装置は、得られたトリプレットロスに基づいて、モデルの訓練可能なパラメータを更新する。ここで、1つ以上の機械学習モデルからの出力に基づいて算出されたトリプレットロスに基づいて、それら1つ以上の機械学習モデルの訓練可能なパラメータを更新する種々の既存の手法が存在し、訓練装置において、それらのうちの任意の1つを採用することができる。さらに、トリプレットロスはモデルの訓練に利用できるロスの単なる一例であり、他の任意の種類のロスをモデルの訓練に利用しうる。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに提供することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM、CD-R、CD-R/W、半導体メモリ(例えば、マスク ROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに提供されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
実施形態を参照して本開示について説明されているが、本開示は上述した実施形態に限定されない。発明の範囲内で、当業者が理解できる種々の変形を本開示の構成や詳細に対して行うことができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<付記>
(付記1)
少なくとも一つのプロセッサ、
命令が格納されている記憶要素を有し、
前記少なくとも一つのプロセッサは、前記命令を実行することにより、
地上画像と空撮画像を取得し、
前記地上画像から特徴量を抽出し、
前記空撮画像から特徴量を抽出し、
前記空撮画像から複数の部分空撮領域を抽出し、
前記複数の前記部分空撮領域のそれぞれから特徴量を抽出し、
前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出し、
前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮領域と前記地上画像とがマッチするか否かを判定する、ように構成される画像マッチング装置。
(付記2)
前記少なくとも一つのプロセッサは、前記部分空撮領域と前記地上画像とがマッチすると判定された場合、前記地上画像と前記空撮画像とがマッチすると判定するようにさらに構成される、付記1に記載の画像マッチング装置。
(付記3)
前記部分空撮領域と前記地上画像とがマッチするか否かの判定は、
前記部分空撮領域の前記結合空撮特徴量と前記地上画像の前記特徴量との類似度を算出することと、
前記算出した類似度が所定の閾値以上であるか否かを判定することと、を含む、付記1又は2に記載の画像マッチング装置。
(付記4)
前記複数の部分空撮領域の前記抽出は、複数の放射状の線を利用して、前記空撮画像を前記複数の部分空撮領域に分割することを含む、付記1から3いずれか一項に記載の画像マッチング装置。
(付記5)
前記複数の部分空撮領域の前記抽出は、
前記空撮画像から円形領域をクロップすることと、
前記円形領域を前記複数の部分空撮領域に分割することと、を含む、付記1から4いずれか一項に記載の画像マッチング装置。
(付記6)
前記結合空撮特徴量は、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とのコンカチネーションであるか、又は、
前記結合空撮特徴量は、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量との重み付き和である、付記1から5いずれか一項に記載の画像マッチング装置。
(付記7)
地上画像と空撮画像を取得することと、
前記地上画像から特徴量を抽出することと、
前記空撮画像から特徴量を抽出することと、
前記空撮画像から複数の部分空撮領域を抽出することと、
前記複数の前記部分空撮領域のそれぞれから特徴量を抽出することと、
前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出することと、
前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮領域と前記地上画像とがマッチするか否かを判定することと、を含む、コンピュータによって実行される制御方法。
(付記8)
前記部分空撮領域と前記地上画像とがマッチすると判定された場合、前記地上画像と前記空撮画像とがマッチすると判定すること、をさらに含む、付記7に記載の制御方法。
(付記9)
前記部分空撮領域と前記地上画像とがマッチするか否かの判定は、
前記部分空撮領域の前記結合空撮特徴量と前記地上画像の前記特徴との類似度を算出することと、
前記算出した類似度が所定の閾値以上であるか否かを判定することと、を含む、付記7又は8に記載の制御方法。
(付記10)
前記複数の部分空撮領域の前記抽出は、複数の放射状の線を利用して、前記空撮画像を前記複数の部分空撮領域に分割することを含む、付記7から9いずれか一項に記載の制御方法。
(付記11)
前記複数の部分空撮領域の前記抽出は、
前記空撮画像から円形領域をクロップすることと、
前記円形領域を前記複数の部分空撮領域に分割することと、を含む、付記7から10いずれか一項に記載の制御方法。
(付記12)
前記結合空撮特徴量は、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とのコンカチネーションであるか、又は、
前記結合空撮特徴量は、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量との重み付き和である、付記7から11いずれか一項に記載の制御方法。
(付記13)
地上画像と空撮画像を取得することと、
前記地上画像から特徴量を抽出することと、
前記空撮画像から特徴量を抽出することと、
前記空撮画像から複数の部分空撮領域を抽出することと、
前記複数の前記部分空撮領域のそれぞれから特徴量を抽出することと、
前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出することと、
前記複数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮領域と前記地上画像とがマッチするか否かを判定することと、をコンピュータに実行させるプログラムが格納されている、非一時的なコンピュータ可読記憶媒体。
(付記14)
前記プログラムは、前記部分空撮領域と前記地上画像とがマッチすると判定された場合、前記地上画像と前記空撮画像とがマッチすると判定すること、を前記コンピュータにさらに実行させる、付記13に記載の記憶媒体。
(付記15)
前記部分空撮領域と前記地上画像とがマッチするか否かの判定は、
前記部分空撮領域の前記結合空撮特徴量と前記地上画像の前記特徴との類似度を算出することと、
前記算出した類似度が所定の閾値以上であるか否かを判定することと、を含む、付記13又は14に記載の記憶媒体。
(付記16)
前記複数の部分空撮領域の前記抽出は、複数の放射状の線を利用して、前記空撮画像を前記複数の部分空撮領域に分割することを含む、付記13から15いずれか一項に記載の記憶媒体。
(付記17)
前記複数の部分空撮領域の前記抽出は、
前記空撮画像から円形領域をクロップすることと、
前記円形領域を前記複数の部分空撮領域に分割することと、を含む、付記3から16いずれか一項に記載の記憶媒体。
(付記18)
前記結合空撮特徴量は、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量とのコンカチネーションであるか、又は、
前記結合空撮特徴量は、前記部分空撮領域の前記特徴量と前記空撮画像の前記特徴量との重み付き和である、付記13から17いずれか一項に記載の記憶媒体。
20 地上画像
30 空撮画像
32 部分空撮領域
34 円形領域
50 バツ印
60 丸印
70 矢印
200 ジオローカライゼーションシステム
300 位置データベース
1000 コンピュータ
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 画像マッチング装置
2020 取得部
2040 地上特徴量抽出部
2060 空撮特徴量抽出部
2080 部分空撮領域抽出部
2100 部分空撮特徴量抽出部
2120 特徴量結合部
2140 判定部

Claims (10)

  1. 上画像と空撮画像を取得する取得手段と
    前記地上画像から特徴量を抽出する地上特徴抽出手段と
    前記空撮画像から特徴量を抽出する空撮特徴量抽出手段と
    前記空撮画像から複数の部分空撮領域を抽出する部分空撮領域抽出手段と
    数の前記部分空撮領域のそれぞれから特徴量を抽出する部分空撮特徴量抽出手段と
    数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の特徴量と前記空撮画像の特徴量とを結合して結合空撮特徴量を算出する特徴量結合手段と
    数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の前記特徴量とを比較して、前記部分空撮領域と前記地上画像とがマッチするか否かを判定する判定手段とを有する画像マッチング装置。
  2. 前記判定手段は、前記部分空撮領域と前記地上画像とがマッチすると判定された場合、前記地上画像と前記空撮画像とがマッチすると判定する、請求項1に記載の画像マッチング装置。
  3. 前記部分空撮領域と前記地上画像とがマッチするか否かの判定は、
    前記部分空撮領域の前記結合空撮特徴量と前記地上画像の特徴量との類似度を算出することと、
    前記算出した類似度が所定の閾値以上であるか否かを判定することと、を含む、請求項1又は2に記載の画像マッチング装置。
  4. 数の前記部分空撮領域の前記抽出は、複数の放射状の線を利用して、前記空撮画像を複数の前記部分空撮領域に分割することを含む、請求項1から3いずれか一項に記載の画像マッチング装置。
  5. 数の前記部分空撮領域の前記抽出は、
    前記空撮画像から円形領域をクロップすることと、
    前記円形領域を複数の前記部分空撮領域に分割することと、を含む、請求項1から4いずれか一項に記載の画像マッチング装置。
  6. 前記結合空撮特徴量は、前記部分空撮領域の特徴量と前記空撮画像の特徴量とのコンカチネーションであるか、又は、
    前記結合空撮特徴量は、前記部分空撮領域の特徴量と前記空撮画像の特徴量との重み付き和である、請求項1から5いずれか一項に記載の画像マッチング装置。
  7. 地上画像と空撮画像を取得することと、
    前記地上画像から特徴量を抽出することと、
    前記空撮画像から特徴量を抽出することと、
    前記空撮画像から複数の部分空撮領域を抽出することと、
    数の前記部分空撮領域のそれぞれから特徴量を抽出することと、
    数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の特徴量と前記空撮画像の特徴量とを結合して結合空撮特徴量を算出することと、
    数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の特徴量とを比較して、前記部分空撮領域と前記地上画像とがマッチするか否かを判定することと、を含む、コンピュータによって実行される制御方法。
  8. 前記部分空撮領域と前記地上画像とがマッチすると判定された場合、前記地上画像と前記空撮画像とがマッチすると判定すること、をさらに含む、請求項7に記載の制御方法。
  9. 地上画像と空撮画像を取得することと、
    前記地上画像から特徴量を抽出することと、
    前記空撮画像から特徴量を抽出することと、
    前記空撮画像から複数の部分空撮領域を抽出することと、
    数の前記部分空撮領域のそれぞれから特徴量を抽出することと、
    数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の特徴量と前記空撮画像の前記特徴量とを結合して結合空撮特徴量を算出することと、
    数の前記部分空撮領域のそれぞれについて、前記部分空撮領域の前記結合空撮特徴量と、前記地上画像の特徴量とを比較して、前記部分空撮領域と前記地上画像とがマッチするか否かを判定することと、をコンピュータに実行させるプログラム。
  10. 前記プログラムは、前記部分空撮領域と前記地上画像とがマッチすると判定された場合、前記地上画像と前記空撮画像とがマッチすると判定すること、を前記コンピュータにさらに実行させる、請求項に記載のプログラム
JP2023549942A 2021-03-26 2021-03-26 画像マッチング装置、制御方法、及びプログラム Active JP7485232B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013105 WO2022201545A1 (en) 2021-03-26 2021-03-26 Image matching apparatus, control method, and non-transitory computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2024506962A JP2024506962A (ja) 2024-02-15
JP7485232B2 true JP7485232B2 (ja) 2024-05-16

Family

ID=83396517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023549942A Active JP7485232B2 (ja) 2021-03-26 2021-03-26 画像マッチング装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20240096052A1 (ja)
JP (1) JP7485232B2 (ja)
WO (1) WO2022201545A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140161362A1 (en) 2012-12-10 2014-06-12 International Business Machines Corporation Techniques for Spatial Semantic Attribute Matching for Location Identification
JP2014194831A (ja) 2014-07-04 2014-10-09 Olympus Corp 画像判定サーバ
JP2018205937A (ja) 2017-05-31 2018-12-27 日本放送協会 画像検索装置及びプログラム
US20200134844A1 (en) 2018-10-26 2020-04-30 Here Global B.V. Method, apparatus, and system for generating feature correspondence between image views

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140161362A1 (en) 2012-12-10 2014-06-12 International Business Machines Corporation Techniques for Spatial Semantic Attribute Matching for Location Identification
JP2014194831A (ja) 2014-07-04 2014-10-09 Olympus Corp 画像判定サーバ
JP2018205937A (ja) 2017-05-31 2018-12-27 日本放送協会 画像検索装置及びプログラム
US20200134844A1 (en) 2018-10-26 2020-04-30 Here Global B.V. Method, apparatus, and system for generating feature correspondence between image views

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIU LIU, 外1名,"Lending Orientation to Neural Networks for Cross-view Geo-localization",2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),2019年06月20日,p.5617-5626

Also Published As

Publication number Publication date
JP2024506962A (ja) 2024-02-15
WO2022201545A1 (en) 2022-09-29
US20240096052A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
JP2019133658A (ja) 測位方法、測位装置及び読取り可能な記憶媒体
US9984280B2 (en) Object recognition system using left and right images and method
CN112580416A (zh) 基于深暹罗网络和贝叶斯优化的视频跟踪
WO2018119606A1 (en) Method and apparatus for representing a map element and method and apparatus for locating vehicle/robot
US20140193077A1 (en) Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program
JP5563494B2 (ja) 対応参照画像検索装置及び方法、コンテンツ重畳装置、システム、及び方法、並びにコンピュータプログラム
JP5833507B2 (ja) 画像処理装置
CN111428619B (zh) 基于有序回归和软标签的三维点云头部姿态估计系统和方法
KR102441053B1 (ko) 차량의 주행차로 추정 장치 및 방법
WO2022033111A1 (zh) 图像信息提取方法、训练方法及装置、介质和电子设备
US20220148302A1 (en) Method for visual localization and related apparatus
Bae et al. Fast and scalable structure-from-motion based localization for high-precision mobile augmented reality systems
WO2020137069A1 (ja) 位置推定システム
CN114565668A (zh) 即时定位与建图方法及装置
KR102210404B1 (ko) 위치 정보 추출 장치 및 방법
CN111859002A (zh) 兴趣点名称生成方法及装置、电子设备和介质
CN112862730B (zh) 点云特征增强方法、装置、计算机设备和存储介质
Baik et al. Domain adaptation of learned features for visual localization
US10430459B2 (en) Server and method for providing city street search service
CN112148817B (zh) 一种基于全景图的slam优化方法、装置和系统
JP7485232B2 (ja) 画像マッチング装置、制御方法、及びプログラム
JP7485200B2 (ja) 画像拡張装置、制御方法、及びプログラム
CN114333038B (zh) 对象识别模型的训练方法和对象识别方法、装置、设备
CN112257686B (zh) 人体姿态识别模型的训练方法、装置及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415