JP2023520625A - 画像特徴マッチング方法及び関連装置、機器並びに記憶媒体 - Google Patents

画像特徴マッチング方法及び関連装置、機器並びに記憶媒体 Download PDF

Info

Publication number
JP2023520625A
JP2023520625A JP2022550968A JP2022550968A JP2023520625A JP 2023520625 A JP2023520625 A JP 2023520625A JP 2022550968 A JP2022550968 A JP 2022550968A JP 2022550968 A JP2022550968 A JP 2022550968A JP 2023520625 A JP2023520625 A JP 2023520625A
Authority
JP
Japan
Prior art keywords
feature
matching
features
target
transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022550968A
Other languages
English (en)
Inventor
シアオウェイ ジョウ
フージュン バオ
ジアミン スン
ゾーホン シェン
ユーアン ワン
Original Assignee
チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド filed Critical チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド
Publication of JP2023520625A publication Critical patent/JP2023520625A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本願は、画像特徴マッチング方法及び関連装置、機器並びに記憶媒体を提供する。該画像特徴マッチング方法は、少なくとも2つのマッチング待ち画像を取得することと、各マッチング待ち画像に対してそれぞれ特徴抽出を行い、各マッチング待ち画像の特徴表現を得ることであって、ここで、特徴表現は、若干の第1ローカル特徴を含む、ことと、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換することと、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得ることと、を含む。上記方案では、特徴マッチングプロセスにおいて、マッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。

Description

(関連出願の相互参照)
本願は、2021年03月05日に中国特許局で提出された、出願番号が202110247181.8であり、発明名称が「画像特徴マッチング方法及び関連装置、機器並びに記憶媒体」である中国特許出願に基づく優先権を主張し、該出願が参照として本願に組み込まれる。
本願は、画像処理技術分野に関し、特に画像特徴マッチング方法及び関連装置、機器並びに記憶媒体に関する。
画像マッチングは、コンピュータビジョンにおける基本的な課題であり、画像マッチングの正確度は、画像マッチング後の操作に影響を及ぼす。一般的な画像マッチング方式は、主に、以下の3つのステップを含む。ステップ1において、特徴検出を行い、即ち、画像にキーポイント(特徴点とも呼ばれる)が含まれるかどうかを判断する。ステップ2において、検出されたキーポイント及びキーポイントの記述子を抽出する。ステップ3において、抽出された特徴に基づいて特徴マッチングを行う。このような方式において、キーポイントの記述子をのみ利用して特徴マッチングを行う。該キーポイントの記述子がキーポイントの周囲のいくつかの画素点間の関係を表すためのものだけであり、即ち、キーポイントポイント周辺の局所情報を表すためのものであるため、画像のテクスチャなどに欠ける場合、記述子は、キーポイントの情報を好適に表すことができなく、最終的な特徴マッチングの失敗を引き起こす。
本願の実施例は少なくとも、画像特徴マッチング方法及び関連装置、機器並びに記憶媒体を提供する。
本願の実施例の第1態様によれば、画像特徴マッチング方法を提供する。前記方法は、少なくとも2つのマッチング待ち画像を取得することと、各マッチング待ち画像に対してそれぞれ特徴抽出を行い、各マッチング待ち画像の特徴表現を得ることであって、特徴表現は、若干の第1ローカル特徴を含む、ことと、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換することと、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得ることと、を含む。
従って、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいて、マッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
ここで、特徴表現は、第1特徴マップと、第2特徴マップと、を含み、第1特徴マップの解像度は、第2特徴マップの解像度よりも小さく、第1特徴マップにおける特徴は、第1ローカル特徴であり、第2特徴マップにおける特徴は、第2ローカル特徴であり、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得た後、方法は、第1マッチング結果に基づいて、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出することであって、マッチングブロックグループは、少なくとも2つの特徴ブロックを含み、各特徴ブロックは、1つのマッチング待ち画像の第2特徴マップから抽出された複数の第2ローカル特徴を含む、ことと、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得ることであって、第2変換特徴は、マッチングブロックグループにおける第2ローカル特徴であるか又はマッチングブロックグループにおける第2ローカル特徴に対して変換を行うことで得られたものである、ことと、を更に含む。
従って、まず、解像度が低い特徴マップにおける特徴マッチングを行い、更に、解像度が低い特徴マップのマッチング結果を利用して、解像度が高い特徴マップの特徴マッチングを行うことで、マッチングの正確度を更に向上させる。
ここで、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る前に、方法は、特徴ブロックにおける第2ローカル特徴を、特徴ブロックのグローバル受容野を有する第2変換特徴に変換することを更に含む。
従って、解像度が高い特徴マップの特徴を抽出し、特徴ブロックのグローバル受容野を有する特徴に変換し、更に、該特徴を利用して特徴マッチングを行うことで、解像度が高い特徴マッチングプロセスにおいて、特徴ブロックのグローバル情報を考慮することもでき、特徴マッチング結果をより正確にする。
ここで、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するか又は特徴ブロックにおける第2ローカル特徴を、特徴ブロックのグローバル受容野を有する第2変換特徴に変換することは、第1ローカル特徴を第1ターゲット特徴とし、第1変換特徴を第2ターゲット特徴とし、各マッチング待ち画像をターゲット範囲とするか又は第2ローカル特徴を第1ターゲット特徴とし、第2変換特徴を第2ターゲット特徴とし、各特徴ブロックをターゲット範囲とすることと、第1ターゲット特徴に対する集約処理を行い、第2ターゲット特徴を得ることと、を含み、第1ターゲット特徴に対する集約処理は、同一のターゲット範囲における第1ターゲット特徴に対する集約処理と、異なるターゲット範囲における第1ターゲット特徴に対する集約処理と、のうちの少なくとも1つを含む。
従って、同一のターゲット範囲におけるターゲット特徴に対して集約処理を行うことで、第2ターゲット特徴に、該ターゲット範囲のグローバル受容野を持たせることができ、及び/又は、異なるターゲット範囲における第1ターゲット特徴に対して集約処理を行うことで、得られた第2ターゲット特徴に、他のターゲット範囲のグローバル受容野を持たせることができる。
ここで、第1ターゲット特徴に対する集約処理を行い、第2ターゲット特徴を得ることは、それぞれ各ターゲット範囲を現在ターゲット範囲とし、現在ターゲット範囲に対して、現在ターゲット範囲における各第1ターゲット特徴を現在ターゲット特徴とすることと、現在ターゲット範囲における現在ターゲット特徴と他の第1ターゲット特徴に対して集約を行い、現在ターゲット特徴に対応する第3ターゲット特徴を得ることと、現在ターゲット範囲の第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴に対して集約を行い、現在ターゲット特徴に対応する第4ターゲット特徴を得ることと、のうちの少なくとも1つの特徴変換を実行することを含み、ここで、今回の特徴変換が最終回の特徴変換ではない場合、第4ターゲット特徴を次回の特徴変換における第1ターゲット特徴とし、今回の特徴変換が最終回の特徴変換である場合、第4ターゲット特徴を第2ターゲット特徴とする。
従って、現在ターゲット範囲の第1ターゲット特徴に対して集約を行い、第3ターゲット特徴を得、異なるターゲット範囲の第3ターゲット特徴を利用して集約を行うことで、最終的に得られた第2ターゲット特徴に、現在ターゲット範囲のグローバル情報を持たせることができるだけでなく、他のターゲット範囲のグローバル情報を持たせることもでき、且つ、少なくとも1回のこのような特徴変換により、最終的な第2ターゲット特徴をより精確にし、それにより第2ターゲット特徴を利用して特徴マッチングを行う時、より正確な特徴マッチング結果を得ることができる。
ここで、現在ターゲット範囲における現在ターゲット特徴と他の第1ターゲット特徴に対して集約を行うステップは、変換モデルにおけるセルフアテンション層により実行され、現在ターゲット範囲の第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴に対して集約を行うステップは、変換モデルにおけるクロスアテンション層により実行される。
従って、変換モデルにおけるセルフアテンション層及びクロスアテンション層により特徴変換を行うことで、現在ターゲット範囲と他のターゲット範囲のグローバル受容野を有するターゲット特徴を取得することを実現させることができる。
ここで、セルフアテンション層と、クロスアテンション層と、のうちの少なくとも1ついに用いられるメカニズムは、線形アテンションメカニズムである。
従って、線形アテンションメカニズムを用いることで、特徴変換プロセスにおける複雑さを線形にすることができ、非線形アテンションメカニズムに比べて、特徴変換に必要な時間がより少なく、且つ複雑さがより低い。
ここで、少なくとも2つのマッチング待ち画像におけるマッチングした第1変換特徴は、マッチング特徴グループであり、マッチング特徴グループの、少なくとも2つのマッチング待ち画像のそれぞれにおける位置は、第1位置であり、第1マッチング結果は、第1位置の位置情報を表し、特徴ブロックの、マッチング待ち画像における対応する領域は、第1位置を含む。
従って、第1マッチング結果によって得られた特徴ブロックに、マッチング特徴グループの、マッチング待ち画像における位置が含まれ、即ち、第1マッチング結果の位置に基づいて、2回目のマッチングの範囲を決定することで、2回目のマッチングの範囲選択を正確にし、更に、該範囲内の特徴に対して再び1回のマッチングを行うことで、マッチングの正確度を更に向上させる。
ここで、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得ることは、マッチングブロックグループにおける1つの特徴ブロックをターゲットブロックとし、ターゲットブロックにおける所定の位置の第2変換特徴をリファレンス特徴とすることと、マッチングブロックグループの他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出すことと、リファレンス特徴及びそれにマッチングした第2変換特徴に基づいて、第2マッチング結果を得ることと、を含む。
従って、ターゲットブロックにおける各第2変換特徴のマッチング特徴を探す必要がなく、ターゲットブロックにおける所定の位置の第2変換特徴のマッチング特徴を探すことで、マッチング特徴の探しの複雑さを低減させ、特徴マッチングプロセスにおいて消費される処理リソースを減少させることができる。
ここで、第1マッチング結果に基づいて、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出することは、第1位置の、第2特徴マップにおける対応する第2位置を決定することと、第2特徴マップから、第2位置を中心とした所定のサイズの特徴ブロックを抽出し、マッチングブロックグループを得ることと、を含む。
従って、第1位置により第2位置を決定し、第2位置を中心とした所定のサイズの特徴ブロックを抽出することで、誤った特徴ブロックの抽出確率を減少させる。
ここで、所定の位置は、ターゲットブロックの中心である。
従って、特徴ブロックの中心がマッチング特徴グループにおける1つの特徴であるため、該特徴をリファレンス特徴とすることで、算出された、他の特徴ブロックにおける各第2変換特徴とのマッチング関係をより正確にする。
ここで、マッチングブロックグループの他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出すことは、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴のそれぞれとのマッチング関係を取得することと、マッチング関係に基づいて、他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出すことと、を含む。
従って、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング関係を取得することで、リファレンス特徴の特徴マッチングを実現させることができる。
ここで、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング関係を取得することは、リファレンス特徴と他の特徴ブロックにおける第2変換特徴に対して相関操作を行い、ヒートマップを得ることであって、ここで、ヒートマップにおける異なる位置のヒート値は、リファレンス特徴と異なる第2変換特徴とのマッチング度合いを表す、ことを含み、マッチング関係に基づいて、他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出すことは、所定の演算子を利用して、ヒートマップに対して処理を行い、リファレンス特徴とマッチングした第2変換特徴を得ることを含む。
従って、ヒートマップを取得することで、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング度合いを明確に表すことができる。
ここで、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換する前に、方法は、第1ローカル特徴の、マッチング待ち画像における対応する位置情報を第1ローカル特徴に追加するステップと、若干の第1ローカル特徴を多次元配列から一次元配列に変換するステップと、のうちの少なくとも1つを更に含む。
従って、第1ローカル特徴の、マッチング待ち画像における対応する位置情報を第1ローカル特徴に追加することで、特徴変換後の第1変換特徴に、マッチング待ち画像におけるその位置情報を持たせることができる。なお、若干の第1ローカル特徴が多次元配列から一次元配列に変換されることで、変換モデルによる第1ローカル特徴の特徴変換を容易にする。
ここで、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得ることは、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を取得することと、マッチング信頼度に基づいて、少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定することであって、ここで、マッチング特徴グループは、各マッチング待ち画像における1つの第1変換特徴を含む、ことと、マッチング特徴グループに基づいて、第1マッチング結果を得ることと、を含む。
従って、異なる第1変換特徴間のマッチング信頼度を取得し、マッチング信頼度に基づいて、マッチング特徴グループを取得することで、最終的に得られたマッチング特徴グループの信頼度に需要を満たさせることができる。
ここで、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を取得することは、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間の類似度を取得することと、最適運搬モードを利用して、類似度に対して処理を行い、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を得ることと、を含む。
なお、マッチング信頼度に基づいて、少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定することは、少なくとも2つのマッチング待ち画像から、マッチング信頼度がマッチング条件に合致する第1変換特徴を選択してマッチング特徴グループを構成することを含む。
従って、最適運搬モードで、異なる第1変換特徴間のマッチング信頼度を取得し、続いて、マッチング信頼度から、マッチング条件に合致する第1変換特徴を選択することで、最終的なマッチング特徴グループのマッチング度合いに需要を満たさせることができる。
本願の実施例の第2態様によれば、画像特徴マッチング装置を提供する。前記装置は、少なくとも2つのマッチング待ち画像を取得するように構成される画像取得部と、各マッチング待ち画像に対してそれぞれ特徴抽出を行い、各マッチング待ち画像の特徴表現を得るように構成される特徴抽出部であって、特徴表現は、若干の第1ローカル特徴を含む、特徴抽出部と、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するように構成される特徴変換部と、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得るように構成される特徴マッチング部と、を備える。
本願の実施例の第3態様によれば、電子機器を提供する。前記電子機器は、メモリと、プロセッサと、を備え、プロセッサは、メモリに記憶されているプログラム命令を実行し、上記第1態様における画像特徴マッチング方法を実施する。
本願の実施例の第4態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体にプログラム命令が記憶されており、プログラム命令がプロセッサにより実行される時、プロセッサに上記第1態様における画像特徴マッチング方法を実現させる。
本願の実施例の第5態様によれば、コンピュータプログラムを提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、コンピュータ可読コードが電子機器で実行されるとき、電子機器におけるプロセッサに、第1態様における画像特徴マッチング方法を実行させる。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいてマッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願を限定するものではないことが理解されるべきである。
本願の実施例による端末機器の応用シーンの概略図のその一である。 本願の実施例による端末機器の方法応用シーンの概略図のその二である。 本願の画像特徴マッチング方法の一実施例のフローチャートのその一である。 本願の画像特徴マッチング方法の一実施例による第2マッチング結果の概略図である。 本願の画像特徴マッチング方法の一実施例のフローチャートのその二である。 本願の画像特徴マッチング方法の一実施例のフローチャートのその三である。 本願の実施例による例示的な室内画像特徴マッチング結果の概略図である。 本願の実施例による例示的な室外画像特徴マッチング結果の概略図である。 本願の画像特徴マッチング装置の一実施例の構造の概略図である。 本願の電子機器の一実施例の構造の概略図である。 本願のコンピュータ可読記憶媒体の一実施例の構造の概略図である。
ここで、図面は明細書に引き入れて本明細書の一部を構成し、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。
以下、明細書の図面を参照しながら、本願の実施例の解決手段を詳しく説明する。
下記説明において、本願の実施例を深く理解するために、特定システム構造、インタフェース、技術等の具体的な細部を提出し、これは、本願を解釈するためのものに過ぎず、本願を限定するためのものではない。
本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。なお、本明細書において、文字「/」は一般的には、前後関連対象が「又は」という関係であることを示す。また、本明細書における「複数」は、2つ又は2つより多いことを表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。
本願の実施例による画像特徴マッチング方法の実行主体は、画像特徴マッチング装置であってもよい。例えば、画像特徴マッチング方法は、端末機器、サーバ又は他の処理機器により実行されてもよい。ここで、端末機器は、視覚的測位、三次元再構築、画像レジストレーションなどの需要を有するユーザ機器(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラ電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアブル機器及び自動運転自動車、測位及びマッピング需要を有するロボット、レジストレーション需要を有する医療イメージングシステム、拡張実現又は仮想現実用のメガネ、ヘルメットなどの製品などであってもよい。いくつかの可能な実現形態において、該画像特徴マッチング方法は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現してもよい。
以下、画像特徴マッチング方法の実行主体が端末機器として実施される例示的な応用を説明する。
可能な実現形態において、図1Aに示す端末機器の応用シーンの概略図のその一を参照すると、端末機器10は、カメラ11と、撮影ユニット12と、を含んでもよく、このように、端末機器10は、撮影ユニット12によって、少なくとも2つのマッチング待ち画像を収集し、プロセッサ12によって、少なくとも2つのマッチング待ち画像に対してマッチング分析処理を行い、少なくとも2つのマッチング待ち画像間のマッチング結果を得ることができる。例えば、端末機器は、スマートフォンとして実施されてもよい。
別の可能な実現形態において、図1Bに示す端末機器の応用シーンの概略図のその二を参照すると、端末機器10は、他の機器20から、ネットワーク30によって伝送された少なくとも2つのマッチング待ち画像を受信することができる。このように、端末機器10は、受信された少なくとも2つのマッチング待ち画像に対してマッチング分析処理を行い、少なくとも2つのマッチング待ち画像間のマッチング結果を得ることができる。例えば、端末機器は、コンピュータとして実施されてもよい。コンピュータは、ネットワークによって、他の機器から伝送された少なくとも2つのマッチング待ち画像を受信することができる。
図2を参照すると、図2は、本願の画像特徴マッチング方法の一実施例のフローチャートのその一である。具体的には、画像特徴マッチング方法は、以下のステップを含んでもよい。
ステップS11において、少なくとも2つのマッチング待ち画像を取得する。
ここで、マッチング待ち画像の取得方式は、例えば、図1Aに示す応用シーンのように、画像特徴マッチング方法を実行する機器上でのカメラユニットによって取得することであってもよい。マッチング待ち画像の取得方式は、図1Bに示す応用シーンのように、他の機器によって、種々の通信方式で、画像特徴マッチング方法を実行する機器に伝送することであってもよい。本願の実施例は、マッチング待ち画像の取得方式を限定しない。
ここのマッチング待ち画像は、種々の画像処理後の画像であってもよく、画像処理されていない画像であってもよい。そして、マッチング待ち画像のパターンは、同じであっても異なってもよい。例えば、そのうちの1枚の画像は、可視光画像であり、別の1枚の画像は、赤外光画像である。少なくとも2つのマッチング待ち画像のサイズ、解像度などの情報は、同じであっても異なってもよい。即ち、任意の2枚の画像は、いずれもマッチング待ち画像としてもよい。本願の実施例において、2枚のマッチング待ち画像を例とする。無論、他の実施例において、マッチング待ち画像は、3枚以上であってもよく、マッチング待ち画像の数について、ここで具体的に限定しない。
ステップS12において、各マッチング待ち画像に対してそれぞれ特徴抽出を行い、各マッチング待ち画像の特徴表現を得、ここで、特徴表現は、若干の第1ローカル特徴を含む。
ここで、特徴抽出方法は、複数であってもよい。例えば、種々のニューラルネットワークを利用して特徴抽出を行ってもよい。特徴表現は、若干の第1ローカル特徴を含み、ここの特徴表現は、特徴マップの形式で表現してもよい。ローカル特徴は、マッチング待ち画像のグローバル受容野を含まない特徴、即ち、マッチング待ち画像のローカル領域をのみ含む特徴である。
ステップS13において、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換する。
第1ローカル特徴に対して変換を行うことで、変換後の第1変換特徴に、マッチング待ち画像のグローバル受容野を持たせることができる。即ち、第1変換特徴は、マッチング待ち画像のグローバル情報を有する。
ステップS14において、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得る。
特徴マッチングの方式は、複数であってもよく、例えば、最適運搬モードを利用して、特徴マッチングを行う。無論、これは、例だけであり、他の実施例において、他の特徴マッチング方式を用いてもよい。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいて、マッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
ここで、特徴表現は、第1特徴マップと、第2特徴マップと、を含み、第1特徴マップの解像度は、第2特徴マップの解像度よりも小さく、第1特徴マップにおける特徴は、第1ローカル特徴であり、第2特徴マップにおける特徴は、第2ローカル特徴である。ここで、各マッチング待ち画像に対して特徴抽出を行い、各マッチング待ち画像の特徴表現を得る方式は、ピラミッド畳み込みニューラルネットワークを利用して取得を行うことであってもよい。ここで、ピラミッド畳み込みニューラルネットワークを利用して、マッチング待ち画像のマルチスケール特徴マップをそれぞれ取得することができる。例えば、解像度がマッチング待ち画像の解像度の1/8及び1/2である特徴マップを抽出するか又は解像度がマッチング待ち画像の解像度の1/16及び1/4である特徴マップを抽出する。いくつかの実施例において、第1特徴マップ解像度は、第2特徴マップの1/4である。第1特徴マップと第2特徴マップの解像度について、特徴抽出速度の需要と精度の需要とのうちの少なくとも1つによって決定されてもよい。例えば、解像度がマッチング待ち画像の解像度の1/8と1/2である特徴マップの抽出と解像度がマッチング待ち画像の解像度の1/16と1/4である特徴マップの抽出について、前者の速度が遅いが、精度が高く、後者の速度が速いが、精度が低い。本願の実施例において、ピラミッド畳み込みニューラルネットワークによって取得された第1特徴マップに含まれる第1ローカル特徴と第2特徴マップに含まれる第2ローカル特徴は、マッチング待ち画像のグローバル受容野を有しない。
ここで、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換する前に、以下の少なくとも1つのステップを更に含む。ステップ1において、第1ローカル特徴の、マッチング待ち画像における対応する位置情報を第1ローカル特徴に追加する。具体的には、位置符号化を用いることで、各第1ローカル特徴に一意的な位置情報識別子を持たせる。ここで、位置符号化された
Figure 2023520625000002
は、以下で表されてもよい。
Figure 2023520625000003
ここで、
Figure 2023520625000004
であり、
Figure 2023520625000005
は、i番目の第1ローカル特徴の画素座標を表し、kは、i番目の第1ローカル特徴の、全ての第1ローカル特徴におけるグルーピングを表し、例えば、第1所定の数の第1ローカル特徴をグルーピングする時、第2所定の数の第1ローカル特徴を1グループとし、i番目の第1ローカル特徴の次元が知られていると、i番目の第1ローカル特徴のグルーピング位置を知ることができる。例えば、計256個の第1ローカル特徴があり、i=8であり、即ち、8番目の第1ローカル特徴が全ての第1ローカル特徴の2グループ目(k=2)に位置する。dは、位置符号化前の第1ローカル特徴の特徴次元を表す。
ステップ2において、若干の第1ローカル特徴多次元配列から一次元配列に変換する。具体的には、多次元配列は、二次元であってもよく、即ち、各第1ローカル特徴は、二次元行列の形式で、第1特徴マップを構成する。一次元配列は、一定の順番に応じて二次元行列を一次元シーケンスに変換することであってもよい。第1ローカル特徴の、マッチング待ち画像における対応する位置情報を第1ローカル特徴に追加することで、特徴変換後の第1変換特徴に、マッチング待ち画像におけるその位置情報を持たせることができる。なお、若干の第1ローカル特徴は、多次元配列から一次元配列に変換されることで、変換モデルによる第1ローカル特徴の特徴変換を容易にする。
まず、ピラミッド畳み込みニューラルネットワークを利用して、マッチング待ち画像の第1特徴マップを抽出し、第1特徴マップを変換モデルに入力する。マッチング待ち画像を直接的に変換モデルに入力することに比べて、前者は、変換モデルに入力された特徴長さを短縮し、計算コストを低減することができる。
いくつかの実施例において、ステップS13は、具体的には、以下のステップを含んでもよい。第1ローカル特徴を第1ターゲット特徴とし、第1変換特徴を第2ターゲット特徴とし、各マッチング待ち画像をターゲット範囲とする。同一のターゲット範囲における第1ターゲット特徴に対する集約処理及び/又は異なるターゲット範囲における第1ターゲット特徴に対する集約処理に基づいて、第2ターゲット特徴を得る。具体的には、それぞれ各ターゲット範囲を現在ターゲット範囲とし、現在ターゲット範囲に対して、現在ターゲット範囲における各第1ターゲット特徴を現在ターゲット特徴とすることと、現在ターゲット範囲における現在ターゲット特徴と他の第1ターゲット特徴に対して集約を行い、現在ターゲット特徴に対応する第3ターゲット特徴を得ることと、のうちの少なくとも1つの特徴変換を実行する。ここで、現在ターゲット範囲における現在ターゲット特徴と他の第1ターゲット特徴に対して集約を行うステップは、変換モデルにおけるセルフアテンション層により実行され、ここで、セルフアテンション層とクロスアテンション層による特徴集約の方式は、一般的な技術を参照してもよい。ここで説明を省略する。
いくつかの実施例において、1つのセルフアテンション層に、複数並列して設けられるセルフアテンションサブ層が含まれ、各ターゲット範囲の全ての第1ターゲット特徴をセルフアテンションサブ層に入力し、ターゲット範囲内の第1ターゲット特徴の集約を行い、即ち、各セルフアテンションサブ層に1つのターゲット範囲の第1ターゲット特徴をのみ入力する。複数のターゲット範囲の第1ターゲット特徴を同時に同一のセルフアテンションサブ層に入力してはいけない。更に、一次元配列形式のターゲット特徴をセルフアテンションサブ層に入力する。セルフアテンション層によって、第1ターゲット特徴に対して集約処理を行うことで、得られた第3ターゲット特徴に、マッチング待ち画像グローバル受容野を持たせる。次に、現在ターゲット範囲の第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴に対して集約を行い、現在ターゲット特徴に対応する第4ターゲット特徴を得る。ここで、現在ターゲット範囲の第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴に対して集約を行うステップは、変換モデルにおけるクロスアテンション層によって実行される。クロスアテンション層が非対称性を有し、即ち、クロスアテンション層の出力結果に、そのうちの1つ入力に対応する出力がのみ含まれるため、クロスアテンション層は、並列して設けられる少なくとも2つのクロスアテンションサブ層を含む。現在ターゲット範囲における第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴を同時に並列したクロスアテンションサブ層に入力する。無論、このプロセスにおいて、現在ターゲット範囲と他のターゲット範囲の第3ターゲット特徴がクロスアテンションサブ層に入力される順番を変換する必要がある。例えば、1番目のクロスアテンションサブ層において、現在ターゲット範囲の第3ターゲット特徴を左入力とし、他のターゲット範囲の第3ターゲット特徴を右入力とするが、2番目のクロスアテンションサブ層において、現在ターゲット範囲の第3ターゲット特徴を右入力とし、他のターゲット範囲の第3ターゲット特徴を左入力とする。2つの並列したクロスアテンションサブ層によって、第4ターゲット特徴を取得することで、各ターゲット範囲に対応する第3ターゲット特徴に対して、いずれも、対応する第4ターゲット特徴がある。選択的に、1層のセルフアテンション層と1層のクロスアテンション層を一回の基本的変換とする。変換モデルに複数の基本的変換が含まれ、且つ各基本変換に含まれる学習可能なネットワーク重みは共有しない。且つ、基本的変換の数は、特徴変換の精度と特徴変換の速度によって決定されてもよい。例えば、高い特徴変換精度が求められると、基本的変換の数は相対的に増加してもよい。高い特徴変換速度が求められると、基本的変換の数は、減少してもよい。従って、基本的変換の数について、ここで具体的に限定しない。ここで、今回の特徴変換が最終回の特徴変換ではない場合、第4ターゲット特徴を次回の特徴変換における第1ターゲット特徴とする。無論、今回の特徴変換が最終回の特徴変換である場合、第4ターゲット特徴を第2ターゲット特徴とする。即ち、1つ前の基本的変換の出力結果は、その後の基本的変換の入力とする。最後の基本変換の結果を第2ターゲット特徴とする。
抽出された解像度が高い特徴マップの特徴を、特徴ブロックのグローバル受容野を有する特徴に変換し、更に、該特徴を利用して特徴マッチングを行うことで、マッチングプロセスにおいて、グローバル情報を総合的に考慮することができ、特徴マッチング結果をより正確にする。
いくつかの実施例において、現在ターゲット範囲の第1ターゲット特徴に対して集約を行うことで、第3ターゲット特徴に、現在ターゲット範囲のグローバル情報を持たせることができ、異なるターゲット範囲の第3ターゲット特徴を利用して集約を行うことで、第4ターゲット特徴に、他のターゲット範囲のグローバル情報を持たせることができる。そして、少なくとも1回のこのような特徴変換により、最終的な第2ターゲット特徴をより精確にし、それにより第2ターゲット特徴を利用して特徴マッチングを行う時、より正確な特徴マッチング結果を得ることができる。
いくつかの実施例において、セルフアテンション層とクロスアテンション層とのうちの少なくとも1つに用いられるメカニズムは、線形アテンションメカニズムである。具体的には、セルフアテンション層とクロスアテンション層に用いられるカーネル関数は、任意のカーネル関数であってもよい。カーネルトリックを逆に利用してカーネル関数を2つのマッピング関数の積に書き直し、更に、行列乗算の結合率を利用して、アテンション層の計算順番を変え、複雑さを従来の平方複雑さから線形複雑さに低減させる。ここで、マッピング関数φ(x)は、elu(x)+1であってもよい。具体的には、従来のアテンション層の計算は、Attention(Q,K,V)=Softmax(QKT)Vである。ここで、Qは、一般的には、クエリと命名され、Kは、一般的には、キーと命名され、Vは、一般的には、値と命名され、Tは、転置を表す。本願の実施例による線形アテンションメカニズムは、カーネル関数Softmax(x1 x2)の代わりに、カーネル関数sim(x1,x2)を用い、カーネル関数sim(x1,x2)をx1とx2の2つのマッピング関数φ(x1)とφ(x2)の積に変換し、更に、線形アテンション層Linear Attention(Q,K,V ) = φ(Q)(φ(KT)V )を得る。その具体的なプロセスは以下のとおりである。
Linear Attention(Q,K,V)=sim(Q,KT)V (1)
Sim(Q,K)= φ(Q)φ(KT ) (2)
φ(・) = elu(・) + 1 (3)
Linear Attention(Q,K,V ) = φ(Q)(φ(KT)V ) (4)
上記方式で、線形アテンションメカニズムを用いて、特徴変換プロセスにおける複雑さを線形に変えることができ、非線形メカニズムに比べて、特徴変換に必要な時間がより少なく、且つ複雑さがより低い。
ここで、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得る方式は、以下のステップを含む。ステップ1において、少なくとも2つのマッチング待ち画像における異なる第1変換特徴のマッチング信頼度を取得する。
選択的に、少なくとも2つのマッチング待ち画像における異なる第1変換特徴のマッチング信頼度を得る方式は、以下のステップを含む。まず、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間の類似度を取得する。具体的には、該類似度を取得する方式は、2つのマッチング待ち画像における全ての第1変換特徴のうちの2つずつの第1変換特徴の間の類似性を計算し、類似性行列を構成することであってもよい。ここで、類似性の計算方式は、スケール変換を持つドッド積類似性、コサイン類似性又は他の類似性計算方法であってもよい。次に、最適運搬モードを用いて、類似度を処理し、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を得る。具体的に、類似度行列を反転してコスト行列とし、コスト行列に対して、Sinkhornアルゴリズムによって、所定の回数の反復を行い、マッチング信頼度を得る。即ち、このような方式で、マッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を求めることを、エントロピー正則化を含む離散最適運搬課題に変換する。ここで、所定の数の選択は、マッチング信頼度の収束程度を決定する。具体的な必要に応じて、所定の数を選択してもよい。それにより、精度と速度とのバランスを実現させる。ここで、得られたマッチング信頼度で構成される行列の行と列の和は、いずれもそれぞれ1である。本願の実施例において、マッチング待ち画像をそれぞれ第1マッチング待ち画像と第2マッチング待ち画像と称する。ここで、マッチング信頼度行列における1行列のマッチング信頼度は、第1マッチング待ち画像における1つの第1変換特徴と第2マッチング待ち画像における全ての第1変換特徴のそれぞれとのマッチング信頼度を表す。マッチング信頼度行列における1列のマッチング信頼度は、第2マッチング待ち画像における1つの第1変換特徴と第1マッチング待ち画像における全ての第1変換特徴のそれぞれとのマッチング信頼度を表す。
ステップ2において、マッチング信頼度に基づいて、少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定する。
ここで、少なくとも2つのマッチング待ち画像におけるマッチングした第1変換特徴は、マッチング特徴グループである。マッチング特徴グループは、各マッチング待ち画像における1つの第1変換特徴を含む。即ち、マッチング特徴グループは、複数のマッチング待ち画像における1つの第1変換特徴で構成される。ここで、マッチング信頼度に基づいて、少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定する方式は、少なくとも2つのマッチング待ち画像から、マッチング信頼度がマッチング条件に合致する第1変換特徴を選択してマッチング特徴グループを構成することであってもよい。選択的に、マッチング条件は、マッチング信頼度行列において最大行と最大列に同時に位置するものを選択することであってもよい。例えば、マッチング信頼度行列における1行目2列目の信頼度が最大行と最大列に同時に位置するものであれば、第2マッチング待ち画像における、第1マッチング待ち画像における1番目の第1変換特徴マッチングとの信頼度が最も大きいものが2番目のローカル特徴であり、且つ第1マッチング待ち画像における、第2マッチング待ち画像における2番目の第1変換特徴とのマッチング信頼度が最も大きいものが1番目のローカル特徴であることを表す。最適運搬モードで、異なる第1変換特徴間のマッチング信頼度を取得し、続いて、マッチング信頼度から、マッチング条件に合致する第1変換特徴を選択し、最終的なマッチング特徴グループのマッチング度合いに、需要を満たさせる。ステップ3において、マッチング特徴グループに基づいて、第1マッチング結果を得る。具体的には、マッチング特徴グループのそれぞれ、少なくとも2つのマッチング待ち画像における位置に基づいて、第1マッチング結果を得る。ここで、マッチング特徴グループのそれぞれの、少なくとも2つのマッチング待ち画像における位置は、第1位置であり、第1マッチング結果に、第1位置を表す位置情報が含まれる。ここで、ここの位置情報は、マッチング特徴グループにおける特徴の、マッチング待ち画像における座標であってもよい。無論、該特徴の、第1特徴マップにおける位置座標であってもよく、且つ該位置座標は、第1位置をマッピングすることができる。異なる第1変換特徴間のマッチング信頼度を取得し、マッチング信頼度に基づいて、マッチング特徴グループを取得することで、最終的に得られたマッチング特徴グループの信頼度に、需要を満たさせることができる。
ここで、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得た後、第1マッチング結果に基づいて、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出する。ここで、マッチングブロックは、少なくとも2つの特徴ブロックを含み、各特徴ブロックは、1つのマッチング待ち画像の第2特徴マップから抽出された複数の第2ローカル特徴を含む。具体的には、第1マッチング結果に基づいて、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出する方式は、第1位置の、第2特徴マップにおける対応する第2位置を決定することであってもよい。第2特徴マップから、第2位置を中心とした所定のサイズの特徴ブロックを抽出し、マッチングブロックグループを得る。ここで、マッチング特徴グループに含まれる特徴ブロックの数は、マッチング待ち画像の数によって決まる。選択的に、ここの所定のサイズは、得られたマッチングブロックグループに1対のマッチング特徴グループにおける特徴がのみ含まれ、他のマッチング特徴グループにおける特徴が含まないことを満たす必要がある。第1マッチング結果によって取得された特徴ブロックに、マッチング特徴グループの、マッチング待ち画像における位置を含ませることで、特徴ブロックに対して特徴マッチングを行うことで得られた第2マッチング結果にも第1位置情報を持たせる。第1位置によって第2位置を決定し、第2位置を中心とした所定のサイズの特徴ブロックを抽出することで、誤った特徴ブロックの抽出確率を減少させる。
いくつかの実施例において、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る前に、特徴ブロックにおける第2ローカル特徴を、特徴ブロックのグローバル受容野を有する第2変換特徴に変換する。ここで、特徴ブロックにおける第2ローカル特徴を、特徴ブロックのグローバル受容野を有する第2変換特徴に変換する方式は、第2ローカル特徴を第1ターゲット特徴とし、第2変換特徴を第2ターゲット特徴とし、各特徴ブロックを1つのターゲット範囲とすることであってもよい。同一のターゲット範囲における第1ターゲット特徴に対する集約処理及び/又は異なるターゲット範囲における第1ターゲット特徴に対する集約処理に基づいて、第2ターゲット特徴を得る。ここで、集約処理を行う具体的な方式は、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するプロセスを参照する。ここで、2つのプロセスにおいて用いられる変換モデルは、同じであっても異なってもよい。2つの変換モデルが異なる時、相違点は、このプロセスにおける基本的変換の数が、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するプロセスにおいて用いられる基本的変換の数以下であることである。
解像度が高い特徴マップの特徴を抽出し、特徴ブロックのグローバル受容野を有する特徴に変換し、更に、該特徴を利用して特徴マッチングを行うことで、解像度が高い特徴マッチングプロセスにおいて、特徴ブロックのグローバル情報を考慮することもき、特徴マッチング結果をより正確する。
マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る。ここで、第2変換特徴は、マッチングブロックグループにおける第2ローカル特徴であるか又はマッチングブロックグループにおける第2ローカルに対して特徴変換を行うことで得られたものである。即ち、第2変換特徴は、変換モジュールよる特徴変換が行われていないものであってもよく、変換モジュールによって特徴変換されたものであってもよい。ここで、第2変換特徴を具体的に規定しない。マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る方式は、マッチングブロックグループにおける1つの特徴ブロックをターゲットブロックとし、ターゲットブロックにおける所定の位置の第2変換特徴をリファレンス特徴とすることであってもよい。ここの所定の位置は、ターゲットブロックの中心であってもよい。特徴ブロックの中心がマッチング特徴グループにおける1つの特徴であるため、該特徴をリファレンス特徴とすることで、算出された、他の特徴ブロックにおける各第2変換特徴とのマッチング関係をより正確にする。マッチングブロックグループの他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出す。具体的には、リファレンス特徴とマッチングした第2変換特徴を探し出す方式は、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング関係を取得することであってもよい。例えば、リファレンス特徴と他の特徴ブロックにおける第2変換特徴に対して相関操作を行い、ヒートマップを得る。ここで、ヒートマップにおける異なる位置のヒート値は、リファレンス特徴と異なる第2変換特徴とのマッチング度合いを表す。ヒートマップを取得することで、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング度合いを明確に表すことができる。
該マッチング関係に基づいて、他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出す。具体的には、所定の演算子を利用して、ヒートマップに対して処理を行い、リファレンス特徴とマッチングした第2変換特徴を得る。ここの所定の演算子は、Soft-Argmax演算子であってもよい。リファレンス特徴及びそれとマッチングした前記第2第2変換特徴に基づいて、前記第2マッチング結果を得る。具体的には、リファレンス特徴と探し出された、リファレンス特徴とマッチングした第2変換特徴の、少なくとも2枚のマッチング待ち画像における第3位置を決定する。ここで、第2マッチング結果に、リファレンス特徴と探し出された、リファレンス特徴とマッチングした第2変換特徴の、少なくとも2枚のマッチング待ち画像における第3位置及び両者間のマッチング度合いを含む。無論、この第3位置は、マッチング待ち画像の画素点に位置するものではない可能性があり、2つの画素点の間に位置する可能性があり、それによりサブ画素精度の特徴マッチングを実現させることができる。具体的には、第2マッチング結果の表現形式は、特徴点対の形式で表されてもよく、画像の形式で表されてもよい。図3を参照すると、図3は、本願の画像特徴マッチング方法の一実施例による第2マッチング結果の概略図である。図3に示すように、左図301は、第1マッチング待ち画像であり、右図302は、第2マッチング待ち画像である。左図301と右図302との間の結線は、2枚の画像のマッチング結果を表すためのものである。信頼度について、結線の色で表してもよい。例えば、グラデーション色で信頼度を表し、又は、信頼度を各結線の付近に直接的に表す。第2マッチング結果の具体的な表現形式について、ここで具体的に限定しない。
まず、解像度が低い特徴マップにおける特徴マッチングを行い、更に、解像度が低い特徴マップのマッチング結果を利用して、解像度が高い特徴マップの特徴マッチングを行うことで、マッチングの正確度を更に向上させる。
本願の実施例による技術的解決手段をより明確に説明するために、以下の2つ例を挙げる。例1:図4を参照すると、図4は、本願の画像特徴マッチング方法の一実施例のフローチャートのその二である。図4に示すように、本願の実施例による画像特徴マッチング方法は、以下のステップを更に含む。
ステップS21において、第1マッチング待ち画像及び第2マッチング待ち画像を取得する。
ここで、第1マッチング待ち画像及び第2マッチング待ち画像の取得方式は、ステップS11を参照してもよい。ここで説明を省略する。
ステップS22において、2つのマッチング待ち画像の第1特徴マップと第2特徴マップをそれぞれ抽出し、第1特徴マップは、第1ローカル特徴を含み、第2特徴マップは、第2ローカル特徴を含み、第1特徴マップの解像度は、第2特徴マップの解像度よりも小さい。
ここで、マッチング待ち画像の第1特徴マップと第2特徴マップの抽出方式は、ピラミッド畳み込みニューラルネットワークを用いてもよい。具体的には、獣王記ステップS12を参照してもよい。ここで説明を省略する。
ステップS23において、2組の第1ローカル特徴を変換モデルに入力し、マッチング待ち画像のグローバル受容野を有する第1変換特徴を得る。
無論、ステップS23を実行する前に、第1特徴マップにおける第1ローカル特徴に対して位置符号化を行い、二次元行列の形式から一次元シーケンスの形式に変換し、一次元シーケンスの形式の第1ローカル特徴グループを変換モデルに入力する。具体的には、2組の第1ローカル特徴を変換モデルに入力し、マッチング待ち画像のグローバル受容野を有する第1変換特徴を得るプロセスは、上記ステップS13を参照してもよい。ここで説明を省略する。
ステップS24において、第1変換特徴に対して特徴マッチングを行い、第1マッチング結果を得る。
具体的には、第1変換特徴に対して特徴マッチングを行う方式は、上記ステップS14を参照してもよい。ここで説明を省略する。
ステップS25において、第1マッチング結果に基づいて、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出する。
ここで、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出するプロセスは、上記を参照する。ここで説明を省略する。
ステップS26において、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る。
具体的には、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る方式は、上記を参照する。ここで説明を省略する。
まず、解像度が低い特徴マップにおける特徴マッチングを行い、更に、解像度が低い特徴マップのマッチング結果を利用して、解像度が高い特徴マップの特徴マッチングを行うことで、マッチングの正確度を更に向上させる。
例2:図5を参照すると、図5は、本願の画像特徴マッチング方法の一実施例のフローチャートのその三である。図5に示すように、本願の実施例による画像特徴マッチング方法は、以下のステップを含んでもよい。
1.ローカル特徴の抽出
第1マッチング待ち画像Iと第2マッチング待ち画像Iを取得する。ここで、第1マッチング待ち画像Iと第2マッチング待ち画像Iの解像度は、同じであっても異なってもよい。第1マッチング待ち画像Iと第2マッチング待ち画像Iをピラミッド畳み込みニューラルネットワークに入力し、マルチスケール特徴マップを抽出し、例えば、解像度が第1マッチング待ち画像Iと第2マッチング待ち画像Iの解像度の1/8である第1特徴マップFA1とFB1を抽出し、且つ解像度が第1マッチング待ち画像Iと第2マッチング待ち画像Iの解像度の1/2である第2特徴マップFA2とFB2を抽出する。これから分かるように、第1特徴マップFA1の解像度は、第2特徴マップFA2の解像度よりも小さく、第1特徴マップFB1の解像度は、第2特徴マップFB2の解像度よりも小さい。
2.ローカル特徴の変換
本願の実施例において、ローカル特徴画像(即ち、第1特徴マップ)に対して変換を行い、それに、グローバル受容野を持たせ、後続のグローバル特徴マッチングを容易にする。
第1特徴マップFA1とFB1における特徴に対して位置符号化を行い、第1特徴マップFA1とFB1を二次元から一次元配列、即ち一次元特徴シーケンスに展開する。位置コードを有する一次元特徴シーケンスを変換モデルに入力する。変換モデルにおいて、まず、セルフアテンション層を利用して、一次元特徴シーケンスをそれぞれ抽出し、特徴集約を行い、更に、集約された特徴シーケンスをクロスアテンション層に入力し、2組の一次元特徴シーケンスの特徴集約を行い、1層のセルフアテンション層と1層のクロスアテンション層を1つの基本的変換する。このような基本的変換は、N個であり、1つ前の基本的変換の出力は、その後の基本的変換の入力とし、最後の基本的変換の出力結果は、変換モデルの出力結果とし、出力結果は、それぞれ一次元特徴シーケンス
Figure 2023520625000006

Figure 2023520625000007
を含む。具体的には、セルフアテンション層とクロスアテンション層は、特徴の位置及び特徴コンテキストの依存するローカル特徴を抽出することで、特徴集約を行う。
3.粗マッチング
最適運搬モードで、一次元シーケンス
Figure 2023520625000008
及び
Figure 2023520625000009
間のマッチング信頼度行列を得る。ここで、マッチング信頼度行列の長さは、(1/8)に第2マッチング待ち画像Iの長さと幅を乗算した積(即ち(1/8))であり、マッチング信頼度の行列の幅は、(1/8)に第1マッチング待ち画像Iの長さと幅を乗算した積(即ち(1/8))である。マッチング信頼度から、信頼度が条件を満たす特徴マッチンググループ(
Figure 2023520625000010
,
Figure 2023520625000011
)を選択し、ここで、特徴マッチンググループは、1グループに限らず、複数グループであってもよい。
4.精マッチング
第2特徴マップFA2とFB2から、特徴マッチンググループ(
Figure 2023520625000012
,
Figure 2023520625000013
)に対応する特徴(
Figure 2023520625000014
,
Figure 2023520625000015
)を探し出し、特徴
Figure 2023520625000016
又は特徴
Figure 2023520625000017
を含む特徴ブロックグループを抽出し、ここで、特徴ブロックグループにおける特徴ブロックの長さと幅はいずれもwである。特徴ブロックグループを別の変換モデルに入力し、集約した特徴マップを得る。ここで、ここの変換モデルとローカル特徴変換における変換モデルは、同じであっても異なってもよい。例えば、ここの変換モデルにおける基本的変換の数は、ローカル特徴変換における特徴変換モデルの基本的変換の数よりも小さくてもよい。そのうちの1つの特徴ブロックの中心位置の特徴
Figure 2023520625000018
をリファレンス特徴とし、別の特徴ブロックにおける全ての特徴との相関操作を行い、ヒートマップを得、ヒートマップを二次元Soft-Argmax演算子に入力し、特徴ブロック中における望ましいマッチング位置
Figure 2023520625000019
を計算する。
Figure 2023520625000020
とそれとマッチングした
Figure 2023520625000021
を第1マッチング待ち画像Iと第2マッチング待ち画像Iに投影し、最終的な第1マッチング待ち画像の特徴マッチング結果を得る。
例示的に、本願の実施例による画像特徴マッチング方法は、室内画像に対してマッチングを行うことができ、且つ室外画像に対してマッチングを行うことができる。図6Aは、例示的な室内画像の特徴マッチング結果の概略図を示し、図6Bは、例示的な室外画像の特徴マッチング結果の概略図を示す。図6Aと図6Bから分かるように、本願の実施例による画像特徴マッチング方法は、画像における同じコンテンツに対して正確にマッチングを行うことができる。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいて、マッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
いくつかの実施例において、本願の実施例による技術的解決手段は、特徴検出を行う必要がなく、特徴検出の正確度による特徴マッチングへの影響を低減させ、本方案の汎用性をより高くする。
ここで、本願の実施例による技術的解決手段は、2枚のマッチング待ち画像のデンス特徴マッチングを実現させることができ、該方案は、ビジョンベースの位置推定とマッピングの同時実行(V-SLAM)に集積されてもよい。本方案は、正確なデンスマッチングを提供し、視覚的測位とマッピングに有利である。本方案の高効率性及び精度-速度のバランスを取りやすいという特徴は、位置推定とマッピングの同時実行の各モジュール間の協調に有利である。本方案が高いロバスト性を有するため、V-SLAMは、様々な気候条件下ではいずれも安定的に運転可能である。例えば、室内ナビゲーション、無人運転などの分野に用いられる。そして、本方案は、三次元再構築に用いてもよい。本方案による正確なデンスマッチングは、精細な物体とシーンモデルの再構築に有利である。例えば、ユーザに対して、ビジョンベースの人体、物体三次元再構築を提供する。無論、本方案は、画像レジストレーションに用いられてもよい。本方案による正確なデンスマッチングは、ソース画像とターゲット画像との変換モデルを求めることに有利である。例えば、本方案を携帯電話に用い、画像ステッチングに用いられ、パノラマ撮影を実現させる。又は、本方案を医療イメージングシステムに埋め込み、イメージングのレジストレーションに用い、それにより医者がレジストレーション結果に基づいて分析又は手術を行う。
具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番を意味して実施プロセスを何ら限定するものではなく、各ステップの実際の実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。
図7を参照すると、図7は、本願の画像特徴マッチング装置の一実施例の構造の概略図である。画像特徴マッチング装置40は、画像取得部41と、特徴抽出部42と、特徴変換部43と、特徴マッチング部44と、を備える。画像取得部41は、少なくとも2つのマッチング待ち画像を取得するように構成され、特徴抽出部42は、各マッチング待ち画像に対してそれぞれ特徴抽出を行い、各マッチング待ち画像の特徴表現を得るように構成され、ここで、特徴表現は、若干の第1ローカル特徴を含み、特徴変換部43は、第1ローカル特徴を、マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するように構成され、特徴マッチング部44は、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得るように構成される。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいて、マッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
いくつかの実施例において、特徴表現は、第1特徴マップと、第2特徴マップと、を含み、第1特徴マップの解像度は、第2特徴マップの解像度よりも小さく、第1特徴マップにおける特徴は、第1ローカル特徴であり、第2特徴マップにおける特徴は、第2ローカル特徴であり、少なくとも2つのマッチング待ち画像における第1変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第1マッチング結果を得た後、特徴マッチング部41は更に、第1マッチング結果に基づいて、少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出し、ここで、マッチングブロックグループは、少なくとも2つの特徴ブロックを含み、各特徴ブロックは、1つのマッチング待ち画像の第2特徴マップから抽出された複数の第2ローカル特徴を含み、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得、ここで、第2変換特徴は、マッチングブロックグループにおける第2ローカル特徴であるか又はマッチングブロックグループにおける第2ローカル特徴に対して変換を行うことで得られたものであるように構成される。
上記方案において、まず、解像度が低い特徴マップにおける特徴マッチングを行い、更に、解像度が低い特徴マップのマッチング結果を利用して、解像度が高い特徴マップの特徴マッチングを行うことで、マッチングの正確度を更に向上させる。
いくつかの実施例において、マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、少なくとも2つのマッチング待ち画像の第2マッチング結果を得る前に、特徴変換部43は更に、特徴ブロックにおける第2ローカル特徴を、特徴ブロックのグローバル受容野を有する第2変換特徴に変換するように構成される。
上記方案において、解像度が高い特徴マップの特徴を抽出し、特徴ブロックのグローバル受容野を有する特徴に変換し、更に、該特徴を利用して特徴マッチングを行うことで、解像度が高い特徴マッチングプロセスにおいて、特徴ブロックのグローバル情報を考慮することもでき、特徴マッチング結果をより正確にする。
いくつかの実施例において、特徴変換部43は具体的には、第1ローカル特徴を第1ターゲット特徴とし、第1変換特徴を第2ターゲット特徴とし、各マッチング待ち画像をターゲット範囲とするか又は第2ローカル特徴を第1ターゲット特徴とし、第2変換特徴を第2ターゲット特徴とし、各特徴ブロックをターゲット範囲とし、第1ターゲット特徴に対する集約処理を行い、第2ターゲット特徴を得るように構成され、ここで、前記第1ターゲット特徴に対する集約処理は、同一の前記ターゲット範囲における前記第1ターゲット特徴に対する集約処理と、異なる前記ターゲット範囲における前記第1ターゲット特徴に対する集約処理と、のうちの少なくとも1つを含む。
上記方案において、同一のターゲット範囲におけるターゲット特徴に対して集約処理を行うことで、第2ターゲット特徴に、該ターゲット範囲のグローバル受容野を持たせることができ、及び/又は、異なるターゲット範囲における第1ターゲット特徴に対して集約処理を行うことで、得られた第2ターゲット特徴に、他のターゲット範囲のグローバル受容野を持たせることができる。
いくつかの実施例において、特徴変換部43は具体的には、それぞれ各ターゲット範囲を現在ターゲット範囲とし、現在ターゲット範囲に対して、現在ターゲット範囲における各第1ターゲット特徴を現在ターゲット特徴とすることと、現在ターゲット範囲における現在ターゲット特徴と他の第1ターゲット特徴に対して集約を行い、現在ターゲット特徴に対応する第3ターゲット特徴を得ることと、現在ターゲット範囲の第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴に対して集約を行い、現在ターゲット特徴に対応する第4ターゲット特徴を得ることと、のうちの少なくとも1つの特徴変換を実行するように構成され、ここで、今回の特徴変換が最終回の特徴変換ではない場合、第4ターゲット特徴を次回の特徴変換における第1ターゲット特徴とし、今回の特徴変換が最終回の特徴変換である場合、第4ターゲット特徴を第2ターゲット特徴とする。
上記方案において、現在ターゲット範囲の第1ターゲット特徴に対して集約を行い、第3ターゲット特徴を得、異なるターゲット範囲の第3ターゲット特徴を利用して集約を行うことで、最終的に得られた第2ターゲット特徴に、現在ターゲット範囲のグローバル情報を持たせることができるだけでなく、他のターゲット範囲のグローバル情報を持たせることもでき、且つ、少なくとも1回のこのような特徴変換により、最終的な第2ターゲット特徴をより精確にし、それにより第2ターゲット特徴を利用して特徴マッチングを行う時、より正確な特徴マッチング結果を得ることができる。
いくつかの実施例において、現在ターゲット範囲における現在ターゲット特徴と他の第1ターゲット特徴に対して集約を行うステップは、変換モデルにおけるセルフアテンション層により実行され、現在ターゲット範囲の第3ターゲット特徴と他のターゲット範囲の第3ターゲット特徴に対して集約を行うステップは、変換モデルにおけるクロスアテンション層により実行される。
上記方案において、変換モデルにおけるセルフアテンション層及びクロスアテンション層により特徴変換を行うことで、現在ターゲット範囲と他のターゲット範囲のグローバル受容野を有するターゲット特徴を取得することを実現させることができる。
いくつかの実施例において、セルフアテンション層と、クロスアテンション層と、のうちの少なくとも1ついに用いられるメカニズムは、線形アテンションメカニズムである。
上記方案において、線形アテンションメカニズムを用いることで、特徴変換プロセスにおける複雑さを線形にすることができ、非線形アテンションメカニズムに比べて、特徴変換に必要な時間がより少なく、且つ複雑さがより低い。
いくつかの実施例において、少なくとも2つのマッチング待ち画像におけるマッチングした第1変換特徴は、マッチング特徴グループであり、マッチング特徴グループの、少なくとも2つのマッチング待ち画像のそれぞれにおける位置は、第1位置であり、第1マッチング結果は、第1位置の位置情報を表し、特徴ブロックの、マッチング待ち画像における対応する領域は、第1位置を含む。
上記方案において、第1マッチング結果によって得られた特徴ブロックに、マッチング特徴グループの、マッチング待ち画像における位置が含まれ、即ち、第1マッチング結果の位置に基づいて、2回目のマッチングの範囲を決定することで、2回目のマッチングの範囲選択を正確にし、更に、該範囲内の特徴に対して再び1回のマッチングを行うことで、マッチングの正確度を更に向上させる。
いくつかの実施例において、特徴マッチング部44は具体的には、マッチングブロックグループにおける1つの特徴ブロックをターゲットブロックとし、ターゲットブロックにおける所定の位置の第2変換特徴をリファレンス特徴とし、マッチングブロックグループの他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出し、リファレンス特徴及びそれにマッチングした第2変換特徴に基づいて、第2マッチング結果を得るように構成される。
上記方案において、ターゲットブロックにおける各第2変換特徴のマッチング特徴を探す必要がなく、ターゲットブロックにおける所定の位置の第2変換特徴のマッチング特徴を探すことで、マッチング特徴の探しの複雑さを低減させ、特徴マッチングプロセスにおいて消費される処理リソースを減少させることができる。
いくつかの実施例において、特徴マッチング部44は具体的には、第1位置の、第2特徴マップにおける対応する第2位置を決定し、第2特徴マップから、第2位置を中心とした所定のサイズの特徴ブロックを抽出し、マッチングブロックグループを得るように構成される。
上記方案において、第1位置により第2位置を決定し、第2位置を中心とした所定のサイズの特徴ブロックを抽出することで、誤った特徴ブロックの抽出確率を減少させる。
いくつかの実施例において、所定の位置は、ターゲットブロックの中心である。
上記方案において、特徴ブロックの中心がマッチング特徴グループにおける1つの特徴であるため、該特徴をリファレンス特徴とすることで、算出された、他の特徴ブロックにおける各第2変換特徴とのマッチング関係をより正確にする。
いくつかの実施例において、特徴マッチング部44は具体的には、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴のそれぞれとのマッチング関係を取得し、マッチング関係に基づいて、他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出すように構成される。
上記方案において、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング関係を取得することで、リファレンス特徴の特徴マッチングを実現させることができる。
いくつかの実施例において、特徴マッチング部44は具体的には、リファレンス特徴と他の特徴ブロックにおける第2変換特徴に対して相関操作を行い、ヒートマップを得るように構成され、ここで、ヒートマップにおける異なる位置のヒート値は、リファレンス特徴と異なる第2変換特徴とのマッチング度合いを表し、マッチング関係に基づいて、他の特徴ブロックから、リファレンス特徴とマッチングした第2変換特徴を探し出すことは、所定の演算子を利用して、ヒートマップに対して処理を行い、リファレンス特徴とマッチングした第2変換特徴を得る。
上記方案において、ヒートマップを取得することで、リファレンス特徴と他の特徴ブロックにおける各第2変換特徴とのマッチング度合いを明確に表すことができる。
いくつかの実施例において、特徴抽出部42は更に、第1ローカル特徴の、マッチング待ち画像における対応する位置情報を第1ローカル特徴に追加するステップと、若干の第1ローカル特徴を多次元配列から一次元配列に変換するステップと、のうちの少なくとも1つを実行するように構成される。
上記方案において、第1ローカル特徴の、マッチング待ち画像における対応する位置情報を第1ローカル特徴に追加することで、特徴変換後の第1変換特徴に、マッチング待ち画像におけるその位置情報を持たせることができる。なお、若干の第1ローカル特徴が多次元配列から一次元配列に変換されることで、変換モデルによる第1ローカル特徴の特徴変換を容易にする。
いくつかの実施例において、特徴マッチング部44は具体的には、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を取得し、マッチング信頼度に基づいて、少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定し、ここで、マッチング特徴グループは、各マッチング待ち画像における1つの第1変換特徴を含み、マッチング特徴グループに基づいて、第1マッチング結果を得るように構成される。
上記方案において、異なる第1変換特徴間のマッチング信頼度を取得し、マッチング信頼度に基づいて、マッチング特徴グループを取得することで、最終的に得られたマッチング特徴グループの信頼度に需要を満たさせることができる。
いくつかの実施例において、特徴マッチング部44は具体的には、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間の類似度を取得し、最適運搬モードを利用して、類似度に対して処理を行い、少なくとも2つのマッチング待ち画像における異なる第1変換特徴間のマッチング信頼度を得るように構成される。
特徴マッチング部44は更に、マッチング信頼度に基づいて、少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定するように構成され、これは、少なくとも2つのマッチング待ち画像から、マッチング信頼度がマッチング条件に合致する第1変換特徴を選択してマッチング特徴グループを構成することを含む。
上記方案において、最適運搬モードで、異なる第1変換特徴間のマッチング信頼度を取得し、続いて、マッチング信頼度から、マッチング条件に合致する第1変換特徴を選択することで、最終的なマッチング特徴グループのマッチング度合いに需要を満たさせることができる。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいてマッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
図8を参照すると、図8は、本願の電子機器の一実施例の構造の概略図である。電子機器50は、メモリ51と、プロセッサ52と、を備え、プロセッサ52は、メモリ51に記憶されているプログラム命令を実行し、上記画像特徴マッチング方法の実施例におけるステップを実現させる。1つの具体的な実施シーンにおいて、電子機器50は、マイクロコンピュータ、サーバを含んでもよいが、それらに限らない。なお、電子機器50は、ノートパソコン、タブレットあんどの携帯機器を更に含んでもよい。ここで限定しない。
具体的には、プロセッサ52は、その自体及びメモリ51を制御して、上記画像特徴マッチング方法の実施例におけるステップを実施する。プロセッサ52は、CPU(Central Processing Unit:中央演算装置)と呼ばれてもよい。プロセッサ52は、信号処理能力を持つ集積回路チップであってもよい。プロセッサ52は、汎用プロセッサ、デジタル信号プロセッサ(Digital Signal Processor:DSP)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGA)又は他のプログラマブルゲートアレイ、ディスクリートゲート又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントであってもよい。汎用プロセッサは、マイクロプロセッサであってもよく、該プロセッサは、如何なる従来のプロセッサなどであってもよい。なお、プロセッサ82は、集積回路チップにより共同で実現してもよい。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいてマッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
図9を参照すると、図9は、本願のコンピュータ可読記憶媒体の一実施例の構造の概略図である。コンピュータ可読記憶媒体60に、プロセッサにより実行可能なプログラム命令601が記憶されており、プログラム命令601は、上記画像特徴マッチング方法の実施例におけるステップを実現させるように構成される。
本願の実施例は、コンピュータプログラムを更に提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器で実行されるとき、前記電子機器におけるプロセッサに、上記画像特徴マッチング方法の実施例におけるステップを実行させる。
上記方案において、マッチング待ち画像における、グローバル受容野を有する特徴を取得し、続いて、グローバル受容野を有する特徴を利用して、特徴マッチングを行うことで、特徴マッチングプロセスにおいてマッチング待ち画像のグローバル情報を考慮することができ、それによりマッチングの正確度を向上させる。
幾つかの実施例において、本願の実施例により提供される装置が有する機能又は含んでいるモジュールは、上記方法の実施例に記載の方法を実行するように構成されてもよく、その具体的な実現は、上記方法の実施例の記述を参照することができ、簡潔のために、ここで説明を省略する。
上記各実施例に対する説明は、各実施例間の相違を強調し、その同じまたは類似な所は相互に参照されることができ、簡潔のために、ここで説明を省略する。
本願で提供する幾つかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。以上に記載した装置の実施例はただ例示的なものであり、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。また例えば、複数のユニット又はコンポーネントを組み合わせてもよく、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよく、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかの通信インタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
また、本願の各実施例における各機能ユニットは1つの処理ユニットに集積されてもよく、各ユニットが物理的に別個のものとして存在してもよく、2つ又は2つ以上のユニットが1つのユニットに集積されてもよい。上記集積したユニットは、ハードウェアの形式で実現してもよく、ソフトウェア機能ユニットの形式で実現してもよい。
集積したユニットは、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよいことに留意されたい。このような理解のもと、本願の実施例の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、1台のコンピュータ機器(パソコン、サーバ、又はネットワーク装置など)又はプロセッサ(processor)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどの、プログラムコードを記憶できる種々の媒体を含む。

Claims (20)

  1. 画像特徴マッチング方法であって、
    少なくとも2つのマッチング待ち画像を取得することと、
    各前記マッチング待ち画像に対してそれぞれ特徴抽出を行い、各前記マッチング待ち画像の特徴表現を得ることであって、前記特徴表現は、若干の第1ローカル特徴を含む、ことと、
    前記第1ローカル特徴を、前記マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換することと、
    前記少なくとも2つのマッチング待ち画像における前記第1変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第1マッチング結果を得ることと、を含む、方法。
  2. 前記特徴表現は、第1特徴マップと、第2特徴マップと、を含み、前記第1特徴マップの解像度は、前記第2特徴マップの解像度よりも小さく、前記第1特徴マップにおける特徴は、前記第1ローカル特徴であり、前記第2特徴マップにおける特徴は、前記第2ローカル特徴であり、
    前記少なくとも2つのマッチング待ち画像における前記第1変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第1マッチング結果を得た後、前記方法は、
    前記第1マッチング結果に基づいて、前記少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出することであって、前記マッチングブロックグループは、少なくとも2つの特徴ブロックを含み、各前記特徴ブロックは、1つの前記マッチング待ち画像の第2特徴マップから抽出された複数の第2ローカル特徴を含む、ことと、
    前記マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第2マッチング結果を得ることであって、前記第2変換特徴は、前記マッチングブロックグループにおける第2ローカル特徴であるか又は前記マッチングブロックグループにおける前記第2ローカル特徴に対して変換を行うことで得られたものである、ことと、を更に含むことを特徴とする
    請求項1に記載の方法。
  3. 前記マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第2マッチング結果を得る前に、前記方法は、
    前記特徴ブロックにおける前記第2ローカル特徴を、前記特徴ブロックのグローバル受容野を有する第2変換特徴に変換することを更に含むことを特徴とする
    請求項2に記載の方法。
  4. 前記第1ローカル特徴を、前記マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するか、又は前記特徴ブロックにおける前記第2ローカル特徴を、前記特徴ブロックのグローバル受容野を有する第2変換特徴に変換することは、
    前記第1ローカル特徴を第1ターゲット特徴とし、第1変換特徴を第2ターゲット特徴とし、各前記マッチング待ち画像をターゲット範囲とするか、又は前記第2ローカル特徴を第1ターゲット特徴とし、前記第2変換特徴を第2ターゲット特徴とし、各前記特徴ブロックをターゲット範囲とすることと、
    前記第1ターゲット特徴に対する集約処理を行い、前記第2ターゲット特徴を得ることと、を含み、前記第1ターゲット特徴に対する集約処理は、
    同一の前記ターゲット範囲における前記第1ターゲット特徴に対する集約処理と、
    異なる前記ターゲット範囲における前記第1ターゲット特徴に対する集約処理と、のうちの少なくとも1つを含むことを特徴とする
    請求項1から3のうちいずれか一項に記載の方法。
  5. 前記第1ターゲット特徴に対する集約処理を行い、前記第2ターゲット特徴を得ることは、
    それぞれ各前記ターゲット範囲を現在ターゲット範囲とし、前記現在ターゲット範囲に対して、
    前記現在ターゲット範囲における各第1ターゲット特徴を現在ターゲット特徴とすることと、
    前記現在ターゲット範囲における現在ターゲット特徴と他の前記第1ターゲット特徴に対して集約を行い、前記現在ターゲット特徴に対応する第3ターゲット特徴を得ることと、
    前記現在ターゲット範囲の第3ターゲット特徴と他の前記ターゲット範囲の第3ターゲット特徴に対して集約を行い、前記現在ターゲット特徴に対応する第4ターゲット特徴を得ることと、のうちの少なくとも1つを実行することを含み、
    今回の特徴変換が最終回の特徴変換ではない場合、前記第4ターゲット特徴を次回の特徴変換における第1ターゲット特徴とし、今回の特徴変換が最終回の特徴変換である場合、前記第4ターゲット特徴を前記第2ターゲット特徴とすることを特徴とする
    請求項4に記載の方法。
  6. 前記現在ターゲット範囲における現在ターゲット特徴と他の前記第1ターゲット特徴に対して集約を行うステップは、変換モデルにおけるセルフアテンション層により実行され、
    前記現在ターゲット範囲の第3ターゲット特徴と他の前記ターゲット範囲の第3ターゲット特徴に対して集約を行うことは、前記変換モデルにおけるクロスアテンション層により実行されることを特徴とする
    請求項5に記載の方法。
  7. 前記セルフアテンション層と、前記クロスアテンション層と、のうちの少なくとも1ついに用いられるメカニズムは、線形アテンションメカニズムであることを特徴とする
    請求項6に記載の方法。
  8. 前記少なくとも2つのマッチング待ち画像におけるマッチングした前記第1変換特徴は、マッチング特徴グループであり、前記マッチング特徴グループの、前記少なくとも2つのマッチング待ち画像のそれぞれにおける位置は、第1位置であり、前記第1マッチング結果は、前記第1位置の位置情報を表し、前記特徴ブロックの、前記マッチング待ち画像における対応する領域は、前記第1位置を含むことを特徴とする
    請求項2から7のうちいずれか一項に記載の方法。
  9. 前記マッチングブロックグループに対応する第2変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第2マッチング結果を得ることは、
    前記マッチングブロックグループにおける1つの特徴ブロックをターゲットブロックとし、前記ターゲットブロックにおける所定の位置の前記第2変換特徴をリファレンス特徴とすることであって、前記所定の位置は、前記ターゲットブロックの中心である、ことと、
    前記マッチングブロックグループの他の前記特徴ブロックから、前記リファレンス特徴とマッチングした前記第2変換特徴を探し出すことと、
    前記リファレンス特徴及びそれにマッチングした前記第2変換特徴に基づいて、前記第2マッチング結果を得ることと、を含むことを特徴とする
    請求項2から8のうちいずれか一項に記載の方法。
  10. 前記第1マッチング結果に基づいて、前記少なくとも2つのマッチング待ち画像の第2特徴マップから、マッチングブロックグループを抽出することは、
    前記第1位置の、前記第2特徴マップにおける対応する第2位置を決定することと、
    前記第2特徴マップから、前記第2位置を中心とした所定のサイズの前記特徴ブロックを抽出し、前記マッチングブロックグループを得ることと、を含むことを特徴とする
    請求項8又は9に記載の方法。
  11. 前記マッチングブロックグループの他の前記特徴ブロックから、前記リファレンス特徴とマッチングした前記第2変換特徴を探し出すことは、
    前記リファレンス特徴と前記他の特徴ブロックにおける各前記第2変換特徴のそれぞれとのマッチング関係を取得することと、
    前記マッチング関係に基づいて、前記他の特徴ブロックから、前記リファレンス特徴とマッチングした前記第2変換特徴を探し出すことと、を含むことを特徴とする
    請求項9又は10に記載の方法。
  12. 前記リファレンス特徴と前記他の特徴ブロックにおける各前記第2変換特徴とのマッチング関係を取得することは、
    前記リファレンス特徴と前記他の特徴ブロックにおける前記第2変換特徴に対して相関操作を行い、ヒートマップを得ることであって、前記ヒートマップにおける異なる位置のヒート値は、前記リファレンス特徴と異なる前記第2変換特徴とのマッチング度合いを表す、ことを含み、
    前記マッチング関係に基づいて、前記他の特徴ブロックから、前記リファレンス特徴とマッチングした前記第2変換特徴を探し出すことは、
    所定の演算子を利用して、前記ヒートマップに対して処理を行い、前記リファレンス特徴とマッチングした前記第2変換特徴を得ることを含むことを特徴とする
    請求項11に記載の方法。
  13. 前記第1ローカル特徴を、前記マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換する前に、前記方法は、
    前記第1ローカル特徴の、前記マッチング待ち画像における対応する位置情報を前記第1ローカル特徴に追加することと、
    前記若干の第1ローカル特徴を多次元配列から一次元配列に変換することと、のうちの少なくとも1つを更に含むことを特徴とする
    請求項1から12のうちいずれか一項に記載の方法。
  14. 前記少なくとも2つのマッチング待ち画像における前記第1変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第1マッチング結果を得ることは、
    前記少なくとも2つのマッチング待ち画像における異なる前記第1変換特徴間のマッチング信頼度を取得することと、
    前記マッチング信頼度に基づいて、前記少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定することであって、前記マッチング特徴グループは、各前記マッチング待ち画像における1つの前記第1変換特徴を含む、ことと、
    前記マッチング特徴グループに基づいて、前記第1マッチング結果を得ることと、を含むことを特徴とする
    請求項1から13のうちいずれか一項に記載の方法。
  15. 前記少なくとも2つのマッチング待ち画像における異なる前記第1変換特徴間のマッチング信頼度を取得することは、
    前記少なくとも2つのマッチング待ち画像における異なる第1変換特徴間の類似度を取得することと、
    最適運搬モードを利用して、前記類似度に対して処理を行い、前記少なくとも2つのマッチング待ち画像における異なる前記第1変換特徴間のマッチング信頼度を得ることと、を含むことを特徴とする
    請求項14に記載の方法。
  16. 前記マッチング信頼度に基づいて、前記少なくとも2つのマッチング待ち画像におけるマッチング特徴グループを決定することは、
    前記少なくとも2つのマッチング待ち画像から、前記マッチング信頼度がマッチング条件に合致する前記第1変換特徴を選択してマッチング特徴グループを構成することを含むことを特徴とする
    請求項14又は15に記載の方法。
  17. 画像特徴マッチング装置であって、
    少なくとも2つのマッチング待ち画像を取得するように構成される画像取得部と、
    各前記マッチング待ち画像に対してそれぞれ特徴抽出を行い、各前記マッチング待ち画像の特徴表現を得るように構成される特徴抽出部であって、ここで、前記特徴表現は、若干の第1ローカル特徴を含む、特徴抽出部と、
    前記第1ローカル特徴を、前記マッチング待ち画像のグローバル受容野を有する第1変換特徴に変換するように構成される特徴変換部と、
    前記少なくとも2つのマッチング待ち画像における前記第1変換特徴に対してマッチングを行い、前記少なくとも2つのマッチング待ち画像の第1マッチング結果を得るように構成される特徴マッチング部と、を備える、画像特徴マッチング装置。
  18. メモリと、プロセッサと、を備える電子機器であって、前記プロセッサは、前記メモリに記憶されているプログラム命令を実行し、請求項1から16のうちいずれか一項に記載の画像特徴マッチング方法を実施する、電子機器。
  19. プロセッサにより実行されるとき、前記プロセッサに請求項1から16のうちいずれか一項に記載の画像特徴マッチング方法を実行させるためのプログラム命令を記憶した、コンピュータ可読記憶媒体。
  20. 電子機器で実行されるとき、前記電子機器におけるプロセッサに、請求項1から16のうちいずれか一項に記載の画像特徴マッチング方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
JP2022550968A 2021-03-05 2021-06-24 画像特徴マッチング方法及び関連装置、機器並びに記憶媒体 Pending JP2023520625A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110247181.8A CN112990228B (zh) 2021-03-05 2021-03-05 图像特征匹配方法和相关装置、设备及存储介质
CN202110247181.8 2021-03-05
PCT/CN2021/102080 WO2022183638A1 (zh) 2021-03-05 2021-06-24 图像特征匹配方法和相关装置、设备及存储介质

Publications (1)

Publication Number Publication Date
JP2023520625A true JP2023520625A (ja) 2023-05-18

Family

ID=76353159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550968A Pending JP2023520625A (ja) 2021-03-05 2021-06-24 画像特徴マッチング方法及び関連装置、機器並びに記憶媒体

Country Status (4)

Country Link
US (1) US20220392201A1 (ja)
JP (1) JP2023520625A (ja)
CN (1) CN112990228B (ja)
WO (1) WO2022183638A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990228B (zh) * 2021-03-05 2024-03-29 浙江商汤科技开发有限公司 图像特征匹配方法和相关装置、设备及存储介质
CN115359103B (zh) * 2022-08-24 2023-04-18 北京医智影科技有限公司 图像配准网络模型及其建立方法、设备及介质
CN115908879B (zh) * 2023-03-09 2023-06-16 中国科学技术大学 基于点引导注意力机制的自适应局部图像特征匹配方法
CN117474963B (zh) * 2023-10-18 2024-04-19 南京国础科学技术研究院有限公司 多源卫星图像配准方法、系统、存储介质和电子设备
CN117115065B (zh) * 2023-10-25 2024-01-23 宁波纬诚科技股份有限公司 基于聚焦损失函数约束的可见光和红外图像的融合方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1736928A1 (en) * 2005-06-20 2006-12-27 Mitsubishi Electric Information Technology Centre Europe B.V. Robust image registration
KR101404640B1 (ko) * 2012-12-11 2014-06-20 한국항공우주연구원 영상 매칭 방법 및 이를 수행하는 시스템
CN105513038B (zh) * 2014-10-20 2019-04-09 网易(杭州)网络有限公司 图像匹配方法及手机应用测试平台
CN110019896B (zh) * 2017-07-28 2021-08-13 杭州海康威视数字技术股份有限公司 一种图像检索方法、装置及电子设备
CN108920727A (zh) * 2018-08-03 2018-11-30 厦门大学 视觉检索中的紧凑视觉描述子深度神经网络生成模型
CN109584156B (zh) * 2018-10-18 2022-01-28 中国科学院自动化研究所 显微序列图像拼接方法及装置
CN109741389B (zh) * 2018-11-27 2023-05-16 华南农业大学 一种基于区域基匹配的局部立体匹配方法
CN111340109B (zh) * 2020-02-25 2024-01-26 深圳市景阳科技股份有限公司 图像匹配方法、装置、设备及存储介质
CN111476780B (zh) * 2020-04-07 2023-04-07 腾讯科技(深圳)有限公司 一种图像检测方法、装置、电子设备以及存储介质
CN111522986B (zh) * 2020-04-23 2023-10-10 北京百度网讯科技有限公司 图像检索方法、装置、设备和介质
CN112330750A (zh) * 2020-10-30 2021-02-05 北京邮电大学 一种面向可重构球形机器人自重构对接的立体匹配方法
CN112270760B (zh) * 2020-11-03 2023-07-25 北京百度网讯科技有限公司 一种定位方法、装置、电子设备及存储介质
CN112329888B (zh) * 2020-11-26 2023-11-14 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备以及存储介质
CN112990228B (zh) * 2021-03-05 2024-03-29 浙江商汤科技开发有限公司 图像特征匹配方法和相关装置、设备及存储介质

Also Published As

Publication number Publication date
CN112990228A (zh) 2021-06-18
US20220392201A1 (en) 2022-12-08
CN112990228B (zh) 2024-03-29
WO2022183638A1 (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
JP2023520625A (ja) 画像特徴マッチング方法及び関連装置、機器並びに記憶媒体
JP5654127B2 (ja) インクリメントな特徴抽出を使用するオブジェクト認識
US11328172B2 (en) Method for fine-grained sketch-based scene image retrieval
CN109711422B (zh) 图像数据处理、模型的建立方法、装置、计算机设备和存储介质
US8442307B1 (en) Appearance augmented 3-D point clouds for trajectory and camera localization
JP5563494B2 (ja) 対応参照画像検索装置及び方法、コンテンツ重畳装置、システム、及び方法、並びにコンピュータプログラム
CN102782708A (zh) 用于图像辨识的描述符小块的快速子空间投影
He et al. Onepose++: Keypoint-free one-shot object pose estimation without CAD models
US11714921B2 (en) Image processing method with ash code on local feature vectors, image processing device and storage medium
WO2022033111A1 (zh) 图像信息提取方法、训练方法及装置、介质和电子设备
CN112990219B (zh) 用于图像语义分割的方法和装置
JP7430243B2 (ja) 視覚的測位方法及び関連装置
Chen et al. A hierarchical consensus attention network for feature matching of remote sensing images
JP5536124B2 (ja) 画像処理システム及び画像処理方法
CN116129228B (zh) 图像匹配模型的训练方法、图像匹配方法及其装置
WO2021051562A1 (zh) 人脸特征点定位方法、装置、计算设备和存储介质
CN112750164B (zh) 轻量化定位模型的构建方法、定位方法、电子设备
CN115995079A (zh) 图像语义相似度分析方法和同语义图像检索方法
CN113920587A (zh) 基于卷积神经网络的人体姿态估计方法
WO2023241372A1 (zh) 相机内参标定方法及相关设备
Zhou et al. USuperGlue: an unsupervised UAV image matching network based on local self-attention
CN117237858B (zh) 一种回环检测方法
JP2019125128A (ja) 情報処理装置、制御方法、及びプログラム
KR20100101812A (ko) 객체 움직임 분석을 위한 체인 코드 표현 장치 및 방법
CN117423047A (zh) 基于特征图像的计数方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240206