JP5848833B2 - 画像を比較するための方法およびシステム - Google Patents
画像を比較するための方法およびシステム Download PDFInfo
- Publication number
- JP5848833B2 JP5848833B2 JP2014550649A JP2014550649A JP5848833B2 JP 5848833 B2 JP5848833 B2 JP 5848833B2 JP 2014550649 A JP2014550649 A JP 2014550649A JP 2014550649 A JP2014550649 A JP 2014550649A JP 5848833 B2 JP5848833 B2 JP 5848833B2
- Authority
- JP
- Japan
- Prior art keywords
- keypoint
- image
- matches
- ratio
- correct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 84
- 230000000007 visual effect Effects 0.000 claims description 50
- 239000011159 matrix material Substances 0.000 claims description 44
- 239000013598 vector Substances 0.000 claims description 23
- 238000009826 distribution Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000005457 optimization Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 10
- 102000002067 Protein Subunits Human genes 0.000 claims 2
- 108010001267 Protein Subunits Proteins 0.000 claims 2
- 238000004422 calculation algorithm Methods 0.000 description 18
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 238000009472 formulation Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
N個のマッチしたキーポイント(マッチ)のセットを考える。
キーポイントのマッチのペアは、2つのカテゴリに整理される、つまり、両方のマッチがインライアである、あるいは、それらの少なくとも1つがアウトライアである(この第2のカテゴリは、混合したアウトライアのペアと呼ぶことにする)。したがって、ヒストグラムは、2つの成分の和であり、それぞれが、1つのカテゴリ中のペアに関する観測されたLDR値による。インライアのペアに関するヒストグラム成分は、hin={hin(1)、...、hin(K)}によって表示され、混合したアウトライアのペアに関する成分は、hout={hout(1)、...、hout(K)}によって表示される。
そのとき、
h(k)=hin(k)+hout(k)、k=1、...、K. (5)
である。
pZ(z)=Pinp(z|in)+Poutp(z|out) (6)
になる。
h(k)=E(h(k))=E(hin(k))+E(hout(k))、k=1、..、K. (9)
である。
LDRは、2つの通則的なキーポイントペア、すなわち(xi、yi)および(xj、yj)の関数である。3つの可能な条件が生じる可能性がある、すなわち、両方のペアがアウトライアである、両方がインライアである、あるいは、1つのペアがインライアであり、さらに他のペアがアウトライアであるという条件である。
マッチング処理は、画像中の風景の幾何形状についてのどのような知識によっても制約されない、というのは、そのような知識は、マッチングを実行する前には得ることができないからである。たとえ2つの画像が同じ物体を示すとしても、誤りのあるマッチを防止するメカニズムは、存在しない。2つの画像が、同じまたは極めて類似した物体を示していない場合、どのようなマッチングも間違っていると見なすべきである。
AおよびBを長方形としよう。ポイント、
キーポイントが正規に分布しているという仮定は、アウトライア密度関数の簡単な公式化をもたらし、それは、実ケースを良好に近似する。
2つの画像がランダムなキーポイント{Xn}および{Yn}を有するとしよう、それゆえ、そのすべては、二変数の正規分布を有し、第1の画像中の分散が
一般に、キーポイントのマッチのすべてがインライアである場合、LDRヒストグラムは、アウトライアに関するLDRヒストグラムと極めて異なることがしばしばである。多数の実際的なケースでは、インライアだけのLDRヒストグラムは、アウトライアだけのLDRヒストグラムより狭い、すなわち、それは、LDRアウトライアヒストグラムがゼロでないところで、いくつかのビンにわたってゼロに等しい(具体的には、横方向のビン)。
第3の代替実施形態は、ペアxi、yiがインライアであり、ペアxj、yjがアウトライアである(または、その逆も同様)場合を提示する。この場合もまた、1つの画像中のキーポイントは、ランダムに分布すると仮定する、というのは未知の画像中に含まれるキーポイントの場所を制約する、どのような幾何形状的なパターンまたはルールも事前に知ることはできないからである。
アウトライアに関する対数の距離の比は、2つのランダムなラインセグメントの長さの比(その比の対数)として見なすことができる。アウトライアが予測できないマッチング誤差によって形成されるので、ラインセグメントの終点は、独立のランダム変数としてモデル化される。さらに、1つの画像内の終点は、同一に分布する。前に、終点が平面上に正規分布を有すると考えたが、ここでは、終点がキーポイント(正しさにかかわらず、マッチング後に残されたそれら)のセットに限定されるという仮定に基づく、代替のアウトライア確率密度関数を導入する。この代替処置の目標は、アウトライアに関するLDRヒストグラムのピークをよりうまく識別することである。多くの場合、これは、画像を比較してインライアを見つけ出すための性能を向上させることができる。
2.1 アウトライアノーマル(outlier normal)
提案する方法に基づき、ここで、LDR値を解析することによって、インライアのマッチを識別する方法を述べる。正しいインライアセットを期待値として生じる、スペクトルのクラスタ化(clustering)アルゴリズムが開発されている。
方程式21および26は、インライア証拠行列と呼ぶ、極めて有用な行列を生じる。リンク(link)が、量子化qによって与えられ、ヒストグラムのビンに包含され、それは、LDR値をインデックスにマッピングする。
目標は、
パラメータβ
まず、F中のアウトライア行に関してE(Fr)中の期待される要素を考える。この要素の期待値は、
インライア数
ここで、F中のインライア行に関してFr中の期待される要素を考える。この要素は、μに、すなわちμr中の対応する要素の値に等しくなければならない。期待値、
方程式34で肯定的に仮定され、方程式40で規定された固有値は、実際に主固有値である。
ランダム行列Fは、インライア証拠行列Dに関係付けられる。行列Dは、行列E(F)とノイズに対応する項Wとの和D=E(F)+Wとして書くことができる。
ここで、前に述べた方法の主なステップを図6に例示する。
図7Aは、ほぼ平面状物体(ビルの面)が、異なるズーミングで、見る角度の差をほどほどにして示されている実施例を示す。キーポイント選択ステージで識別された45個のキーポイントが、円によって示され、さらにラインが、他の画像中のマッチしたキーポイントの位置を指し示している。
図8は、前に述べた方法を、本発明の実施形態によって視覚探索サービスを実施するために活用することができる、可能なシナリオを概略的に例示する。参照800によって識別される図8のシナリオは、クライアント−サーバ構成によって構築され、そこでは視覚探索サーバ810が、外部ネットワーク830、たとえばMAN、WAN、VPN、インターネットまたは電話網を介してデータを交換するための複数の端末820と相互作用するように構成される。各端末820は、パーソナルコンピュータ、ノートブック、ラップトップ、携帯情報端末、スマートフォンまたはデジタル画像を管理することが可能などれもの電子装置とすることができる。
Claims (13)
- 第1の画像を第2の画像と比較するための方法であって、
前記第1の画像中の第1のキーポイントおよび前記第2の画像中の第2のキーポイントを識別するステップと、
各第1のキーポイントを対応する第2のキーポイントと関連付けることによって、第1のキーポイントと第2のキーポイントの間のマッチを形成するステップと、
複数の第1の距離の比を算出するステップであって、各第1の距離の比は、前記第1のキーポイントのペアの間の距離と、第1のキーポイントの前記ペアにマッチする、前記第2のキーポイントの対応するペアの間の距離との比に基づく、算出するステップと、
それぞれが前記第1の距離の比の値の各々の区間に対応する、複数の順序付けられたビンを有するヒストグラム中の前記算出された複数の第1の距離の比の値の分布を調整するステップであって、前記ヒストグラムは、各ビンについて、値が前記各々の区間内に含まれる前記分布の第1の距離の比の対応する数を数え上げる、調整するステップと、
前記第1の画像および前記第2の画像中のキーポイントのペアのランダムな選択に対応する、複数の第2の距離の比の統計的な分布を表すアウトライア密度関数を生成するステップであって、前記複数の第2の距離の比は、前記第1の画像中の第1のキーポイントのペアの間の距離と、前記第2の画像中のランダムに選択された第2のキーポイントの対応するペアの間の距離との比に基づく、生成するステップと、
前記ビンのそれぞれについて、対応するアウトライア確率密度値を生成することによって、前記アウトライア密度関数を離散化するステップと
を含み、
正しいキーポイントのマッチの数を求めるステップであって、正しいキーポイントのマッチのそれぞれが、前記第1の画像および前記第2の画像中に描写された同じ物体の同じポイントに対応する第1のキーポイントおよび第2のキーポイントによって形成され、正しいキーポイントのマッチの数を求める前記ステップは、
行列を求めるステップであって、前記行列の各要素は、キーポイントのマッチの各々のペアに対応し、キーポイントのマッチの前記各々のペアの前記距離の比を含む前記ビンでの前記ヒストグラムの値と、パラメータ(β)によって重み付けられた、前記ビンに対応する前記アウトライア確率密度値との間の差に対応する値を有する、行列を求めるステップと、
前記行列の主固有ベクトルがあるベクトル(r)に等しくなるように、前記パラメータ(β)の値を求めるステップであって、前記あるベクトル(r)の各要素は、該要素に対応するキーポイントのマッチが正しいキーポイントのマッチである場合、非ゼロ値であり、該要素に対応するキーポイントのマッチが間違っているキーポイントのマッチである場合、ゼロ値である、ステップと、
前記主固有ベクトルに関連付けられた主固有値の関数として、正しいキーポイントのマッチの数を求めるステップと
を含む、正しいキーポイントのマッチの数を決定するステップ
を含み、
前記第1の画像を前記第2の画像と比較するために、求められた正しいキーポイントのマッチの数が活用されることを特徴とする、方法。 - 主固有値の式として、正しいキーポイントのマッチの数を求める前記ステップは、
正しいキーポイントのマッチの数を、主固有値とある差の最大値との比の式として求めるステップであって、前記ある差は、キーポイントのマッチの前記各々のペアの距離の比を含む前記ビンでの前記ヒストグラムの値と、前記ビンに対応する前記アウトライア確率密度値との間の差であり、前記アウトライア確率密度値は、前記求められたパラメータ(β)によって重み付けられる、求めるステップ
を含む、請求項1に記載の方法。 - 主固有値の式として、正しいキーポイントのマッチの数を求める前記ステップは、主固有値と前記最大値との前記比に1をプラスした数として、正しいキーポイントのマッチの数を求めるステップを含む、請求項2に記載の方法。
- 前記正しいキーポイントのマッチの前記数に等しい数であって、絶対値がもっとも大きい前記主固有ベクトルの要素の数を識別することによって、どのキーポイントのマッチがもっとも正しそうなキーポイントのマッチであるのかを識別するステップをさらに含む、請求項1から3のいずれか一項に記載の方法。
- 前記複数の第1の距離の比は、前記第1のキーポイントのペアの間の距離と、第1のキーポイントの前記ペアとマッチする前記第2のキーポイントの対応するペアの間の距離との比の対数に対応する、請求項1から4のいずれか一項に記載の方法。
- 前記パラメータ(β)は、前記ヒストグラムを前記離散化されたアウトライア密度関数上に投影した結果である、請求項1から5のいずれか一項に記載の方法。
- 第1の画像を第2の画像と比較するための装置であって、
前記第1の画像中の第1のキーポイントおよび前記第2の画像中の第2のキーポイントを識別するように構成される第1の識別ユニットと、
各第1のキーポイントを対応する第2のキーポイントと関連付けることによって、第1のキーポイントと第2のキーポイントの間のマッチを形成するように構成される関連付けユニットと、
複数の第1の距離の比を算出するように構成される算出ユニットであって、各第1の距離の比は、前記第1のキーポイントのペアの間の距離と、第1のキーポイントの前記ペアにマッチする前記第2のキーポイントの対応するペアの間の距離との比に基づく、算出ユニットと、
それぞれが前記第1の距離の比の値の各々の区間に対応する、複数の順序付けられたビンを有するヒストグラム中の前記算出された複数の第1の距離の比の値の分布を調整するように構成される調整ユニットであって、前記ヒストグラムは、各ビンについて、値が前記各々の区間内に含まれる分布の第1の距離の比の対応する数を数え上げる、調整ユニットと、
前記第1の画像および前記第2の画像中のキーポイントのペアのランダムな選択に対応する複数の第2の距離の比の統計的な分布を表すアウトライア密度関数を生成するように構成される生成ユニットであって、前記複数の第2の距離の比は、前記第1の画像中の第1のキーポイントの前記ペアの間の距離と、前記第2の画像中の前記ランダムに選択された第2のキーポイントの対応するペアの間の距離との比に基づく、生成ユニットと、
各ビンについて対応するアウトライア確率密度値を生成することによって、前記アウトライア密度関数を離散化するように構成される離散化ユニットと
を含み、
正しいキーポイントのマッチの数を求めるように構成される決定ユニットであって、正しいキーポイントのマッチのそれぞれは、前記第1の画像および前記第2の画像中に描写された同じ物体の同じポイントに対応する第1のキーポイントおよび第2のキーポイントによって形成され、前記決定ユニットは、
行列を求めるように構成される第1の決定サブユニットであって、前記行列の各要素は、キーポイントのマッチの各々のペアに対応し、キーポイントのマッチの前記各々のペアの前記距離の比を含むビンでの前記ヒストグラムの値と、パラメータ(β)によって重み付けられた、前記ビンに対応するアウトライア確率密度値との差に対応する値を有する、第1の決定サブユニットと、
前記行列の主固有ベクトルがあるベクトル(r)に等しくなるように、前記パラメータ(β)の値を求めるように構成される第2の決定サブユニットであって、前記あるベクトル(r)の各要素は、該要素に対応するキーポイントのマッチが正しいキーポイントのマッチである場合、非ゼロ値であり、該要素に対応するキーポイントのマッチが間違っているキーポイントのマッチである場合、ゼロ値である、第2の決定サブユニットと、
正しいキーポイントのマッチの数を、前記主固有ベクトルに関連付けられた主固有値の式として求めるように構成される第3の決定サブユニットと
を含む、決定ユニット
を含み、
前記装置は、求められた正しいキーポイントのマッチの数を活用して、前記第1の画像を前記第2の画像と比較するように構成される比較ユニットをさらに含むことを特徴とする、装置。 - 前記正しいキーポイントのマッチの前記数に等しい数であって、絶対値がもっとも大きい前記主固有ベクトルの要素の数を識別することによって、どのキーポイントのマッチが、もっとも正しそうなキーポイントのマッチであるのかを識別するように構成される識別ユニットをさらに含む、請求項7に記載の装置。
- システムであって、
質問画像を受け、前記画像中の対応する第1のキーポイントを識別するように構成されるキーポイント検出ユニットと、
対応する第1の局所記述子によって、前記第1のキーポイントの局所的な特色を記述するように構成される特徴計算ユニットと、
複数の基準画像を格納する基準データベースであって、前記基準データベースは、各基準画像について、対応する第2のキーポイントおよび前記第2のキーポイントの対応する第2の局所記述子をさらに格納する、基準データベースと、
基準画像の少なくとも1つの群の各基準画像について、前記第1の局所記述子を前記基準画像の前記第2の局所記述子と比較し、それに応じて前記第1のキーポイントを前記基準画像の前記第2のキーポイントと関連付けて、キーポイントのマッチの対応するセットを生成するように構成される特徴マッチングユニットと、
前記特徴マッチングユニットによって実行された比較に基づき、基準図のサブセットを選択するように構成される選択ユニットと、
前記質問画像および前記サブセットの基準画像を含む各ペアについて、正しいキーポイントのマッチの数を算出するように構成される最適化ユニットであって、前記最適化ユニットは、請求項7または8に記載の前記装置を含む、最適化ユニットと
を含む、システム。 - 視覚探索サーバと、質問画像を前記視覚探索サーバにネットワークを介して提供するように構成される複数の端末とをさらに含み、
前記視覚探索サーバは、前記キーポイント検出ユニットと、前記特徴計算ユニットと、前記基準データベースと、前記特徴マッチングユニットと、前記選択ユニットと、前記最適化ユニットとを含む、請求項9に記載のシステム。 - 視覚探索サーバと、質問画像を前記視覚探索サーバにネットワークを介して提供するように構成される複数の端末とをさらに含み、
前記視覚探索サーバは、前記基準データベースと、前記特徴マッチングユニットと、前記選択ユニットと、前記最適化ユニットとを含み、
各端末は、各々のキーポイント検出ユニットと、各々の特徴計算ユニットとを含む、請求項9に記載のシステム。 - 視覚探索サーバと、データを前記視覚探索サーバとネットワークを介して交換するように構成される複数の端末とをさらに含み、
前記視覚探索サーバは、前記基準データベースを含み、
各端末は、各々のキーポイント検出ユニットと、各々の特徴計算ユニットと、各々の特徴マッチングユニットと、各々の選択ユニットと、各々の最適化ユニットと、各々の局所データベースとを含み、
各端末は、前記基準データベース中に格納された第2のキーポイントおよび前記第2のキーポイントの対応する第2の局所記述子の各々のセットを前記視覚探索サーバから受けるように構成され、
前記端末の局所データベースは、第2のキーポイントおよび第2の局所記述子の受けた前記セットを格納するように構成され、第2のキーポイントおよび第2の局所記述子の格納された前記セットは、前記基準画像の少なくとも1つの群の基準画像に対応する、請求項9に記載のシステム。 - 画像を読み出すための方法であって、
質問画像を受け、前記画像中の対応する第1のキーポイントを識別するステップと、
前記質問画像を複数の基準画像と比較するステップであって、第2のキーポイントが、各基準画像と関連付けられ、それに応じて前記第1のキーポイントを前記基準画像の前記第2のキーポイントに関連付けて、キーポイントのマッチの対応するセットを生成する、比較するステップと、
前記質問画像と前記複数の基準画像のそれぞれとの間の正しいキーポイントのマッチの数を、請求項1から6のいずれか一項に記載の前記方法に基づき求めるステップと、
正しいキーポイントのマッチの数が予め定めた閾値を超える基準画像としての基準画像のサブセットを選択するステップと
を含む、方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/050025 WO2013102488A1 (en) | 2012-01-02 | 2012-01-02 | Method and system for comparing images |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015504215A JP2015504215A (ja) | 2015-02-05 |
JP2015504215A5 JP2015504215A5 (ja) | 2015-10-29 |
JP5848833B2 true JP5848833B2 (ja) | 2016-01-27 |
Family
ID=45833302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014550649A Active JP5848833B2 (ja) | 2012-01-02 | 2012-01-02 | 画像を比較するための方法およびシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US9245204B2 (ja) |
EP (1) | EP2801054B1 (ja) |
JP (1) | JP5848833B2 (ja) |
KR (1) | KR101833953B1 (ja) |
CN (1) | CN104115161B (ja) |
AR (1) | AR089532A1 (ja) |
BR (1) | BR112014016301B1 (ja) |
WO (1) | WO2013102488A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6161543B2 (ja) * | 2011-03-17 | 2017-07-12 | ニュー・ヨーク・ユニヴァーシティー | 物理的オブジェクトの認証と検証のためのシステム、方法及びコンピュータアクセス可能媒体 |
EP3100177A1 (en) | 2014-01-30 | 2016-12-07 | Huawei Technologies Co., Ltd. | Method for recognizing objects |
JP6474210B2 (ja) * | 2014-07-31 | 2019-02-27 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 大規模画像データベースの高速検索手法 |
EP3207495B1 (en) * | 2014-10-13 | 2023-04-26 | Telecom Italia S.p.A. | Method and system for comparing video shots |
EP3398164B1 (en) | 2015-12-30 | 2020-04-01 | Telecom Italia S.p.A. | System for generating 3d images for image recognition based positioning |
US9626596B1 (en) | 2016-01-04 | 2017-04-18 | Bank Of America Corporation | Image variation engine |
US9824299B2 (en) * | 2016-01-04 | 2017-11-21 | Bank Of America Corporation | Automatic image duplication identification |
US20170323149A1 (en) * | 2016-05-05 | 2017-11-09 | International Business Machines Corporation | Rotation invariant object detection |
WO2018121841A1 (en) | 2016-12-27 | 2018-07-05 | Telecom Italia S.P.A. | Method and system for identifying targets in scenes shot by a camera |
JP7003617B2 (ja) * | 2017-12-12 | 2022-01-20 | 富士通株式会社 | 推定装置、推定方法、及び推定プログラム |
US10997232B2 (en) * | 2019-01-23 | 2021-05-04 | Syracuse University | System and method for automated detection of figure element reuse |
CN109992977B (zh) * | 2019-03-01 | 2022-12-16 | 西安电子科技大学 | 一种基于安全多方计算技术的数据异常点清洗方法 |
CN110942061A (zh) * | 2019-10-24 | 2020-03-31 | 泰康保险集团股份有限公司 | 文字识别方法、装置、设备和计算机可读介质 |
CN110838104B (zh) * | 2019-10-30 | 2022-08-23 | 上海联影智能医疗科技有限公司 | 多时间点的感兴趣区域匹配方法、设备和存储介质 |
CN111476780B (zh) * | 2020-04-07 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、电子设备以及存储介质 |
US12094184B2 (en) * | 2020-09-22 | 2024-09-17 | Apple Inc. | Contextual matching |
CN112712123B (zh) * | 2020-12-31 | 2022-02-22 | 上海商汤科技开发有限公司 | 匹配筛选方法、装置、电子设备和计算机可读存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4492036B2 (ja) * | 2003-04-28 | 2010-06-30 | ソニー株式会社 | 画像認識装置及び方法、並びにロボット装置 |
US7869631B2 (en) * | 2006-12-11 | 2011-01-11 | Arcsoft, Inc. | Automatic skin color model face detection and mean-shift face tracking |
US8165352B1 (en) * | 2007-08-06 | 2012-04-24 | University Of South Florida | Reconstruction of biometric image templates using match scores |
GB0807411D0 (en) | 2008-04-23 | 2008-05-28 | Mitsubishi Electric Inf Tech | Scale robust feature-based indentfiers for image identification |
US8391615B2 (en) | 2008-12-02 | 2013-03-05 | Intel Corporation | Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device |
US8401342B2 (en) | 2009-01-16 | 2013-03-19 | A9.Com, Inc. | System and method to match images using topologically equivalent correspondences |
WO2010128511A1 (en) | 2009-05-06 | 2010-11-11 | Superfish Ltd. | Method for organizing a database of images and retrieving images from that database according to a query image |
US8406532B2 (en) | 2009-06-17 | 2013-03-26 | Chevron U.S.A., Inc. | Image matching using line signature |
WO2011015800A1 (en) * | 2009-08-06 | 2011-02-10 | Toshiba Research Europe Limited | Correlated probabilistic trajectories pedestrian motion detection using a decision forest |
JP5385105B2 (ja) * | 2009-11-25 | 2014-01-08 | Kddi株式会社 | 画像検索方法およびシステム |
KR101420549B1 (ko) * | 2009-12-02 | 2014-07-16 | 퀄컴 인코포레이티드 | 쿼리 및 모델 이미지들에서 검출된 키포인트들을 클러스터링함에 따른 특징 매칭 방법, 디바이스 그리고 프로세서 판독가능 매체 |
WO2012100819A1 (en) | 2011-01-25 | 2012-08-02 | Telecom Italia S.P.A. | Method and system for comparing images |
-
2012
- 2012-01-02 CN CN201280069517.5A patent/CN104115161B/zh active Active
- 2012-01-02 WO PCT/EP2012/050025 patent/WO2013102488A1/en active Application Filing
- 2012-01-02 US US14/370,098 patent/US9245204B2/en active Active
- 2012-01-02 BR BR112014016301-4A patent/BR112014016301B1/pt active IP Right Grant
- 2012-01-02 KR KR1020147021287A patent/KR101833953B1/ko active IP Right Grant
- 2012-01-02 EP EP12708685.8A patent/EP2801054B1/en active Active
- 2012-01-02 JP JP2014550649A patent/JP5848833B2/ja active Active
- 2012-12-28 AR ARP120105059A patent/AR089532A1/es active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
AR089532A1 (es) | 2014-08-27 |
JP2015504215A (ja) | 2015-02-05 |
EP2801054A1 (en) | 2014-11-12 |
WO2013102488A1 (en) | 2013-07-11 |
BR112014016301A8 (pt) | 2017-07-04 |
CN104115161A (zh) | 2014-10-22 |
KR20140109463A (ko) | 2014-09-15 |
US20150016723A1 (en) | 2015-01-15 |
EP2801054B1 (en) | 2017-06-28 |
CN104115161B (zh) | 2017-07-14 |
KR101833953B1 (ko) | 2018-03-02 |
BR112014016301B1 (pt) | 2022-02-01 |
US9245204B2 (en) | 2016-01-26 |
BR112014016301A2 (pt) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5848833B2 (ja) | 画像を比較するための方法およびシステム | |
JP2015504215A5 (ja) | ||
JP5734460B2 (ja) | 画像を比較するための方法およびシステム | |
Bagri et al. | A comparative study on feature extraction using texture and shape for content based image retrieval | |
CN105069424B (zh) | 面部快速识别系统和方法 | |
JP5261501B2 (ja) | 不変の視覚場面及び物体の認識 | |
Lepsøy et al. | Statistical modelling of outliers for fast visual search | |
CN102782708A (zh) | 用于图像辨识的描述符小块的快速子空间投影 | |
JP2010518507A (ja) | 特徴マッチング方法 | |
CN108985190B (zh) | 目标识别方法和装置、电子设备、存储介质 | |
CN110532413B (zh) | 基于图片匹配的信息检索方法、装置、计算机设备 | |
JP2013109773A (ja) | 特徴マッチング方法及び商品認識システム | |
CN113793370A (zh) | 三维点云配准方法、装置、电子设备及可读介质 | |
CN113920382B (zh) | 基于类一致性结构化学习的跨域图像分类方法和相关装置 | |
CN115063473A (zh) | 物体高度的检测方法、装置、计算机设备、存储介质 | |
Hegde et al. | Learning manifolds in the wild | |
Chandrakala et al. | Application of artificial bee colony optimization algorithm for image classification using color and texture feature similarity fusion | |
CN108446737B (zh) | 用于识别对象的方法和装置 | |
CN107077590B (zh) | 用于比较视频镜头的方法和系统 | |
Pitchandi | Wild Image Retrieval with HAAR Features and Hybrid DBSCAN Clustering for 3D Cultural Artefact Landmarks Reconstruction | |
Al-Oraiqat et al. | A modified image comparison algorithm using histogram features | |
CN114821661A (zh) | 无监督行人再识别方法、装置、设备及可读存储介质 | |
Frederix et al. | Distribution-Free Statistics for Segmentation: Wielding Occam’s Razor | |
Treiber et al. | Flexible Shape Matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150604 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20150904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5848833 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |