JP2011221688A - 認識装置、認識方法、およびプログラム - Google Patents

認識装置、認識方法、およびプログラム Download PDF

Info

Publication number
JP2011221688A
JP2011221688A JP2010088461A JP2010088461A JP2011221688A JP 2011221688 A JP2011221688 A JP 2011221688A JP 2010088461 A JP2010088461 A JP 2010088461A JP 2010088461 A JP2010088461 A JP 2010088461A JP 2011221688 A JP2011221688 A JP 2011221688A
Authority
JP
Japan
Prior art keywords
point
feature
nearest neighbor
model
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010088461A
Other languages
English (en)
Inventor
Ka-Nyong Oh
嘉寧 呉
Yoshiaki Iwai
嘉昭 岩井
Shunichi Honma
俊一 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010088461A priority Critical patent/JP2011221688A/ja
Priority to US13/046,184 priority patent/US8270723B2/en
Priority to CN2011100834828A priority patent/CN102214302A/zh
Publication of JP2011221688A publication Critical patent/JP2011221688A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】モデル画像から選択された特徴点のセットとクエリ画像から選択された特徴点のセットとのセット同士のマッチングを迅速に行うことができるようにする。
【解決手段】クエリ画像から、ベース点と、単数あるいは複数のサポート点とからなる特徴点セットが複数決定され、位置関係を表す幾何情報が生成される。また、クエリ特徴点とモデル特徴点とのセット同士のマッチングがLSHにより行われる。マッチングの前、特徴量に基づくクラスタリングが行われ、それぞれのクエリ特徴点と同じクラスタに属するモデル特徴点がクエリ特徴点の最近傍候補とされる。サポート点の最近傍候補の位置を基準として、幾何情報により特定される、ベース点の最近傍候補があるとされる位置にベース点候補がない場合、その位置にベース点候補のモデル特徴点が追加される。本発明は、局所特徴量を用いた物体認識を行う装置に適用することができる。
【選択図】図5

Description

本発明は、認識装置、認識方法、およびプログラムに関し、特に、モデル画像から選択された特徴点のセットとクエリ画像から選択された特徴点のセットとのセット同士のマッチングを迅速に行うことができるようにした認識装置、認識方法、およびプログラムに関する。
局所特徴量を用いた一般物体認識の手法として、特許文献1には、モデル画像とクエリ画像から、ベース点と、単数あるいは複数のサポート点とからなる特徴点セットを複数抽出し、特徴点セット同士のマッチングを行う手法が開示されている。
例えばモデル画像のベース点は、モデル画像上に設定された特徴点のうちの基準となる特徴点であり、サポート点は、ベース点以外の特徴点であって、ベース点に従属して決定される特徴点である。モデル化時、各特徴点の特徴量を表す情報とともに、ベース点の位置を基準として、各サポート点の位置を表す情報である幾何情報が保存されるようになされている。
特許文献1に開示されている手法(以下、従来手法という)によれば、テクスチャの少ない物体の識別をロバストに行うことや、背景の影響を抑えて識別を行うことができるようになっている。
従来手法の実用化には計算の高速化が望ましい。例えば、局所特徴量を用いた物体認識を高速化させる方法として、非特許文献1に記載されるLSH(Locality Sensitive Hashing)に代表されるような、データベース検索を行う方法がある。
LSHは、クエリ画像のある特徴点が入力された場合に、その特徴点が属する部分集合であるモデル特徴点のクラスタを特定し、同じクラスタに含まれるモデル特徴点のみを対象にして類似度を計算するものである。類似度計算の回数を減らすことによって全ての特徴点間の類似度を計算する最近傍探索と較べて計算量を抑え、物体認識を高速に行うことができるようになっている。
非特許文献2には、ハイパーグラフを用いることによって、特徴点のセット単位でのマッチングを実現する手法が開示されている。
特開2008−77625号公報
’Locality−sensitive hashing scheme based on p-stable distributions’, Mayur Datar, Piotr Indyk, Proceedings of the twentieth annual symposium on Computational geometry, pp. 253-262, 2004 A Tensor-Based Algorithm for High-Order Graph Matching’, Olivier Duchenne, Francis Bach, Inso Kweon, Jean Ponce, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2009
従来手法にLSHを適用した場合、特徴点セットには複数の特徴点が含まれるため、LSHによって単純に各特徴点の最近傍が求まっても、セットとしての最近傍ではない可能性が高い。
また、ここで、従来手法に非特許文献2に開示されているハイパーグラフを用いる手法を適用することを考える。このハイパーグラフを用いる手法は、特徴点セットを構成する特徴点の数、およびその相対位置が一定であることが要求される。従って、この手法は、特徴点セットを構成する特徴点の数が可変であり、かつ、選択された特徴点の位置により柔軟に相対位置を規定する幾何情報を持つ従来手法の特徴点セットのマッチングには適用することができない。
すなわち、特徴点のセットを用いて物体を記述し、かつ物体の形状変化に対応するために特徴点セットを構成する特徴点の数を可変にするといったアルゴリズムの特性が、LSHや、ハイパーグラフを用いる手法を従来手法に適用することを困難なものにしている。
本発明はこのような状況に鑑みてなされたものであり、モデル画像から選択された特徴点のセットとクエリ画像から選択された特徴点のセットとのセット同士のマッチングを迅速に行うことができるようにするものである。
本発明の一側面の認識装置は、特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報を記憶する記憶手段と、クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量を抽出する抽出手段と、基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットを決定し、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報を生成する生成手段と、前記クエリ特徴点を、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングするクラスタリング手段と、前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かを判定し、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点を補正する補正手段と、前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度を各特徴点の特徴量に基づいて算出し、前記第1のセットの最近傍となる前記第2のセットを決定する類似度算出手段とを備える。
前記補正手段には、前記幾何情報により特定される前記基準点の最近傍候補があるとされる位置に前記基準点の最近傍候補がないと判定した場合、その位置に、前記基準点の最近傍候補となる前記モデル特徴点を追加させることができる。
前記補正手段には、前記幾何情報により特定される前記基準点の最近傍候補があるとされる位置に前記基準点の最近傍候補がないと判定した場合であって、その位置の前記モデル特徴点に従属する前記従属点の最近傍候補の数が所定の数より多いとき、前記基準点の最近傍候補となる前記モデル特徴点を追加させることができる。
前記補正手段には、さらに、前記幾何情報により特定される前記基準点があるとされる位置に前記基準点の最近傍候補があると判定した場合であって、その位置の前記モデル特徴点に従属する前記従属点の最近傍候補の数が所定の数より少ないとき、前記基準点の最近傍候補を削除させることができる。
前記クエリ特徴点の特徴量を表すクエリ特徴量ベクトルと、前記クエリ特徴量ベクトルと次元数が同じベクトルであるLSHのハッシュ関数ベクトルとの内積値が閾値以上であるか否かに応じて、前記クエリ特徴量ベクトルを1と0の二値のうちの一方の値に量子化する量子化手段をさらに設けることができる。この場合、前記クラスタリング手段には、前記クエリ特徴点を、それぞれの前記ハッシュ関数ベクトルを用いて得られた前記クエリ特徴量ベクトルの量子化後の値の組み合わせにより識別されるクラスタに属する特徴点としてクラスタリングさせることができる。
本発明の一側面の認識方法は、特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報を記憶し、クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量を抽出し、基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットを決定し、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報を生成し、前記クエリ特徴点を、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングし、前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かを判定し、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点を補正し、前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度を各特徴点の特徴量に基づいて算出し、前記第1のセットの最近傍となる前記第2のセットを決定するステップを含む。
本発明の一側面のプログラムは、特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報を記憶し、クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量を抽出し、基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットを決定し、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報を生成し、前記クエリ特徴点を、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングし、前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かを判定し、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点を補正し、前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度を各特徴点の特徴量に基づいて算出し、前記第1のセットの最近傍となる前記第2のセットを決定するステップを含む処理をコンピュータに実行させる。
本発明の一側面においては、特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報が記憶され、クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量が抽出される。また、基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットが決定され、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報が生成され、前記クエリ特徴点が、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングされる。さらに、前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かが判定され、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点が補正される。前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度が各特徴点の特徴量に基づいて算出され、前記第1のセットの最近傍となる前記第2のセットが決定される。
本発明によれば、モデル画像から選択された特徴点のセットとクエリ画像から選択された特徴点のセットとのセット同士のマッチングを迅速に行うことができる。
本発明の一実施形態に係る学習装置の構成例を示すブロック図である。 図1のインデックス作成部の構成例を示すブロック図である。 モデル特徴量ベクトルの量子化の例を示す図である。 量子化値の例を示す図である。 本発明の一実施形態に係る認識装置の構成例を示すブロック図である。 図5の認識部の構成例を示すブロック図である。 特徴点の決定の例を示す図である。 特徴点間の位置関係を示す図である。 特徴点の例を示す図である。 特徴点の補正について説明する図である。 特徴点の補正について説明する図10に続く図である。 特徴点の他の補正について説明する図である。 特徴点の他の補正について説明する図12に続く図である。 学習装置の学習処理について説明するフローチャートである。 図14のステップS4において行われるインデックス作成処理について説明するフローチャートである。 認識装置の認識処理について説明するフローチャートである。 図16のステップS25において行われる最近傍候補選択処理について説明するフローチャートである。 図16のステップS26において行われる最近傍候補補正処理について説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
[学習装置の構成例]
図1は、本発明の一実施形態に係る学習装置の構成例を示すブロック図である。
KNNマッチングなどの最近傍探索をLSHによって行う処理は、オフラインフェーズとしての学習処理と、オンラインフェーズとしての認識処理とからなる。図1の学習装置1は学習処理を行う装置である。
学習装置1はコンピュータにより構成される。図1に示す機能部のうちの少なくとも一部は、学習装置1を構成するコンピュータのCPUにより所定のプログラムが実行されることによって実現される。
図1に示すように、学習装置1は、画像処理部11、特徴量抽出部12、インデックス作成部13、ハッシュ関数記憶部14、およびモデル辞書記憶部15から構成される。画像処理部11に対しては、認識させようとする物体の画像であるモデル画像が入力される。
画像処理部11は、モデル画像をグレースケールの画像に変換する処理、グレースケールのモデル画像に基づいてエッジ画像を生成する処理、多重解像度処理などの初期処理を行う。画像処理部11は、初期処理によって得られたモデル画像のデータを特徴量抽出部12に出力する。
特徴量抽出部12は、モデル画像のエッジ上の各点を特徴点として決定する。例えば、特徴量抽出部12は、多重解像度処理によって得られた解像度の異なる各画像に含まれる、特徴点に対応する位置の画素の情報を特徴量(局所特徴量)として抽出する。
特徴量抽出部12は、抽出した特徴量を表す特徴量ベクトルの情報をモデル辞書記憶部15に記憶させるとともに、インデックス作成部13に出力する。
以下、適宜、モデル画像の特徴点をモデル特徴点といい、モデル特徴点の特徴量を表す特徴量ベクトルをモデル特徴量ベクトルという。
インデックス作成部13は、ハッシュ関数記憶部14に記憶されているLSHのハッシュ関数を読み出し、読み出したハッシュ関数を用いてモデル特徴量ベクトルを量子化する。1つのハッシュ関数を用いることによって、1つの特徴量ベクトルは0と1のうちのいずれかの値に量子化される。
また、インデックス作成部13は、モデル特徴点を、モデル特徴量ベクトルに複数のハッシュ関数を適用してそれぞれ求められた量子化値の組み合わせをキーとするクラスタに属する特徴点としてクラスタリングする。
インデックス作成部13は、それぞれのモデル特徴点と、モデル特徴点が属するクラスタの識別情報であるキーを対応付けた情報であるインデックス情報を作成し、モデル辞書記憶部15に記憶させる。インデックス作成部13によるモデル特徴量ベクトルの量子化とクラスタリングについては後述する。
ハッシュ関数記憶部14は、予め生成された、複数のLSHのハッシュ関数を記憶する。LSHのハッシュ関数の生成については例えば非特許文献1に記載されている。
モデル辞書記憶部15は、特徴量抽出部12により抽出されたモデル特徴量ベクトルの情報と、インデックス作成部13により作成されたインデックス情報を含むモデル辞書を記憶する。モデル辞書記憶部15に記憶されたモデル辞書は、物体認識を実際に行う認識装置に提供される。学習装置1から認識装置に対するモデル辞書の提供は、有線または無線による通信によって、または記録媒体を介して行われる。
図2は、図1のインデックス作成部13の構成例を示すブロック図である。
図2に示すように、インデックス作成部13は、量子化部21とクラスタリング部22から構成される。
量子化部21は、ハッシュ関数記憶部14に記憶されているハッシュ関数を、特徴量抽出部12から供給されたモデル特徴量ベクトルに適用してハッシュ値を算出する。
ハッシュ関数記憶部14に記憶されているハッシュ関数は、モデル特徴量ベクトルと次元数が同じベクトル(ハッシュ関数ベクトル)として表される。量子化部21により算出されるハッシュ値は実数のベクトルとなり、ベクトルの各項はモデル特徴量ベクトルとハッシュ関数ベクトルの内積である。
量子化部21は、ハッシュ値として算出した内積値と閾値を比較し、モデル特徴量ベクトルを1と0の二値のうちのいずれかの値に量子化する。例えば、量子化部21は、モデル特徴量ベクトルとハッシュ関数ベクトルの内積値が閾値としての0以上の場合、モデル特徴量ベクトルを値1に量子化し、0未満の場合、モデル特徴量ベクトルを値0に量子化する。
図3は、モデル特徴量ベクトルの量子化の例を示す図である。
図3の特徴量ベクトルAとBはモデル特徴量ベクトルである。ハッシュ関数ベクトルfは、複数用意されているもののうちの1つのハッシュ関数を表すベクトルである。ハッシュ関数ベクトルfに対しては、ハッシュ関数ベクトルfと直交する超平面が、特徴量空間を二分する閾値として設定されている。
例えば、特徴量ベクトルAとハッシュ関数ベクトルfの内積値が閾値である0以上の値として求められた場合、特徴量ベクトルAは値1に量子化される。
また、特徴量ベクトルBとハッシュ関数ベクトルfの内積値が0未満の値として求められた場合、特徴量ベクトルBは値0に量子化される。
量子化部21は、以上のようなモデル特徴量ベクトルの量子化を、ハッシュ関数記憶部14に記憶されているそれぞれのハッシュ関数ベクトルを用いて行う。量子化部21により得られた量子化値はクラスタリング部22に供給される。
クラスタリング部22は、量子化部21により得られた量子化値に基づいて、それぞれのモデル特徴点をクラスタリングする。
図4は、モデル特徴量ベクトルの量子化値の例を示す図である。
図4は、ハッシュ関数ベクトルf乃至fをそれぞれ用いて得られた、モデル特徴量ベクトルである特徴量ベクトルAとBの量子化値の例を示している。
図4の例においては、ハッシュ関数ベクトルfを用いた場合、特徴量ベクトルAは値0に量子化されている。また、ハッシュ関数ベクトルfを用いた場合、特徴量ベクトルAは値1に量子化されている。ハッシュ関数ベクトルfを用いた場合、特徴量ベクトルAは値1に量子化されている。
同様に、ハッシュ関数ベクトルfを用いた場合、特徴量ベクトルBは値0に量子化されている。ハッシュ関数ベクトルfを用いた場合、特徴量ベクトルBは値0に量子化されている。ハッシュ関数ベクトルfを用いた場合、特徴量ベクトルBは値1に量子化されている。
この場合、クラスタリング部22は、特徴量ベクトルAにより特徴量が表されるモデル特徴点を、それぞれのハッシュ関数ベクトルを用いて算出された量子化値の組み合わせである[0,1,1]をキーとするクラスタに属する特徴点としてクラスタリングする。
また、クラスタリング部22は、特徴量ベクトルBにより特徴量が表されるモデル特徴点を、それぞれのハッシュ関数ベクトルを用いて算出された量子化値の組み合わせである[0,0,1]をキーとするクラスタに属する特徴点としてクラスタリングする。
クラスタリング部22は、特徴量ベクトルAにより特徴量が表されるモデル特徴点のIDと、[0,1,1]を対応付けたインデックス情報を作成する。また、クラスタリング部22は、特徴量ベクトルBにより特徴量が表されるモデル特徴点のIDと、[0,0,1]を対応付けたインデックス情報を作成する。
このように、インデックス作成部13においては、各モデル特徴量ベクトルを対象として、モデル特徴量ベクトルとハッシュ関数ベクトルの内積値が算出され、閾値と比較することによって1と0の二値のうちの一方の値にモデル特徴量ベクトルが量子化される。また、量子化値に基づいてモデル特徴点がクラスタリングされる。
以上のようにして学習装置1により生成されたモデル辞書は認識装置に提供され、局所特徴量を用いた物体認識が行われる。
[認識装置の構成例]
図5は、本発明の一実施形態に係る認識装置の構成例を示すブロック図である。
図5の認識装置2は、局所特徴量を用いた物体認識をLSHによって行う装置である。
認識装置2もコンピュータにより構成される。図5に示す機能部のうちの少なくとも一部は、認識装置2を構成するコンピュータのCPUにより所定のプログラムが実行されることによって実現される。学習装置1と認識装置2が同じコンピュータにより実現されるようにしてもよいし、それぞれ異なるコンピュータにより実現されるようにしてもよい。
図5に示すように、認識装置2は、画像処理部31、特徴量抽出部32、認識部33、ハッシュ関数記憶部34、およびモデル辞書記憶部35から構成される。画像処理部11に対してはクエリ画像が入力される。
画像処理部31は、図1の画像処理部11と同様の処理を行う。すなわち、画像処理部31は、クエリ画像に基づいて初期処理を行う。画像処理部31は、初期処理を行うことによって得られたクエリ画像のデータを特徴量抽出部32と認識部33に出力する。
特徴量抽出部32は、図1の特徴量抽出部12と同様にして、クエリ画像の特徴点を決定し、それぞれの特徴点の特徴量を抽出する。
以下、適宜、クエリ画像の特徴点をクエリ特徴点といい、クエリ特徴点の特徴量を表す特徴量ベクトルをクエリ特徴量ベクトルという。
認識部33は、画像処理部31から供給されたクエリ画像から、ベース点と、単数あるいは複数のサポート点とからなる特徴点セットを複数決定し、特徴点セット同士のマッチングをLSHによって行う。
ベース点は、クエリ画像上に設定された特徴点のうちの基準となる特徴点であり、サポート点は、ベース点以外の特徴点であって、ベース点に従属して決定される特徴点である。認識部33においては、ベース点の位置を基準として、各サポート点の位置を表す情報である幾何情報も生成される。
認識部33は、特徴点セット同士のマッチングの結果に基づいて、例えばクエリ画像に含まれる物体がどのモデル画像に含まれる物体であるのかを認識し、認識結果を出力する。例えば、クエリ特徴点のセットとマッチした最近傍のモデル特徴点のセットの数などに基づいて物体が認識される。
ハッシュ関数記憶部34は、学習装置1のハッシュ関数記憶部14に記憶されているものと同じ複数のLSHのハッシュ関数を記憶する。
モデル辞書記憶部35は、学習装置1から提供されたモデル辞書を記憶する。
図6は、図5の認識部33の構成例を示すブロック図である。
図6に示すように、認識部33は、特徴点セット決定部51、量子化部52、クラスタリング部53、最近傍候補補正部54、類似度算出部55、および出力部56から構成される。画像処理部31から出力されたクエリ画像に初期処理を施して得られたデータは特徴点セット決定部51に入力される。
特徴点セット決定部51は、画像処理部31から供給されたクエリ画像のデータに基づいて、ベース点と、単数あるいは複数のサポート点とからなる特徴点セットを複数決定する。
図7は、特徴点セットの例を示す図である。
例えば図7に示すように、特徴点セット決定部51は、参照円Rを決定し、参照円Rと交差するエッジ画像E上の点を、ベース点b、サポート点s1,s2,s3とする。図7のエッジ画像Eは、クエリ画像に基づいて画像処理部31により生成された画像である。特徴点セット決定部51は、参照円Rの大きさと位置を変えて、ベース点とサポート点から構成されるクエリ特徴点のセットである特徴点セットを複数決定する。特徴点セットを構成するクエリ特徴点の数、およびそれらの位置関係は、参照円Rの位置と大きさが変わることに応じてセット毎に異なるものになる。
また、特徴点セット決定部51は、特徴点セット毎に、ベース点の位置を基準とした、各サポート点の位置を表す情報である幾何情報を生成する。
図8は、幾何情報に含まれる情報の例を示す図である。
図8に示すように、サポート点s1乃至s3のベース点bからの相対的な位置(距離および角度)は、相対距離r1,r2,r3、および、基準軸Iからの相対角度θ1,θ2,θ3で表される。幾何情報には、相対距離r1,r2,r3、および、基準軸Iからの相対角度θ1,θ2,θ3を表す情報が含まれる。
特徴点セット決定部51は、特徴点セットを構成するクエリ特徴点の情報を量子化部52に出力する。また、特徴点セット決定部51は、特徴点セットを構成するクエリ特徴点の情報と幾何情報を最近傍候補補正部54に出力する。なお、以上のような特徴点セットの決定方法については、例えば、特開2008−77625号公報や特開2008−243175号公報に記載されている。
量子化部52は、特徴点セットを構成するクエリ特徴点を特徴点セット決定部51から供給された情報に基づいて特定し、特定したクエリ特徴点の特徴を表すクエリ特徴量ベクトルを図2の量子化部21と同様にして量子化する。特徴量抽出部32から出力されたクエリ特徴量ベクトルの情報は量子化部52に入力されている。
すなわち、量子化部52は、ハッシュ関数記憶部34に記憶されているハッシュ関数をクエリ特徴量ベクトルに適用してハッシュ値を算出する。
量子化部52は、ハッシュ値として算出した内積値と閾値を比較し、クエリ特徴量ベクトルを1と0の二値のうちのいずれかの値に量子化する。例えば、量子化部52は、クエリ特徴量ベクトルとハッシュ関数ベクトルの内積値が閾値としての0以上の場合、クエリ特徴量ベクトルを値1に量子化し、0未満の場合、クエリ特徴量ベクトルを値0に量子化する。
量子化部52は、クエリ特徴量ベクトルの量子化を、ハッシュ関数記憶部34に記憶されているそれぞれのハッシュ関数ベクトルを用いて行う。量子化部52は、それぞれのハッシュ関数ベクトルを用いて得られた量子化値をクラスタリング部53に出力する。
クラスタリング部53は、図2のクラスタリング部22と同様に、量子化部52により得られた量子化値に基づいて、それぞれのクエリ特徴点をクラスタリングする。
例えばクエリ特徴量ベクトルがそれぞれ値0,1,1に量子化された場合、クラスタリング部53は、そのクエリ特徴量ベクトルにより特徴量が表されるクエリ特徴点を、[0,1,1]をキーとするクラスタに属する特徴点としてクラスタリングする。
また、クエリ特徴量ベクトルがそれぞれ値0,0,1に量子化された場合、クラスタリング部53は、そのクエリ特徴量ベクトルにより特徴量が表されるクエリ特徴点を、[0,0,1]をキーとするクラスタに属する特徴点としてクラスタリングする。
クラスタリング部53は、クエリ特徴点が属するクラスタのキーの情報を最近傍候補補正部54に出力する。
最近傍候補補正部54は、クラスタリング部53によるクラスタリングの結果に基づいて、特徴点セットを構成するクエリ特徴点が属するクラスタを特定する。また、最近傍候補補正部54は、クエリ特徴点と同じクラスタに属するモデル特徴点を最近傍候補の特徴点とし、最近傍候補のモデル特徴点の補正を行う。モデル特徴点の補正については後述する。
最近傍候補補正部54は、特徴量抽出部32から供給された、それぞれの特徴点セットを構成するクエリ特徴点の特徴量ベクトルの情報を類似度算出部55に出力する。
また、最近傍候補補正部54は、最近傍候補のモデル特徴点の特徴量ベクトルの情報をモデル辞書記憶部35から読み出し、類似度算出部55に出力する。最近傍候補補正部54から出力される情報には、補正によって追加された最近傍候補のモデル特徴点の特徴量ベクトルの情報も含まれる。
類似度算出部55は、特徴点セット毎に、特徴点セットを構成するクエリ特徴点と、最近傍候補補正部54により特定された最近傍候補のモデル特徴点との特徴量ベクトルの類似度に基づいて、特徴点のセット同士の類似度を算出する。
すなわち、類似度算出部55においては、特徴点セットを構成するベース点と、ベース点の最近傍候補となるモデル特徴点との特徴量ベクトルの類似度、および、特徴点セットを構成するサポート点と、サポート点の最近傍候補となるモデル特徴点との特徴量ベクトルの類似度に基づいて、クエリ特徴点からなる特徴点セットと、それぞれのクエリ特徴点の最近傍候補からなるモデル特徴点のセットとの類似度が算出される。例えば、特徴点同士の特徴量ベクトルの類似度を足し合わせた値が、クエリ特徴点からなる特徴点セットと、最近傍候補からなるモデル特徴点のセットとの類似度として算出される。
類似度算出部55は、類似度が高い順に所定の数の最近傍候補のモデル特徴点のセットを選択し、一般化ハフ変換やoutlier除去処理などの処理を行うことによって、最近傍のモデル特徴点のセットを選択する。類似度算出部55は、最近傍のモデル特徴点のセットの情報を出力部56に出力する。
出力部56は、最近傍のモデル特徴点のセットの数などに基づいて、クエリ画像に含まれる物体がどのモデル画像に含まれる物体であるのかを認識し、認識結果を出力する。
[モデル特徴点の補正について]
図9乃至図13を参照して、最近傍候補補正部54により行われる最近傍候補のモデル特徴点の補正について説明する。最近傍候補のモデル特徴点の補正は、それぞれの特徴点セットを対象にして行われる。
図9は、特徴点セットを構成するクエリ特徴点と、それぞれのクエリ特徴点の最近傍候補となるモデル特徴点の例を示す図である。
図9の左側は、クエリ画像の特徴点であるクエリ特徴点の例を示し、右側は、モデル画像の特徴点であるモデル特徴点の例を示す。図9の左側に示す、ベース点b、サポート点s1およびs2から構成される特徴点セットを対象にして処理を行う場合について説明する。
ベース点b、サポート点s1およびs2は特徴点セット決定部51により決定される。特徴点セット決定部51から供給される幾何情報には、ベース点bの位置を基準とした、サポート点s1の位置を表す情報と、サポート点s2の位置を表す情報が含まれている。ベース点b、サポート点s1およびs2のそれぞれのクエリ特徴点が、どのクラスタに属する特徴点であるのかはクラスタリング部53により決定されている。
この場合、最近傍候補補正部54は、ベース点bと同じクラスタに属するモデル特徴点をモデル辞書記憶部35に記憶されているインデックス情報に基づいて特定し、特定したモデル特徴点を、ベース点bの最近傍候補とする。
また、最近傍候補補正部54は、サポート点s1とs2のそれぞれのクエリ特徴点と同じクラスタに属するモデル特徴点をインデックス情報に基づいて特定し、特定したモデル特徴点を、サポート点s1とs2のそれぞれの最近傍候補とする。
図9の右側に示すモデル特徴点b1とb2はベース点bの最近傍候補である。また、モデル特徴点s1−1,s1−2,s1−3は、それぞれ、サポート点s1の最近傍候補である。モデル特徴点s2−1,s2−2,s2−3は、それぞれ、サポート点s2の最近傍候補である。
以下、適宜、ベース点の最近傍候補のモデル特徴点をベース点候補といい、サポート点の最近傍候補のモデル特徴点をサポート点候補という。
最近傍候補補正部54は、それぞれのサポート点候補に注目し、サポート点候補の位置を基準として、幾何情報により特定されるベース点があるとされる位置に、ベース点候補があるか否かを判定する。
図10は、図9の右側のベース点候補、サポート点候補を示す図である。
はじめに、最近傍候補補正部54は、例えばサポート点候補s1−1に注目する。最近傍候補補正部54は、サポート点候補s1−1の位置を基準として、ベース点bの最近傍候補があるとされる矢印#1の先の位置に、ベース点候補があるか否かを判定する。
図10の例においては、その位置にはベース点候補b2があるものとして判定される。矢印#1の先の位置は、幾何情報により表される、ベース点bとサポート点s1の位置関係に基づいて特定される。この時点で、ベース点候補b2の位置の得票数は1になる。
また、最近傍候補補正部54は、サポート点候補s2−1に注目する。最近傍候補補正部54は、サポート点候補s2−1の位置を基準として、ベース点bの最近傍候補があるとされる矢印#2の先の位置に、ベース点候補があるか否かを判定する。
図10の例においては、その位置にはベース点候補b2があるものとして判定される。矢印#2の先の位置は、幾何情報により表される、ベース点bとサポート点s2の位置関係に基づいて特定される。この時点で、ベース点候補b2の位置の得票数は2になる。
同様に、最近傍候補補正部54は、サポート点候補s1−2に注目する。最近傍候補補正部54は、サポート点候補s1−2の位置を基準として、ベース点bの最近傍候補があるとされる矢印#3の先の位置に、ベース点候補があるか否かを判定する。
図10の例においては、その位置にはベース点候補b1があるものとして判定される。矢印#3の先の位置は、幾何情報により表される、ベース点bとサポート点s1の位置関係に基づいて特定される。この時点で、ベース点候補b1の位置の得票数は1になる。
また、最近傍候補補正部54は、サポート点候補s2−2に注目する。最近傍候補補正部54は、サポート点候補s2−2の位置を基準として、ベース点bの最近傍候補があるとされる矢印#4の先の位置に、ベース点候補があるか否かを判定する。
図10の例においては、その位置にはベース点候補b1があるものとして判定される。矢印#4の先の位置は、幾何情報により表される、ベース点bとサポート点s2の位置関係に基づいて特定される。この時点で、ベース点候補b1の位置の得票数は2になる。
最近傍候補補正部54は、サポート点候補s1−3に注目する。最近傍候補補正部54は、サポート点候補s1−3の位置を基準として、ベース点bの最近傍候補があるとされる矢印#5の先の位置p1に、ベース点候補があるか否かを判定する。
図10の例においては、位置p1にはベース点候補がないものとして判定される。破線の丸印はモデル特徴点がないことを表す。矢印#5の先の位置p1は、幾何情報により表される、ベース点bとサポート点s1の位置関係に基づいて特定される。この時点で、位置p1の得票数は1になる。
また、最近傍候補補正部54は、サポート点候補s2−3に注目する。最近傍候補補正部54は、サポート点候補s2−3の位置を基準として、ベース点bの最近傍候補があるとされる矢印#6の先の位置p1に、ベース点候補があるか否かを判定する。
図10の例においては、位置p1にはベース点候補がないものとして判定される。矢印#6の先の位置p1は、幾何情報により表される、ベース点bとサポート点s2の位置関係に基づいて特定される。この時点で、位置p1の得票数は2になる。
この場合、最近傍候補補正部54は、図11に示すように、サポート点候補s1−3の位置を基準としてベース点の最近傍候補があるとされる位置であり、かつ、サポート点候補s2−3の位置を基準としてベース点の最近傍候補があるとされる位置である位置p1に、ベース点bの最近傍候補であるベース点候補b3を追加する。
すなわち、最近傍候補補正部54は、幾何情報により特定される、ベース点候補があるとされる位置にベース点候補が実際にない場合、その位置に、ベース点候補となるモデル特徴点を追加する。得票数が所定の数以上ある場合(同じ位置にベース点候補があるとするサポート点候補が所定の数以上ある場合)に、ベース点候補となるモデル特徴点が追加されるようにしてもよい。
最近傍候補補正部54は、モデル辞書記憶部35に記憶されているインデックス情報を更新し、新たに追加したベース点候補b3を、ベース点b、ベース点候補b1,b2と同じクラスタに属するモデル特徴点として追加登録する。
また、最近傍候補補正部54は、ベース点候補b3のモデル特徴量ベクトルの情報をモデル辞書記憶部35に記憶させる。ベース点候補b3の特徴量を表すモデル特徴量ベクトルの情報は、例えば、他のベース点候補のモデル特徴量ベクトルの情報に基づく予測によって求められる。
図12は、ベース点候補、サポート点候補の他の例を示す図である。
図12の例においては、ベース点bの最近傍候補としてベース点候補b1,b2,b3があり、サポート点s1の最近傍候補としてサポート点候補s1−1,s1−2,s1−3があるものとされている。
また、サポート点s2の最近傍候補としてサポート点候補s2−2とs2−3があるものとされている。図12の例においては、サポート点候補s2の最近傍候補として、破線で示す位置に図10のサポート点候補s2−1がない。
このような状態で最近傍候補を補正する場合について説明する。
最近傍候補補正部54は、例えばサポート点候補s1−1に注目する。最近傍候補補正部54は、サポート点候補s1−1の位置を基準として、ベース点bの最近傍候補があるとされる矢印#1の先の位置p2に、ベース点候補があるか否かを判定する。
図12の例においては、位置p2にはベース点候補b2があるものとして判定される。この時点で、ベース点候補b2の位置p2の得票数は1になる。
また、最近傍候補補正部54は、サポート点候補s1−2に注目する。最近傍候補補正部54は、サポート点候補s1−2の位置を基準として、ベース点bの最近傍候補があるとされる矢印#3の先の位置に、ベース点候補があるか否かを判定する。
図12の例においては、その位置にはベース点候補b1があるものとして判定される。この時点で、ベース点候補b1の位置の得票数は1になる。
また、最近傍候補補正部54は、サポート点候補s2−2に注目する。最近傍候補補正部54は、サポート点候補s2−2の位置を基準として、ベース点bの最近傍候補があるとされる矢印#4の先の位置に、ベース点候補があるか否かを判定する。
図12の例においては、その位置にはベース点候補b1があるものとして判定される。この時点で、ベース点候補b1の位置の得票数は2になる。
最近傍候補補正部54は、サポート点候補s1−3に注目する。最近傍候補補正部54は、サポート点候補s1−3の位置を基準として、ベース点bの最近傍候補があるとされる矢印#5の先の位置に、ベース点候補があるか否かを判定する。
図12の例においては、その位置にはベース点候補b3があるものとして判定される。この時点で、ベース点候補b3の位置の得票数は1になる。
また、最近傍候補補正部54は、サポート点候補s2−3に注目する。最近傍候補補正部54は、サポート点候補s2−3の位置を基準として、ベース点bの最近傍候補があるとされる矢印#6の先の位置に、ベース点候補があるか否かを判定する。
図12の例においては、その位置にはベース点候補b3があるものとして判定される。この時点で、ベース点候補b3の位置の得票数は2になる。
この場合、最近傍候補補正部54は、図13に示すように、サポート点候補s1−1の位置を基準としてベース点の最近傍候補があるとされる位置ではあるが、他のサポート点候補の位置を基準としてベース点の最近傍候補があるとはされていない位置である位置p2にあるベース点候補b2を削除する。
すなわち、最近傍候補補正部54は、幾何情報により特定される、ベース点候補があるとされる位置にベース点候補が実際にあるが、その位置にベース点候補があるとするサポート点候補の数が所定の数より少ない場合(得票数が少ない場合)、そのベース点候補を削除する。
最近傍候補補正部54は、モデル辞書記憶部35に記憶されているインデックス情報を更新し、ベース点候補b2を、ベース点b、ベース点候補b1,b3と同じクラスタから削除する。
LSHによって各特徴点をクラスタリングする場合、特徴量ベクトルの量子化誤差などにより、ベース点の最近傍であるモデル特徴点が、ベース点のクエリ特徴点と同じクラスタに含まれていない場合がある。ベース点候補のモデル特徴点を以上のようにして追加することによって、そのように、ベース点のクエリ特徴点と同じクラスタから脱落したモデル特徴点をベース点候補として含ませることが可能になる。
また、特徴量ベクトルの量子化誤差などにより、ベース点の最近傍ではないモデル特徴点が、ベース点のクエリ特徴点と同じクラスタに含まれている場合がある。ベース点候補のモデル特徴点を以上のようにして削除することによって、そのように、ベース点のクエリ特徴点と同じクラスタに誤って含まれたモデル特徴点を、ベース点候補から削除することが可能になる。
これにより、LSHを採用した場合であっても、全ての特徴点間の類似度を実際に算出する完全な最近傍探索と較べてマッチングの精度を維持することができる。
[装置の動作]
ここで、図14のフローチャートを参照して、学習装置1の学習処理について説明する。
図14の処理は、モデル画像が学習装置1に入力されたときに開始される。
ステップS1において、画像処理部11は初期処理を行う。
ステップS2において、特徴量抽出部12は、初期処理によって得られたエッジ画像の各点をモデル特徴点として決定する。
ステップS3において、特徴量抽出部12は、それぞれのモデル特徴点の特徴量を抽出し、抽出した特徴量を表すモデル特徴量ベクトルの情報をモデル辞書記憶部15に記憶させる。
ステップS4において、インデックス作成部13によりインデックス作成処理が行われる。インデックス作成処理においては、モデル特徴量ベクトルが量子化され、量子化値に基づいてモデル特徴点がクラスタリングされる。インデックス作成処理が終了した後、処理は終了される。
次に、図15のフローチャートを参照して、図14のステップS4において行われるインデックス作成処理について説明する。
図15の処理は、1つのモデル特徴点の特徴量を表すモデル特徴量ベクトルの情報が特徴量抽出部12から供給される毎に行われる。
ステップS11において、量子化部21は、ハッシュ関数記憶部14に記憶されているハッシュ関数を1つ選択する。
ステップS12において、量子化部21は、モデル特徴量ベクトルと、選択したハッシュ関数ベクトルとの内積値を算出する。
ステップS13において、量子化部21は、算出した内積値が閾値としての0以上である場合、モデル特徴量ベクトルを値1に量子化し、0未満の場合、モデル特徴量ベクトルを値0に量子化する。
ステップS14において、量子化部21は、ハッシュ関数記憶部14に記憶されている全てのハッシュ関数を選択したか否かを判定する。量子化部21は、まだ選択していないハッシュ関数があるとステップS14において判定した場合、ステップS11に戻り、違うハッシュ関数を選択して以上の処理を繰り返す。
一方、全てのハッシュ関数を選択したとステップS14において判定された場合、ステップS15において、クラスタリング部22は、モデル特徴点を、量子化値の組み合わせをキーとするクラスタに属する特徴点としてクラスタリングする。また、クラスタリング部22は、モデル特徴点のIDと、キーを対応付けたインデックス情報を作成し、記憶させる。
以上の処理が、特徴量抽出部12により抽出された全てのモデル特徴点を対象として行われる。その後、図14のステップS4に戻り、それ以降の処理が行われる。
次に、図16のフローチャートを参照して、認識装置2の認識処理について説明する。
図16の処理は、クエリ画像が認識装置2に入力されたときに開始される。
ステップS21において、画像処理部31は初期処理を行う。
ステップS22において、特徴量抽出部32は、初期処理によって得られたエッジ画像の各点をクエリ特徴点として決定する。
ステップS23において、特徴量抽出部32は、それぞれのクエリ特徴点の特徴量を抽出し、抽出した特徴量を表すクエリ特徴量ベクトルの情報を出力する。
ステップS24において、認識部33の特徴点セット決定部51は、図7を参照して説明したようにして、ベース点と、単数あるいは複数のサポート点とからなる特徴点セットを複数決定する。また、特徴点セット決定部51は、特徴点セット毎に、ベース点の位置を基準とした、各サポート点の位置を表す情報である幾何情報を生成する。
ステップS25において、量子化部52およびクラスタリング部53により最近傍候補選択処理が行われる。最近傍候補選択処理においては、クエリ特徴量ベクトルが量子化され、クエリ特徴点がクラスタリングされる。
ステップS26において、最近傍候補補正部54により最近傍候補補正処理が行われる。最近傍候補補正処理により、最近傍候補となるモデル特徴点の追加や削除が行われる。
ステップS27において、類似度算出部55は、特徴点セット毎に、特徴点セットを構成するクエリ特徴点と、最近傍候補のモデル特徴点との特徴量ベクトルの類似度に基づいて、特徴点のセット同士の類似度を算出する。
ステップS28において、類似度算出部55は、類似度が高い順に所定の数の最近傍候補のモデル特徴点のセットを選択し、その中から、最近傍のモデル特徴点のセットを選択する。類似度の最も高い特徴点のセットが、最近傍のモデル特徴点のセットとして選択されるようにしてもよい。
ステップS29において、出力部56は、最近傍のモデル特徴点のセットの数などに基づいて、クエリ画像に含まれる物体がどのモデル画像に含まれる物体であるのかを認識し、認識結果を出力する。その後、処理は終了される。
次に、図17のフローチャートを参照して、図16のステップS25において行われる最近傍候補選択処理について説明する。
図17の処理は、1つのクエリ特徴点の特徴量を表すクエリ特徴量ベクトルの情報が特徴量抽出部32から供給される毎に行われる。
ステップS41において、認識部33の量子化部52は、ハッシュ関数記憶部34に記憶されているハッシュ関数を1つ選択する。
ステップS42において、量子化部52は、クエリ特徴量ベクトルと、選択したハッシュ関数ベクトルとの内積値を算出する。
ステップS43において、量子化部52は、算出した内積値が閾値としての0以上である場合、クエリ特徴量ベクトルを値1に量子化し、0未満の場合、クエリ特徴量ベクトルを値0に量子化する。
ステップS44において、量子化部52は、ハッシュ関数記憶部34に記憶されている全てのハッシュ関数を選択したか否かを判定する。量子化部52は、まだ選択していないハッシュ関数があるとステップS44において判定した場合、ステップS41に戻り、違うハッシュ関数を選択して以上の処理を繰り返す。
一方、全てのハッシュ関数を選択したとステップS44において判定された場合、ステップS45において、クラスタリング部53は、クエリ特徴点を、量子化値の組み合わせをキーとするクラスタに属する特徴点としてクラスタリングする。
以上の処理が、特徴量抽出部32により抽出された全てのクエリ特徴点を対象として行われる。図16のステップS25に戻り、それ以降の処理が行われる。
次に、図18のフローチャートを参照して、図16のステップS26において行われる最近傍候補補正処理について説明する。
図18の処理は、特徴点セット決定部51により決定されたそれぞれの特徴点セットを対象として行われる。
ステップS61において、最近傍候補補正部54は、処理対象の特徴点セットを構成するサポート点の最近傍候補であるサポート点候補のうちの1つのサポート点候補に注目する。
ステップS62において、最近傍候補補正部54は、注目するサポート点候補の位置を基準として、幾何情報により特定されるベース点があるとされる位置に、ベース点候補があるか否かを確認する。最近傍候補補正部54は、確認した位置にベース点候補がある場合、その位置の得票数を1だけ加算する。
ステップS63において、最近傍候補補正部54は、全てのサポート点候補に注目したか否かを判定する。
全てのサポート点候補に注目していないとステップS63において判定した場合、ステップS61に戻り、他のサポート点候補に注目して以上の処理が繰り返される。
一方、全てのサポート点候補に注目したとステップS63において判定した場合、ステップS64において、最近傍候補補正部54は、確認した位置に、ベース点候補が実際にあるか否かを判定する。
ベース点候補が実際にあるとステップS64において判定した場合、ステップS65において、最近傍候補補正部54は、得票数が所定の数より多いか否かを判定する。
得票数が所定の数より少ないとステップS65において判定した場合、ステップS66において、最近傍候補補正部54は、確認した位置にあるベース点候補を削除する。ベース点候補のモデル特徴点が削除された場合、または、ステップS65において得票数が所定の数より多いと判定された場合、図16のステップS26に戻り、それ以降の処理が行われる。
一方、確認した位置にベース点候補がないとステップS64において判定した場合、ステップS67において、最近傍候補補正部54は、得票数が所定の数より多いか否かを判定する。
得票数が所定の数より多いとステップS67において判定した場合、ステップS68において、最近傍候補補正部54は、確認した位置にベース点候補となるモデル特徴点を追加する。ベース点候補となるモデル特徴点が追加された場合、または、ステップS67において得票数が所定の数より少ないと判定された場合、図16のステップS26に戻り、それ以降の処理が行われる。
以上の一連の処理により、物体認識をLSHによって行うことで計算量を減らし、マッチングの高速化が可能になる。また、マッチングの精度を維持することが可能になる。
[コンピュータの構成例]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続される。また、入出力インタフェース105には、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、リムーバブルメディア111を駆動するドライブ110が接続される。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを入出力インタフェース105及びバス104を介してRAM103にロードして実行することにより、上述した一連の処理が行われる。
CPU101が実行するプログラムは、例えばリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部108にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 学習装置, 2 認識装置, 11 画像処理部, 12 特徴量抽出部, 13 インデックス作成部, 14 ハッシュ関数記憶部, 15 モデル辞書記憶部, 21 量子化部, 22 クラスタリング部, 31 画像処理部, 32 特徴量抽出部, 33 認識部, 34 ハッシュ関数記憶部, 35 モデル辞書記憶部, 51 特徴点セット決定部, 52 量子化部, 53 クラスタリング部, 54 最近傍候補補正部, 55 類似度算出部, 56 出力部

Claims (7)

  1. 特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報を記憶する記憶手段と、
    クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量を抽出する抽出手段と、
    基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットを決定し、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報を生成する生成手段と、
    前記クエリ特徴点を、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングするクラスタリング手段と、
    前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かを判定し、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点を補正する補正手段と、
    前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度を各特徴点の特徴量に基づいて算出し、前記第1のセットの最近傍となる前記第2のセットを決定する類似度算出手段と
    を備える認識装置。
  2. 前記補正手段は、前記幾何情報により特定される前記基準点の最近傍候補があるとされる位置に前記基準点の最近傍候補がないと判定した場合、その位置に、前記基準点の最近傍候補となる前記モデル特徴点を追加する
    請求項1に記載の認識装置。
  3. 前記補正手段は、前記幾何情報により特定される前記基準点の最近傍候補があるとされる位置に前記基準点の最近傍候補がないと判定した場合であって、その位置の前記モデル特徴点に従属する前記従属点の最近傍候補の数が所定の数より多いとき、前記基準点の最近傍候補となる前記モデル特徴点を追加する
    請求項2に記載の認識装置。
  4. 前記補正手段は、さらに、前記幾何情報により特定される前記基準点があるとされる位置に前記基準点の最近傍候補があると判定した場合であって、その位置の前記モデル特徴点に従属する前記従属点の最近傍候補の数が所定の数より少ないとき、前記基準点の最近傍候補を削除する
    請求項3に記載の認識装置。
  5. 前記クエリ特徴点の特徴量を表すクエリ特徴量ベクトルと、前記クエリ特徴量ベクトルと次元数が同じベクトルであるLSHのハッシュ関数ベクトルとの内積値が閾値以上であるか否かに応じて、前記クエリ特徴量ベクトルを1と0の二値のうちの一方の値に量子化する量子化手段をさらに備え、
    前記クラスタリング手段は、
    前記クエリ特徴点を、それぞれの前記ハッシュ関数ベクトルを用いて得られた前記クエリ特徴量ベクトルの量子化後の値の組み合わせにより識別されるクラスタに属する特徴点としてクラスタリングする
    請求項1に記載の認識装置。
  6. 特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報を記憶し、
    クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量を抽出し、
    基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットを決定し、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報を生成し、
    前記クエリ特徴点を、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングし、
    前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かを判定し、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点を補正し、
    前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度を各特徴点の特徴量に基づいて算出し、前記第1のセットの最近傍となる前記第2のセットを決定する
    ステップを含む認識方法。
  7. 特徴量に基づいてクラスタリングすることによって決定された、モデルデータの特徴点であるモデル特徴点が属するクラスタの情報と、前記モデル特徴点の特徴量の情報を記憶し、
    クエリとして入力されたデータの特徴点であるクエリ特徴点の特徴量を抽出し、
    基準となる1つの前記クエリ特徴点である基準点と、前記基準点に従属する1つまたは複数の前記クエリ特徴点である従属点とから構成される前記クエリ特徴点の第1のセットを決定し、前記第1のセット毎に、前記基準点の位置を基準とする、それぞれの前記従属点の位置を表す情報である幾何情報を生成し、
    前記クエリ特徴点を、前記モデル特徴点のクラスタリングと同じ手法でクラスタリングし、
    前記基準点と同じクラスタに属する前記モデル特徴点を前記基準点の最近傍候補とするとともに、前記従属点と同じクラスタに属する前記モデル特徴点を前記従属点の最近傍候補とし、それぞれの前記従属点の最近傍候補の位置を基準として、前記幾何情報により特定される前記基準点があるとされる位置に、前記基準点の最近傍候補があるか否かを判定し、判定結果に応じて、前記基準点の最近傍候補となる前記モデル特徴点を補正し、
    前記第1のセットと、補正後の前記基準点の最近傍候補と前記従属点の最近傍候補から構成される第2のセットとの類似度を各特徴点の特徴量に基づいて算出し、前記第1のセットの最近傍となる前記第2のセットを決定する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2010088461A 2010-04-07 2010-04-07 認識装置、認識方法、およびプログラム Withdrawn JP2011221688A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010088461A JP2011221688A (ja) 2010-04-07 2010-04-07 認識装置、認識方法、およびプログラム
US13/046,184 US8270723B2 (en) 2010-04-07 2011-03-11 Recognition device, recognition method, and program
CN2011100834828A CN102214302A (zh) 2010-04-07 2011-03-31 识别装置、识别方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010088461A JP2011221688A (ja) 2010-04-07 2010-04-07 認識装置、認識方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2011221688A true JP2011221688A (ja) 2011-11-04

Family

ID=44745602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010088461A Withdrawn JP2011221688A (ja) 2010-04-07 2010-04-07 認識装置、認識方法、およびプログラム

Country Status (3)

Country Link
US (1) US8270723B2 (ja)
JP (1) JP2011221688A (ja)
CN (1) CN102214302A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013115093A1 (ja) 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
JP2014203289A (ja) * 2013-04-05 2014-10-27 キヤノン株式会社 ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体
US9355317B2 (en) 2011-12-14 2016-05-31 Nec Corporation Video processing system, video processing method, video processing device for mobile terminal or server and control method and control program thereof
JP2017010468A (ja) * 2015-06-25 2017-01-12 Kddi株式会社 撮影画像に写る物体を検索するシステム及び方法
US9792528B2 (en) 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
CN114127843A (zh) * 2019-07-02 2022-03-01 杜比国际公司 用于离散指向性数据的表示、编码和解码的方法、设备和系统

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102724387B (zh) * 2012-05-26 2016-08-03 安科智慧城市技术(中国)有限公司 一种电子稳像的方法及装置
CN102722554B (zh) * 2012-05-28 2014-07-02 中国人民解放军信息工程大学 位置敏感哈希随机性减弱方法
US10540566B2 (en) * 2012-06-29 2020-01-21 Nec Corporation Image processing apparatus, image processing method, and program
CN102915347B (zh) * 2012-09-26 2016-10-12 中国信息安全测评中心 一种分布式数据流聚类方法及系统
CN103390162B (zh) * 2013-07-08 2016-08-10 中国科学院计算技术研究所 一种台标检测方法
CN103336963B (zh) * 2013-07-08 2016-06-08 天脉聚源(北京)传媒科技有限公司 一种图像特征提取的方法及装置
CN103473307B (zh) * 2013-09-10 2016-07-13 浙江大学 跨媒体稀疏哈希索引方法
US9158996B2 (en) * 2013-09-12 2015-10-13 Kabushiki Kaisha Toshiba Learning image collection apparatus, learning apparatus, and target object detection apparatus
US9514753B2 (en) * 2013-11-04 2016-12-06 Google Inc. Speaker identification using hash-based indexing
CN105849776A (zh) * 2013-12-26 2016-08-10 日本电气株式会社 图像处理装置、主题识别方法和程序
US9940100B2 (en) * 2014-08-29 2018-04-10 Adobe Systems Incorporated Shortlist computation for searching high-dimensional spaces
US9852177B1 (en) * 2016-12-13 2017-12-26 Kami Intelligence Ltd System and method for generating automated response to an input query received from a user in a human-machine interaction environment
KR102381373B1 (ko) * 2017-08-16 2022-03-31 삼성전자주식회사 비정형적 분할을 이용한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
CN107729290B (zh) * 2017-09-21 2021-05-11 北京大学深圳研究生院 一种利用局部敏感哈希优化的超大规模图的表示学习方法
JP7210989B2 (ja) * 2018-10-04 2023-01-24 富士電機株式会社 管理サーバ、自動販売機及び装置識別情報付与方法
US11281801B2 (en) * 2019-01-02 2022-03-22 International Business Machines Corporation Decentralized privacy-preserving clinical data evaluation
CN109902193B (zh) * 2019-01-17 2024-03-19 平安科技(深圳)有限公司 小区搜索方法、装置、设备及计算机可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995034884A1 (fr) * 1994-06-13 1995-12-21 Matsushita Electric Industrial Co., Ltd. Analyseur de signaux
KR100781340B1 (ko) 2006-09-18 2007-11-30 삼성전자주식회사 사용자 정의 확장 연산을 처리하는 연산 시스템 및 방법
JP4989308B2 (ja) * 2007-05-16 2012-08-01 キヤノン株式会社 画像処理装置及び画像検索方法
CN101609506B (zh) * 2008-06-20 2012-05-23 索尼株式会社 用于识别图像中的模型对象的装置及方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355317B2 (en) 2011-12-14 2016-05-31 Nec Corporation Video processing system, video processing method, video processing device for mobile terminal or server and control method and control program thereof
WO2013115093A1 (ja) 2012-01-30 2013-08-08 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム
US9418314B2 (en) 2012-01-30 2016-08-16 Nec Corporation Information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
US9792528B2 (en) 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
JP2014203289A (ja) * 2013-04-05 2014-10-27 キヤノン株式会社 ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体
JP2017010468A (ja) * 2015-06-25 2017-01-12 Kddi株式会社 撮影画像に写る物体を検索するシステム及び方法
CN114127843A (zh) * 2019-07-02 2022-03-01 杜比国际公司 用于离散指向性数据的表示、编码和解码的方法、设备和系统
CN114127843B (zh) * 2019-07-02 2023-08-11 杜比国际公司 用于离散指向性数据的表示、编码和解码的方法、设备和系统
US11902769B2 (en) 2019-07-02 2024-02-13 Dolby International Ab Methods, apparatus and systems for representation, encoding, and decoding of discrete directivity data

Also Published As

Publication number Publication date
CN102214302A (zh) 2011-10-12
US20110249899A1 (en) 2011-10-13
US8270723B2 (en) 2012-09-18

Similar Documents

Publication Publication Date Title
JP2011221688A (ja) 認識装置、認識方法、およびプログラム
Shrivastava et al. Asymmetric LSH (ALSH) for sublinear time maximum inner product search (MIPS)
Shen et al. Multilabel prediction via cross-view search
Gao et al. Less is more: Efficient 3-D object retrieval with query view selection
WO2013129580A1 (ja) 近似最近傍探索装置、近似最近傍探索方法およびそのプログラム
GB2516037A (en) Compact and robust signature for large scale visual search, retrieval and classification
JP5193518B2 (ja) パターン探索装置及びその方法
JP2011221689A (ja) 学習装置、学習方法、認識装置、認識方法、およびプログラム
Zhang et al. Dynamic time warping under product quantization, with applications to time-series data similarity search
JPWO2014118978A1 (ja) 学習方法、情報処理装置および学習プログラム
CN115618096A (zh) 内积检索方法和电子设备
An et al. Multi-level common space learning for person re-identification
Chen et al. Multiple-instance ranking based deep hashing for multi-label image retrieval
Zhang et al. Graph convolution based efficient re-ranking for visual retrieval
JP6621206B2 (ja) 確率モデルに基づく階層的なコードブックを用いて量子化するプログラム、装置及び方法
Zhao et al. Binary multi-view sparse subspace clustering
WO2012077818A1 (ja) ハッシュ関数の変換行列を定める方法、該ハッシュ関数を利用するハッシュ型近似最近傍探索方法、その装置及びそのコンピュータプログラム
Xu et al. Fast nearest subspace search via random angular hashing
Nikseresht et al. Gossip-based computation of a Gaussian mixture model for distributed multimedia indexing
JP6195365B2 (ja) ベクトル符号化プログラム、装置及び方法
Choe et al. Deep feature learning with mixed distance maximization for person re-identification
Kimothi et al. Metric learning on biological sequence embeddings
Hua et al. Cross-modal correlation learning with deep convolutional architecture
Anowar et al. Incremental Learning with Self-labeling of Incoming High-dimensional Data.
Hocke et al. Global metric learning by gradient descent

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130702