JP2006252162A - パターン認識装置及びその方法 - Google Patents

パターン認識装置及びその方法 Download PDF

Info

Publication number
JP2006252162A
JP2006252162A JP2005067500A JP2005067500A JP2006252162A JP 2006252162 A JP2006252162 A JP 2006252162A JP 2005067500 A JP2005067500 A JP 2005067500A JP 2005067500 A JP2005067500 A JP 2005067500A JP 2006252162 A JP2006252162 A JP 2006252162A
Authority
JP
Japan
Prior art keywords
recognition
pattern
feature points
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005067500A
Other languages
English (en)
Other versions
JP4284288B2 (ja
Inventor
Osamu Yamaguchi
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005067500A priority Critical patent/JP4284288B2/ja
Priority to US11/371,655 priority patent/US7660465B2/en
Publication of JP2006252162A publication Critical patent/JP2006252162A/ja
Application granted granted Critical
Publication of JP4284288B2 publication Critical patent/JP4284288B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Abstract

【課題】複雑な背景の中から目的の認識対象物を認識するために、認識対象物の部分パターンの組み合わせによって認識する方法を実現する。
【解決手段】認識対象物が撮影された画像と、テーブルに予め登録したモデルとを比較して、前記認識対象物の認識を行うパターン認識装置であって、パターン認識装置は、画像入力部1、特徴点抽出部2、三角形分割生成部3、特徴点選択部4、基底計算部5、部分パターン構成部6、インデックス計算部7、テーブル登録部8、パターン類似度計算部9、仮説情報生成部10及び物体認識部11から構成され、前記認識対象物の画像中から複数の特徴点を抽出し、特徴点集合の三角形分割を求め、抽出された三角形分割に従って、複数の特徴点の中から複数の特徴点の組み合わせを選択する。
【選択図】 図1

Description

本発明は、パターン認識装置及びその方法に関する。
画像から特定の物体の位置、姿勢、形状を検出、認識する技術は、コンピュータビジョンの中で重要な技術である。従来法として、画像中から登録されている物体を認識するためのパターン認識方法として特許文献1に開示された方法がある。
特許文献1のパターン認識方法は、部分的な隠れに対応するために、下記の性質をもつものである。
第1の性質は、部分的な情報の登録とモデルの多重記述を行う。
第2の性質は、姿勢を規定しないための不変量に基づいたモデルの記述を行う。
第3の性質は、ノイズに強い検出が可能といった性質をもつ。
このパターン認識方法は、高速な部分テンプレートの検索のためにハッシュテーブルを用いた部分画像の分散モデル表現を行い、高速かつ正しい精度のよい物体認識、物体抽出を行うことを目的としている。
部分的な情報の登録と検索のために、n個の画像特徴点の全てに対して、3点の組み合わせを行い、その3点の組み合わせによって得られた基底ベクトルに沿った部分パターンを切り出している。
特開2003−242509公報
しかしながら、上記のパターン認識方法では、特徴点3点の組み合わせ数のオーダーはO(n)となり、特徴点数が増加すると、多くの時間と登録のための大量のメモリを必要とすることが問題点がある。
図9の左図は、その特徴点3点の組み合わせ数と特徴点数をグラフにしたものであり、200点の特徴点数で、その組合せ数は、8,000,000個に達する。
高速化の観点から、特許文献1では、下記の2つの方法が示されている。
第1の方法は、ランダムハフ変換で採用されているように、特徴点をランダムに選択し、投票数を削減することと同様な手法をとる。
第2の方法は、基底情報を構成するベクトルの長さ、角度、などに対する、いろいろな制約や制限を利用する。
しかしながら、特徴点の数が多くなった状況において、第1の方法では、十分な精度を得るためには、相当数の投票が必要である。また、第2の方法では、制限によって、特定の方向の物体が検出できなくなるなどの問題点がある。さらに、これらの高速化方法では、登録時の組み合わせ数を削減することは本質的ではなく十分ではない。
本発明は、認識対象物が撮影された画像と、予め登録したモデルとを比較して、前記認識対象物の認識を行うパターン認識装置であって、前記認識対象物が撮影された画像を入力する画像入力手段と、前記画像中から複数の特徴点を抽出する特徴点抽出手段と、前記複数の特徴点の全てを周上、または、内部領域に包含する凸多角形を形成し、当該凸多角形の頂点、または、前記複数の特徴点を頂点とする複数の三角形の領域に分割する三角形分割生成部と、前記各三角形の各頂点にある特徴点の組み合わせを複数選択する特徴点選択手段と、前記複数選択された3点の特徴点の組み合わせから、これら特徴点の位置や位置関係を表す基底をそれぞれ計算する基底計算手段と、前記各基底に対応する前記認識対象物の部分パターンを前記画像からそれぞれ抽出する部分パターン抽出手段と、幾何学的変換に関して不変なパラメータを少なくとも含むインデックスパラメータに基づいて分割された複数の登録場所から構成され、かつ、前記モデルの部分パターンが、その部分パターンに関するインデックスパラメータに対応した登録場所に登録されたテーブルを記憶するテーブル記憶手段と、前記認識対象物の部分パターンに対応するインデックスパラメータに基づいて、前記テーブルの登録場所を決定するインデックス検索手段と、前記テーブルの登録場所に登録された前記モデルの部分パターンと、前記認識対象物の部分パターンの類似度とを判定するパターン類似度計算手段と、を有することを特徴とするパターン認識装置である。
本発明は、メモリの効率化と検索の高速化を行うことができる。これは、オクルージョンに強いなどの従来の性質を保ったまま、効率的なモデル探索が行われ、高速な検索への適用が可能となる。
本発明の実施形態の考え方について説明する。
物体認識の観点から、ある1つの物体の構成要素が離れた場所に現れることはないため、特徴点の組み合わせは、比較的近傍にある点にのみ制限してもよい。また、同じ特徴点集合に対しては、同じ組み合わせを生成できることが望ましい。
特徴点集合に対して、その近傍点の近傍領域毎に分割するボロノイ分割を考えると、ある特徴点の近傍領域には同じ物体が存在する確率が高い。
そこで、その双対グラフであるドロネー三角形分割を考える。このドロネー三角形分割では、比較的隣接した特徴点による三角形が構成される。しかも、ドロネー三角形分割による三角形は鈍角をもつものが少なくなるように構成されることが知られている。
そこで、本発明の実施形態では、ある特徴点集合に対して、ドロネー三角形分割を考え、その三角形に従った3点の選択を行うことで、組み合わせ数を削減し、かつ、幾何学的な周辺情報を反映した特徴点選択を可能とした。
以下、この考え方に基づいて本発明の各実施形態を図面に基づいて説明する。
[第1の実施形態]
以下、本発明の第1の実施形態のパターン認識装置について図面に基づいて説明する。
本実施形態は、ある画像中から対象とする物体の位置と姿勢を検出する方法である。認識対象物とする物体はどのようなものでも構わないが、本実施形態では、図2のような箱の物体を、検出する例を説明に用いる。
本実施形態では、この箱の任意の位置と任意の姿勢を写した画像を一つのモデルとして、様々な位置や姿勢の箱に関する画像を複数のモデルとして登録する。
そして、同じ箱が撮影された検出対象画像について、どのモデルと類似しているかを判断して、その検出対象画像に撮影された箱の位置と姿勢を認識するものである。
そこで、以下の説明では「モデルの登録」と「投票によるモデルの検出と識別」の2つのフェーズに分けて説明する。
(1)パターン認識装置の構成
図1は、本実施形態のパターン認識装置の構成図である。
図1に示すように、パターン認識装置は、画像入力部1、特徴点抽出部2、三角形分割生成部3、特徴点選択部4、基底計算部5、部分パターン構成部6、インデックス計算部7、テーブル登録部8、パターン類似度計算部9、仮説情報生成部10及び物体認識部11から構成される。
このうち画像入力部1は、CCDカメラ、スキャナ、または、ディスク上、または、インターネット上に存在する画像ファイルを入力とする装置、などによって構成され、その他の特徴点抽出部2、三角形分割生成部3、特徴点選択部4、基底計算部5、部分パターン構成部6、インデックス計算部7、テーブル登録部8、パターン類似度計算部9、仮説情報生成部10及び物体認識部11の各機能は、パソコンなどのコンピュータに記憶されているプログラムによって実現される。
(2)モデルの登録
認識対象物のモデルの登録方法について図1、図3、図4を用いて説明する。
(2−1)モデル登録の処理の流れ
処理の流れを図3のフローチャートに基づいて説明する。
(2−1−1)画像入力部1
まず、図1の画像入力部1において、認識対象物を含む画像を入力する(図3のステップ301)。
(2−1−2)特徴点抽出部2
次に、特徴点抽出部2において、その画像に対して、特徴点の検出を行う(図3のステップ302)。
この特徴点の検出の手法としては、角点(コーナー)を検出するHarrisのディテクタ〔非特許文献1参照:C.J.Harris and M.Stephens,A combined corner and edge Detector.InProc.4th Alvey Vision Conference,Manchester,pages 147-151,1988.〕によるものでよい。また、非特許文献2〔福井 和広、山口 修:“ 形状情報とパターン照合の組合せによる顔特徴点抽出”,信学論(D-II),vol.J80-D-II No.8(1997)〕で提案している分離度フィルタのようなものを用いてもよく、用途や認識対象物に合わせて方法を選択すればよい。
(2−1−3)三角形分割生成部3
次に、三角形分割生成部3において、特徴点集合に対する三角形分割を求める。ここで三角形分割の方法として、図9の右図のような、ドロネー三角形分割を用いる(図3のステップ303)。そこで分割された際に生成される三角形にしたがって、つぎの特徴点選択部4にて3点を選ぶ。
三角形分割生成部3が、どのようにしてドロネー三角形分割するかについて説明する。
モデル、または、認識対象物が写っている画面上に凸多角形を形成する。この凸多角形は、次の条件を満たすように形成される。
まず、モデルに凸多角形を形成する場合は、図2に示すようにこのモデルが含まれるようにするために、モデルを写した画像の特徴点を頂点として凸多角形を形成する。そして、検出された特徴点の全てが、凸多角形の内部か周上にあるようにする。なお、モデルが白い球のように特徴点を検出できない可能性がある物もある。そのときは、強制的に仮の特徴点(例えば、画像の四隅部)を頂点として凸多角形を形成する。
また、認識対象物に凸多角形を形成する場合は、図10に示すように認識対象物を写した画像の特徴点、または、それ以外の仮の特徴点(例えば、画像の四隅部)を頂点として凸多角形を形成する。そして、検出された特徴点の全てが、凸多角形の内部か周上にあるようにする。
ドロネー三角形分割では、この凸多角形内部のすべての特徴点に対し、複数の三角形を求めるが、それぞれの三角形の外接円が他の特徴点を含まないように、三角形が分割される。
そして、このように形成された凸多角形の頂点または前記複数の特徴点を頂点とする複数の三角形の領域に分割する。
(2−1−4)特徴点選択部4
特徴点選択部4において、モデル、または、認識対象物を含む部分の特徴点を選択する。ここでは、特徴点の中から、生成された三角形の頂点の3つの点の組み合わせを求める(図3のステップ304)。
(2−1−5)それ以降の処理
そして、その組み合わせ毎に部分パターンの登録を行う。それぞれの3点の組み合わせから、基底計算部5にて、2つのベクトルを決定し、それに基づいた基底情報を用いて、部分パターン構成部6において、周辺の領域の部分濃淡パターンを切り出す(図3のステップ306)。
それぞれの切り出された部分濃淡パターンは、インデックス計算部6において、ハッシュ関数によって登録場所が計算され(図3のステップ307)、テーブル登録部7が管理するハッシュテーブルに登録される(図3のステップ308)。
これを繰り返し、全ての組み合わせが求まった時点で一つのモデルの登録が終了する(図3のステップ305)。複数のモデルを登録する場合には、上記処理を繰り返す。
(2−2)モデル登録の具体例
モデル対象である箱が撮影された図4−401の画像をモデル登録する場合について説明する。
モデル対象である箱の特徴点を検出した結果を図4−402に示す。これらの特徴点に対して、図4−403のようにドロネー三角形分割を求める。
次に、生成された三角形のそれぞれの頂点の3点の組み合わせを全て求める。この選択した3点の特徴点の組み合わせを特徴点グループという。
図4−404は、これら特徴点グループの中から1つの特徴点グループを図示したもので、その3点の特徴点から2つの基準ベクトルを求める。図4−405は、2つの基準ベクトルで張られる基底を示したもので、2つの基準ベクトルのそれぞれの長さL1、L2とその間の角度θを計算しておく。
なお、「基底」とは、いくつかの基準ベクトルから、座標系を構成するもので、原点と座標軸の情報をもつものである。ここでは、2つの基準ベクトルの始点を原点とし、各基準ベクトルの方向を座標軸の方向とする。
そして、特徴点グループの定義として、特徴点F1、F2、F3でグループを形成する場合に、特徴点F1を原点したものと、特徴点F2を原点としたものとでは異なるグループを形成するものとする。すなわち、1つの三角形に対しては、6通りの基底の取り方が存在する。
次に、その基底に対して、その原点と2つの基準ベクトルの周辺の画像パターンを切り出す(図4−406)。切り出しを行う場合、2つの基準ベクトルが張る基底の座標系を直交座標系に変換して画像パターンを切り出す。
この画像を切り出すために、2つの基準ベクトルが張る基底の座標系を直交座標系に変換する。すなわち、基準ベクトルのなす角度は直角に、2つの基準ベクトルの長さは同じになるように、画像全体を変形させる。
その後、基底の原点を中心とした、予め決められた範囲の濃淡画像(m×nピクセルの画像)を部分パターンとして切り出す。
切り出された濃淡画像は、各種の幾何学的変換に対して不変な形式となる。このように濃淡画像に対して予め座標変換を行って登録、検索することで、後のパターン同士の比較の際に、濃淡画像に対する幾何学的変換を行うことなく類似性を判断することが可能となる。
図4−407が、切り出された部分濃淡画像を表しており、本実施形態では、正方形の濃淡画像を表している。
切り出された部分画像は、基準ベクトルの長さ、方向によっては、歪んだ見え方になる場合がある。
図4−408は、同様に別の3点の組み合わせから、基底の構成と部分パターンの切り出しを行ったものである。
それぞれの切り出された部分パターンは、ハッシュ関数によって計算されたテーブル(以下、ハッシュテーブルという)の所定の登録場所に登録する。この登録内容は、部分濃淡画像に加え、着目点の種類や、認識対象物全体における部分パターンの相対的な位置情報などを同時に含んでもよい。これについては後述する。
(2−3)ハッシュテーブルへの登録
本実施形態では、ハッシュ関数の持つ性質として、与えた基底に対して、平行移動、回転、拡大縮小変換に対しての不変性を利用する。ある同じ条件の基底を持つものは、これらの変換を施したとしても、同じ返り値を返す関数を定義する。
ここで、基底を構成する2つの基準ベクトル間の角度と2つのベクトルの長さの比については、平行移動、回転、拡大、縮小といった幾何学的変換に対して不変であるため、この不変性を用いたハッシュ関数の構成を考える。すなわち、2つの基準ベクトル間の角度と2つのベクトルの長さの比を、幾何学的変換に関して不変なパラメータ(以下、インデックスパラメータという)として、ハッシュテーブルの登録場所を決定する。
ハッシュ関数Hは、以下のように3点の特徴点p1,p2,p3を引数として与え、インデックスパラメータである長さの比Raxsと角度θaxsを求めた後、量子化し、ハッシュテーブルの位置を返す。ここで、p1、p2、p3の各位置は、絶対座標系の原点を基準にして表されている。また、基底における原点は、特徴点p1とする。
Figure 2006252162
図4−409は、2次元的にハッシュテーブルを表しており、縦軸は2つの基準ベクトルの長さの比Raxs、横軸は2つの基準ベクトルのなす角度θaxsを表すものとする。
ここで、各基底毎に求まった2つのベクトルの間の角度θaxs、長さの比Raxsを求め、その値が示すハッシュテーブルの位置に、切り出した部分濃淡パターンなどを登録する。
なお、これらのθaxs、Raxsについては、誤差も考慮して、適当な量子化を行ってよい。
各ハッシュテーブル上の(登録される)実体は、次のように表現する。なお、この形式、種類に限定されるものではない。
Figure 2006252162
「Axs」は、3つの特徴点に基づいた座標系情報を表す。具体的には3点の座標位置、2つの基底ベクトルの情報などを含む。
「Label」は、各特徴点がどの検出点であるかなどの情報を記述する。
「Inv」は、変換に対する不変量であり、先に示したθaxs、Raxsなどが含まれる。
「Rel」は、モデルを囲む矩形の領域Gpを表現した点集合を相対的に表現したもので、検出結果の場所を示すためや再度その領域を抽出することなどに利用される。具体例としては、図5−505のような矩形の領域Gpを表すための頂点集合の4点を、図5−506のように変換した平行四辺形の4点の座標位置で記述する。
「SPat」は、特徴点に囲まれた局所画像であり、切り出した部分濃淡パターンを示す。
「GPat」は、大域画像を利用したもので、例えば、図2(a)に示したような、箱全体の画像を利用し、画像のマッチング結果を利用する。
「FeaPnt」は、画像特徴点とは異なる着目点列の情報を記述する。ここでの着目点とは、物体上の特徴的な点位置を表すもので、例えば、図5−501の例では、画像特徴点(図中の十字印)としては、箱の角の点が検出されていない。そこで、図5−501のように、着目点(図中の白丸印)の点を予め登録しておいて、後で述べる相対的な位置情報として、箱の角の位置を着目点位置として記憶する。これは、認識時に着目点位置から、物体の特徴的な場所の情報を推定するために利用される。それぞれの組み合わせ全てに対して同様の処理を行い、モデルを登録する。
図5は、各種のデータについて図示したものである。
図5−501は箱を含む画像である。着目点(FeaPnt)としては、6つの点(箱の角)が選択されている。
図5−502は、特徴点(画像中の十字印)の3点から張られる基底を表し、その基底ベクトル間の角度、ベクトルの長さ比は、ハッシュテーブルのインデックスとして利用する。
図5−503は、その3点から張られる基底により、切り取られる周辺の濃淡パターン(LPat)を表す。
これに加え同時に図5−504のように、箱の領域全体の濃淡パターン(GPat)も切り出しておく。
さらに、その基底情報によって生成される座標系によって、全体の領域を表す矩形を図5−505から図5−506のように表現を替え、各頂点の相対的な座標Relを計算しておく。これは、検出された場合に相対的な全体領域の位置がどのようになるかを求めるために利用する。
モデルの登録時には、部分パターン(図5−503)だけを登録するのではなく、全体パターン(図5−504)と図5−506で示した全体領域の相対座標位置も追加する。
これは認識時には、同様に、部分パターンを切り出すが、それと同時に全体領域の切り出しを行うことも必要となる。選択された基底情報に対して、全体領域の相対座標位置を計算し、実際の画像上の座標位置をもとめ、その領域の濃淡パターンを全体パターン候補として利用する。
全体パターンの利用法としては、モデルの検索の際に、部分パターン同士の類似度に加え、全体パターン同士の類似度計算の結果を利用することが挙げられる。
これまで1枚の画像に対しての処理を述べたが、同じ認識対象物で撮影条件が異なる別の画像を用いて、同様に登録を行うことで、様々な環境で撮影された認識対象物の認識が可能となる。
ハッシングアルゴリズムにおいては、登録を逐次行っていった場合、ある3点の組み合わせにより同じハッシュ関数の値を持つ場合、その部分パターンが同じ場所に登録されてしまうことになる。そのためハッシュテーブルの各位置には、複数の候補パターンをリスト構造としてつなげて複数個持てるようにしておく。
(3)投票によるモデルの検出と識別
次に、画像中から認識対象物を検出する方法について説明する。
認識対象物の検出アルゴリズムをわかりやすく説明するために、ハッシュテーブルを用いたモデルの選択、仮説の生成と、仮説の統合、検証による認識とに分けて説明する。
(3−1)ハッシュテーブルを用いたモデルの選択
(3−1−1)モデルの選択処理の説明
ハッシュテーブルを用いたモデルの選択の処理の流れについて図6に基づいて説明する。
まず、認識対象物とする画像を、図1の画像入力部1に画像を読み込む(図6のステップ601)。
次に、特徴点抽出部2において、認識対象物とする画像に対して特徴点の抽出を行う(図6のステップ602)。
次に、検出された特徴点から、三角形分割生成部3において、検出された特徴点のドロネー三角形分割を求める(図6のステップ603)。
次に、生成された三角形の各頂点に対して、特徴点選択部4において、検出された特徴点の組合わせを選び(図6のステップ604)、組み合わせが全て選ばれるまで(図6のステップ605)、逐次行われる。
各組み合わせに対して、基底計算部5にて基底を計算する(図6のステップ606)。
そして、その基底におけるハッシュ関数のインデックスパラメータをインデックス計算部7にて計算する(図6のステップ607)。
テーブル登録部8において、そのインデックスパラメータに対応するハッシュテーブルの登録場所を検索する(図6のステップ608)。
これは、登録パターンが存在するかどうかにより判断が分かれる(図6のステップ609)。
登録パターンが存在する場合は、部分パターン構成部6で、周辺の部分パターンを切り出し、登録パターンと部分パターンとの類似度をパターン類似度計算部9において計算して比較する。なお、パターン同士の類似度の計算法については、一般の濃淡パターンに対する類似度の計算法、例えば、正規化相関、SSD、単純類似度などでもよい。このパターン同士の類似度計算の方法については問わない。
登録パターンが存在しない場合は、モデルが存在しないため、類似度の計算は行われない(図6のステップ609)。
モデルの選択が行われた後、3点の組み合わせによる周辺領域の部分パターンが類似している場合、検出したい対象領域の一部である可能性を持っていることから、仮説情報生成部10において、検出対象領域の仮説情報を生成する。これを全ての検出された特徴点の組み合わせについて行い、仮説情報の生成処理を繰り返す。これについては、後述する。
(3−1−2)モデルの選択処理の具体例
これまでの手順を図7を用いて具体的に説明する。
本処理の目的は、入力した画像に基づいて、先に説明したモデル登録で登録を行った箱の位置、姿勢の検出を行うことである。
図7−701が、認識対象物である箱が撮影された入力画像である。この画像からモデル登録と同様に特徴点検出を行う(図7−702)。
そして、その特徴点集合に対してドロネー三角形分割を求める(図7−703)。
次に、特徴点の中からモデル登録と同様に三角形分割にしたがって3点を選択する。
その3点に基づいて作成した基底情報により、周辺の領域の濃淡パターンを切り出す(図7−704)。
次に、基底情報の不変量に対応するハッシュテーブル(図7−705)の場所を検索する。
登録パターンが存在し、かつ、類似度が設定した閾値を超えた場合、仮説が生成される。
図7−706のように、適合するパターンがあった場合、それぞれの仮説が生成される。
(3−2)仮説情報の生成
仮説情報の内容としては、特徴点の場所の情報、位置や大きさの情報、濃淡パターン情報、モデルパターンとの類似度などの情報を含む。一例として仮説Hを次の5つ組で定義する。なお、仮説情報の定義はこれに限らない。
Figure 2006252162
「TRel」は、選択した3点の特徴点にしたがって、相対的な位置情報であるRelを変換した位置情報であり、画像中での認識対象物の存在領域を表している。
「Psim」は、モデルとして登録されている濃淡パターンと選択された部分パターンとの類似度を表す。
「Gsim」はTRelに対応する矩形から切り出された全体パターンと、登録されている全体パターンとの類似度を表す。
「TFeaPnt」は、相対的な着目点の位置情報を表すもので、詳細は第3の実施形態で述べる。
なお、検出時に選択された3点から決定されるパターン情報をハッシュテーブルに記述されているものと同様に次のRmのように表す。
Figure 2006252162
また、同じハッシュ関数の値を持つ部分に存在する部分モデルを
Figure 2006252162
とする。
すなわち、検索の結果で同じ場所にあるため、Invx=Invmが成立している。仮説情報を生成するためには、以下のような4つの関数によってそれぞれの要素が計算される。
Figure 2006252162
「FuncGeom」は、選択された基底に基づいて物体の存在位置を計算する関数である。具体的には、以下の式で計算される。ここで(.,.)は座標を表す。
「FuncFea」は、入力画像上での着目点の位置TFeaPntを計算する関数である。FuncFeaについては、第3の実施形態で説明する。
Figure 2006252162
となる。
「FuncSim」は、濃淡パターン同士の類似度を計算する関数である。パターン同士の類似度を求める方法には、前述したように様々なものがあるが、例えば、単純類似度の場合は以下の式で計算される。
Figure 2006252162
各ハッシュテーブルに登録されている部分モデルの内容に基づき、それぞれの仮説の内容を計算する。なお、類似度値は低いものについても、全て仮説情報を生成するという使い方でもよい。
各仮説情報は、検出対象領域の一部であるという情報をもっているため、これらの情報を統合することによって物体の認識が行える。
(3−3)仮説情報の統合、検証による認識
部分パターンの類似度を用いて、検出対象領域の一部であるという仮説情報を前述のように生成し、全ての仮説情報を仮説空間に投票し、結果を統合する。これは、物体認識部11において処理される。
本実施形態では、モデルの登録時に設定した着目点の場所を特定できるような検出方法について説明を行う。
(3−3−1)仮説投票処理の具体例
仮説情報を投票するための仮説空間は、物体認識部11に含まれる仮説統合部で管理される。図7−707は、仮説空間を図的に表したものである。図7−708は、仮説空間は、それぞれの検出される物体の姿勢、位置、などに対応したそれぞれの仮説投票箱により構成される。
図7−704に示した3点が選ばれた場合の仮説に対し、それぞれがもつ、部分パターンLPat、全体パターンGPatとテーブルに登録されているパターンとのパターンマッチングの類似度Psim,Gsimを計算する。その双方、もしくは条件的に片方のみが設定した閾値を超えたもののみを投票する仮説として扱う。
図7−706では、3つの部分パターンが検索されているが、2つのみがパターンの閾値を超えたとして、その対応する仮説投票箱に、パターンの類似度値だけ投票を行う。ここでは、Gsimの示す類似度値を加算することとする。全ての組み合わせに関する全ての仮説情報に対して、投票を行う。
次に、投票値の多かったものを組み合わせから、順に得票値の高いものを各特徴点の検出結果として、その座標値を出力する(図7−709)。
これについては、ある閾値を設定し、その設定値以上の得票値を得たもののみを出力するなどの処理を行って良い。このとき全体のパターンの位置がどこにあるのかを計算し、出力としてよい(図7−710)。この場合は、物体の存在位置を示すTRelの情報を組み合わせた結果とすればよい。
(3−3−2)仮説投票処理の説明
図8は、仮説統合部の処理フローチャートを示す。
図8のステップ801で、一つの仮説情報を受け取ると、その仮説情報で計算されるTRelの位置に対応する仮説投票箱があるかどうかを調べる(図8のステップ802)。同じものがある場合は、その仮説投票箱の投票値に先に求めた類似度を加算し、投票値を更新する(図8のステップ803)。同じものがない場合は、結果となる座標が異なるため、別の仮説投票箱を用意し(図8のステップ804)、類似度を加算して更新を開始する。全ての仮説情報の投票が終了したかどうかを判定し(図8のステップ805)、終了していなければ、仮説情報の投票を繰り返す。
終了した場合、それぞれの仮説投票箱の投票値の中から、得票値の高いものを出力し、検出結果とする(図8のステップ806)。また、登録された物体に識別ラベルをつけておくことにより、検出された物体がなにであるかを求めることもできる。
[第2の実施形態]
第2の実施形態について説明する。
ドロネー三角形分割を用いることで、組み合わせ数の削減を行うことができるが、大きさが異なるような対象を複数検出する場合にはドロネー三角形分割の性質から近傍の三角形のみを生成するだけである。さらに精度を向上させるために、様々なスケールの三角形を生成することを考える。ここでは、複数の特徴点集合を作り、それらの作り方を変えることにより、様々なスケールの三角形分割を生成する。
(1)第1の方法
様々なスケールの三角形分割を生成する第1の方法について説明する。
まず、特徴点抽出部2により特徴点検出を行い、特徴点集合を作成する。各特徴点には、その特徴点抽出部2による評価値のようなものが存在する。例えば、特許文献1のHarrisのコーナーディテクタの場合、そのコーナーの度合いを表す値や、特許文献2の分離度フィルタの場合には、その分離度を評価値とする。その評価値については、Labelに記載することとする。
次に、その評価値に対して、複数のいくつかの閾値を設定する。分離度の場合を例にとると、分離度の取りうる値は、0.00〜1.00であるため、閾値を、0.33ずつに刻むとすると、0.66,0.33,0.00と3段階の閾値ができる。
これを先ほど求めた特徴点集合に対して、閾値以上のもののみを含む部分特徴点集合を作成する。このとき、閾値の高い方から順に、特徴点数の少ない部分特徴点集合ができる。この閾値を適宜変えることに包含関係をもつ3段階の特徴点集合ができる。この3つの特徴点集合それぞれに対してドロネー三角形分割を求めると、大きさの異なる三角形の集合が作成されることとなる。
このように多段階に生成された特徴点3点の集合を全て投票することにより、より安定した認識を行うことができる。全ての段階の全ての三角形の組み合わせの投票を行った後、統合処理を行ってもよいが、その各段階毎に統合処理を行ってもよい。
または、ある段階で行った後、候補領域となりうる場所に対して、さらに別の段階の処理を行うというCoarse−to−fineの処理を行っても良い。
(2)第2の方法
様々なスケールの三角形分割を生成する第2の方法について説明する。
第2の方法としては、特徴点検出のパラメータを変化させることで、多段階の三角形分割を作成できる。
図10では、Harrisのコーナーディテクタのパラメータを変化させることによって得られた4段階の特徴点集合の例を示す。顔画像に対して特徴点検出処理を行ったもので、下段が特徴点の検出結果を表し、上段にそれぞれのドロネー三角形分割の結果を示す。パラメータの変更により、大きさの異なる三角形ができていることがわかる。
この後の処理については、第1の方法と同様である。
[第3の実施形態]
第1、第2の実施形態の認識結果は、物体の位置、姿勢だけであったが、認識された物体の着目点の場所を求める方法について説明する。物体認識部11に対して、次の機能を持つ着目点推定部を追加する。
例えば、着目点としては、図5−501を用いて説明すると、箱の角部であり、白丸印で示した点である。
(1)着目点推定部の動作
この着目点推定部の動作について説明する。
(1−1)モデルの着目点の登録
まず、モデルの着目点を登録する。モデルの着目点は、モデル登録の際に、特徴点とは異なる点として、FeaPntに登録する。例えば、図5−501の例では、箱をモデルとして登録する場合に、画像の特徴点(図中の十字印)とは異なる箱の角の点が着目点(図中の白丸印)として登録される。
このFeaPntは、画像全体の矩形に対して、相対的な位置情報をそれぞれの点に対して保持する。図11−1102のような、ローカルな座標系を用いて、それぞれの点を記述する。ここで、(px1,px1)(px2,px2)・・・がローカルな座標系におけるモデルの着目点の座標位置である。このローカルな座標系は全体の矩形に対して定義され、矩形の下の辺に対する座標をx軸、矩形の左側の辺に対する座標をy軸として、その位置が記述される。
Figure 2006252162
(1−2)認識対象物の着目点の認識
次に認識対象物の着目点の認識について説明する。
図7−707で行われた仮説の投票の結果、認識結果となった仮説投票箱には、複数の仮説(k個)が投票されている。
図11−1101は、箱の検出の様子を図に表したものであって、図中の各点線の矩形TRelが投票された仮説1つに相当し、ある認識対象物(箱)が検出されるためには、同じ位置、姿勢に複数の矩形が描かれることとなる。
図11−1102は、モデルの着目点FeaPntを図に表したものであって、図中の矩形Gp内に6個ある。
図11−1103は、認識対象物の着目点TFeaPntを図に表したものであって、図中の矩形TRel内に6個ある。但し、仮説Hiが複数あるため、仮説Hi毎に矩形TRelと認識対象物の着目点TFeaPntがあるため、ぶれて記載されている。
今、その一つの仮説をHi(1=<i=<k)とする。
Figure 2006252162
各仮説Hiには、数10にあるように、モデルの着目点の座標位置FeaPntが記述されており、投票される情報に含まれている。この投票されている各仮説Hiにおいて、入力画像中の認識対象物の着目点の位置の求め方について説明する。
(1−2−1)仮説毎の認識対象物の着目点の認識
この認識対象物の着目点は、仮説Hi毎に求める。
図11−1102の各モデルに対しての座標位置と図11−1103の入力画像中の認識対象物の座標位置の対応を考える。認識対象物の着目点位置TFeaPntは、TRelで求まった矩形、すなわち、ここでは回転した矩形に対する相対的な位置として計算される。
各モデルの全体領域を表す矩形Relを用いて数9のように入力画像上での矩形TRelが計算される。これにしたがってFeaPntから実際の入力画像上での認識対象物の着目点の位置TFeaPntを、数11に示す計算式で計算される。
「FuncFea」は、入力画像上での着目点の位置を計算する関数である。
また、数11に用いられる符号について再度説明しておく。
「TFeaPnt」は、上記したように、入力画像上での認識対象物の着目点の位置である。
「FeaPnt」は、上記したように、画像上でのモデルの着目点の位置である。
「Rel」は、上記したように、モデルを囲む矩形の領域Gpを表現した点集合を相対的に表現したもので、検出結果の場所を示すためや再度その領域を抽出することなどに利用される。具体例としては、図5−505のような矩形の領域Gpを表すための頂点集合の4点を、図5−506のように変換した平行四辺形の4点の座標位置で記述する。
「TRel」は、上記したように、選択した3点の特徴点にしたがって、相対的な位置情報であるRelを変換した位置情報であり、画像中での認識対象物の存在領域を表している。
Figure 2006252162
上記のようにして、TRelと認識対象物の着目点位置TFeaPntとの関係、Relとモデルの着目点位置FeaPntとの関係、TRelとRelとの関係に基づき、FuncFeaを用いて、仮説Hi毎にTRelとFeaPntから認識対象物の着目点位置TFeaPntが計算できる。
(1−2−2)複数の仮説における認識対象物の着目点の統合
一般には、入力画像とは異なる位置、姿勢の物体が存在し、また画像のノイズや量子化誤差の影響から、通常、複数の仮説Hiは、実際には、ずれた位置にも検出される。このように部分的なパターンのマッチングを集積して認識する方法では、同じような位置に多数投票されることとなる。図11−1103は、その様子を図示したものである。さらに図11−1103では、それぞれの仮説Hi毎の、TFeaPntを、検出された位置にあわせて計算した、相対的な着目点列の位置を図示している。
このように同じ着目点は、ほぼ同じ場所に位置しているため、着目点のおおまかな位置を求めることができる。よって、これらの多数の仮説を統計的に統合することで、それぞれの着目点のもっともらしい位置を推定することができる。
推定に用いる方法としては、例えば次のようなものがある。
第1の推定方法は、全ての着目点の生起確率が同じだと仮定して、全ての各着目点位置の平均値を用いて推定値とする。
例えば、各j番目の仮説のTFeaPntのi番目の位置の着目点推定位置Eiは、数12で計算される。
Figure 2006252162
第2の推定方法は、それぞれの投票の際のマッチングの類似度値を信頼度とした重み付平均値を用いる。
第3の推定方法は、大きな外れ値を外すためにLeast Median of Squares(LMedS)基準に基づいたロバスト推定などを用いることもできる。
この推定方法については、上述したものに限定するものではなく、他の方法を用いてよい。
図11−1104は、統合して得られた着目点の推定位置を黒丸で表している。
(2)応用例
このメカニズムにより次のことも可能となる。
図12は、顔の部品検出を行う問題を考えた場合、それぞれ、目、鼻孔、口端の6点を着目点とする画像を表している。
モデルとして、図12−1201のAさんのモデルと、図12−1202のBさんのモデルだけが登録されているとする。
ここで、認識対象として全く異なるCさんの画像を入力する。それぞれ図12−1201と図12−1202のモデルが入力画像と類似しているとした場合、この2つの着目点の位置を統合し推定値を求めることで、Cさんの着目点の位置を推定できる。
このように、登録されていない認識対象に対しても、類似した別のモデルを用いて、着目点の位置を推定することが可能となる。
また、画像特徴点と着目点が必ずしも対応しておらず、相対的な位置の集積によって着目点位置を計算できるということは、通常の特徴点検出によって見つけにくいような着目点を推定することができることを示唆している。例えば、人間の頬の位置を画像認識によって見つけようとした場合を考える。一般に人間の頬には、テクスチャが少ないため、特徴点検出やパターンマッチングによって検出することは難しい。しかし、このような方法で、その周辺にある特徴点(例えば、目、鼻、口など)とその領域に対する着目点の位置を記述しておくことで、頬の位置を別の特徴点位置の検出から導くことができる。このように通常見つけにくい対象に対しての位置を求める方法としては有効な方法となる。
(3)着目点位置が正しいか否かの判断
先に述べたように、着目点位置は、一般には特徴点位置と異なる場所に存在していることである。もし、着目点位置と特徴点位置が同一であると制限できるならば、各特徴点(着目点)位置でのパターンマッチングの類似度を信頼度として利用できる。しかし、上記推定方法では、推定された着目点位置が正しいかどうかは判定していない。
そこで、別途、推定された着目点位置付近のパターンを切り出し、登録されているパターンとのパターンマッチングによって類似度を求めて、各着目点位置が正しいかどうかを判定するようにしてもよい。
[変更例]
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。また、本発明は、その主旨を逸脱しない限り、異なる実施形態に記載された事項を組み合わせた内容、及び、異なる実施形態に記載された事項に置換した内容をも含む。
例えば、三角形分割については、ドロネー三角形分割ではなく、別の三角形分割を求める方法を用いても良い。一般には、メッシュを作成する手順において、また一般にドロネー分割は互いに重なることがなく、互いに素な分割となっているが、場合によっては、互いに素な分割でなくてもよい。
また、高次ボロノイ分割の双対グラフであるn次ドロネー三角形分割を用いてもよい。この場合、互いに三角形が重なりをもつこととなるが、本実施形態では、3点の組み合わせだけを対象とするため、この問題は発生しない。
また、n次のドロネー分割は、n番目に近い点との連結を考慮しているため、より複雑な探索が可能となる。
また、登録のみ、もしくは、認識のみにドロネー三角形分割を利用し、他方では特許文献1と同様に、全探索や基底ベクトルの長さに対する制限つきの探索などを行うというのでもよい。また、メモリ容量の範囲内であれば、その逆に登録時には全部の組み合わせをいれておき、認識時にドロネー三角形分割を利用するのでもよい。
本発明の第1の実施形態を示す物体認識装置の構成図である。 検出対象(箱)に特徴点検出処理やドロネー分割を求めた概念図である。 モデルの登録時のフローチャートである。 モデルの登録方法である。 部分パターン情報の登録情報についての図である。 検出時のフローチャート(仮説情報の生成)である。 検出方法の説明図である。 統合のフローチャートである。 特徴点3点の組み合わせ数とドロネー三角形分割の例である。 段階的に三角形分割を求めるための説明図である。 着目点の推定に関する説明図である。 顔の着目点の推定に関する説明図である。
符号の説明
1 画像入力部
2 特徴点抽出部
3 三角形分割生成部
4 特徴点選択部
5 基底計算部
6 部分パターン構成部
7 インデックス計算部
8 テーブル登録部
9 パターン類似度計算部
10 仮説情報生成部
11 物体認識部

Claims (13)

  1. 認識対象物が撮影された画像と、予め登録したモデルとを比較して、前記認識対象物の認識を行うパターン認識装置であって、
    前記認識対象物が撮影された画像を入力する画像入力手段と、
    前記画像中から複数の特徴点を抽出する特徴点抽出手段と、
    前記複数の特徴点の全てを周上、または、内部領域に包含する凸多角形を形成し、当該凸多角形の頂点、または、前記複数の特徴点を頂点とする複数の三角形の領域に分割する三角形分割生成部と、
    前記各三角形の各頂点にある特徴点の組み合わせを複数選択する特徴点選択手段と、
    前記複数選択された3点の特徴点の組み合わせから、これら特徴点の位置や位置関係を表す基底をそれぞれ計算する基底計算手段と、
    前記各基底に対応する前記認識対象物の部分パターンを前記画像からそれぞれ抽出する部分パターン抽出手段と、
    幾何学的変換に関して不変なパラメータを少なくとも含むインデックスパラメータに基づいて分割された複数の登録場所から構成され、かつ、前記モデルの部分パターンが、その部分パターンに関するインデックスパラメータに対応した登録場所に登録されたテーブルを記憶するテーブル記憶手段と、
    前記認識対象物の部分パターンに対応するインデックスパラメータに基づいて、前記テーブルの登録場所を決定するインデックス検索手段と、
    前記テーブルの登録場所に登録された前記モデルの部分パターンと、前記認識対象物の部分パターンの類似度とを判定するパターン類似度計算手段と、
    を有する
    ことを特徴とするパターン認識装置。
  2. 前記テーブルへ登録しようとするモデルのモデル画像を入力する画像入力手段と、
    前記モデル画像中から複数の特徴点を抽出する特徴点抽出手段と、
    前記複数の特徴点の全てを周上、または、内部領域に包含する凸多角形を形成し、当該凸多角形の頂点、または、前記複数の特徴点を頂点とする複数の三角形の領域に分割する三角形分割生成部と、
    前記各三角形の各頂点にある特徴点の組み合わせを複数選択する特徴点選択手段と、
    前記複数選択された3点の特徴点の組み合わせから、これら特徴点の位置や位置関係を表す基底をそれぞれ計算する基底計算手段と、
    前記モデルの部分パターンに対応するインデックスパラメータをインデックスとして、前記テーブルの登録場所を決定するインデックス決定手段と、
    前記決定されたテーブルの登録場所へ前記モデルの部分パターンを登録するテーブル登録手段と、
    を有する
    ことを特徴とする請求項1記載のパターン認識装置。
  3. 前記認識対象物が画像中のどの位置に存在かを表す仮説情報を前記両部分パターンの類似度に基づいて生成し、その生成した仮説情報を仮説空間にそれぞれ投票する仮説情報生成手段と、
    前記各仮説空間に投票された仮説情報の投票数に基づいて、前記認識対象物の識別、位置、または、姿勢を決定する物体認識手段と、
    を有する
    ことを特徴とする請求項1記載のパターン認識装置。
  4. 前記仮説情報生成手段は、
    前記テーブルの検索場所における前記認識対象物の存在位置に属する前記両部分パターンの類似度を含む情報を仮説情報として、前記仮説空間の中の前記各存在位置毎に設けられた仮説投票箱にそれぞれ投票することにより、前記各存在位置毎の投票数を求め、
    前記物体認識手段は、
    前記仮説投票箱における投票数が閾値を越えた存在位置を前記認識対象物に対応する存在位置であるとする
    ことを特徴とする請求項3記載のパターン認識装置。
  5. 前記三角形分割生成手段において、ドロネー三角形分割により三角形を求める
    ことを特徴とする請求項1のパターン認識装置。
  6. 前記三角形分割生成手段は、前記複数の特徴点の部分集合を求め、前記部分集合に対して三角形分割をそれぞれ求める
    ことを特徴とする請求項1から4の中で少なくとも一項に記載のパターン認識装置。
  7. 前記特徴点抽出手段は、前記特徴点抽出のパラメータを変化させて、複数の特徴点を作成し、
    前記三角形分割生成手段は、前記複数の特徴点の部分集合を求め、前記部分集合に対して三角形分割をそれぞれ求める
    ことを特徴とする請求項1から4の中で少なくとも一項に記載のパターン認識装置。
  8. 前記物体認識手段は、前記認識対象物の着目点の位置を、前記テーブルに予め記憶された前記モデルの各着目点の相対位置情報に基づいて求める
    ことを特徴とする請求項3に記載のパターン認識装置。
  9. 前記モデルの着目点は特徴点以外の点であって位置情報から構成されている
    ことを特徴とする請求項8に記載のパターン認識装置。
  10. 前記着目点の位置情報が前記仮説情報に含まれ、
    前記仮説情報毎に前記認識対象物の着目点の位置を求める
    ことを特徴とする請求項8に記載のパターン認識装置。
  11. 前記仮説情報毎に求められた前記認識対象物の着目点の位置を統計的に統合して一つの前記認識対象物の着目点を求める
    ことを特徴とする請求項8に記載のパターン認識装置。
  12. 認識対象物が撮影された画像と、予め登録したモデルとを比較して、前記認識対象物の認識を行うパターン認識方法であって、
    前記認識対象物が撮影された画像を入力する画像入力ステップと、
    前記画像中から複数の特徴点を抽出する特徴点抽出ステップと、
    前記複数の特徴点の全てを周上、または、内部領域に包含する凸多角形を形成し、当該凸多角形の頂点、または、前記複数の特徴点を頂点とする複数の三角形の領域に分割する三角形分割生成部と、
    前記各三角形の各頂点にある特徴点の組み合わせを複数選択する特徴点選択ステップと、
    前記複数選択された3点の特徴点の組み合わせから、これら特徴点の位置や位置関係を表す基底をそれぞれ計算する基底計算ステップと、
    前記各基底に対応する前記認識対象物の部分パターンを前記画像からそれぞれ抽出する部分パターン抽出ステップと、
    幾何学的変換に関して不変なパラメータを少なくとも含むインデックスパラメータに基づいて分割された複数の登録場所から構成され、かつ、前記モデルの部分パターンが、その部分パターンに関するインデックスパラメータに対応した登録場所に登録されたテーブルを記憶するテーブル記憶ステップと、
    前記認識対象物の部分パターンに対応するインデックスパラメータに基づいて、前記テーブルの登録場所を決定するインデックス検索ステップと、
    前記テーブルの登録場所に登録された前記モデルの部分パターンと、前記認識対象物の部分パターンの類似度とを判定するパターン類似度計算ステップと、
    を有する
    ことを特徴とするパターン認識方法。
  13. 認識対象物が撮影された画像と、予め登録したモデルとを比較して、前記認識対象物の認識を行うパターン認識方法をコンピュータによって実現するプログラムであって、
    前記認識対象物が撮影された画像を入力する画像入力機能と、
    前記画像中から複数の特徴点を抽出する特徴点抽出機能と、
    前記複数の特徴点の全てを周上、または、内部領域に包含する凸多角形を形成し、当該凸多角形の頂点、または、前記複数の特徴点を頂点とする複数の三角形の領域に分割する三角形分割生成部と、
    前記各三角形の各頂点にある特徴点の組み合わせを複数選択する特徴点選択機能と、
    前記複数選択された3点の特徴点の組み合わせから、これら特徴点の位置や位置関係を表す基底をそれぞれ計算する基底計算機能と、
    前記各基底に対応する前記認識対象物の部分パターンを前記画像からそれぞれ抽出する部分パターン抽出機能と、
    幾何学的変換に関して不変なパラメータを少なくとも含むインデックスパラメータに基づいて分割された複数の登録場所から構成され、かつ、前記モデルの部分パターンが、その部分パターンに関するインデックスパラメータに対応した登録場所に登録されたテーブルを記憶するテーブル記憶機能と、
    前記認識対象物の部分パターンに対応するインデックスパラメータに基づいて、前記テーブルの登録場所を決定するインデックス検索機能と、
    前記テーブルの登録場所に登録された前記モデルの部分パターンと、前記認識対象物の部分パターンの類似度とを判定するパターン類似度計算機能と、
    を実現する
    ことを特徴とするパターン認識方法のプログラム。
JP2005067500A 2005-03-10 2005-03-10 パターン認識装置及びその方法 Expired - Fee Related JP4284288B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005067500A JP4284288B2 (ja) 2005-03-10 2005-03-10 パターン認識装置及びその方法
US11/371,655 US7660465B2 (en) 2005-03-10 2006-03-09 Pattern recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005067500A JP4284288B2 (ja) 2005-03-10 2005-03-10 パターン認識装置及びその方法

Publications (2)

Publication Number Publication Date
JP2006252162A true JP2006252162A (ja) 2006-09-21
JP4284288B2 JP4284288B2 (ja) 2009-06-24

Family

ID=36970950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005067500A Expired - Fee Related JP4284288B2 (ja) 2005-03-10 2005-03-10 パターン認識装置及びその方法

Country Status (2)

Country Link
US (1) US7660465B2 (ja)
JP (1) JP4284288B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012032747A1 (ja) * 2010-09-06 2012-03-15 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
KR101179401B1 (ko) 2010-12-28 2012-09-05 한양대학교 에리카산학협력단 정합쌍 분류장치 및 방법
JP2014199559A (ja) * 2013-03-29 2014-10-23 Kddi株式会社 視点推定装置及びその分類器学習方法
JP2015501017A (ja) * 2011-09-30 2015-01-08 キヤノン株式会社 画像検索方法
US9830530B2 (en) 2014-07-31 2017-11-28 International Business Machines Corporation High speed searching method for large-scale image databases
US10096036B2 (en) 2012-12-17 2018-10-09 Nec Corporation Optimal design assistance device, method, and recording medium

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4894369B2 (ja) * 2006-06-19 2012-03-14 富士通株式会社 3次元モデルの画像処理装置
US8861834B2 (en) * 2007-03-09 2014-10-14 Omron Corporation Computer implemented method for recognizing an object based on a correspondence relationship between object feature points and pre-registered model feature points
US7903883B2 (en) * 2007-03-30 2011-03-08 Microsoft Corporation Local bi-gram model for object recognition
JP4983539B2 (ja) * 2007-10-19 2012-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4556146B2 (ja) * 2008-04-11 2010-10-06 ソニー株式会社 情報処理装置および方法、プログラム、並びに情報処理システム
US20100110051A1 (en) * 2008-10-30 2010-05-06 Yi Jhao Technology Corporation Control method for lens drive screen
JP5361524B2 (ja) 2009-05-11 2013-12-04 キヤノン株式会社 パターン認識システム及びパターン認識方法
US9091553B2 (en) * 2009-12-22 2015-07-28 Honeywell International Inc. Systems and methods for matching scenes using mutual relations between features
WO2011088497A1 (en) * 2010-01-19 2011-07-28 Richard Bruce Baxter Object recognition method and computer system
US20120233210A1 (en) * 2011-03-12 2012-09-13 Matthew Thomas Bogosian Storage of Arbitrary Points in N-Space and Retrieval of Subset thereof Based on Criteria Including Maximum Distance to an Arbitrary Reference Point
US8842191B2 (en) * 2010-06-03 2014-09-23 Recognition Robotics, Inc. System and method for visual recognition
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
WO2012006578A2 (en) * 2010-07-08 2012-01-12 The Regents Of The University Of California End-to-end visual recognition system and methods
JP2012033022A (ja) * 2010-07-30 2012-02-16 Panasonic Corp 空間における変化領域検出装置及び方法
JP5800494B2 (ja) * 2010-11-19 2015-10-28 キヤノン株式会社 特定領域選択装置、特定領域選択方法及びプログラム
CN102622366B (zh) 2011-01-28 2014-07-30 阿里巴巴集团控股有限公司 相似图像的识别方法和装置
US8620069B1 (en) * 2011-02-11 2013-12-31 The United States Of America As Represented By The Secretary Of The Air Force Automatic triangle orientation detection algrorithm
US8874557B2 (en) * 2011-09-02 2014-10-28 Adobe Systems Incorporated Object retrieval and localization using a spatially-constrained similarity model
US8781255B2 (en) 2011-09-17 2014-07-15 Adobe Systems Incorporated Methods and apparatus for visual search
JP5857704B2 (ja) * 2011-12-13 2016-02-10 富士ゼロックス株式会社 画像処理装置及びプログラム
EP2850831A1 (en) 2012-05-14 2015-03-25 Luca Rossato Encoding and decoding based on blending of sequences of samples along time
CN102855473B (zh) * 2012-08-21 2016-03-02 中国科学院信息工程研究所 一种基于相似性度量的图像多目标检测方法
US8880563B2 (en) 2012-09-21 2014-11-04 Adobe Systems Incorporated Image search by query object segmentation
CN103020960B (zh) * 2012-11-26 2015-08-19 北京理工大学 基于凸包不变性的点云配准方法
US9082008B2 (en) 2012-12-03 2015-07-14 Honeywell International Inc. System and methods for feature selection and matching
US20150058390A1 (en) * 2013-08-20 2015-02-26 Matthew Thomas Bogosian Storage of Arbitrary Points in N-Space and Retrieval of Subset Thereof Based on a Determinate Distance Interval from an Arbitrary Reference Point
US9727802B2 (en) * 2014-10-23 2017-08-08 The Penn State Research Foundation Automatic, computer-based detection of triangular compositions in digital photographic images
CN104318250B (zh) * 2014-10-23 2017-09-29 武汉理工光科股份有限公司 基于分布式周界系统的运动行为模式识别方法及系统
CN104408726B (zh) * 2014-12-02 2019-05-17 上海许书华电子科技有限公司 一种基于三角形的图像轮廓匹配方法
US10049273B2 (en) * 2015-02-24 2018-08-14 Kabushiki Kaisha Toshiba Image recognition apparatus, image recognition system, and image recognition method
CN104766099B (zh) * 2015-05-05 2017-12-05 武汉理工光科股份有限公司 基于图像的分布式光纤周界振动信号处理与识别方法
US9969514B2 (en) * 2015-06-11 2018-05-15 Empire Technology Development Llc Orientation-based hashing for fast item orientation sensing
JP2019121857A (ja) * 2017-12-28 2019-07-22 キヤノン株式会社 電子機器及びその制御方法
JP7043255B2 (ja) 2017-12-28 2022-03-29 キヤノン株式会社 電子機器及びその制御方法
CN111191083B (zh) * 2019-09-23 2021-01-01 牧今科技 用于对象标识的方法和计算系统
CN111611783B (zh) * 2020-06-18 2023-04-25 山东旗帜信息有限公司 一种图形表格的定位分割方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638465A (en) * 1994-06-14 1997-06-10 Nippon Telegraph And Telephone Corporation Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor
FR2779848B1 (fr) * 1998-06-15 2001-09-14 Commissariat Energie Atomique Procede invariant d'indexation d'une image utilisant des caracterisations fractales et par moments
JP3914864B2 (ja) 2001-12-13 2007-05-16 株式会社東芝 パターン認識装置及びその方法
US7200270B2 (en) * 2001-12-13 2007-04-03 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method using distributed model representation of partial images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012032747A1 (ja) * 2010-09-06 2012-03-15 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
KR101179401B1 (ko) 2010-12-28 2012-09-05 한양대학교 에리카산학협력단 정합쌍 분류장치 및 방법
JP2015501017A (ja) * 2011-09-30 2015-01-08 キヤノン株式会社 画像検索方法
US10096036B2 (en) 2012-12-17 2018-10-09 Nec Corporation Optimal design assistance device, method, and recording medium
JP2014199559A (ja) * 2013-03-29 2014-10-23 Kddi株式会社 視点推定装置及びその分類器学習方法
US9830530B2 (en) 2014-07-31 2017-11-28 International Business Machines Corporation High speed searching method for large-scale image databases
US9836666B2 (en) 2014-07-31 2017-12-05 International Business Machines Corporation High speed searching for large-scale image databases

Also Published As

Publication number Publication date
JP4284288B2 (ja) 2009-06-24
US7660465B2 (en) 2010-02-09
US20060204079A1 (en) 2006-09-14

Similar Documents

Publication Publication Date Title
JP4284288B2 (ja) パターン認識装置及びその方法
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
JP4372051B2 (ja) 手形状認識装置及びその方法
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
JP5406705B2 (ja) データ補正装置及び方法
US7200270B2 (en) Pattern recognition apparatus and method using distributed model representation of partial images
JP4739355B2 (ja) 統計的テンプレートマッチングによる高速な物体検出方法
JP5505409B2 (ja) 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
JP3914864B2 (ja) パターン認識装置及びその方法
US9256802B2 (en) Object or shape information representation method
JP4709668B2 (ja) 3次元物体認識システム
JP2008059197A (ja) 画像照合装置、画像照合方法、コンピュータプログラム及び記憶媒体
JP6245880B2 (ja) 情報処理装置および情報処理手法、プログラム
JP2012027745A (ja) 情報処理方法及びその装置、プログラム
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP2009211490A (ja) 画像認識方法および装置
Papadopoulos et al. Face-GCN: A graph convolutional network for 3D dynamic face identification/recognition
US9792675B1 (en) Object recognition using morphologically-processed images
JP2007140729A (ja) 物品の位置及び姿勢を検出する方法および装置
JP3859347B2 (ja) 物体認識装置及びその方法
WO2013084731A1 (ja) 画像識別システム
JP2018526753A (ja) 物体認識装置、物体認識方法及び記憶媒体
JP6085160B2 (ja) 物体認識システム
JP2006235817A (ja) 文字認識装置、文字認識方法、及び文字認識プログラムの記録媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090310

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090323

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees