JP3659221B2 - Image recognition apparatus and method - Google Patents

Image recognition apparatus and method Download PDF

Info

Publication number
JP3659221B2
JP3659221B2 JP2001376805A JP2001376805A JP3659221B2 JP 3659221 B2 JP3659221 B2 JP 3659221B2 JP 2001376805 A JP2001376805 A JP 2001376805A JP 2001376805 A JP2001376805 A JP 2001376805A JP 3659221 B2 JP3659221 B2 JP 3659221B2
Authority
JP
Japan
Prior art keywords
image
input
model
local
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001376805A
Other languages
Japanese (ja)
Other versions
JP2003178305A (en
Inventor
めぐみ 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001376805A priority Critical patent/JP3659221B2/en
Publication of JP2003178305A publication Critical patent/JP2003178305A/en
Application granted granted Critical
Publication of JP3659221B2 publication Critical patent/JP3659221B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、特定の物体を撮影したモデル画像から予め検出対象となる画像特徴を抽出し、入力画像から同様にして抽出した特徴と、モデルの特徴とを照合することにより、入力画像から物体を検出し、その位置を出力する画像認識装置及びその方法に関するものである。
【0002】
【従来の技術】
従来の画像認識装置は、特開平9−21610号公報や特開2000−30060号公報に記載されたものなどが知られており、図24、図25にそれぞれ従来の画像認識装置のブロック構成を示す。
【0003】
図24は、特開平9−21610号公報に開示された画像認識装置のブロック構成図であり、画像を入力する画像入力部11と、抽出対象物の局所モデルを予め格納しているモデル記憶部12と、入力画像の各部分画像について各局所モデルとのマッチングを行うマッチング処理部13と、入力画像の各部分画像がどの程度局所モデルに一致しているかによって画像の位置情報も含めたパラメタ空間で抽出対象物の位置を確率的に表示し統合する局所情報統合部14と、パラメタ空間内で最も確率の高い部分を抽出して入力画像内での抽出対象物の位置を判別して出力する物体位置決定部15から構成されている。
【0004】
また、図25は、特開2000−30060号公報に開示された画像認識装置のブロック構成図であり、内蔵する画像メモリに入力されたビデオ信号をA/D変換器で量子化した画像データを貯えている画像入力部1と、抽出した輪郭のXY座標列から画像の中心を求めその中心を原点とする極座標に変換したデータ及び輪郭のXY座標列を貯えている輪郭抽出部2と、輪郭抽出部2からの動径のパワースペクトルを算出するフーリエ変換部3と、輪郭抽出部2で抽出した輪郭内の面積を求める面積演算部4と、フーリエ変換部3で得られた基本波成分と各高調波成分のパワースペクトルのを直流成分との比率に変換し、その特徴データを算出するスケーラ5と、予め学習により特徴データを記憶しておく辞書6と、特徴データと辞書6との差分を判定する判定部7とから構成されている。
【0005】
【発明が解決しようとする課題】
特開平9−21610号公報に開示された従来の画像認識装置は、対象物体の位置を推定するために画像を局所領域に分割し局所領域ごとのモデルを作成し、また、対象物体の画像面内での回転角度を推定するために任意の回転角モデルを作成するために、膨大なデータ量が必要となるという課題を有していた。また、特開2000−30060号公報に開示された従来の画像認識装置は、入力画像における対象物体の位置が不明な場合には認識が困難であるという課題を有していた。
【0006】
本発明は、上記従来の課題を解決するもので、少ないデータ量で、画像中の物体を認識することを目的とする。
【0007】
【課題を解決するための手段】
この課題を解決するために、入力画像から特定の物体を検出する装置において、入力した画像を一定の局所画像として切り出す入力手段と、前記各局所画像の基準点を中心として極座標変換し、極座標変換画像の各空間周波数成分の周波数情報を算出し、入力周波数情報として出力する特徴抽出手段と、モデル画像の周波数情報をモデル周波数情報として物体名と共に予め保持している学習情報データベースと、前記入力周波数情報を前記検出対象物体のモデル画像の周波数情報と照合して検出対象物体の有無を判定する照合手段と、前記照合手段の結果を出力する出力部とを具備したものである。
【0008】
これにより、本発明は、モデル極座標変換画像を入力画像とすることを特徴とすることによって、極座標変換した局所画像の周波数情報を照合することによって、1つのモデル画像中の物体が入力画像面内で任意に回転していても、そのモデル画像を用いて物体の位置と角度を検出できる
【0014】
【発明の実施の形態】
本発明の請求項1に記載の発明は、入力画像から特定の物体を検出する装置において、画像を入力し、入力した画像から一定サイズの局所領域を入力局所画像として順次切り出して、各局所領域の画像内での位置を入力局所画像位置情報として入力局所画像と共に出力する入力手段と、前記画像入力手段から入力局所画像について、各局所画像の基準点を中心として極座標変換し、極座標変換画像として入力局所画像位置情報と共に出力する極座標変換部と、極座標変換画像の各空間周波数成分の周波数情報を算出し、入力周波数情報と入力局所画像位置情報とを出力する周波数抽出部とを備えた特徴抽出手段と、モデル画像から抽出した各局所画像の基準点を中心として極座標変換したモデル極座標変換画像の周波数情報であるモデル周波数情報とモデル画像内での位置情報であるモデル局所画像位置情報を予め保持している学習情報データベースと、前記特徴抽出手段からの各入力周波数情報をそれぞれモデル周波数情報と照合して、類似したモデル周波数情報を持つモデルの局所画像のモデル画像内での位置の情報を類似局所画像位置情報として前記入力局所画像位置情報と共に出力する画像特徴照合部と、前記各入力局所画像位置情報と類似局所画像位置情報の対からそれぞれ入力画像における対象物体の位置と対象物体の画像平面内での回転角度を推定し、推定した推定位置情報と、推定角度情報とを出力する位置推定部と、前記各推定位置情報と推定角度情報を集計して物体の有無を判断し、物体の位置と角度を出力する集計部とを備えた照合手段と、前記照合手段の結果を出力する出力部とを具備するもので、前記モデル周波数抽出部は前記モデル極座標変換画像を入力画像とすることを特徴とすることによって、極座標変換した局所画像の周波数情報を照合することによって、1つのモデル画像中の物体が入力画像面内で任意に回転していても、そのモデル画像を用いて物体の位置と角度を検出できるという作用を有する。
【0015】
請求項に記載の発明は、請求項記載の画像認識装置において、学習情報データベースのモデル周波数情報とモデル局所画像位置情報は、画像データベースに格納されているモデル画像から前記入力局所画像と同じサイズの局所画像をモデル局所画像として順次切り出して、モデル局所画像の基準点を中心として極座標変換したモデル極座標変換画像の各空間周波数成分の周波数情報を算出することを特徴とするもので、モデル局所画像の基準点を中心として極座標変換したモデル極座標変換画像の各空間周波数成分の周波数情報を算出することにより、1つのモデル画像中の物体が入力画像面内で任意に回転していても、そのモデル画像を用いて物体の位置と角度を検出できるという作用を有する。
【0021】
請求項に記載の発明は、画像から特定の物体を検出する方法において、入力した画像から一定サイズの局所領域を順次抽出し、入力局所領域ごとに、基準点を中心とした極座標変換画像における空間周波数成分の周波数情報を入力周波数情報として算出し、各入力周波数情報に対して検出対象物体のモデル画像の局所画像から予め算出しておいた極座標変換画像の周波数情報の中から類似する周波数情報を抽出し、類似した周波数情報を持つ入力局所画像とモデル局所画像の組ごとに入力局所画像の入力画像内での位置とモデル局所画像のモデル画像内での位置から入力画像中の対象物体の位置と角度を推定し、前記推定位置と推定角度の両方が一致するものにより対象が存在すると判断することを特徴とするもので、前記モデル周波数抽出部は前記モデル極座標変換画像を入力画像とすることを特徴とすることによって、極座標変換した局所画像の周波数情報を照合することによって、1つのモデル画像中の物体が入力画像面内で任意に回転していても、そのモデル画像を用いて物体の位置と角度を検出できるという作用を有する。
【0022】
請求項に記載の発明は、請求項記載の画像認識方法において、空間周波数成分の周波数情報は、空間周波数成分の強度または位相のであることを特徴とするもので、周波数情報として画像の各空間周波数成分の強度や位相を用いることにより、小数の周波数情報でモデル画像のスペクトルと入力画像のスペクトルを比較することによって、モデルと入力の画像中の物体の位置によらずに、入力画像の物体の有無を判断して出力する作用を有する。
【0023】
請求項に記載の発明は、請求項記載の画像認識方法において、対象が存在するか判断は、前記推定位置と推定角度の両方が一致するもの数により判断することを特徴とするもので、推定された位置と角度が一致するものの数を集計することにより、画像面内で物体が回転している場合にも1つのモデル画像で物体の有無を判断でき、物体有の場合にはその位置と角度を推定できるという作用を有する。
【0024】
請求項に記載の発明は、請求項記載の画像認識方法において、モデル画像の局所画像から予め算出しておいた極座標変換画像の周波数情報は、画像データベースに格納されているモデル画像から前記入力局所画像と同じサイズの局所画像をモデル局所画像として順次切り出して、モデル局所画像の基準点を中心として極座標変換したモデル極座標変換画像の各空間周波数成分の周波数情報を算出することを特徴とするもので、モデル局所画像の基準点を中心として極座標変換したモデル極座標変換画像の各空間周波数成分の周波数情報を算出することにより、1つのモデル画像中の物体が入力画像面内で任意に回転していても、そのモデル画像を用いて物体の位置と角度を検出できるという作用を有する。
【0025】
請求項に記載の発明は、コンピュータにより画像認識を行うプログラムであって、画像から特定の物体を検出する方法において、入力した画像から一定サイズの局所領域を順次抽出し、入力局所領域ごとに、基準点を中心とした極座標変換画像における空間周波数成分の周波数情報を入力周波数情報として算出し、各入力周波数情報に対して検出対象物体のモデル画像の局所画像から予め算出しておいた極座標変換画像の周波数情報の中から類似する周波数情報を抽出し、類似した周波数情報を持つ入力局所画像とモデル局所画像の組ごとに入力局所画像の入力画像内での位置とモデル局所画像のモデル画像内での位置から入力画像中の対象物体の位置と角度を推定し、前記推定位置と推定角度の両方が一致するものにより対象が存在すると判断する画像認識プログラムを記録した記録媒体であり、コンピュータに読み込み実行することにより、極座標変換した局所画像の周波数情報を照合することによって、1つのモデル画像中の物体が入力画像面内で任意に回転していても、そのモデル画像を用いて物体の位置と角度を検出できるという作用を有する。
【0026】
以下、本発明の実施の形態について、図を用いて説明する。
【0027】
(実施の形態1)
図1は、本発明の実施の形態1における画像認識装置のブロック構成図を示している。
【0028】
図1において、1は処理対象となる画像データを生成する入力手段、11は物体の濃淡画像を入力する画像入力部、2は入力手段1から濃淡画像を入力して画像特徴を抽出する特徴抽出手段、21は画像入力部11から濃淡画像を入力してそのパワースペクトルを算出する周波数抽出部、3は特徴抽出手段2から画像特徴を入力してモデルと照合し入力画像中のモデルの有無を判断する照合手段、31は周波数抽出部21からパワースペクトルを入力して予め抽出されているモデルのパワースペクトルとの一致度を求め物体の有無を判断する画像特徴照合部、4は照合手段3から物体の有無の判断結果を入力してそれをディスプレイなどに表示する出力部、5は検出対象物体のモデル画像から算出されたパワースペクトルを物体名と共に予め格納している学習情報データベース、6は検出対象物体のモデル画像を生成するモデル画像生成手段、61は検出対象物体の濃淡画像を物体名と共に格納している画像データベース、7はモデル画像生成手段6から濃淡画像を入力して対象物体ごとに画像特徴を抽出するモデル生成手段、71は学習データベース61から入力した濃淡画像のパワースペクトルを求めて物体名と共に学習情報データベース5に格納するモデル周波数抽出部である。
【0029】
また、図2は、コンピュータにより画像認識装置を実現した場合のブロック構成図であり、201はコンピュータ、202はCPU、203はメモリ、204はキーボード及びディスプレイ、205は画像認識プログラムを読み込むためのFD、PD、MO、DVDなどの蓄積媒体ユニット、206〜208はI/Fユニット、209はCPUバス、210は画像を取り込むためのカメラ、211は予め蓄積されている画像を取り込むための画像データベース、212はモデル画像のスペクトルを物体名と共に格納している学習情報データベース、213は検出された物体の名前をI/Fユニットを介して出力する出力端子で構成されている。
【0030】
以上のように構成された画像認識装置について、以下その動作を図3と図4のフローチャートを用いて説明する。図3は、モデル生成手段7の動作を示すフローチャート、図4は、対象物体の有無を判断したい画像データを入力してから結果を出力するまでの画像認識処理の動作を示すフローチャート、図5は、画像データベース61に格納されているモデル画像の例、図6は、学習情報データベース5に格納されている図5のモデル画像のパワースペクトルを記述した例、図7は、画像入力部11で入力される入力画像の例、図8は、図7の入力画像のパワースペクトルを記述した例である。
【0031】
物体の画像認識処理の前に予め対象物体の画像特徴として、画像のパワースペクトルを求めるモデルを生成しておくもので、モデル生成手段7の動作を図3のフローチャートを用いて説明する。
【0032】
画像データベース61には、図5に示すような物体ごとの濃淡画像ファイルがモデル画像501として物体名502と共に格納されている。図5に示すようなニッパを検出対象とするとき、モデル生成手段7は、画像データベース61から「物体名:ニッパ」のモデル画像のデータf(x,y)を入力する(ステップ301)。入力されたモデル画像のデータf(x,y)は、モデル周波数抽出部71で(数1)に示す2次元離散フーリエ変換f(x,y)→F(u,v)を行い、(数2)の式で各周波数成分(u,v)のパワースペクトルを求める(ステップ302)。
【0033】
【数1】

Figure 0003659221
【0034】
【数2】
Figure 0003659221
【0035】
図6のような全ての周波数成分(u,v)のパワースペクトルを物体名と共に学習情報データベース5に格納する(ステップ303)。
【0036】
次に、画像認識処理の動作について、図4のフローチャートを用いて説明する。
【0037】
まず、検出対象となる図7のような画像データg(x,y)を入力手段1の画像入力部11(カメラ210または画像データベース211)から入力する(ステップ401)。
【0038】
特徴抽出手段2は、画像入力部11から画像データg(x,y)を入力し、周波数抽出部21で(数1)に示す式のf(x,y)にg(x,y)を代入して2次元離散フーリエ変換g(x, y)→G(u, v)を行い、(数2)に示す式のF(u,v)にG(u,v)を代入して各周波数成分(u,v)のパワースペクトルを求める(ステップ402)。
【0039】
照合手段3の画像特徴照合部31は、周波数抽出部21から図8に示すような入力画像のパワースペクトルG(u,v)を入力し、学習情報データベースから図6のようなモデル画像のパワースペクトルF(u,v)を入力して、(数3)に代入し、各周波数成分における入力とモデルのパワースペクトルの平方根の差の二乗の総和を、距離distとして求める(ステップ403)。
【0040】
【数3】
Figure 0003659221
【0041】
距離distが一定閾値Tより小さければ(ステップ404)、入力画像にニッパがあると判断する(ステップ405)。距離が閾値T以上であれば、入力画像にはニッパは存在しないと判断する(ステップ406)。
【0042】
出力部4は、画像特徴照合部31で判断した物体の有無を出力する(ステップ407)。この出力は、I/Fユニット208を介して出力端子213から出力される。
【0043】
以上のように、本実施の形態では、モデル周波数抽出部71が予めモデル画像のパワースペクトルを算出しておき、周波数抽出部21が入力画像のパワースペクトルを算出し、画像特徴照合部31が入力画像のパワースペクトルとモデル画像のパワースペクトルの類似度を照合することにより、画像内での物体の位置によらず、物体の有無を判断でき、その効果は大きい。
【0044】
なお、以上の説明では、画像を濃淡画像とし、画像特徴をパワースペクトルとした例で説明したが、カラー画像や2値画像でも同様に実施可能である。
【0045】
また、パワースペクトルだけでなく各周波数成分の位相角などを画像特徴として用いても同様に実施可能である。
【0046】
(実施の形態2)
図9は、本発明の実施の形態2における画像認識装置のブロック構成図を示す。図9において、1は処理対象となる画像データを生成する入力手段、11は物体の濃淡画像を入力する画像入力部、12は画像入力部11の画像から一定サイズの局所画像を順次切り出す画像切り出し部、2は入力手段1から画像を入力して画像特徴を抽出する特徴抽出手段、21は画像切り出し部12から複数の局所画像を入力しそれぞれに対してパワースペクトルを算出する周波数抽出部、3は特徴抽出手段2から画像特徴を入力してモデルの画像特徴と照合し入力画像中の物体の有無と物体の位置を推定する照合手段、31は周波数抽出部21から入力したパワースペクトルを予め算出されているモデルの各局所画像のパワースペクトルと照合し類似したパワースペクトルを持つ入力とモデルの局所画像のそれぞれの画像内での座標を対にして出力する画像特徴照合部、32は画像特徴照合部31から入力した座標の対から入力画像中の物体の位置を推定して出力する位置推定部、33は位置推定部32が推定した入力画像内での物体の位置を集計して同じ位置が多数あればそこに物体があると判断し物体の位置とともに出力する集計部、4は照合手段3から物体の有無と物体の位置を入力してそれをディスプレイなどに表示する出力部である。
【0047】
また、5は検出対象物体のモデル画像における各局所画像のパワースペクトルを局所画像のモデル画像内での位置を表す座標と物体名と共に予め格納している学習情報データベース、6は検出対象物体のモデル画像から局所画像を生成するモデル画像生成手段、61は検出対象物体の濃淡画像を物体名と共に格納している画像データベース、62は画像データベースからモデル画像を入力して入力の局所画像と同じサイズの局所画像を切り出しその局所画像のモデル画像内での位置の情報と画像データを物体名と共に出力するモデル画像切り出し部、7はモデル画像生成手段6から画像データを入力して画像特徴を抽出し物体名と位置の情報と共に出力するモデル生成手段、71はモデル画像切り出し部62から入力した画像データのパワースペクトルを求めて物体名と位置の情報と共に学習情報データベース5に格納するモデル周波数抽出部である。
【0048】
また、実施の形態1と同様に、図2に示すようにコンピュータにより画像認識装置を実現することも可能である。
【0049】
以上のように構成された画像認識装置について、以下その動作を図10と図11のフローチャートを用いて説明する。図10は、モデル生成手段7の動作を示すフローチャート、図11は、画像を入力してから結果を出力するまでの動作を示すフローチャート、図5は、画像データベース61に格納されているモデル画像の例、図7は、画像入力部11で入力される入力画像の例、図12は、画像データベース61から入力した画像に対してモデル画像切り出し部62が切り出す領域の例、図13は、学習情報データベースに格納されるモデルの局所画像のパワースペクトルと物体名と局所画像のモデル画像内での位置の例、図14は、照合手段3で検出した物体の位置を矩形で表示して出力部4のディスプレイに出力している例である。
【0050】
物体の画像認識処理の前に予め対象物体の画像特徴として、画像のパワースペクトルを求めるモデルを生成しておくもので、モデル生成手段7の動作を図10のフローチャートを用いて説明する。
【0051】
画像データベース61には、図5に示すような物体ごとの濃淡画像ファイルがモデル画像501として物体名502と共に格納されている。図5に示すようなニッパを検出対象とするとき、モデル画像生成手段6のモデル画像切り出し部62は、画像データベース61から「物体名:ニッパ」のモデル画像1200を入力し(ステップ1001)、図12に示すような一定サイズの矩形画像1201〜1204を物体中の特徴的な領域から順次切り出す(ステップ1002)。
【0052】
モデル生成手段7は、モデル画像切り出し部62から入力した各矩形画像1201〜1204に対して、モデル周波数抽出部71で(数1)に示す2次元離散フーリエ変換を行い、(数2)の式により各周波数成分のパワースペクトルを求め(ステップ1003)、図13に示すようにパワースペクトルを物体名とその局所画像のモデル画像内での座標と共に学習情報データベース5に格納する(ステップ1004)。
【0053】
ここで、局所画像のモデル画像内での座標は、モデル画像の左上を原点とし、局所画像の左上角点の座標をモデル画像内の座標系で表した値である。
【0054】
ステップ1002で切り出したモデル画像内の全ての局所画像について、ステップ1003からステップ1004までの処理を行い、パワースペクトルを物体名とその局所画像のモデル画像内での座標と共に学習情報データベース5に格納する(ステップ1005)。
【0055】
次に、画像認識処理の動作について、図11のフローチャートを用いて説明する。
【0056】
まず、検出対象となる図7のような画像データを入力手段1の画像入力部11(カメラ210または画像データベース211)から入力する(ステップ1101)。画像切り出し部12は、図12に示すモデルの局所画像と同じサイズの矩形の局所画像を図7の入力画像から一定間隔で切り出して、局所画像の座標と共に出力する(ステップ1102)。
【0057】
ここで、局所画像の座標は、入力画像の左上を原点とし、局所画像の左上角点の座標を入力画像内の座標系で表した値である。
【0058】
特徴抽出手段2は、画像切り出し部12から画像データを入力し、周波数抽出部21で(数1)に示す2次元離散フーリエ変換を行い、(数2)に示す式により各周波数成分のパワースペクトルを求める(ステップ1103)。
【0059】
照合手段3は、周波数抽出部21からパワースペクトルを入力すると、まず、画像特徴照合部31で学習情報データベースからモデルの局所画像のパワースペクトルを入力して、(数3)の式に示すように、各周波数成分における入力とモデルのパワースペクトルの平方根の差の二乗の総和を、距離distとして求める。距離distが一定閾値Tより小さいものを入力の局所画像に類似したモデルの局所画像として抽出し、入力の局所画像の座標と類似したモデルの局所画像の座標を対にして出力する(ステップ1104)。
【0060】
位置推定部32は、画像特徴照合部31から入力とモデルの局所画像の座標の対を入力すると、入力画像中とモデル画像中とで物体は並行移動の関係にあると仮定して、座標の対から入力画像中の物体の位置を推定して出力する(ステップ1105)。
【0061】
入力の全ての局所画像について、ステップ1103からステップ1105までの処理を行い(ステップ1106)、位置推定部32から出力される位置が同じであるものの数を集計部33で集計する。
【0062】
集計した値で一定閾値より大きいものがあれば(ステップ1107)、その位置にニッパがあると判断する(ステップ1108)。集計した値で一定閾値より大きいものがなければ(ステップ1107)、入力画像にはニッパは存在しないと判断する(ステップ1109)。
【0063】
出力部4は、集計部33で物体有と判断した場合には、その位置を図14のように矩形領域1401で表示して出力する(ステップ1110)。この出力は、I/Fユニット208を介して出力端子213から出力される。
【0064】
以上のように、本実施の形態では、モデル画像切り出し部が予めモデル画像から一定サイズの局所画像を切り出し、モデル周波数抽出部71が予めモデルの局所画像のパワースペクトルを算出しておき、画像切り出し部12が入力画像からモデルの局所画像と同じサイズの局所画像を切り出し、周波数抽出部21が入力の局所画像のパワースペクトルを算出し、画像特徴照合部31がモデルの局所画像のパワースペクトルの中から入力の各局所画像のパワースペクトルと類似したものをそれぞれ抽出し、位置推定部32が各々の類似した入力局所画像とモデル局所画像についてその入力画像内での座標とモデル画像内での座標から入力画像における物体の位置をそれぞれ推定し、集計部33が推定された位置が一致するものの数を集計することにより、画像データを直接用いて照合するよりも少ない量のデータで、一部隠蔽されている場合にも物体の有無を判断でき、物体有の場合にはその位置を推定でき、その効果は大きい。
【0065】
なお、以上の説明では、画像を濃淡画像とし、画像特徴をパワースペクトルとした例で説明したが、カラー画像や2値画像でも同様に実施可能であるし、パワースペクトルだけでなく各周波数成分の位相角などを画像特徴として用いても同様に実施可能である。
【0066】
(実施の形態3)
図15は、本発明の実施の形態3における画像認識装置のブロック構成図を示す。図15において、1は処理対象となる画像データを生成する入力手段、11は物体の濃淡画像を入力する画像入力部、12は画像入力部11の画像から一定サイズの局所画像を順次切り出す画像切り出し部、2は入力手段1から画像を入力して画像特徴を抽出する特徴抽出手段、20は画像切り出し部12から入力した各局所画像に対して基準点を中心として極座標変換を行う極座標変換部、21は極座標変換部20から入力した各画像に対してパワースペクトルを算出する周波数抽出部、3は特徴抽出手段2から各局所画像の画像特徴を入力してモデルの画像特徴と照合し入力画像中の物体の有無と物体の位置と角度を推定する照合手段、31は周波数抽出部21から入力したパワースペクトルを予め算出されているモデルの各局所画像のパワースペクトルと照合し類似したパワースペクトルを持つモデルの局所画像を抽出して入力局所画像とモデルの局所画像の各画像内での座標を対にして出力する画像特徴照合部、32は画像特徴照合部31から入力した座標の対から入力画像中の物体の位置と角度を推定して出力する位置推定部、33は位置推定部32が推定した入力画像内での物体の位置と角度を集計して同じ位置と角度のものが多数あれば、そこに物体があると判断し位置と角度の値を出力する集計部、4は照合手段3から物体の有無と物体の位置と角度を入力してそれをディスプレイなどに表示する出力部である。
【0067】
また、5はモデル画像の局所画像を極座標変換した画像のパワースペクトルを局所画像のモデル画像内での位置を表す座標と物体名と共に予め格納している学習情報データベース、6は検出対象物体のモデル画像から局所画像を生成するモデル画像生成手段、61は検出対象物体の濃淡画像を物体名と共に格納している画像データベース、62は画像データベースからモデル画像を入力して入力の局所画像と同じサイズの局所画像を切り出しその局所画像のモデル画像内での位置の情報と局所画像データを物体名と共に出力するモデル画像切り出し部、7はモデル画像生成手段6から画像データを入力して画像特徴を抽出し物体名と位置の情報と共に出力するモデル生成手段、70はモデル画像切り出し部62から入力した局所画像の基準点を中心として極座標変換するモデル極座標変換部、71はモデル極座標変換部70から入力した各画像に対してパワースペクトルを求めて物体名と位置の情報と共に学習情報データベース5に格納するモデル周波数抽出部である。
【0068】
また、実施の形態1と同様に、図2に示すようにコンピュータにより画像認識装置を実現することも可能である。
【0069】
以上のように構成された画像認識装置について、以下その動作を図16と図17のフローチャートを用いて説明する。図16は、モデル生成手段7の動作を示すフローチャート、図17は、画像を入力してから結果を出力するまでの動作を示すフローチャート、図5は、画像データベース61に格納されているモデル画像の例、図18は、画像データベース61から入力した画像に対してモデル画像切り出し部62が切り出す領域の例、図19は、画像入力部11で入力される入力画像の例、図13は、学習情報データベースに格納されるモデルの局所画像のパワースペクトルと物体名と局所画像のモデル画像内での位置の例、図20は、照合手段3で検出した物体の位置を矩形で表示して出力部4のディスプレイに出力している例である。
【0070】
物体の画像認識処理の前に予め対象物体の画像特徴として、画像のパワースペクトルを求めるモデルを生成しておくもので、モデル生成手段7の動作を図16のフローチャートを用いて説明する。
【0071】
画像データベース61には、図5に示すような物体ごとの濃淡画像ファイルがモデル画像として物体名と共に格納されている。図5に示すようなニッパを検出対象とするとき、モデル画像生成手段6のモデル画像切り出し部62は、画像データベース61から「物体名:ニッパ」のモデル画像を入力し(ステップ1601)、図18に示すような一定サイズの円形画像1801〜1803を物体中の特徴的な領域から順次切り出す(ステップ1602)。
【0072】
モデル生成手段7は、モデル画像切り出し部62から入力した各円形画像1801〜1803に対して、モデル極座標変換部70で円の中心を中心点とする極座標変換を行い、極座標変換後の画像に対してモデル周波数抽出部71で(数1)に示す2次元離散フーリエ変換を行い、(数2)の式により各周波数成分のパワースペクトルを求め(ステップ1603)、図13に示すようにパワースペクトルを物体名とその局所画像のモデル画像内での座標と共に学習情報データベース5に格納する(ステップ1604)。
【0073】
ここで、局所画像のモデル画像内での座標は、モデル画像の左上を原点とし、局所画像の円の中心の座標をモデル画像内の座標系で表した値である。
【0074】
ステップ1602で切り出したモデル画像内の全ての局所画像について、ステップ1603からステップ1604までの処理を行行い、パワースペクトルを物体名とその局所画像のモデル画像内での座標と共に学習情報データベース5に格納する(ステップ1605)。
【0075】
次に、画像認識処理の動作について、図17のフローチャートを用いて説明する。
【0076】
まず、検出対象となる図19のような画像データを入力手段1の画像入力部11(カメラ210または画像データベース211)から入力する(ステップ1701)。画像切り出し部12は、図18に示すモデルの局所画像と同じサイズの円形の局所画像を図19の入力画像から一定間隔で切り出して、局所画像の座標と共に出力する(ステップ1702)。
【0077】
ここで、局所画像の座標は、入力画像の左上を原点とし、局所画像の円の中心の座標を入力画像内の座標系で表した値である。
【0078】
特徴抽出手段2は、画像切り出し部12から画像データを入力し、極座標変換部20で円の中心を中心点とした極座標変換を行った後、周波数抽出部21で(数1)に示す2次元離散フーリエ変換を行い、(数2)に示す式により各周波数成分のパワースペクトルを求める(ステップ1703)。
【0079】
照合手段3は、周波数抽出部21からパワースペクトルを入力すると、まず、画像特徴照合部31で学習情報データベース5からモデルの局所画像のパワースペクトルを入力して、(数3)の式に示すように、各周波数成分における入力とモデルのパワースペクトルの平方根の差の二乗の総和を、距離distとして求める。距離distが一定閾値Tより小さいものを入力の局所画像に類似したモデルの局所画像として抽出し、入力の局所画像の座標と類似したモデルの局所画像の座標を対にして出力する(ステップ1704)。
【0080】
位置推定部32は、画像特徴照合部31から入力とモデルの局所画像の座標の対を入力すると、座標の対から推定され得る入力画像中の物体の位置・角度の組を全て出力する(ステップ1705)。このとき、類似した入力とモデルの局所画像は、画像内の物体が画像面内で任意角度回転していても類似したものとして検出される。よって、物体の位置と角度の推定では、○度回転していると仮定した場合の位置を一定角度ごとに算出して、位置と角度の組を出力する。
【0081】
入力の全ての局所画像について、ステップ1703からステップ1705までの処理を行い(ステップ1706)、位置推定部32から出力される位置と角度の組が同じであるものの数を集計部33で集計する。
【0082】
集計した値で一定閾値より大きいものがあれば(ステップ1707)、その位置・角度にニッパがあると判断する(ステップ1708)。集計した値で一定閾値より大きいものがなければ(ステップ1707)、入力画像にはニッパは存在しないと判断する(ステップ1709)。
【0083】
出力部4は、集計部33で物体有と判断した場合には、図20のように矩形領域2001で表示して、その位置(5,72)2002と角度(12度)2003を出力する(ステップ1710)。この出力は、I/Fユニット208を介して出力端子213から出力される。
【0084】
以上のように、本実施の形態では、モデル画像切り出し部が予めモデル画像から一定サイズの局所画像を切り出し、モデル極座標変換部70が予めモデルの局所画像を極座標変換し、モデル周波数抽出部71が予め極座標変換後の局所画像のパワースペクトルを算出しておき、画像切り出し部12が入力画像からモデルの局所画像と同じサイズの局所画像を切り出し、極座標変換部20が入力の局所画像を極座標変換し、周波数抽出部21が極座標変換後の局所画像のパワースペクトルを算出し、画像特徴照合部31がモデルのパワースペクトルの中から入力の各局所画像のパワースペクトルと類似したものをそれぞれ抽出し、位置推定部32が各々の類似した入力局所画像とモデル局所画像についてその入力画像内での座標とモデル画像内での座標から入力画像における物体の位置と角度をそれぞれ推定し、集計部33が推定された位置と角度が一致するものの数を集計することにより、画像面内で物体が回転している場合にも1つのモデル画像で物体の有無を判断でき、物体有の場合にはその位置と角度を推定でき、その効果は大きい。
【0085】
なお、以上の説明では、画像を濃淡画像とし、画像特徴をパワースペクトルとした例で説明したが、カラー画像や2値画像でも同様に実施可能であるし、パワースペクトルだけでなく各周波数成分の位相角などを画像特徴として用いても同様に実施可能である。
【0086】
(実施の形態4)
図21は、本発明の実施の形態4における画像認識装置のブロック構成図を示す。図21において、1は処理対象となる画像データを生成する入力手段、11は物体の濃淡画像を入力する画像入力部、12は画像入力部11の画像から一定サイズの局所画像を順次切り出す画像切り出し部、2は入力手段1から画像を入力して画像特徴を抽出する特徴抽出手段、21は画像切り出し部12から複数の局所画像を入力しそれぞれに対してパワースペクトルを算出する周波数抽出部、22は周波数抽出部11から入力したパワースペクトルを予め算出してある特徴空間にベクトルとして投影する特徴空間投影部、3は特徴抽出手段2から画像特徴を入力してモデルの画像特徴と照合し入力画像中の物体の有無と物体の位置を推定する照合手段、31は特徴空間投影部22から入力したベクトルを予め算出されているモデルの各局所画像のベクトルと照合し類似したベクトルを持つ入力とモデルの局所画像のそれぞれの画像内での座標を対にして出力する画像特徴照合部、32は画像特徴照合部31から入力した座標の対から入力画像中の物体の位置を推定して出力する位置推定部、33は位置推定部32が推定した入力画像内での物体の位置を集計して同じ位置が多数あれば、そこに物体があると判断し物体の位置とともに出力する集計部、4は照合手段3から物体の有無と物体の位置を入力してそれをディスプレイなどに表示する出力部である。
【0087】
また、5は検出対象物体のモデル画像から抽出した局所画像のパワースペクトルから予め算出しておいた特徴空間のパラメタと各パワースペクトルを特徴空間に投影したときのベクトルと局所画像のモデル画像内での位置を表す座標と物体名とを予め格納している学習情報データベース、6は検出対象物体のモデル画像から局所画像を生成するモデル画像生成手段、61は検出対象物体の濃淡画像を物体名と共に格納している画像データベース、62は画像データベースからモデル画像を入力して入力の局所画像と同じサイズの局所画像を切り出しその局所画像のモデル画像内での位置の情報と画像データを物体名と共に出力するモデル画像切り出し部、7はモデル画像生成手段6から画像データを入力して画像特徴を抽出し物体名と位置の情報と共に出力するモデル生成手段、71はモデル画像切り出し部62から入力した画像データのパワースペクトルを求めて物体名と位置の情報と共に出力するモデル周波数抽出部、72はモデル周波数抽出部71で算出した各モデル局所画像のパワースペクトルをそれぞれベクトルデータにして全てのベクトルから固有空間を生成し各ベクトルを固有空間に射影し固有空間の基底ベクトルと射影したベクトルを物体名と位置の情報と共に学習情報データベース5に格納する特徴空間生成部である。
【0088】
また、実施の形態1と同様に、図2に示すようにコンピュータにより画像認識装置を実現することも可能である。
【0089】
以上のように構成された画像認識装置について、以下その動作を図22と図23のフローチャートを用いて説明する。図22は、モデル生成手段7の動作を示すフローチャート、図23は、画像を入力してから結果を出力するまでの動作を示すフローチャート、図5は、画像データベース61に格納されているモデル画像の例、図7は、画像入力部11で入力される入力画像の例、図12は、画像データベース61から入力した画像に対してモデル画像切り出し部62が切り出す領域の例、図14は、照合手段3で検出した物体の位置を矩形で表示して出力部4のディスプレイに出力している例である。
【0090】
物体の画像認識処理の前に予め対象物体の画像特徴として、画像のパワースペクトルを求め、全てのパワースペクトルを特徴空間に投影するモデルを生成しておくもので、モデル生成手段7の動作を図22のフローチャートを用いて説明する。
【0091】
画像データベース61には、図5に示すような物体ごとの濃淡画像ファイルがモデル画像として物体名と共に格納されている。図5に示すようなニッパを検出対象とするとき、モデル画像生成手段6のモデル画像切り出し部62は、画像データベース61から「物体名:ニッパ」のモデル画像を入力し(ステップ2201)、図12に示すような一定サイズの矩形画像を物体中の特徴的な領域から順次切り出す(ステップ2202)。
【0092】
モデル生成手段7は、モデル画像切り出し部62から入力した各矩形画像に対して、モデル周波数抽出部71で(数1)に示す2次元離散フーリエ変換を行い、(数2)の式により各周波数成分のパワースペクトルを求める(ステップ2203−1)。
【0093】
モデル画像切り出し部62から入力した全ての局所画像について、スッテプ2203−1のパワースペクトル算出の処理を行った後(ステップ2203−2)、特徴空間生成部72は、各局所画像のパワースペクトルをベクトルデータとして、全てのパワースペクトルのベクトルから固有空間を生成し、全てのベクトルを固有空間に投影する(ステップ2203−3)。
【0094】
算出した固有空間の基底ベクトルと固有空間投影後の各局所画像のベクトルの座標とを物体名とその局所画像のモデル画像内での座標と共に学習情報データベース5に格納する(ステップ2204)。
【0095】
ここで、局所画像のモデル画像内での座標は、モデル画像の左上を原点とし、局所画像の左上角点の座標をモデル画像内の座標系で表した値である。
【0096】
次に、画像認識処理の動作について、図23のフローチャートを用いて説明する。
【0097】
まず、検出対象となる図7のような画像データを入力手段1の画像入力部11(カメラ210または画像データベース211)から入力する(ステップ2301)。画像切り出し部12は、図12に示すモデルの局所画像と同じサイズの矩形の局所画像を図7の入力画像から一定間隔で切り出して、局所画像の座標と共に出力する(ステップ2302)。
【0098】
ここで、局所画像の座標は、入力画像の左上を原点とし、局所画像の左上角点の座標を入力画像内の座標系で表した値である。
【0099】
特徴抽出手段2は、まず、画像切り出し部12から画像データを入力し、周波数抽出部21で(数1)に示す2次元離散フーリエ変換を行い、(数2)に示す式により各周波数成分のパワースペクトルを求める。
【0100】
次に、特徴空間投影部22で、学習情報データベース5から固有空間の基底ベクトルを入力し、周波数抽出部21が算出したパワースペクトルのベクトルを、(数4)により次元を落とした固有空間に投影する(ステップ2303)。
【0101】
【数4】
Figure 0003659221
【0102】
照合手段3は、特徴空間投影部22からベクトルを入力すると、まず、画像特徴照合部31で学習情報データベースからモデルの局所画像のベクトルを入力して、スッテプ2303で用いた低次元の固有空間において入力局所画像のベクトルとモデルの局所画像のベクトルとの距離を求める。距離が一定閾値Tより小さいものを入力の局所画像に類似したモデルの局所画像として抽出し、入力の局所画像の座標と類似したモデルの局所画像の座標を対にして出力する(ステップ2304)。
【0103】
位置推定部32は、画像特徴照合部31から入力とモデルの局所画像の座標の対を入力すると、入力画像中とモデル画像中とで物体は並行移動の関係にあると仮定して、座標の対から入力画像中の物体の位置を推定して出力する(ステップ2305)。
【0104】
入力の全ての局所画像について、ステップ2303からステップ2305までの処理を行い(ステップ2306)、位置推定部32から出力される位置が同じであるものの数を集計部33で集計する。
【0105】
集計した値で一定閾値Sより大きいものがあれば(ステップ2307)、その位置にニッパがあると判断する(ステップ2308)。集計した値で一定閾値Sより大きいものがなければ(ステップ2307)、入力画像にはニッパは存在しないと判断する(ステップ2309)。
【0106】
出力部4は、集計部33で物体有と判断した場合には、その位置を図14のように矩形領域1402で表示して出力する(ステップ2310)。この出力は、I/Fユニット208を介して出力端子213から出力される。
【0107】
以上のように、本実施の形態では、モデル画像切り出し部が予めモデル画像から一定サイズの局所画像を切り出し、モデル周波数抽出部71が予めモデルの局所画像のパワースペクトルを算出し、特徴空間生成部72がモデルの全てのパワースペクトルから固有空間を算出し、全てのパワーベクトルを固有空間に投影しておき、画像切り出し部12が入力画像からモデルの局所画像と同じサイズの局所画像を切り出し、周波数抽出部21が入力の局所画像のパワースペクトルを算出し、特徴空間投影部22が入力のパワースペクトルを特徴空間生成部72で生成した固有空間の次元を落とした空間に投影し、画像特徴照合部31がモデルの局所画像の中から入力の各局所画像と類似したものを低次元の固有空間上でそれぞれ抽出し、位置推定部32が各々の類似した入力局所画像とモデル局所画像についてその入力画像内での座標とモデル画像内での座標から入力画像における物体の位置をそれぞれ推定し、集計部33が推定された位置が一致するものの数を集計することにより、よりデータ量の少ない低次元の空間で照合を行い、一部隠蔽されている場合にも物体の有無を判断でき、物体有の場合にはその位置を推定できるので、その効果は大きい。
【0108】
なお、以上の説明では、画像を濃淡画像とし、画像特徴をパワースペクトルとした例で説明したが、カラー画像や2値画像でも同様に実施可能であるし、パワースペクトルだけでなく各周波数成分の位相角などを画像特徴として用いても同様に実施可能である。
【0109】
【発明の効果】
以上のように本発明によれば、画像中の物体の位置に依存しない特徴量である周波数情報を、モデル画像と入力画像とで照合することにより、少ないモデルデータで、物体を検出できる。
【0110】
また、物体が画像面内で並行移動や回転、あるいは一部隠蔽されていても、精度良く検出できる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における画像認識装置のブロック構成図
【図2】本発明の実施の形態1におけるコンピュータによる画像認識装置のブロック構成図
【図3】本発明の実施の形態1におけるモデル生成手段の処理の流れを示すフローチャート
【図4】本発明の実施の形態1における画像入力部から出力部までの処理の流れを示すフローチャート
【図5】画像データベースが保管しているモデル画像の一例を示す図
【図6】本発明の実施の形態1における学習情報データベースが保管しているモデルのパワースペクトルの一例を示す図
【図7】本発明の実施の形態における入力画像の一例を示す図
【図8】本発明の実施の形態1における入力画像のパワースペクトルの一例を示す図
【図9】本発明の実施の形態2における画像認識装置のブロック構成図
【図10】本発明の実施の形態2におけるモデル生成手段の処理の流れを示すフローチャート
【図11】本発明の実施の形態2における画像入力部から出力部までの処理の流れを示すフローチャート
【図12】本発明の実施の形態2、4におけるモデル画像切り出し部が切り出す矩形領域の一例を示す図
【図13】本発明の実施の形態2、4における学習情報データベースが保管しているモデルのパワースペクトルの一例を示す図
【図14】本発明の実施の形態2、4における出力部が出力する検出結果の一例を示す図
【図15】本発明の実施の形態3における画像認識装置のブロック構成図
【図16】本発明の実施の形態3におけるモデル生成手段の処理の流れを示すフローチャート
【図17】本発明の実施の形態3における画像入力部から出力部までの処理の流れを示すフローチャート
【図18】本発明の実施の形態3におけるモデル画像切り出し部が切り出す円領域の一例を示す図
【図19】本発明の実施の形態3における入力画像の一例を示す図
【図20】本発明の実施の形態3における出力部が出力する検出結果の一例を示す図
【図21】本発明の実施の形態4における画像認識装置のブロック構成図
【図22】本発明の実施の形態4におけるモデル生成手段の処理の流れを示すフローチャート
【図23】本発明の実施の形態4における画像入力部から出力部までの処理の流れを示すフローチャート
【図24】従来の画像認識装置の一例を示すブロック図
【図25】従来の画像認識装置の別の一例を示すブロック図
【符号の説明】
1 入力手段
2 特徴抽出手段
3 照合手段
4 出力部
5 学習情報データベース
6 モデル画像生成手段
7 モデル生成手段
11 画像入力部
12 画像切り出し部
20 極座標変換部
21 周波数抽出部
22 特徴空間投影部
31 画像特徴照合部
32 位置推定部
33 集計部
61 画像データベース
62 モデル画像切り出し部
70 モデル極座標変換部
71 モデル周波数抽出部
72 特徴空間生成部
201 コンピュータ
202 CPU
203 メモリ
204 キーボード/ディスプレイ
205 蓄積媒体ユニット
206〜208 I/Fユニット
209 CPUバス
210 カメラ
211 画像データベース
212 学習情報データベース
213 出力端子[0001]
BACKGROUND OF THE INVENTION
The present invention extracts an image feature to be detected in advance from a model image obtained by photographing a specific object, and compares the feature extracted in the same manner from the input image with the feature of the model, thereby identifying the object from the input image. The present invention relates to an image recognition apparatus that detects and outputs a position thereof, and a method thereof.
[0002]
[Prior art]
Known image recognition apparatuses include those described in Japanese Patent Application Laid-Open Nos. 9-21610 and 2000-30060, and FIG. 24 and FIG. Show.
[0003]
FIG. 24 is a block diagram of the image recognition apparatus disclosed in Japanese Patent Laid-Open No. 9-21610, and includes an image input unit 11 for inputting an image and a model storage unit for storing a local model of an extraction target in advance. 12, a matching processing unit 13 for matching each partial image of the input image with each local model, and a parameter space including image position information depending on how much each partial image of the input image matches the local model And the local information integration unit 14 for stochastically displaying and integrating the position of the extraction object, and extracting the portion with the highest probability in the parameter space, and determining and outputting the position of the extraction object in the input image The object position determination unit 15 is configured.
[0004]
FIG. 25 is a block diagram of an image recognition apparatus disclosed in Japanese Patent Laid-Open No. 2000-30060. Image data obtained by quantizing a video signal input to a built-in image memory by an A / D converter is shown in FIG. A stored image input unit 1; a contour extraction unit 2 storing the data obtained by obtaining the center of the image from the extracted contour XY coordinate sequence and converting it to polar coordinates with the center as the origin; and the contour XY coordinate sequence; A Fourier transform unit 3 that calculates a radial power spectrum from the extraction unit 2; an area calculation unit 4 that calculates an area in the contour extracted by the contour extraction unit 2; and a fundamental wave component obtained by the Fourier transform unit 3; A scaler 5 that converts the power spectrum of each harmonic component into a ratio with a DC component and calculates the feature data thereof, a dictionary 6 that stores feature data in advance by learning, and the feature data and dictionary 6 It is composed of minute from determination unit 7.
[0005]
[Problems to be solved by the invention]
A conventional image recognition apparatus disclosed in Japanese Patent Laid-Open No. 9-21610 divides an image into local regions to estimate a position of the target object, creates a model for each local region, and also displays an image plane of the target object. In order to create an arbitrary rotation angle model in order to estimate the rotation angle inside, there is a problem that an enormous amount of data is required. Further, the conventional image recognition apparatus disclosed in Japanese Patent Laid-Open No. 2000-30060 has a problem that recognition is difficult when the position of the target object in the input image is unknown.
[0006]
An object of the present invention is to solve the above-described conventional problems and to recognize an object in an image with a small amount of data.
[0007]
[Means for Solving the Problems]
  In order to solve this problem, in an apparatus for detecting a specific object from an input image,An input means for cutting out the input image as a constant local image, and polar coordinate conversion centered on the reference point of each local image, and a polar coordinate conversion imageCalculating the frequency information of each spatial frequency component and outputting as input frequency information, a learning information database preliminarily holding the model image frequency information together with the object name as model frequency information, and the input frequency information Is collated with frequency information of the model image of the detection target object to determine the presence or absence of the detection target object, and an output unit that outputs the result of the collation means.
[0008]
  As a result, the present inventionBy using the model polar coordinate conversion image as the input image, the object in one model image is arbitrarily rotated in the input image plane by collating the frequency information of the local image subjected to polar coordinate conversion. Can detect the position and angle of the object using the model image.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
In claim 1 of the present inventionIn the described invention, in an apparatus for detecting a specific object from an input image, an image is input, a local area of a certain size is sequentially cut out from the input image as an input local image, and the position of each local area in the image is determined. Input means for outputting as input local image position information together with the input local image, and for the input local image from the image input means, polar coordinate conversion is performed around the reference point of each local image, and output as polar coordinate conversion image together with the input local image position information A feature extraction means including a polar coordinate conversion unit, a frequency extraction unit that calculates frequency information of each spatial frequency component of the polar coordinate conversion image, and outputs input frequency information and input local image position information; Model frequency information and model image, which are frequency information of the model polar coordinate transformation image obtained by polar transformation around the reference point of each local image A model having similar model frequency information by collating each input frequency information from the feature extraction means with model frequency information and a learning information database that holds model local image position information that is position information in advance An image feature matching unit that outputs information on the position of the local image in the model image as similar local image position information together with the input local image position information, and a pair of each of the input local image position information and similar local image position information A position estimation unit that estimates the position of the target object in the input image and the rotation angle of the target object in the image plane, outputs the estimated position information and the estimated angle information, and each of the estimated position information and the estimated angle A collating unit including a totaling unit that aggregates information to determine the presence or absence of an object and outputs the position and angle of the object, and an output that outputs a result of the collating unit The model frequency extraction unit is characterized in that the model polar coordinate transformation image is used as an input image, and by collating frequency information of a local image obtained by polar coordinate transformation, Even if the object is arbitrarily rotated within the input image plane, the model image can be used to detect the position and angle of the object.
[0015]
  Claim2The invention described in claim 11In the described image recognition apparatus, the model frequency information and the model local image position information in the learning information database are obtained by sequentially extracting a local image having the same size as the input local image from the model image stored in the image database as a model local image. The model polar coordinates are obtained by calculating the frequency information of each spatial frequency component of the model polar coordinate transformation image obtained by polar transformation with the reference point of the model local image as the center. By calculating the frequency information of each spatial frequency component of the converted image, even if an object in one model image is arbitrarily rotated in the input image plane, the position and angle of the object are detected using the model image Has the effect of being able to.
[0021]
  Claim3In the method of detecting a specific object from an image, a local region of a certain size is sequentially extracted from an input image, and a spatial frequency component in a polar coordinate conversion image centered on a reference point is input for each input local region. Frequency information is calculated as input frequency information, and for each input frequency information, similar frequency information is extracted from the frequency information of the polar coordinate conversion image calculated in advance from the local image of the model image of the detection target object. The position and angle of the target object in the input image from the position of the input local image in the input image and the position of the model local image in the model image for each set of the input local image and model local image having similar frequency information And the model frequency extraction unit determines that the target exists by the fact that both the estimated position and the estimated angle match. By using the model polar coordinate conversion image as the input image, the object in one model image is arbitrarily rotated in the input image plane by collating the frequency information of the local image subjected to polar coordinate conversion. The model image can be used to detect the position and angle of the object.
[0022]
  Claim4The invention described in claim 13In the image recognition method described, the frequency information of the spatial frequency component is characterized by the intensity or phase of the spatial frequency component, and by using the intensity or phase of each spatial frequency component of the image as frequency information, By comparing the spectrum of the model image and the spectrum of the input image with a small number of frequency information, it has the effect of determining the presence or absence of the object in the input image and outputting it regardless of the position of the object in the model and the input image .
[0023]
  Claim5The invention described in claim 13In the image recognition method described above, whether or not the target exists is determined by the number of objects whose both the estimated position and the estimated angle match, and the number of objects whose angle matches the estimated position Thus, the presence / absence of an object can be determined from one model image even when the object is rotating in the image plane, and the position and angle can be estimated when the object is present.
[0024]
  Claim6The invention described in claim 13In the described image recognition method, the frequency information of the polar coordinate conversion image calculated in advance from the local image of the model image is obtained by converting the local image having the same size as the input local image from the model image stored in the image database. It is characterized by calculating the frequency information of each spatial frequency component of the model polar coordinate conversion image obtained by sequentially cutting out as an image and converting the polar coordinate around the reference point of the model local image, with the reference point of the model local image as the center By calculating the frequency information of each spatial frequency component of the model polar coordinate transformed image obtained by polar coordinate transformation, even if an object in one model image is arbitrarily rotated in the input image plane, the model image is used to The position and angle can be detected.
[0025]
  Claim7The invention described in is a program for performing image recognition by a computer,In a method for detecting a specific object from an image, local regions of a certain size are sequentially extracted from the input image, and for each input local region, frequency information of spatial frequency components in a polar coordinate transformation image centered on a reference point is input frequency. It calculates as information, extracts similar frequency information from the frequency information of the polar coordinate conversion image calculated in advance from the local image of the model image of the detection target object for each input frequency information, the similar frequency information Estimate the position and angle of the target object in the input image from the position of the input local image in the input image and the position of the model local image in the model image for each set of the input local image and model local image Judge that the target exists because both the position and the estimated angle matchA recording medium in which an image recognition program is recorded, and the object in one model image is arbitrarily rotated in the input image plane by collating the frequency information of the local image subjected to polar coordinate conversion by being read and executed by a computer. Even so, the model image can be used to detect the position and angle of the object.
[0026]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0027]
(Embodiment 1)
FIG. 1 shows a block diagram of an image recognition apparatus according to Embodiment 1 of the present invention.
[0028]
In FIG. 1, 1 is an input unit that generates image data to be processed, 11 is an image input unit that inputs a grayscale image of an object, and 2 is a feature extraction that inputs a grayscale image from the input unit 1 and extracts image features. Means 21 is a frequency extractor for inputting a grayscale image from the image input unit 11 and calculating its power spectrum, 3 is an image feature input from the feature extractor 2 and collated with the model to determine the presence or absence of the model in the input image. A collating means 31 for judging, an image feature collating section 31 for inputting a power spectrum from the frequency extracting section 21 to obtain a degree of coincidence with a power spectrum of a model extracted in advance and judging the presence or absence of an object, 4 from the collating means 3 An output unit for inputting the result of determination of the presence / absence of an object and displaying the result on a display or the like. The stored learning information database, 6 is a model image generation unit that generates a model image of the detection target object, 61 is an image database that stores a grayscale image of the detection target object together with the object name, and 7 is a model image generation unit 6 Model generation means for inputting a grayscale image from the image and extracting image features for each target object, 71 is a model frequency extraction unit for obtaining the power spectrum of the grayscale image input from the learning database 61 and storing it in the learning information database 5 together with the object name It is.
[0029]
FIG. 2 is a block diagram when an image recognition apparatus is realized by a computer. 201 is a computer, 202 is a CPU, 203 is a memory, 204 is a keyboard and display, and 205 is an FD for reading an image recognition program. , PD, MO, DVD, and other storage medium units, 206 to 208, I / F units, 209, a CPU bus, 210, a camera for capturing images, 211, an image database for capturing prestored images, A learning information database 212 stores the spectrum of the model image together with the object name, and 213 includes an output terminal that outputs the name of the detected object via the I / F unit.
[0030]
The operation of the image recognition apparatus configured as described above will be described below with reference to the flowcharts of FIGS. FIG. 3 is a flowchart showing the operation of the model generating means 7, FIG. 4 is a flowchart showing the operation of the image recognition processing from the input of image data for which the presence / absence of the target object is determined to the output of the result, and FIG. 6 is an example of a model image stored in the image database 61, FIG. 6 is an example describing the power spectrum of the model image of FIG. 5 stored in the learning information database 5, and FIG. 7 is input by the image input unit 11. 8 is an example in which the power spectrum of the input image of FIG. 7 is described.
[0031]
A model for obtaining the power spectrum of the image is generated in advance as the image feature of the target object before the object image recognition processing, and the operation of the model generation means 7 will be described with reference to the flowchart of FIG.
[0032]
In the image database 61, a gray image file for each object as shown in FIG. 5 is stored as a model image 501 together with an object name 502. When the nipper as shown in FIG. 5 is to be detected, the model generation means 7 inputs the model image data f (x, y) of “object name: nipper” from the image database 61 (step 301). The input model image data f (x, y) is subjected to a two-dimensional discrete Fourier transform f (x, y) → F (u, v) shown in (Equation 1) by the model frequency extraction unit 71 to obtain (number The power spectrum of each frequency component (u, v) is obtained by the equation 2) (step 302).
[0033]
[Expression 1]
Figure 0003659221
[0034]
[Expression 2]
Figure 0003659221
[0035]
The power spectra of all frequency components (u, v) as shown in FIG. 6 are stored in the learning information database 5 together with the object name (step 303).
[0036]
Next, the operation of the image recognition process will be described using the flowchart of FIG.
[0037]
First, image data g (x, y) as a detection target as shown in FIG. 7 is input from the image input unit 11 (camera 210 or image database 211) of the input means 1 (step 401).
[0038]
The feature extraction unit 2 inputs the image data g (x, y) from the image input unit 11, and the frequency extraction unit 21 sets g (x, y) to f (x, y) in the equation shown in (Equation 1). Substituting and performing a two-dimensional discrete Fourier transform g (x, y) → G (u, v), and substituting G (u, v) for F (u, v) in the equation (2) The power spectrum of the frequency component (u, v) is obtained (step 402).
[0039]
The image feature matching unit 31 of the matching unit 3 inputs the power spectrum G (u, v) of the input image as shown in FIG. 8 from the frequency extraction unit 21, and the power of the model image as shown in FIG. 6 from the learning information database. The spectrum F (u, v) is input and substituted into (Equation 3), and the sum of the squares of the differences between the square roots of the input and the model power spectrum in each frequency component is obtained as the distance dist (step 403).
[0040]
[Equation 3]
Figure 0003659221
[0041]
If the distance dist is smaller than the predetermined threshold T (step 404), it is determined that there is a nipper in the input image (step 405). If the distance is equal to or greater than the threshold value T, it is determined that no nipper exists in the input image (step 406).
[0042]
The output unit 4 outputs the presence / absence of the object determined by the image feature matching unit 31 (step 407). This output is output from the output terminal 213 via the I / F unit 208.
[0043]
As described above, in the present embodiment, the model frequency extraction unit 71 calculates the power spectrum of the model image in advance, the frequency extraction unit 21 calculates the power spectrum of the input image, and the image feature matching unit 31 inputs it. By checking the similarity between the power spectrum of the image and the power spectrum of the model image, the presence or absence of the object can be determined regardless of the position of the object in the image, and the effect is great.
[0044]
In the above description, an example in which an image is a gray image and an image feature is a power spectrum has been described. However, a color image or a binary image can be similarly applied.
[0045]
Further, the present invention can be similarly implemented by using not only the power spectrum but also the phase angle of each frequency component as an image feature.
[0046]
(Embodiment 2)
FIG. 9 shows a block configuration diagram of an image recognition apparatus according to Embodiment 2 of the present invention. In FIG. 9, 1 is an input unit that generates image data to be processed, 11 is an image input unit that inputs a gray image of an object, and 12 is an image cutout that sequentially cuts out a local image of a certain size from the image of the image input unit 11. 2 and 2, a feature extraction unit that extracts an image feature by inputting an image from the input unit 1, and a frequency extraction unit 21 that receives a plurality of local images from the image cutout unit 12 and calculates a power spectrum for each of them. Is a collating unit that inputs an image feature from the feature extracting unit 2 and collates with the image feature of the model to estimate the presence / absence of the object and the position of the object in the input image. Compare the power spectrum of each local image of the model and the coordinates in the image of the input and the local image of the model that have a similar power spectrum. The image feature matching unit 32 outputs the estimated position of the object in the input image from the pair of coordinates input from the image feature matching unit 31, and 33 the input estimated by the position estimation unit 32. A totaling unit 4 that counts the positions of objects in the image and determines that there are many same positions and outputs them together with the positions of the objects. 4 inputs the presence / absence of the objects and the positions of the objects from the collating means 3 This is an output unit that displays it on a display or the like.
[0047]
Reference numeral 5 denotes a learning information database in which the power spectrum of each local image in the model image of the detection target object is stored in advance together with coordinates representing the position of the local image in the model image and the object name, and 6 denotes the model of the detection target object. Model image generation means for generating a local image from an image, 61 is an image database that stores a grayscale image of a detection target object together with an object name, 62 is a model image input from the image database and has the same size as the input local image A model image cutout unit that cuts out a local image and outputs information on the position of the local image in the model image and image data together with the object name, and 7 extracts image features by inputting image data from the model image generation means 6 Model generation means for outputting together with name and position information, 71 is the power of image data input from the model image cutout unit 62 A model frequency extracting unit stored with the information of the object name and location in the learning information database 5 seeking spectrum.
[0048]
As in the first embodiment, an image recognition apparatus can be realized by a computer as shown in FIG.
[0049]
The operation of the image recognition apparatus configured as described above will be described below with reference to the flowcharts of FIGS. FIG. 10 is a flowchart showing the operation of the model generating means 7, FIG. 11 is a flowchart showing the operation from inputting an image to outputting the result, and FIG. 5 is a diagram of the model image stored in the image database 61. FIG. 7 shows an example of an input image input by the image input unit 11, FIG. 12 shows an example of a region cut out by the model image cutout unit 62 for an image input from the image database 61, and FIG. 13 shows learning information. FIG. 14 shows an example of the power spectrum of the local image of the model stored in the database, the object name, and the position of the local image in the model image. FIG. It is an example of outputting to the display.
[0050]
A model for obtaining a power spectrum of an image is generated in advance as an image feature of the target object before the object image recognition process, and the operation of the model generation means 7 will be described with reference to the flowchart of FIG.
[0051]
The image database 61 stores a gray image file for each object as shown in FIG. 5 together with the object name 502 as a model image 501. When the nipper as shown in FIG. 5 is a detection target, the model image cutout unit 62 of the model image generating unit 6 inputs the model image 1200 of “object name: nipper” from the image database 61 (step 1001). 12, rectangular images 1201 to 1204 having a certain size are sequentially cut out from characteristic regions in the object (step 1002).
[0052]
The model generation means 7 performs the two-dimensional discrete Fourier transform shown in (Equation 1) by the model frequency extraction unit 71 on each rectangular image 1201 to 1204 input from the model image cutout unit 62, and the equation of (Equation 2) Thus, the power spectrum of each frequency component is obtained (step 1003), and the power spectrum is stored in the learning information database 5 together with the object name and the coordinates in the model image of the local image as shown in FIG. 13 (step 1004).
[0053]
Here, the coordinates of the local image in the model image are values in which the upper left corner of the model image is represented by the coordinate system in the model image with the upper left corner of the model image as the origin.
[0054]
For all local images in the model image cut out in step 1002, the processing from step 1003 to step 1004 is performed, and the power spectrum is stored in the learning information database 5 together with the object name and the coordinates of the local image in the model image. (Step 1005).
[0055]
Next, the operation of the image recognition process will be described using the flowchart of FIG.
[0056]
First, image data as shown in FIG. 7 to be detected is input from the image input unit 11 (camera 210 or image database 211) of the input means 1 (step 1101). The image cutout unit 12 cuts out a rectangular local image having the same size as the local image of the model shown in FIG. 12 from the input image in FIG. 7 and outputs it together with the coordinates of the local image (step 1102).
[0057]
Here, the coordinates of the local image are values in which the upper left corner of the input image is the origin and the coordinates of the upper left corner point of the local image are expressed in the coordinate system in the input image.
[0058]
The feature extraction unit 2 inputs image data from the image cutout unit 12, performs a two-dimensional discrete Fourier transform shown in (Equation 1) in the frequency extraction unit 21, and a power spectrum of each frequency component according to an equation shown in (Equation 2). Is obtained (step 1103).
[0059]
When the matching means 3 receives the power spectrum from the frequency extraction unit 21, the image feature matching unit 31 first inputs the power spectrum of the local image of the model from the learning information database, as shown in the equation (3). The sum of the squares of the differences between the square roots of the input and the model power spectrum at each frequency component is obtained as the distance dist. A distance dist smaller than a certain threshold T is extracted as a local image of a model similar to the input local image, and the coordinates of the local image of the model similar to the coordinates of the input local image are output as a pair (step 1104). .
[0060]
When the position estimation unit 32 inputs a pair of coordinates of the input and the local image of the model from the image feature matching unit 31, the position estimation unit 32 assumes that the object is in a parallel movement relationship in the input image and the model image. The position of the object in the input image is estimated from the pair and output (step 1105).
[0061]
The processing from step 1103 to step 1105 is performed for all the input local images (step 1106), and the number of the same positions output from the position estimation unit 32 is totaled by the totaling unit 33.
[0062]
If there is a total value larger than a certain threshold value (step 1107), it is determined that there is a nipper at that position (step 1108). If there is no aggregated value greater than a certain threshold value (step 1107), it is determined that no nipper exists in the input image (step 1109).
[0063]
When the totaling unit 33 determines that the object is present, the output unit 4 displays the position in the rectangular area 1401 as shown in FIG. 14 and outputs it (step 1110). This output is output from the output terminal 213 via the I / F unit 208.
[0064]
As described above, in the present embodiment, the model image cutout unit cuts out a local image of a certain size from the model image in advance, the model frequency extraction unit 71 calculates the power spectrum of the model local image in advance, and the image cutout The unit 12 cuts out a local image having the same size as the model local image from the input image, the frequency extraction unit 21 calculates the power spectrum of the input local image, and the image feature matching unit 31 includes the power spectrum of the model local image. And the position estimation unit 32 extracts the similar input local image and model local image from the coordinates in the input image and the coordinates in the model image. Each position of the object in the input image is estimated, and the counting unit 33 counts the number of objects whose estimated positions match. This makes it possible to determine the presence / absence of an object even when it is partially concealed with a smaller amount of data than to directly collate using image data, and if there is an object, its position can be estimated, and the effect is great .
[0065]
In the above description, an example in which the image is a gray image and the image feature is a power spectrum has been described. However, the present invention can be similarly applied to a color image or a binary image, and not only the power spectrum but also each frequency component. The same can be implemented by using a phase angle or the like as an image feature.
[0066]
(Embodiment 3)
FIG. 15 shows a block configuration diagram of an image recognition apparatus according to Embodiment 3 of the present invention. In FIG. 15, 1 is an input unit that generates image data to be processed, 11 is an image input unit that inputs a gray image of an object, and 12 is an image cutout that sequentially cuts out a local image of a certain size from the image of the image input unit 11. Unit 2 is a feature extraction unit that extracts an image feature by inputting an image from the input unit 1, and 20 is a polar coordinate conversion unit that performs a polar coordinate conversion around the reference point for each local image input from the image cutout unit 12, Reference numeral 21 denotes a frequency extraction unit that calculates a power spectrum for each image input from the polar coordinate conversion unit 20, and 3 denotes an image feature of each local image input from the feature extraction unit 2 to collate with the image feature of the model. Collating means for estimating the presence / absence of the object and the position and angle of the object, 31 is a power spectrum input from the frequency extraction unit 21 of each local image of the model that has been calculated in advance An image feature matching unit for extracting a local image of a model having a similar power spectrum by collating with a word spectrum and outputting the input local image and the local image of the model as a pair, and 32 is an image feature matching A position estimation unit 33 estimates and outputs the position and angle of the object in the input image from the coordinate pair input from the unit 31, and 33 calculates the position and angle of the object in the input image estimated by the position estimation unit 32. If there are many objects with the same position and angle, the counting unit 4 determines that there is an object and outputs the position and angle values, and 4 inputs the presence / absence of the object, the position and angle of the object from the collating means 3 This is an output unit that displays it on a display or the like.
[0067]
Further, 5 is a learning information database that stores in advance the power spectrum of the image obtained by polar-coordinate conversion of the local image of the model image together with the coordinates representing the position of the local image in the model image and the object name, and 6 is the model of the detection target object. Model image generation means for generating a local image from an image, 61 is an image database that stores a grayscale image of a detection target object together with an object name, 62 is a model image input from the image database and has the same size as the input local image A model image cutout unit that cuts out a local image and outputs information on the position of the local image in the model image and local image data together with the object name, and 7 extracts image features by inputting image data from the model image generation means 6 Model generation means for outputting together with object name and position information, 70 is a reference point of a local image input from the model image cutout unit 62 A model polar coordinate conversion unit 71 that performs polar coordinate conversion as a center is a model frequency extraction unit 71 that obtains a power spectrum for each image input from the model polar coordinate conversion unit 70 and stores it in the learning information database 5 together with object name and position information. .
[0068]
As in the first embodiment, an image recognition apparatus can be realized by a computer as shown in FIG.
[0069]
The operation of the image recognition apparatus configured as described above will be described below with reference to the flowcharts of FIGS. FIG. 16 is a flowchart showing the operation of the model generation means 7, FIG. 17 is a flowchart showing the operation from inputting an image to outputting the result, and FIG. 5 shows the model image stored in the image database 61. For example, FIG. 18 shows an example of a region cut out by the model image cutout unit 62 from an image inputted from the image database 61, FIG. 19 shows an example of an input image inputted by the image input unit 11, and FIG. FIG. 20 shows an example of the position in the model image of the power spectrum, the object name, and the local image of the model stored in the database. FIG. It is an example of outputting to the display.
[0070]
A model for obtaining a power spectrum of an image is generated in advance as an image feature of the target object before the object image recognition process, and the operation of the model generation means 7 will be described with reference to the flowchart of FIG.
[0071]
In the image database 61, a gray image file for each object as shown in FIG. 5 is stored as a model image together with the object name. When the nipper as shown in FIG. 5 is to be detected, the model image cutout unit 62 of the model image generating means 6 inputs the model image of “object name: nipper” from the image database 61 (step 1601), and FIG. Are sequentially cut out from characteristic areas in the object (step 1602).
[0072]
The model generation means 7 performs polar coordinate conversion on the circular images 1801 to 1803 input from the model image cutout unit 62 with the center of the circle as the center point in the model polar coordinate conversion unit 70, and the image after the polar coordinate conversion is performed. Then, the model frequency extraction unit 71 performs the two-dimensional discrete Fourier transform shown in (Equation 1), obtains the power spectrum of each frequency component by the equation (Equation 2) (step 1603), and obtains the power spectrum as shown in FIG. The object name and the coordinates of the local image in the model image are stored in the learning information database 5 (step 1604).
[0073]
Here, the coordinates of the local image in the model image are values in which the upper left corner of the model image is the origin and the coordinates of the center of the circle of the local image are expressed in the coordinate system in the model image.
[0074]
For all local images in the model image cut out in step 1602, the processing from step 1603 to step 1604 is performed, and the power spectrum is stored in the learning information database 5 together with the object name and the coordinates of the local image in the model image. (Step 1605).
[0075]
Next, the operation of the image recognition process will be described using the flowchart of FIG.
[0076]
First, image data as shown in FIG. 19 to be detected is input from the image input unit 11 (camera 210 or image database 211) of the input means 1 (step 1701). The image cutout unit 12 cuts out a circular local image having the same size as the local image of the model shown in FIG. 18 from the input image of FIG. 19 at a predetermined interval and outputs it together with the coordinates of the local image (step 1702).
[0077]
Here, the coordinates of the local image are values in which the upper left corner of the input image is the origin and the coordinates of the center of the circle of the local image are expressed in the coordinate system in the input image.
[0078]
The feature extraction unit 2 receives the image data from the image cutout unit 12, performs polar coordinate conversion with the center of the circle as the center point by the polar coordinate conversion unit 20, and then performs two-dimensional analysis shown in (Expression 1) by the frequency extraction unit 21. Discrete Fourier transform is performed, and the power spectrum of each frequency component is obtained by the equation shown in (Expression 2) (step 1703).
[0079]
When the collation means 3 inputs the power spectrum from the frequency extraction unit 21, first, the image feature collation unit 31 inputs the power spectrum of the model local image from the learning information database 5, as shown in the equation (3). Then, the sum of the squares of the differences between the square roots of the input and the model power spectrum at each frequency component is obtained as the distance dist. A distance dist smaller than a certain threshold T is extracted as a local image of a model similar to the input local image, and the coordinates of the local image of the model similar to the coordinates of the input local image are output as a pair (step 1704). .
[0080]
When the position estimation unit 32 inputs the input and the coordinate pair of the local image of the model from the image feature matching unit 31, the position estimation unit 32 outputs all the combinations of the position and angle of the object in the input image that can be estimated from the coordinate pair (step 1705). At this time, the similar input and the local image of the model are detected as similar even if the object in the image is rotated by an arbitrary angle in the image plane. Therefore, in the estimation of the position and angle of the object, the position when it is assumed that it is rotated by ◯ is calculated for each fixed angle, and a set of position and angle is output.
[0081]
The processing from step 1703 to step 1705 is performed for all input local images (step 1706), and the number of the same pairs of positions and angles output from the position estimation unit 32 is totalized by the totaling unit 33.
[0082]
If there is a total value larger than a certain threshold value (step 1707), it is determined that there is a nipper at that position / angle (step 1708). If there is no total value greater than a certain threshold value (step 1707), it is determined that no nipper exists in the input image (step 1709).
[0083]
When the counting unit 33 determines that the object is present, the output unit 4 displays it in the rectangular area 2001 as shown in FIG. 20, and outputs the position (5, 72) 2002 and the angle (12 degrees) 2003 ( Step 1710). This output is output from the output terminal 213 via the I / F unit 208.
[0084]
As described above, in the present embodiment, the model image cutout unit cuts out a local image of a certain size from the model image in advance, the model polar coordinate conversion unit 70 performs polar coordinate conversion of the model local image in advance, and the model frequency extraction unit 71 The power spectrum of the local image after polar coordinate conversion is calculated in advance, the image cutout unit 12 cuts out a local image having the same size as the model local image from the input image, and the polar coordinate conversion unit 20 performs polar coordinate conversion of the input local image. The frequency extraction unit 21 calculates the power spectrum of the local image after the polar coordinate conversion, and the image feature matching unit 31 extracts the one similar to the power spectrum of each input local image from the power spectrum of the model. The estimation unit 32 determines the coordinates in the input image and the model image for each of the similar input local image and model local image. Even when the object is rotating in the image plane by estimating the position and angle of the object in the input image from the coordinates, and counting the number of objects whose angles coincide with the estimated position by the counting unit 33 The presence / absence of an object can be determined from one model image, and when there is an object, its position and angle can be estimated, and the effect is great.
[0085]
In the above description, an example in which the image is a gray image and the image feature is a power spectrum has been described. However, the present invention can be similarly applied to a color image or a binary image, and not only the power spectrum but also each frequency component. The same can be implemented by using a phase angle or the like as an image feature.
[0086]
(Embodiment 4)
FIG. 21 is a block diagram of an image recognition apparatus according to Embodiment 4 of the present invention. In FIG. 21, 1 is an input means for generating image data to be processed, 11 is an image input unit for inputting a gray image of an object, and 12 is an image cutout for sequentially cutting out a local image of a certain size from the image of the image input unit 11. 2 and 2, a feature extraction unit that extracts an image feature by inputting an image from the input unit 1, and a frequency extraction unit 21 that receives a plurality of local images from the image cutout unit 12 and calculates a power spectrum for each of them. Is a feature space projection unit that projects a power spectrum input from the frequency extraction unit 11 as a vector onto a feature space that has been calculated in advance, and 3 is an image obtained by inputting image features from the feature extraction unit 2 and collated with the image features of the model. Collating means for estimating the presence / absence of an object and the position of the object, 31 is a model that has been calculated in advance from the vector input from the feature space projection unit 22 An image feature matching unit 32 that outputs a pair of coordinates in the images of an input having a similar vector and a local image of the model by matching with an image vector, and 32 is a pair of coordinates input from the image feature matching unit 31 A position estimator 33 for estimating and outputting the position of the object in the input image, and 33 sums up the positions of the objects in the input image estimated by the position estimator 32, and if there are many same positions, there is an object there. 4 is an output unit that inputs the presence / absence of the object and the position of the object from the collating means 3 and displays them on a display or the like.
[0087]
In addition, 5 is a feature space parameter calculated in advance from the power spectrum of the local image extracted from the model image of the detection target object, a vector when each power spectrum is projected onto the feature space, and the model image of the local image. 6 is a learning information database in which coordinates representing the position of the object and the object name are stored in advance, 6 is a model image generating unit that generates a local image from the model image of the detection target object, and 61 is a gray image of the detection target object together with the object name The stored image database 62 inputs a model image from the image database, cuts out a local image having the same size as the input local image, and outputs information on the position of the local image in the model image and image data together with the object name. A model image cutout unit 7 for inputting image data from the model image generation means 6 to extract image features and to detect the object name and position Model generation means 71 for outputting together with the information, 71 is a model frequency extraction unit for obtaining the power spectrum of the image data input from the model image cutout unit 62 and outputting it together with information on the object name and position, 72 is calculated by the model frequency extraction unit 71 The eigenspace is generated from all the vectors by using the power spectrum of each model local image as vector data, and each vector is projected onto the eigenspace. The eigenspace base vector and the projected vector together with the object name and position information are learned information database. 5 is a feature space generation unit to be stored in 5.
[0088]
As in the first embodiment, an image recognition apparatus can be realized by a computer as shown in FIG.
[0089]
The operation of the image recognition apparatus configured as described above will be described below with reference to the flowcharts of FIGS. FIG. 22 is a flowchart showing the operation of the model generation means 7, FIG. 23 is a flowchart showing the operation from inputting an image to outputting the result, and FIG. 5 is a diagram of the model image stored in the image database 61. FIG. 7 shows an example of an input image input by the image input unit 11, FIG. 12 shows an example of a region cut out by the model image cutout unit 62 for an image input from the image database 61, and FIG. This is an example in which the position of the object detected in 3 is displayed in a rectangle and output to the display of the output unit 4.
[0090]
Prior to the object image recognition process, the power spectrum of the image is obtained as an image feature of the target object in advance, and a model for projecting all the power spectrum onto the feature space is generated. This will be described with reference to the flowchart of FIG.
[0091]
In the image database 61, a gray image file for each object as shown in FIG. 5 is stored as a model image together with the object name. When a nipper as shown in FIG. 5 is to be detected, the model image cutout unit 62 of the model image generating means 6 inputs a model image of “object name: nipper” from the image database 61 (step 2201), and FIG. Are sequentially cut out from characteristic areas in the object (step 2202).
[0092]
The model generation means 7 performs a two-dimensional discrete Fourier transform shown in (Equation 1) on each rectangular image input from the model image cutout unit 62 by the model frequency extraction unit 71, and each frequency is expressed by the equation (Equation 2). The power spectrum of the component is obtained (step 2203-1).
[0093]
After performing the power spectrum calculation processing of step 2203-1 for all local images input from the model image cutout unit 62 (step 2203-2), the feature space generation unit 72 calculates the power spectrum of each local image as a vector. As data, an eigenspace is generated from all power spectrum vectors, and all vectors are projected onto the eigenspace (step 2203-3).
[0094]
The calculated eigenspace basis vector and the coordinates of the vector of each local image after eigenspace projection are stored in the learning information database 5 together with the object name and the coordinates of the local image in the model image (step 2204).
[0095]
Here, the coordinates of the local image in the model image are values in which the upper left corner of the model image is represented by the coordinate system in the model image with the upper left corner of the model image as the origin.
[0096]
Next, the operation of the image recognition process will be described using the flowchart of FIG.
[0097]
First, image data as shown in FIG. 7 to be detected is input from the image input unit 11 (camera 210 or image database 211) of the input means 1 (step 2301). The image cutout unit 12 cuts out a rectangular local image having the same size as the local image of the model shown in FIG. 12 from the input image in FIG. 7 and outputs it together with the coordinates of the local image (step 2302).
[0098]
Here, the coordinates of the local image are values in which the upper left corner of the input image is the origin and the coordinates of the upper left corner point of the local image are expressed in the coordinate system in the input image.
[0099]
The feature extraction unit 2 first inputs image data from the image cutout unit 12, performs a two-dimensional discrete Fourier transform shown in (Equation 1) in the frequency extraction unit 21, and calculates each frequency component according to the equation shown in (Equation 2). Find the power spectrum.
[0100]
Next, the feature space projection unit 22 inputs a base vector of the eigenspace from the learning information database 5 and projects the power spectrum vector calculated by the frequency extraction unit 21 into the eigenspace with the dimension reduced by (Equation 4). (Step 2303).
[0101]
[Expression 4]
Figure 0003659221
[0102]
When a vector is input from the feature space projection unit 22, the matching unit 3 first inputs a vector of a model local image from the learning information database in the image feature matching unit 31, and in the low-dimensional eigenspace used in Step 2303. The distance between the input local image vector and the model local image vector is obtained. A distance whose distance is smaller than a certain threshold T is extracted as a local image of a model similar to the input local image, and the coordinates of the local image of the model similar to the coordinates of the input local image are paired and output (step 2304).
[0103]
When the position estimation unit 32 inputs a pair of coordinates of the input and the local image of the model from the image feature matching unit 31, the position estimation unit 32 assumes that the object is in a parallel movement relationship in the input image and the model image. The position of the object in the input image is estimated from the pair and output (step 2305).
[0104]
The processing from step 2303 to step 2305 is performed for all the input local images (step 2306), and the number of the same positions output from the position estimation unit 32 is totaled by the totaling unit 33.
[0105]
If there is an aggregated value that is greater than a certain threshold S (step 2307), it is determined that there is a nipper at that position (step 2308). If there is no aggregated value greater than the predetermined threshold S (step 2307), it is determined that no nipper exists in the input image (step 2309).
[0106]
When the counting unit 33 determines that the object is present, the output unit 4 displays the position in the rectangular area 1402 as shown in FIG. 14 and outputs it (step 2310). This output is output from the output terminal 213 via the I / F unit 208.
[0107]
As described above, in the present embodiment, the model image cutout unit cuts out a local image of a certain size from the model image in advance, the model frequency extraction unit 71 calculates the power spectrum of the model local image in advance, and the feature space generation unit 72 calculates an eigenspace from all the power spectra of the model, projects all power vectors onto the eigenspace, and the image cutout unit 12 cuts out a local image having the same size as the local image of the model from the input image, The extraction unit 21 calculates the power spectrum of the input local image, the feature space projection unit 22 projects the input power spectrum onto the space with the dimension of the eigenspace generated by the feature space generation unit 72, and the image feature matching unit 31 is a model that extracts similar local input images from local images of the model in a low-dimensional eigenspace and estimates the position. 32 estimates the position of the object in the input image from the coordinates in the input image and the coordinates in the model image for each of the similar input local image and model local image, and the position estimated by the counting unit 33 matches. By counting the number of objects to be checked, matching can be performed in a low-dimensional space with a smaller amount of data, so that the presence or absence of an object can be determined even when it is partially concealed, and its position can be estimated when there is an object So the effect is great.
[0108]
In the above description, an example in which an image is a gray image and an image feature is a power spectrum has been described. However, the present invention can be similarly applied to a color image or a binary image. The same can be implemented by using a phase angle or the like as an image feature.
[0109]
【The invention's effect】
As described above, according to the present invention, an object can be detected with a small amount of model data by collating frequency information, which is a feature amount independent of the position of the object in the image, between the model image and the input image.
[0110]
Moreover, even if the object is moved or rotated in the image plane, or partially hidden, it can be detected with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of an image recognition apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a block configuration diagram of an image recognition apparatus using a computer according to Embodiment 1 of the present invention;
FIG. 3 is a flowchart showing a process flow of a model generation unit according to the first embodiment of the present invention.
FIG. 4 is a flowchart showing a flow of processing from an image input unit to an output unit in Embodiment 1 of the present invention.
FIG. 5 is a diagram illustrating an example of model images stored in an image database.
FIG. 6 is a diagram showing an example of a power spectrum of a model stored in a learning information database according to Embodiment 1 of the present invention.
FIG. 7 is a diagram showing an example of an input image in the embodiment of the present invention.
FIG. 8 is a diagram showing an example of a power spectrum of an input image in the first embodiment of the present invention.
FIG. 9 is a block configuration diagram of an image recognition apparatus according to Embodiment 2 of the present invention.
FIG. 10 is a flowchart showing a flow of processing of model generation means in Embodiment 2 of the present invention.
FIG. 11 is a flowchart showing a flow of processing from an image input unit to an output unit in Embodiment 2 of the present invention.
FIG. 12 is a diagram illustrating an example of a rectangular area cut out by the model image cutout unit according to Embodiments 2 and 4 of the present invention;
FIG. 13 is a diagram showing an example of a power spectrum of a model stored in a learning information database according to Embodiments 2 and 4 of the present invention.
FIG. 14 is a diagram illustrating an example of a detection result output by the output unit according to the second and fourth embodiments of the present invention.
FIG. 15 is a block configuration diagram of an image recognition apparatus according to Embodiment 3 of the present invention.
FIG. 16 is a flowchart showing a flow of processing of model generation means in Embodiment 3 of the present invention.
FIG. 17 is a flowchart showing a flow of processing from an image input unit to an output unit in Embodiment 3 of the present invention.
FIG. 18 is a diagram showing an example of a circular area cut out by a model image cutout unit according to Embodiment 3 of the present invention;
FIG. 19 is a diagram showing an example of an input image according to Embodiment 3 of the present invention.
FIG. 20 is a diagram illustrating an example of a detection result output by the output unit according to the third embodiment of the present invention.
FIG. 21 is a block configuration diagram of an image recognition apparatus according to Embodiment 4 of the present invention.
FIG. 22 is a flowchart showing the flow of processing of the model generation means in Embodiment 4 of the present invention.
FIG. 23 is a flowchart showing a flow of processing from the image input unit to the output unit in the fourth embodiment of the present invention.
FIG. 24 is a block diagram showing an example of a conventional image recognition apparatus.
FIG. 25 is a block diagram showing another example of a conventional image recognition apparatus.
[Explanation of symbols]
1 Input means
2 Feature extraction means
3 verification means
4 Output section
5 learning information database
6 Model image generation means
7 Model generation means
11 Image input section
12 Image clipping unit
20 Polar coordinate converter
21 Frequency extractor
22 Feature space projection unit
31 Image feature verification unit
32 Position estimation unit
33 Total Department
61 Image Database
62 Model image cutout unit
70 Model polar coordinate converter
71 Model frequency extractor
72 Feature space generator
201 computer
202 CPU
203 memory
204 Keyboard / Display
205 Storage medium unit
206-208 I / F unit
209 CPU bus
210 Camera
211 Image database
212 Learning Information Database
213 Output terminal

Claims (7)

入力画像から特定の物体を検出する装置において、画像を入力し、入力した画像から一定サイズの局所領域を入力局所画像として順次切り出して、各局所領域の画像内での位置を入力局所画像位置情報として入力局所画像と共に出力する入力手段と、前記画像入力手段から入力局所画像について、各局所画像の基準点を中心として極座標変換し、極座標変換画像として入力局所画像位置情報と共に出力する極座標変換部と、極座標変換画像の各空間周波数成分の周波数情報を算出し、入力周波数情報と入力局所画像位置情報とを出力する周波数抽出部とを備えた特徴抽出手段と、モデル画像から抽出した各局所画像の基準点を中心として極座標変換したモデル極座標変換画像の周波数情報であるモデル周波数情報とモデル画像内での位置情報であるモデル局所画像位置情報を予め保持している学習情報データベースと、前記特徴抽出手段からの各入力周波数情報をそれぞれモデル周波数情報と照合して、類似したモデル周波数情報を持つモデルの局所画像のモデル画像内での位置の情報を類似局所画像位置情報として前記入力局所画像位置情報と共に出力する画像特徴照合部と、前記各入力局所画像位置情報と類似局所画像位置情報の対からそれぞれ入力画像における対象物体の位置と対象物体の画像平面内での回転角度を推定し、推定した推定位置情報と、推定角度情報とを出力する位置推定部と、前記各推定位置情報と推定角度情報を集計して物体の有無を判断し、物体の位置と角度を出力する集計部とを備えた照合手段と、前記照合手段の結果を出力する出力部とを具備することを特徴とする画像認識装置。  In a device that detects a specific object from an input image, the image is input, a local area of a certain size is sequentially cut out from the input image as an input local image, and the position of each local area in the image is input local image position information An input unit that outputs with the input local image as a polar coordinate conversion unit for the input local image from the image input unit centered on the reference point of each local image, and a polar coordinate conversion image that is output together with the input local image position information; , Calculating the frequency information of each spatial frequency component of the polar coordinate transformation image, and outputting the input frequency information and the input local image position information, the feature extracting means, and the local image extracted from the model image Model frequency information, which is the frequency information of the model polar coordinate transformation image obtained by polar coordinate transformation around the reference point, and position information in the model image A model of a local image of a model having similar model frequency information by collating each input frequency information from the feature extraction means with model frequency information by learning information database holding certain model local image position information in advance An image feature matching unit that outputs position information in the image as similar local image position information together with the input local image position information, and a target in the input image from each pair of the input local image position information and similar local image position information. The position of the object and the rotation angle of the target object in the image plane are estimated, the estimated position information and the estimated angle information are output, and the estimated position information and the estimated angle information are totaled. A collating unit including a totaling unit that determines the presence or absence of an object and outputs the position and angle of the object; and an output unit that outputs a result of the collating unit. Image recognition apparatus according to claim and. 学習情報データベースのモデル周波数情報とモデル局所画像位置情報は、画像データベースに格納されているモデル画像から前記入力局所画像と同じサイズの局所画像をモデル局所画像として順次切り出して、モデル局所画像の基準点を中心として極座標変換したモデル極座標変換画像の各空間周波数成分の周波数情報を算出することを特徴とする請求項記載の画像認識装置。The model frequency information and the model local image position information in the learning information database are obtained by sequentially cutting out a local image having the same size as the input local image as a model local image from the model image stored in the image database. the image recognition apparatus according to claim 1, wherein calculating the frequency information of each spatial frequency component of the model polar coordinate conversion image polar coordinate conversion about the. 画像から特定の物体を検出する方法において、入力した画像から一定サイズの局所領域を順次抽出し、入力局所領域ごとに、基準点を中心とした極座標変換画像における空間周波数成分の周波数情報を入力周波数情報として算出し、各入力周波数情報に対して検出対象物体のモデル画像の局所画像から予め算出しておいた極座標変換画像の周波数情報の中から類似する周波数情報を抽出し、類似した周波数情報を持つ入力局所画像とモデル局所画像の組ごとに入力局所画像の入力画像内での位置とモデル局所画像のモデル画像内での位置から入力画像中の対象物体の位置と角度を推定し、前記推定位置と推定角度の両方が一致するものにより対象が存在すると判断することを特徴とする画像認識方法。  In a method for detecting a specific object from an image, local regions of a certain size are sequentially extracted from the input image, and the frequency information of the spatial frequency component in the polar coordinate transformation image centered on the reference point is input frequency for each input local region. It calculates as information, extracts similar frequency information from the frequency information of the polar coordinate conversion image calculated in advance from the local image of the model image of the detection target object for each input frequency information, the similar frequency information Estimate the position and angle of the target object in the input image from the position of the input local image in the input image and the position of the model local image in the model image for each set of input local image and model local image A method for recognizing an image, characterized in that it is determined that an object exists based on a match of both a position and an estimated angle. 空間周波数成分の周波数情報は、空間周波数成分の強度または位相のであることを特徴とする請求項記載の画像認識方法。4. The image recognition method according to claim 3 , wherein the frequency information of the spatial frequency component is intensity or phase of the spatial frequency component. 対象が存在するか判断は、前記推定位置と推定角度の両方が一致するもの数により判断することを特徴とする請求項記載の画像認識方法。4. The image recognition method according to claim 3 , wherein whether or not the object exists is determined by the number of objects in which both the estimated position and the estimated angle match. モデル画像の局所画像から予め算出しておいた極座標変換画像の周波数情報は、画像データベースに格納されているモデル画像から前記入力局所画像と同じサイズの局所画像をモデル局所画像として順次切り出して、モデル局所画像の基準点を中心として極座標変換したモデル極座標変換画像の各空間周波数成分の周波数情報を算出することを特徴とする請求項記載の画像認識方法。The frequency information of the polar coordinate conversion image calculated in advance from the local image of the model image is obtained by sequentially extracting a local image having the same size as the input local image from the model image stored in the image database as a model local image. 4. The image recognition method according to claim 3, wherein the frequency information of each spatial frequency component of the model polar coordinate conversion image obtained by performing polar coordinate conversion around the reference point of the local image is calculated. コンピュータにより画像認識を行うプログラムであって、入力した画像から一定サイズの局所領域を順次抽出し、入力局所領域ごとに、基準点を中心とした極座標変換画像における空間周波数成分の周波数情報を入力周波数情報として算出し、各入力周波数情報に対して検出対象物体のモデル画像の局所画像から予め算出しておいた極座標変換画像の周波数情報の中から類似する周波数情報を抽出し、類似した周波数情報を持つ入力局所画像とモデル局所画像の組ごとに入力局所画像の入力画像内での位置とモデル局所画像のモデル画像内での位置から入力画像中の対象物体の位置と角度を推定し、前記推定位置と推定角度の両方が一致するものにより対象が存在すると判断する画像認識プログラムを記録した記録媒体。A computer image recognition program that sequentially extracts local areas of a certain size from an input image, and for each input local area, the frequency information of spatial frequency components in a polar coordinate transformation image centered on a reference point is input frequency It calculates as information, extracts similar frequency information from the frequency information of the polar coordinate conversion image calculated in advance from the local image of the model image of the detection target object for each input frequency information, the similar frequency information Estimate the position and angle of the target object in the input image from the position of the input local image in the input image and the position of the model local image in the model image for each set of input local image and model local image A recording medium on which an image recognition program for determining that a target exists based on a match of both a position and an estimated angle is recorded.
JP2001376805A 2001-12-11 2001-12-11 Image recognition apparatus and method Expired - Fee Related JP3659221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001376805A JP3659221B2 (en) 2001-12-11 2001-12-11 Image recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001376805A JP3659221B2 (en) 2001-12-11 2001-12-11 Image recognition apparatus and method

Publications (2)

Publication Number Publication Date
JP2003178305A JP2003178305A (en) 2003-06-27
JP3659221B2 true JP3659221B2 (en) 2005-06-15

Family

ID=19184926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001376805A Expired - Fee Related JP3659221B2 (en) 2001-12-11 2001-12-11 Image recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP3659221B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005008590A1 (en) * 2003-07-17 2005-01-27 Matsushita Electric Industrial Co.,Ltd. Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program
JP3977373B2 (en) * 2004-12-08 2007-09-19 ザイオソフト株式会社 Communication terminal

Also Published As

Publication number Publication date
JP2003178305A (en) 2003-06-27

Similar Documents

Publication Publication Date Title
Cootes et al. Robust and accurate shape model fitting using random forest regression voting
US6430307B1 (en) Feature extraction system and face image recognition system
Bhattacharya et al. Offline signature verification using pixel matching technique
US7873189B2 (en) Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
JP3218004B2 (en) Test signature verification method
Walker et al. Locating Salient Object Features.
JP4947769B2 (en) Face collation apparatus and method, and program
JPH10177650A (en) Device for extracting picture characteristic, device for analyzing picture characteristic, and system for collating picture
US7158677B2 (en) Matching of discrete curves under affine transforms
US9076075B2 (en) Method and device for following an object in a sequence of at least two images
US20100246906A1 (en) Face recognition
JP4003465B2 (en) Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus
JP3659221B2 (en) Image recognition apparatus and method
Holden et al. Automatic facial point detection
JP2002032766A (en) Device and method for recognizing image
US20060088212A1 (en) Data analysis device and data recognition device
US7646918B2 (en) Systems and methods for recognizing objects in an image
Su et al. Automatic seal imprint verification systems using edge difference
Hammouche et al. Toward a real time view-invariant 3d action recognition
Lindenbaum On the amount of data required for reliable recognition
Hamouz et al. Hypotheses-driven affine invariant localization of faces in verification systems
JP2004178210A (en) Image processing method, image recognition method, and program for performing the method by computer
KR20030040680A (en) Method for detecting face from video data and apparatus thereof
EP4102452A1 (en) Re-identification device, re-identification program, and re-identification method
Muntasa Windowing System Facial Detection based on Gabor Kernel Filter, Fast Fourier Transform, and Probabilistic Learning Vector Quantization

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080325

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees