JP5048691B2 - Image recognition method and apparatus - Google Patents

Image recognition method and apparatus Download PDF

Info

Publication number
JP5048691B2
JP5048691B2 JP2009003011A JP2009003011A JP5048691B2 JP 5048691 B2 JP5048691 B2 JP 5048691B2 JP 2009003011 A JP2009003011 A JP 2009003011A JP 2009003011 A JP2009003011 A JP 2009003011A JP 5048691 B2 JP5048691 B2 JP 5048691B2
Authority
JP
Japan
Prior art keywords
image
feature amount
input image
marginalized
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009003011A
Other languages
Japanese (ja)
Other versions
JP2010160707A (en
Inventor
能臣 佐藤
Original Assignee
能臣 佐藤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 能臣 佐藤 filed Critical 能臣 佐藤
Priority to JP2009003011A priority Critical patent/JP5048691B2/en
Publication of JP2010160707A publication Critical patent/JP2010160707A/en
Application granted granted Critical
Publication of JP5048691B2 publication Critical patent/JP5048691B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、入力画像の中から特定の画像を判別して認識する画像認識方法に係り、特に、特定の画像を含むモデル画像に対して回転および/またはスケールの変換がなされた入力画像から特定の画像を効率良く判別するものに関する。   The present invention relates to an image recognition method for identifying and recognizing a specific image from input images, and in particular, specifying from an input image that has been rotated and / or scale-converted with respect to a model image including the specific image. It is related with what discriminate | determines an image efficiently.

従来の画像認識方法では、テンプレート・マッチングと呼ばれるものが主流であるが、このテンプレート・マッチングにあっては、入力画像に対して予め記憶手段に記憶されている複数個の画像を順次照合(マッチング)し、最も見込みのある画像を特定して、入力画像が何であるかを判別するものであった。   In the conventional image recognition method, what is called template matching is the mainstream. In this template matching, a plurality of images stored in the storage means in advance are sequentially compared with the input image (matching). The most probable image is identified to determine what the input image is.

このようなテンプレートマッチングの内、最も一般的なものは、エラスティック・バンチ・グラフ・マッチング(EBGM)(特許文献1参照)と呼ばれるもので、画像認識用に考え出されたアルゴリズムであり、このEBGMでは、入力画像およびモデル画像のそれぞれの上に座標(グラフ)を定義し、該グラフ上の各座標点をマッチング点として用いて判別するものである。   Among such template matching, the most common is called elastic bunch graph matching (EBGM) (see Patent Document 1), which is an algorithm devised for image recognition. In EBGM, coordinates (graphs) are defined on each of an input image and a model image, and each coordinate point on the graph is used as a matching point for discrimination.

具体的には、入力画像とモデル画像の対応するマッチング点において、各画像から抽出された特徴量の類似度の大きさとグラフの歪みの少なさで定義される評価関数を最大にするように座標点を移動させ、この評価関数が最大となったときの類似度を、入力画像とモデル画像との類似度とし、入力画像の中から特定の画像を識別するものである。   Specifically, at the matching points corresponding to the input image and the model image, the coordinates are set so as to maximize the evaluation function defined by the degree of similarity of the feature quantity extracted from each image and the distortion of the graph. The point is moved, and the similarity when the evaluation function is maximized is defined as the similarity between the input image and the model image, and a specific image is identified from the input image.

また、他のテンプレート・マッチングとしては、特徴量を求める演算処理において、入力画像中の所定の部位(例えば、入力画像が顔画像であれば、目、鼻、鼻孔、口、顎、額等)を検出し、この検出された各所定の部位の位置関係から、特に、入力画像内での顔画像の大きさを補正し、この補正された顔画像上の複数の位置から抽出された特徴量と、記憶手段により予め記憶されている複数の顔画像のそれぞれについて、前述の顔画像に対応する位置から抽出された特徴量とから類似度を算出し、類似度が最も高い値の画像を入力画像中の顔画像であると識別するものである(特許文献2参照)。   As another template matching, in a calculation process for obtaining a feature value, a predetermined part in the input image (for example, if the input image is a face image, eyes, nose, nostril, mouth, chin, forehead, etc.) In particular, the size of the face image in the input image is corrected from the detected positional relationship of each predetermined part, and feature amounts extracted from a plurality of positions on the corrected face image For each of the plurality of face images stored in advance by the storage means, the similarity is calculated from the feature amount extracted from the position corresponding to the face image, and the image having the highest similarity is input. The face image is identified as a face image (see Patent Document 2).

特表2004−505353号公報JP-T-2004-505353 特開2006−202049号公報JP 2006-02049 A

しかしながら、上述した画像認識方法にあっては、認識の精度を高めていくために、1つの入力画像およびモデル画像のそれぞれから複数箇所の特徴量を抽出するものであり、しかも、各画像からの特徴量の抽出には、計算量が非常に多いガボール・ウェーブレット変換を用いるものであり、加えて、入力画像に対して記憶手段に記憶されている全モデル画像とマッチングを実行する必要があるため、限られたハードウェア資源を用いて演算処理を行う際、時間がかかりすぎてリアルタイム処理が非常に難しく、特に、モデル画像が多いほど、その傾向は顕著であった。   However, in the image recognition method described above, in order to increase the accuracy of recognition, feature quantities at a plurality of locations are extracted from each of one input image and model image, and moreover, The feature amount extraction uses Gabor wavelet transform, which requires a large amount of calculation. In addition, it is necessary to perform matching with all model images stored in the storage means for the input image. When performing arithmetic processing using limited hardware resources, it takes too much time and real-time processing is very difficult. In particular, the tendency is more remarkable as the number of model images increases.

本発明は、上述した問題点を解決するためになされたものである。   The present invention has been made to solve the above-described problems.

請求項1に係る発明は、複数の周波数成分と複数の方位成分との二次元マトリックスで構成された一群のガボールフィルタによるガボール・ウェーブレット変換を用いて、入力画像とモデル画像のそれぞれから第1の特徴量を抽出し、これら第1の特徴量から所定の演算により第2の特徴量を算出して前記入力画像と前記モデル画像とを比較する画像認識方法であって、前記入力画像および前記モデル画像それぞれの中心点を基準として前記ガボール・ウェーブレット変換を用いて第1の特徴量を抽出する第1のステップと、前記第1の特徴量から、下記数式1および下記数式2を用いて第2の特徴量を算出する第2のステップと、この第2のステップにおいて算出された第2の特徴量の内、前記入力画像から抽出された第1の特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものが入力画像スケール・マージナライズド特徴量であり、前記入力画像から抽出された第1の特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものが入力画像回転・マージナライズド特徴量であり、前記モデル画像から抽出された特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものがモデル画像スケール・マージナライズド特徴量であり、前記モデル画像から抽出された特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものがモデル画像回転・マージナライズド特徴量であり、前記各周波数成分において、前記入力画像スケール・マージナライズド特徴量と前記モデル画像スケール・マージナライズド特徴量とから下記数式3によりスケール変換パラメータに関する類似度を算出すると共に、前記各方位成分において、前記入力画像回転・マージナライズド特徴量と前記モデル画像回転・マージナライズド特徴量とから下記数式4により回転変換パラメータに関する類似度を算出する第3のステップと、前記スケール変換パラメータに関する類似度の内、最大の類似度となるスケール変換パラメータと、前記回転変換パラメータに関する類似度の内、最大の類似度となる回転変換パラメータとを割り出す第4のステップとを含んでいる画像認識方法である。   The invention according to claim 1 uses a Gabor wavelet transform by a group of Gabor filters composed of a two-dimensional matrix of a plurality of frequency components and a plurality of azimuth components, from each of an input image and a model image. An image recognition method for extracting a feature amount, calculating a second feature amount from the first feature amount by a predetermined calculation, and comparing the input image with the model image, the input image and the model A first step of extracting a first feature amount using the Gabor wavelet transform with the center point of each image as a reference, and a second step using the following Equation 1 and Equation 2 from the first feature amount. A second step of calculating the feature amount of the first feature amount extracted from the input image among the second feature amount calculated in the second step. What is calculated for the plurality of azimuth components for each frequency component is an input image scale / marginalized feature amount, and the first feature amount extracted from the input image is calculated for the plurality of frequency components for each azimuth component. What is calculated is the input image rotation / marginalized feature amount, and the feature amount extracted from the model image is calculated for the plurality of azimuth components for each frequency component is the model image scale marginalized feature amount, A feature amount extracted from a model image is calculated for each of the plurality of frequency components for each azimuth component is a model image rotation / marginalized feature amount, and in each frequency component, the input image scale / marginalized feature amount and From the model image scale and marginalized feature quantity, the following number 3 is used to calculate the similarity with respect to the scale conversion parameter, and with respect to each azimuth component, the similarity with respect to the rotation conversion parameter is calculated from the input image rotation / marginalized feature quantity and the model image rotation / marginalized feature quantity by the following formula 4. And determining a scale conversion parameter having the maximum similarity among the similarities relating to the scale conversion parameter, and a rotation conversion parameter having the maximum similarity among the similarities relating to the rotation conversion parameter. An image recognition method including the fourth step.

請求項2に係る発明は、請求項1記載の画像認識方法において、さらに、スケール変換パラメータに関する類似度の内、最大の類似度と、回転変換パラメータに関する類似度の内、最大の類似度とから、入力画像内に、モデル画像中に表示された特定画像が含まれているか否かを判別する第5のステップとを含んでいるものである。   According to a second aspect of the present invention, in the image recognition method according to the first aspect, the maximum similarity among the similarities regarding the scale conversion parameters and the maximum similarity among the similarities regarding the rotation conversion parameters. And a fifth step of determining whether or not the specific image displayed in the model image is included in the input image.

請求項3に係る発明は、複数の空間周波数成分と複数の方位成分との二次元マトリックスで構成された一群のガボールフィルタによるガボール・ウェーブレット変換を用いて、入力画像とモデル画像のそれぞれから第1の特徴量を抽出し、これら第1の特徴量から所定の演算により第2の特徴量を算出して前記入力画像と前記モデル画像とを比較する画像認識装置であって、前記入力画像を受信する画像入力手段と、この画像入力手段に接続され、該画像入力手段が受信した前記入力画像を記憶すると共に、前記モデル画像を予め記憶しておく画像記憶手段と、この画像記憶手段は、前記入力画像を記憶する入力画像記憶部と、前記モデル画像を記憶するモデル画像記憶部とを有し、前記画像記憶手段に接続され、該画像記憶手段から前記入力画像および前記モデル画像を読み込んで演算する演算手段と、この演算手段は、前記入力画像および前記モデル画像それぞれの中心点を基準としてガボール・ウェーブレット変換を用いて前記第1の特徴量を抽出するガボール・ウェーブレット変換部と、前記第1の特徴量から、下記数式1および下記数式2を用いて第2の特徴量を算出するマージナライズド特徴量演算部と、このマージナライズド特徴量演算部において算出された第2の特徴量の内、前記入力画像から抽出された第1の特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものが入力画像スケール・マージナライズド特徴量であり、前記入力画像から抽出された第1の特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものが入力画像回転・マージナライズド特徴量であり、前記モデル画像から抽出された特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものがモデル画像スケール・マージナライズド特徴量であり、前記モデル画像から抽出された特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものがモデル画像回転・マージナライズド特徴量であり、前記各周波数成分において、前記入力画像スケール・マージナライズド特徴量と前記モデル画像スケール・マージナライズド特徴量とから下記数式3によりスケール変換パラメータに関する類似度を算出すると共に、前記各方位成分において、前記入力画像回転・マージナライズド特徴量と前記モデル画像回転・マージナライズド特徴量とから下記数式4により回転変換パラメータに関する類似度を算出する類似度演算部と、前記スケール変換パラメータに関する類似度の内、最大の類似度となるスケール変換パラメータと、前記回転変換パラメータに関する類似度の内、最大の類似度となる回転変換パラメータとを割り出す変換状態演算部とを備えている画像認識装置である。   According to a third aspect of the present invention, first from each of an input image and a model image using a Gabor wavelet transform by a group of Gabor filters composed of a two-dimensional matrix of a plurality of spatial frequency components and a plurality of orientation components. An image recognition device that extracts a feature amount of the first feature amount, calculates a second feature amount from the first feature amount by a predetermined calculation, and compares the input image with the model image, and receives the input image An image input unit that is connected to the image input unit, stores the input image received by the image input unit, and stores the model image in advance, and the image storage unit includes: An input image storage unit for storing an input image; and a model image storage unit for storing the model image. The input image storage unit is connected to the image storage unit. An arithmetic unit that reads and calculates an image and the model image, and the arithmetic unit extracts the first feature amount using a Gabor wavelet transform based on a center point of each of the input image and the model image. A wavelet transform unit, a marginalized feature amount computing unit that calculates a second feature amount from the first feature amount using Equation 1 and Equation 2 below, and a first calculated by the marginalized feature amount computation unit Of the two feature quantities, the first feature quantity extracted from the input image is calculated for the plurality of azimuth components for each frequency component is an input image scale / marginalized feature quantity. The extracted first feature value calculated for the plurality of frequency components for each of the azimuth components is the input image processing. A marginalized feature amount, which is a feature amount extracted from the model image and calculated for the plurality of azimuth components for each frequency component, is a model image scale marginalized feature amount and is extracted from the model image A feature amount calculated for each of the plurality of frequency components for each azimuth component is a model image rotation / marginalized feature amount, and in each frequency component, the input image scale / marginalized feature amount and the model image scale / marginalized feature amount are calculated. The similarity with respect to the scale conversion parameter is calculated from the feature amount by the following equation (3), and the rotation conversion is performed by the following equation (4) from the input image rotation / marginalized feature amount and the model image rotation / marginalized feature amount in each azimuth component. Parameters A similarity calculation unit that calculates a similarity, a scale conversion parameter that is the maximum similarity among the similarities related to the scale conversion parameter, and a rotation that is the maximum similarity among the similarities related to the rotation conversion parameter The image recognition apparatus includes a conversion state calculation unit that calculates conversion parameters.

請求項4に係る発明は、請求項3記載の画像認識装置において、演算手段に接続され、該演算手段により算出されたスケール変換パラメータに関する類似度の内、最大の類似度と、回転変換パラメータに関する類似度の内、最大の類似度とから、入力画像内に、モデル画像中に表示された特定画像が含まれているか否かを判別する判別手段とを備えているものである。   According to a fourth aspect of the present invention, in the image recognition apparatus according to the third aspect, the maximum similarity and the rotation conversion parameter among the similarities related to the scale conversion parameter calculated by the calculation means are connected to the calculation means. Judgment means for discriminating whether the specific image displayed in the model image is included in the input image from the maximum similarity among the similarities is provided.

請求項1記載の画像認識方法によれば、入力画像およびモデル画像それぞれの中心点を基準としてガボール・ウェーブレット変換を用いて抽出した第1の特徴量に対し所定の演算を行い、第2の特徴量である入力画像スケール・マージナライズド特徴量、入力画像回転・マージナライズド特徴量、モデル画像スケール・マージナライズド特徴量およびモデル画像回転・マージナライズド特徴量を算出し、これら第2の特徴量により画像認識を行うこと、つまり、特徴量の抽出を画像の中心点のみを基準とすると共に、計算量の多いガボール・ウェーブレット変換により得られた第1の特徴量を、所定の演算により第2の特徴量であるマージナライズド特徴量に集約して画像認識を行うため、
数値計算による演算量を可及的に減らし、限られたハードウェア資源にあって、該数値計算を迅速かつ的確に行うことができる。
According to the image recognition method of the first aspect, a predetermined calculation is performed on the first feature amount extracted using the Gabor wavelet transform with reference to the center point of each of the input image and the model image, and the second feature is obtained. Calculating an input image scale / marginalized feature amount, an input image rotation / marginalized feature amount, a model image scale / marginalized feature amount, and a model image rotation / marginalized feature amount, and performing image recognition using these second feature amounts That is, the feature quantity is extracted based on only the center point of the image, and the first feature quantity obtained by the Gabor wavelet transform with a large amount of calculation is converted into a marginalized second feature quantity by a predetermined calculation. In order to perform image recognition by collecting features,
The amount of calculation by numerical calculation can be reduced as much as possible, and the numerical calculation can be performed quickly and accurately with limited hardware resources.

請求項2記載の発明によれば、請求項1記載の画像認識方法の効果に加え、スケール変換パラメータに関する類似度の内、最大の類似度と、回転変換パラメータに関する類似度の内、最大の類似度とから、入力画像内に、モデル画像中に表示された特定画像が含まれているか否かを判別する第5のステップとを含んでいるため、
入力画像内に、モデル画像中に表示された特定画像が存在するか否かを判別することができる。
According to the second aspect of the present invention, in addition to the effect of the image recognition method according to the first aspect, the maximum similarity among the similarities regarding the scale conversion parameter and the maximum similarity among the similarities regarding the rotation conversion parameter. And the fifth step of determining whether or not the specific image displayed in the model image is included in the input image.
It is possible to determine whether or not the specific image displayed in the model image exists in the input image.

請求項3記載の画像認識装置によれば、データの演算を行う演算手段は、入力画像およびモデル画像それぞれの中心点を基準としてガボール・ウェーブレット変換を用いて前記第1の特徴量を抽出するガボール・ウェーブレット変換部と、第1の特徴量から、数式1および数式2を用いて第2の特徴量を算出するマージナライズド特徴量演算部とを有していること、つまり、特徴量の抽出を画像の中心点のみを基準とすると共に、計算量の多いガボール・ウェーブレット変換により得られた第1の特徴量を、所定の演算により第2の特徴量であるマージナライズド特徴量に集約して画像認識を行うため、
数値計算による演算量を可及的に減らし、限られたハードウェア資源にあって、該数値計算を迅速かつ的確に行うことができる。
According to an image recognition apparatus as set forth in claim 3, the computing means for computing the data extracts the first feature amount using the Gabor wavelet transform with reference to the center point of each of the input image and the model image. A wavelet transform unit and a marginalized feature amount calculation unit that calculates the second feature amount from the first feature amount using Equations 1 and 2; The first feature value obtained by the Gabor wavelet transform with a large amount of calculation is aggregated into the marginalized feature value as the second feature value by a predetermined calculation. To do
The amount of calculation by numerical calculation can be reduced as much as possible, and the numerical calculation can be performed quickly and accurately with limited hardware resources.

請求項4記載の画像認識装置によれば、請求項3記載の画像認識装置の効果に加え、スケール変換パラメータに関する類似度の内、最大の類似度と、回転変換パラメータに関する類似度の内、最大の類似度とから、入力画像内に、モデル画像中に表示された特定画像が含まれているか否かを判別する判別手段を備えているため、
入力画像内に、モデル画像中に表示された特定画像が存在するか否かを判別することができる。
According to the image recognition apparatus of the fourth aspect, in addition to the effect of the image recognition apparatus of the third aspect, the maximum similarity among the similarities regarding the scale conversion parameter and the maximum among the similarities regarding the rotation conversion parameter. Since there is a determination means for determining whether or not the specific image displayed in the model image is included in the input image from the similarity of
It is possible to determine whether or not the specific image displayed in the model image exists in the input image.

本発明に係る画像認識装置の構成の一例を示した概略的ブロック図である。It is the schematic block diagram which showed an example of the structure of the image recognition apparatus which concerns on this invention. 本発明に係る画像認識方法を説明するための画像例であり、図2(a)は入力画像を、図2(b)はモデル画像をそれぞれ示している。It is an example of an image for explaining an image recognition method concerning the present invention, and Drawing 2 (a) shows an input picture and Drawing 2 (b) shows a model picture, respectively. ガボール・カーネルの一例を示した概略図であり、図3(a)はガボール・カーネルの斜視図を、図3(b)は一群のガボール・カーネルの二次元図の一例をそれぞれ示している。FIG. 3A is a schematic view showing an example of a Gabor kernel, FIG. 3A is a perspective view of the Gabor kernel, and FIG. 3B is an example of a two-dimensional view of a group of Gabor kernels. 図2の入力画像とモデル画像との対応関係を示した図である。It is the figure which showed the correspondence of the input image of FIG. 2, and a model image. ガボール・ウェーブレット変換における周波数成分と方位成分とを二次元マトリックスに展開すると共に、スケール・マージナライズド特徴量および回転・マージナライズド特徴量との関係を示した図である。It is the figure which showed the relationship between a scale marginalized feature-value and a rotation marginalized feature-value while developing the frequency component and azimuth | direction component in a Gabor wavelet transform to a two-dimensional matrix. 類似度の算出における入力画像とモデル画像との対応関係の例を示した図であり、図6(a)は周波数成分の例を、図6(b)は方位成分の例をそれぞれ示している。FIGS. 6A and 6B are diagrams illustrating an example of a correspondence relationship between an input image and a model image in calculation of similarity, FIG. 6A illustrates an example of a frequency component, and FIG. 6B illustrates an example of a direction component. . 本発明に係る画像認識方法を用いた数値実験による実験結果を示した図であり、図7(a)は入力画像サイズと類似度との関係を、図7(b)は回転角と類似度との関係をそれぞれ示している。FIGS. 7A and 7B are diagrams illustrating experimental results of numerical experiments using the image recognition method according to the present invention, in which FIG. 7A shows the relationship between the input image size and the similarity, and FIG. 7B shows the rotation angle and the similarity. The relationship is shown respectively. 入力画像上の特徴量抽出点(白色のドットの点)を示した図である。It is the figure which showed the feature-value extraction point (point of a white dot) on an input image. 数値実験3の検出率の結果を示した図である。It is the figure which showed the result of the detection rate of the numerical experiment 3.

本発明の画像認識装置の一実施例を、図1を参照して説明する。図1において、Aは本発明に係る画像認識装置であり、画像認識装置Aは、複数の空間周波数成分と複数の方位成分との二次元マトリックスで構成された一群のガボールフィルタによるガボール・ウェーブレット変換を用いて、入力画像とモデル画像のそれぞれから第1の特徴量を抽出し、これら第1の特徴量から所定の演算により第2の特徴量を算出して入力画像とモデル画像とを比較するものであって、概略的に、画像入力手段2と、画像記憶手段3と、演算手段4とにより構成されている。   An embodiment of the image recognition apparatus of the present invention will be described with reference to FIG. In FIG. 1, A is an image recognition apparatus according to the present invention, and the image recognition apparatus A is a Gabor wavelet transform using a group of Gabor filters composed of a two-dimensional matrix of a plurality of spatial frequency components and a plurality of orientation components. Is used to extract a first feature value from each of the input image and the model image, calculate a second feature value from the first feature value by a predetermined calculation, and compare the input image and the model image In general, the image input unit 2, the image storage unit 3, and the calculation unit 4 are configured.

画像入力手段2は、例えば、スチルカメラやビデオカメラなどの撮影手段1により撮影した入力画像a(図2(a)参照)やUSBメモリなどの外部記憶手段7から取り込んだ入力画像aを受信するものであり、受信する入力画像aはアナログ信号あるいはデジタル信号のいずれであってもよいが、これらの信号は、この画像入力手段2に設けられた信号変換装置(不図示)によりモノクロのデジタルデータに変換して用いられる。   The image input unit 2 receives, for example, an input image a (see FIG. 2A) captured by the imaging unit 1 such as a still camera or a video camera, or an input image a captured from the external storage unit 7 such as a USB memory. The input image a to be received may be either an analog signal or a digital signal. These signals are converted into monochrome digital data by a signal conversion device (not shown) provided in the image input means 2. Used by converting to

画像記憶手段3は、画像入力手段2に接続され、画像入力手段2が受信した入力画像aを記憶すると共に、モデル画像b(図2(b)参照)を予め記憶しておくもので、例えば、公知の磁気記録装置や光磁気記録装置、半導体メモリ装置などが用いられる。この画像記憶手段3は、入力画像aを記憶する入力画像記憶部31と、モデル画像bを記憶するモデル画像記憶部32とを有する。なお、モデル画像bも入力画像aと同様に、撮影手段1や外部記憶手段7から画像入力手段2を介して取り込むことができる。   The image storage means 3 is connected to the image input means 2 and stores the input image a received by the image input means 2 and also stores the model image b (see FIG. 2B) in advance. Known magnetic recording devices, magneto-optical recording devices, semiconductor memory devices, and the like are used. The image storage unit 3 includes an input image storage unit 31 that stores an input image a and a model image storage unit 32 that stores a model image b. Note that the model image b can also be captured from the photographing unit 1 or the external storage unit 7 via the image input unit 2 in the same manner as the input image a.

演算手段4は、画像記憶手段3に接続され、該画像記憶手段3から入力画像aおよびモデル画像bを読み込んで、これらの画像データに対してガボール・ウェーブレット変換を行い、後述するように、第1の特徴量JL l,kを求めたり、得られた第1の特徴量JL l,kから第2の特徴量XL k、YL l(スケールおよび回転・マージナライズド特徴量)を求めたり、スケールおよび回転に関する類似度Ss、Srを求めて入力画像aとモデル画像bとの対応関係を割り出したりするものであり、入力画像aとモデル画像bとの間のスケール(サイズ)に関する対応関係(以下、「スケール変換状態」という。)および/または回転に関する対応関係(以下、「回転変換状態」という。)が予め分かっていない状態において、最も可能性の高いスケールおよび回転変換状態を割り出すものである。 The calculation means 4 is connected to the image storage means 3, reads the input image a and the model image b from the image storage means 3, performs Gabor wavelet transform on these image data, and, as will be described later, The first feature quantity J L l, k is obtained, or the second feature quantity X L k , Y L l (scale and rotation / marginalized feature quantity) is obtained from the obtained first feature quantity J L l, k . Or calculating the correspondence S between the input image a and the model image b by obtaining the similarity Ss, Sr related to the scale and rotation, and the correspondence with respect to the scale (size) between the input image a and the model image b. In the state where the relationship (hereinafter referred to as “scale conversion state”) and / or the correspondence relationship regarding rotation (hereinafter referred to as “rotation conversion state”) is not known in advance, the most likely scale And the rotation conversion state.

この演算手段4は、図1に示したように、ガボール・ウェーブレット変換を用いて第1の特徴量JL l,kを抽出するガボール・ウェーブレット変換部41と、第1の特徴量JL l,kから第2の特徴量XL k、YL lを算出するマージナライズド特徴量演算部42と、第2の特徴量XL k、YL lからスケールおよび回転変換パラメータs、rに関する類似度Ss、Srを算出する類似度演算部43と、スケールおよび回転変換パラメータs、rに関する類似度Ss、Srの内、最大の類似度Ss’、Sr’となるスケールおよび回転変換パラメータs’、r’を割り出す変換状態演算部44とにより構成されている。 As shown in FIG. 1, the computing means 4 includes a Gabor wavelet transform unit 41 that extracts a first feature quantity J L l, k using Gabor wavelet transform, and a first feature quantity J L l. second feature quantity X L k from k, Y L l and Majinaraizudo feature calculation unit 42 for calculating a second feature quantity X L k, Y L l from the scale and rotation transformation parameter s, the similarity for r The similarity calculation unit 43 for calculating Ss and Sr, and the scale and rotation conversion parameters s ′ and r having the maximum similarity Ss ′ and Sr ′ among the similarities Ss and Sr related to the scale and rotation conversion parameters s and r And a conversion state calculation unit 44 for determining '.

ところで、上述した演算手段4には判別手段5を接続できるもので、この判別手段5は、後述するように、演算手段4により算出されたスケール変換パラメータsに関する類似度Ssの内、最大の類似度Ss’と、回転変換パラメータrに関する類似度Srの内、最大の類似度Sr’とから、入力画像a内に、モデル画像b中に表示された特定の画像(以下、「特定画像」という。本実施例にあっては、図2(b)に図示した顔画像)が含まれているか否かを判別するものである。   By the way, the determination means 5 can be connected to the calculation means 4 described above, and this determination means 5 is the largest similarity among the similarities Ss related to the scale conversion parameter s calculated by the calculation means 4, as will be described later. A specific image (hereinafter referred to as “specific image”) displayed in the model image b in the input image a from the degree Ss ′ and the maximum similarity Sr ′ of the similarity Sr related to the rotation transformation parameter r. In this embodiment, it is determined whether or not the face image shown in FIG.

次に、上述した構成の画像認識装置Aにより実行される画像認識方法について、図1〜図6を参照して以下に説明する。なお、画像入力手段2により入力される画像が人の顔画像である場合を例にとって説明する。   Next, an image recognition method executed by the image recognition apparatus A configured as described above will be described below with reference to FIGS. An example in which the image input by the image input unit 2 is a human face image will be described.

まず、画像記憶手段3のモデル画像記憶部32には、図2(b)に示したようなモデル画像bが、例えば、図1に示したように、USBメモリなどの外部記憶手段7から画像入力手段2を介して取り込まれ、記憶されているものとする。   First, in the model image storage unit 32 of the image storage means 3, a model image b as shown in FIG. 2B is received from the external storage means 7 such as a USB memory as shown in FIG. It is assumed that it is taken in via the input means 2 and stored.

また、画像認識の対象となる入力画像aの顔は、例えば、撮影手段1により撮影され、画像入力手段2を介して画像記憶手段3の入力画像記憶部31に記憶されるもので、この入力画像aは、モデル画像bの顔画像に対して相対的に回転および/またはスケールの変換が施され、そのスケールおよび回転変換状態は予め判らないものとする。なお、入力画像aおよびモデル画像b内における顔画像は、各画像a、bの中心に位置しているものとする。   Also, the face of the input image a that is the object of image recognition is captured by, for example, the image capturing unit 1 and stored in the input image storage unit 31 of the image storage unit 3 via the image input unit 2. The image a is subjected to rotation and / or scale conversion relative to the face image of the model image b, and the scale and rotation conversion state are not known in advance. It is assumed that the face image in the input image a and the model image b is located at the center of the images a and b.

そして、画像記憶手段3に記憶された入力画像aのデータを演算手段4のガボール・ウェーブレット変換部41に読み込んで、入力画像aの中心点を基準としてガボール・ウェーブレット変換部41において第1の特徴量JI l,k(JL l,k)を抽出する。この第1の特徴量JL l,kは、下記数式1および数式2で示したガボール・ウェーブレット変換により算出されるものである。なお、第1の特徴量Jに付された上付き文字”L”は、入力画像aとモデル画像bとを区別する記号であり、入力画像aに関するものには”I”を、モデル画像bに関するものには”M”をそれぞれ表記している。
ここで、Iはガボール・ウェーブレット変換対象となる画像(入力画像aやモデル画像b)、xベクトルは各画像上の位置座量、x0ベクトルはガボール・カーネルの中心位置座標で、数式2の{ }内の第2項は直流成分を0にするための補正項であり、σはガボール・カーネルの基準となる大きさを表している。また、数式1および数式2中のaベクトル、l、kは下記数式3による。
ここで、a0はガボール・カーネルのスケールファクタ、lは周波数成分で、mはその成分数であり、周波数成分lは、ガボール・カーネルの大きさに対応する。また、kは方位成分で、nはその成分数であり、ガボール・カーネルを回転させた状態に対応する。
Then, the data of the input image a stored in the image storage unit 3 is read into the Gabor wavelet transform unit 41 of the calculation unit 4, and the Gabor wavelet transform unit 41 uses the center point of the input image a as a reference in the first feature. The quantity J I l, k (J L l, k ) is extracted. The first feature amount J L l, k is calculated by the Gabor wavelet transform expressed by the following formulas 1 and 2. The superscript “L” attached to the first feature amount J is a symbol for distinguishing the input image a from the model image b, and “I” is used for the input image a and the model image b. "M" is indicated for each of the items related to.
Here, I is an image (input image a or model image b) to be subjected to Gabor wavelet transformation, x vector is a position locus on each image, x 0 vector is a center position coordinate of Gabor kernel, The second term in {} is a correction term for setting the direct current component to 0, and σ represents the reference size of the Gabor kernel. Further, the a vector, l, and k in Expression 1 and Expression 2 are according to Expression 3 below.
Here, a 0 is the scale factor of the Gabor kernel, l is the frequency component, m is the number of components, and the frequency component l corresponds to the size of the Gabor kernel. Further, k is an azimuth component, and n is the number of components, which corresponds to a state where the Gabor kernel is rotated.

また、画像記憶手段3に記憶されたモデル画像bのデータも、同様に、演算手段4のガボール・ウェーブレット変換部41においてモデル画像bの中心点を基準として第1の特徴量JM l,kを求める(第1のステップS1)。 Similarly, the data of the model image b stored in the image storage unit 3 is also the first feature amount J M l, k with the center point of the model image b as a reference in the Gabor wavelet transform unit 41 of the calculation unit 4. (First step S1).

なお、このガボール・ウェーブレット変換(数式1、2)は、画像のデータから該画像の特徴を的確に抽出可能な優れた変換方法であり、計算量は多いものの、照明の変化などの影響を受けにくいもので、脊椎動物の1次視覚野の働きをよく表現したモデルとして知られている。   The Gabor wavelet transform (Equations 1 and 2) is an excellent conversion method that can accurately extract the features of the image from the image data. Although the amount of calculation is large, it is affected by changes in illumination. It is a difficult model and is known as a model that well represents the function of the primary visual cortex of vertebrates.

ところで、図3(a)は、上述したガボール・カーネルの一例を示したものであり、複数の周波数成分lと複数の方位成分kとの二次元マトリックスで表される一群のガボール・カーネルにより構成されているものである。図3(b)は、この一群のガボール・カーネルを二次元的に例示したもの(この例は、m=2、n=3)である。   Incidentally, FIG. 3A shows an example of the above-described Gabor kernel, which is composed of a group of Gabor kernels represented by a two-dimensional matrix of a plurality of frequency components l and a plurality of orientation components k. It is what has been. FIG. 3B is a two-dimensional illustration of this group of Gabor kernels (in this example, m = 2, n = 3).

モデル画像bの中心点(例えば、図4の顔画像の鼻頂部)を基準として抽出される特徴量JM l,kは、図5の領域10(太枠)内に示した二次元マトリックスのように、mf×n個のガボール・ウェーブレット変換値の集合で構成されている。ここで、mfは基本周波数成分数、nは方位成分数である。 The feature quantity J M l, k extracted with reference to the center point of the model image b (for example, the nasal apex of the face image in FIG. 4) is the two-dimensional matrix shown in the region 10 (thick frame) in FIG. In this way, it is composed of a set of mf × n Gabor wavelet transform values. Here, mf is the number of fundamental frequency components, and n is the number of azimuth components.

また、入力画像aの中心点を基準として抽出される特徴量JI l,kは、図5の領域11(破線枠)内に示した二次元マトリックスのように、(md+mf+mu)×n個のガボール・ウェーブレット変換値の集合で構成されている。この入力画像aから抽出される特徴量JI l,kの周波数成分数mは、図4の顔画像上に図示した極座標で表したとき、基本周波数成分数mf(図4の実線で示した部位)に、半径方向における基本周波数成分の外側の増分数mdと内側の増分数muと(図4の破線で示した部位)を加えたものである。 Further, the feature quantity J I l, k extracted with the center point of the input image a as a reference is (md + mf + mu) × n like the two-dimensional matrix shown in the region 11 (broken line frame) in FIG. It consists of a set of Gabor wavelet transform values. The frequency component number m of the feature quantity J I l, k extracted from the input image a is represented by the basic frequency component number mf (shown by the solid line in FIG. 4) when represented by the polar coordinates shown on the face image of FIG. 4), the number of increments md outside the fundamental frequency component in the radial direction and the number of increments mu inside (indicated by the broken line in FIG. 4) are added.

これは、入力画像a中の顔画像のサイズが、モデル画像b中の顔画像のサイズに対して大きいか否かが不明であるため、基本周波数成分の両側に周波数成分を拡張し、大きさが不明な入力画像a中の顔画像のサイズに対して適宜対応できるようにするためである。   This is because it is unclear whether the size of the face image in the input image a is larger than the size of the face image in the model image b. This is because it is possible to appropriately cope with the size of the face image in the input image a with unknown.

ところで、入力画像aとモデル画像bとのスケール変換状態はスケール変換パラメータsにより、入力画像aとモデル画像bとの回転変換状態は回転変換パラメータrにより対応づけられる。   Incidentally, the scale conversion state between the input image a and the model image b is associated with the scale conversion parameter s, and the rotation conversion state between the input image a and the model image b is associated with the rotation conversion parameter r.

ここで、スケール変換パラメータsの数は(md+1+mu)個であり、s={−md,−(md−1),・・・,−1,0,+1,・・・,(mu−1),mu}の値をとるもので、例えば、s=0の場合、入力画像aの顔画像のサイズがモデル画像bのものと同じであることを意味し、s=+1の場合、入力画像aの顔画像のサイズがモデル画像bのものに比べ、1サイズ分大きいことを意味する。また、回転変換パラメータrの数は、方位成分数nと同数に定めることができ、かかる場合、この回転変換パラメータrは、r={0,1,・・・,n−1}の値をとるもので、例えば、r=1の場合、モデル画像bに対して入力画像aが180°/n回転していることを意味する。   Here, the number of scale conversion parameters s is (md + 1 + mu), and s = {− md, − (md−1),..., −1, 0, +1,. , Mu}, for example, when s = 0, it means that the size of the face image of the input image a is the same as that of the model image b, and when s = + 1, the input image a Means that the size of the face image is larger by one size than that of the model image b. In addition, the number of rotation conversion parameters r can be set to the same number as the number of azimuth components n. In this case, the rotation conversion parameter r has a value of r = {0, 1,..., N−1}. For example, when r = 1, it means that the input image a is rotated 180 ° / n with respect to the model image b.

更に詳述すれば、例えば、図4の右側に図示したモデル画像bに対して顔画像のサイズが1スケール分大きく、反時計回りに2ステップ分回転したものが入力画像aとして入力されたものとすると、入力画像aとモデル画像bとの対応関係を見るとき、例えば、図4の右側に示したモデル画像b上のB点で示される部位から抽出した第1の特徴量JM l,kは、図4の左側に示した入力画像a上のA点で示される部位から抽出した第1の特徴量JI l,kと対応関係にある。 More specifically, for example, a face image that is larger than the model image b shown on the right side of FIG. 4 by one scale and rotated two steps counterclockwise is input as the input image a. Then, when the correspondence relationship between the input image a and the model image b is viewed, for example, the first feature value J M l, extracted from the part indicated by the point B on the model image b shown on the right side of FIG. k is in correspondence with the first feature quantity J I l, k extracted from the part indicated by the point A on the input image a shown on the left side of FIG.

次に、マージナライズド特徴量演算部42において、前述の第1ステップS1により得られた第1の特徴量JL l,kから第2の特徴量XL k、YL lを求める(第2のステップS2)。ここで、第2の特徴量XL k、YL kは、図5の領域11内で示した2次元マトリックスにおいて、入力画像aから抽出された第1の特徴量JI l,kを各周波数成分l毎に複数(n個)の方位成分kについて、下記数式4により算出した入力画像スケール・マージナライズド特徴量YI lと、入力画像aから抽出された第1の特徴量JI l,kを各方位成分k毎に複数((md+mf+mu)個)の周波数成分lについて、下記数式5により算出した入力画像回転・マージナライズド特徴量XI kと、図5の領域10内で示した2次元マトリックスにおいて、モデル画像bから抽出された第1の特徴量JM l,kを各周波数成分l毎に複数(n個)の方位成分kについて、下記数式4により算出したモデル画像スケール・マージナライズド特徴量YM lと、モデル画像bから抽出された第1の特徴量JM l,kを各方位成分k毎に複数(mf個)の周波数成分lについて、下記数式5により算出したモデル画像回転・マージナライズド特徴量XM kとにより構成されている。なお、第2の特徴量XL k、YL lに付された上付き文字”L”は、入力画像aとモデル画像bとを区別する記号であり、入力画像aに関するものには”I”を、モデル画像bに関するものには”M”をそれぞれ表記している。
Next, in the marginalized feature amount calculation unit 42, second feature amounts X L k and Y L l are obtained from the first feature amount J L l, k obtained in the first step S1 (second step). Step S2). Here, the second feature values X L k and Y L k are the first feature values J I l, k extracted from the input image a in the two-dimensional matrix shown in the region 11 of FIG. For a plurality (n) of azimuth components k for each frequency component l, the input image scale / marginalized feature value Y I l calculated by the following equation 4 and the first feature value J I l, extracted from the input image a , 5 for the plurality of ((md + mf + mu)) frequency components l for each azimuth component k and the two-dimensional input image rotation / marginalized feature amount X I k calculated by the following equation 5 and the region 10 in FIG. In the matrix, the model image scale / marginalized feature obtained by calculating the first feature value J M l, k extracted from the model image b with respect to a plurality of (n) azimuth components k for each frequency component l by the following Equation 4. and the amount Y M l, model First feature amount J M l extracted from Le image b, and k for each orientation component k for the frequency component l of a plurality (mf number), model image rotation and Majinaraizudo feature quantity X M calculated by the following formula 5 and k . The superscript “L” added to the second feature quantities X L k and Y L l is a symbol for distinguishing the input image a from the model image b. "," And "M" for the model image b.

ところで、上述したように入力画像aおよびモデル画像bの二次元マトリックス内の第1の特徴量JL l,kから第2の特徴量である入力画像スケール・マージナライズド特徴量YI l、入力画像回転・マージナライズド特徴量XI k、モデル画像スケール・マージナライズド特徴量YM l、モデル画像回転・マージナライズド特徴量XM kを求めたのは、二次元マトリックス内の第1の特徴量JL l,kを新たな第2の特徴量XL k、YL l(各マージナライズド特徴量)に置き換えることで、取り扱う特徴量の数を減らすためであり、数値計算による演算量を可及的に減らして迅速に画像認識を行うためである。 By the way, as described above, from the first feature quantity J L l, k in the two-dimensional matrix of the input image a and the model image b, the input image scale / marginalized feature quantity Y I l as the second feature quantity, the input image The rotation / marginalized feature quantity X I k , the model image scale / marginalized feature quantity Y M l , and the model image rotation / marginalized feature quantity X M k are obtained from the first feature quantity J L l, This is to reduce the number of feature quantities to be handled by replacing k with new second feature quantities X L k and Y L l (each marginalized feature quantity). This is to perform image recognition quickly.

次に、類似度演算部43で、各周波数成分lにおいて、第2のステップS2により得られた入力画像スケール・マージナライズド特徴量YI lとモデル画像スケール・マージナライズド特徴量YM lとから下記数式6によりスケール変換パラメータsに関する類似度Ssを算出すると共に、各方位成分kにおいて、第2のステップS2により得られた入力画像回転・マージナライズド特徴量XI kとモデル画像回転・マージナライズド特徴量XM kとから下記数式7により回転変換パラメータrに関する類似度Srを算出する(第3のステップS3)。
Next, the similarity calculation unit 43 calculates the following expression from the input image scale / marginalized feature amount Y I l and the model image scale / marginalized feature amount Y M l obtained in the second step S2 for each frequency component l. 6, the similarity Ss regarding the scale conversion parameter s is calculated, and for each azimuth component k, the input image rotation / marginalized feature amount X I k obtained in the second step S2 and the model image rotation / marginalized feature amount X M are obtained. The similarity Sr related to the rotation conversion parameter r is calculated from k and the following mathematical expression 7 (third step S3).

ここで、上述した類似度Ss、Srの算出に関し例を挙げれば、まず、スケール変換パラメータsに関しては、例えば、スケール変換パラメータs=−1の場合は、図6(a)の実線の双矢印で表される入力画像スケール・マージナライズド特徴量YI l+sとモデル画像スケール・マージナライズド特徴量YM lとの間で内積をとる(数式6の右辺の分子)。そして、この内積を更に正規化したもの(数式6の右辺)がスケール変換パラメータ(s=−1)に関する類似度Ssとなる。また、スケール変換パラメータs=+1の場合は、図6(a)の破線の双矢印で表される入力画像スケール・マージナライズド特徴量YI l+sとモデル画像スケール・マージナライズド特徴量YM lとの間で、同様の演算によりスケール変換パラメータ(s=+1)に関する類似度Ssを求める。 Here, to give an example regarding the calculation of the similarity Ss and Sr described above, first, regarding the scale conversion parameter s, for example, in the case of the scale conversion parameter s = −1, a solid double arrow in FIG. An inner product is taken between the input image scale / marginalized feature value Y I l + s and the model image scale / marginalized feature value Y M l (numerator on the right side of Equation 6). Further, a product obtained by further normalizing this inner product (the right side of Equation 6) is the similarity Ss regarding the scale conversion parameter (s = −1). In the case of the scale conversion parameter s = + 1, the input image scale / marginalized feature value Y I l + s and the model image scale / marginalized feature value Y M l represented by the broken double arrow in FIG. The similarity Ss regarding the scale conversion parameter (s = + 1) is obtained by the same calculation.

また、回転変換パラメータrに関しては、入力画像aとモデル画像bとの間での回転変換パラメータrに関する類似度Srの算出がなされるもので、例えば、回転変換パラメータr=0の場合は、図6(b)の実線の双矢印で表される入力画像回転・マージナライズド特徴量XI kとモデル画像回転・マージナライズド特徴量XM kとの間で内積をとる(数式7の右辺の分数の分子)。そして、この内積を正規化したもの(数式7の右辺)が回転変換パラメータ(r=0)に関する類似度Srとなる。また、回転変換パラメータr=1の場合は、図6(b)の破線の双矢印で表されるように、入力画像回転・マージナライズド特徴量XI kは、モデル画像回転・マージナライズド特徴量XM k+rとの間で、同様の演算により回転変換パラメータ(r=1)に関する類似度Srを求める。 As for the rotation conversion parameter r, the similarity Sr for the rotation conversion parameter r between the input image a and the model image b is calculated. For example, when the rotation conversion parameter r = 0, An inner product is calculated between the input image rotation / marginalized feature quantity X I k and the model image rotation / marginalized feature quantity X M k represented by the solid double arrow in FIG. 6B (the fractional numerator on the right side of Equation 7) ). The normalized inner product (the right side of Equation 7) is the similarity Sr related to the rotation conversion parameter (r = 0). When the rotation conversion parameter r = 1, the input image rotation / marginalized feature quantity X I k is the model image rotation / marginalized feature quantity X M as represented by the broken double arrow in FIG. Similarity Sr with respect to the rotation conversion parameter (r = 1) is obtained by the same calculation with k + r .

なお、これら類似度Ss、Srは、入力画像aとモデル画像b間での類似の度合いを表し、類似度Ss、Srが1に近づけば近づく程、両画像は類似していき、0に近づけば近づく程、両画像は非類似になっていく。   Note that these similarities Ss and Sr indicate the degree of similarity between the input image a and the model image b. The closer the similarities Ss and Sr are to 1, the more similar the images are, and the closer to 0 they are. The closer you get, the more dissimilar the images will be.

以上のようにして、全てのスケール変換パラメータsおよび回転変換パラメータrに関する類似度Ss、Srが求められる。なお、全てのスケール変換パラメータsおよび回転変換パラメータrについて類似度Ss、Srを計算するのは、モデル画像bに対する入力画像aのスケール変換状態や回転変換状態が予め判らないためである。   As described above, the similarities Ss and Sr regarding all the scale conversion parameters s and the rotation conversion parameters r are obtained. The reason why the similarities Ss and Sr are calculated for all scale conversion parameters s and rotation conversion parameters r is because the scale conversion state and rotation conversion state of the input image a with respect to the model image b are not known in advance.

そして、変換状態演算部44において、前述の第3のステップS3で得られたスケール変換パラメータsに関する類似度Ssの内、最大の類似度Ss’(以下、「スケール最大類似度Ss’」という。)となるスケール変換パラメータs’(下記数式8参照)と、回転変換パラメータrに関する類似度Srの内、最大の類似度Sr’(以下、「回転最大類似度」という。)となる回転変換パラメータr’(下記数式9参照)とを割り出す(第4のステップS4)もので、得られた各パラメータs’、r’に対応するスケールおよび回転変換状態が、予めスケールおよび回転変換状態が判らない入力画像aにおいて、モデル画像bに対する最も可能性の高い変換状態であるものと判断することができる。ここで、スケール最大類似度Ss’および回転最大類似度Sr’が共に1に近づくほど、入力画像a内に、モデル画像b中に表示された特定画像(本実施例では顔画像)と同一または類似の顔画像が含まれている確率が高いと判断することができる。
Then, in the conversion state calculation unit 44, the maximum similarity Ss ′ (hereinafter referred to as “scale maximum similarity Ss ′”) among the similarities Ss related to the scale conversion parameter s obtained in the third step S3 described above. ) And the rotation conversion parameter which becomes the maximum similarity Sr ′ (hereinafter referred to as “rotation maximum similarity”) among the similarity Sr related to the rotation conversion parameter r. r ′ (see Equation 9 below) is calculated (fourth step S4), and the scale and rotation conversion state corresponding to the obtained parameters s ′ and r ′ cannot be determined in advance. It can be determined that the input image a is the most likely conversion state for the model image b. Here, the closer the scale maximum similarity Ss ′ and the rotation maximum similarity Sr ′ are to 1, the same as the specific image displayed in the model image b (the face image in this embodiment) in the input image a or It can be determined that the probability that a similar face image is included is high.

ところで、判別手段5により、第4のステップS4により得られたスケール最大類似度Ss’と、回転最大類似度Sr’とから、例えば、各最大類似度Ss’、Sr’が共に所定の値(しきい値)以上であるか否かにより、入力画像a内に、モデル画像b中に表示された特定画像と同一または類似の画像が含まれているか否かを判別(第5のステップS5)するようにしてもよい。そして、これらの判別結果は、表示端末等の出力手段6(図1参照)により、出力することができる。   By the way, the maximum similarity Ss ′ and Sr ′ are determined from the maximum scale similarity Ss ′ and the rotation maximum similarity Sr ′ obtained by the discriminating means 5 in the fourth step S4. It is determined whether or not the input image a includes an image that is the same as or similar to the specific image displayed in the model image b (fifth step S5). You may make it do. And these discrimination | determination results can be output by the output means 6 (refer FIG. 1), such as a display terminal.

[検証1]
次に、本発明に係る画像認識装置および画像認識方法により算出されるスケールおよび回転変換状態とスケールおよび回転変換パラメータs、rに関する類似度Ss、Srとの関係(スケールおよび回転変換状態を正しく判定できたか否か)について、数値実験により検証を行う。
[Verification 1]
Next, the relationship between the scale and rotation conversion state calculated by the image recognition apparatus and the image recognition method according to the present invention and the similarities Ss and Sr regarding the scale and rotation conversion parameters s and r (the scale and the rotation conversion state are correctly determined). It is verified by numerical experiment.

[数値実験1]・・・スケール変換状態と類似度との関係
入力画像aとモデル画像bとが同じ回転状態(同じ方向を向いている状態)であって、同じ大きさ(130×130(ピクセル))である状態を基準にし、入力画像を4ピクセルごとに相似的に大きくしたり、小さくしたりして類似度Ssを評価した。
[Numerical Experiment 1] Relationship between Scale Conversion State and Similarity The input image a and the model image b are in the same rotation state (a state facing the same direction) and have the same size (130 × 130 ( On the basis of the state of pixel)), the similarity Ss was evaluated by increasing or decreasing the input image every four pixels in a similar manner.

[数値実験2]・・・回転変換状態と類似度との関係
入力画像aとモデル画像bとが同じ大きさ130×130(ピクセル))であって、同じ回転状態(入力画像aとモデル画像bとが同じ方向を向いている場合)を基準にし、入力画像を2°毎に右回転させたり、左回転させて、回転角θに対する類似度Srを評価した。
[Numerical Experiment 2] Relationship between rotation conversion state and similarity The input image a and the model image b have the same size 130 × 130 (pixels), and the same rotation state (the input image a and the model image) The input image was rotated to the right or rotated to the left every 2 °, and the similarity Sr with respect to the rotation angle θ was evaluated.

上記数値実験1、2の結果を、それぞれ図7(a)、(b)に示した。図7(a)に示したように、s=0(入力画像とモデル画像とが同じ大きさ)のときにスケール変換パラメータsに関する類似度Ssが最大になり、スケール最大類似度Ss’は1であった。また、図7(b)に示したように、r=0(入力画像aとモデル画像bが同じ回転方向)のときに回転変換パラメータrに関する類似度Srが最大(Sr’)になった。なお、回転最大類似度Sr’が1にならなかったのは、図5に示したように、入力画像aとモデル画像bとで回転・マージナライズド特徴量XI k、XM kの算出の基礎となった周波数成分数mが異なったためであると考えられる。 The results of the numerical experiments 1 and 2 are shown in FIGS. 7A and 7B, respectively. As shown in FIG. 7A, when s = 0 (the input image and the model image have the same size), the similarity Ss regarding the scale conversion parameter s is maximized, and the maximum scale similarity Ss ′ is 1. Met. Further, as shown in FIG. 7B, when r = 0 (the input image a and the model image b have the same rotation direction), the similarity Sr regarding the rotation conversion parameter r is maximized (Sr ′). Note that the maximum rotation similarity Sr ′ did not become 1, as shown in FIG. 5, because the input image a and the model image b are calculated based on the rotation / marginalized feature values X I k and X M k. This is considered to be because the number m of frequency components that became different.

[検証2]
次に、本発明に係る画像認識装置および画像認識方法によって、入力画像aとモデル画像bとの間におけるスケールおよび回転変換状態が正しく検出されるか否かについて、数値実験により検証を行った。
[Verification 2]
Next, it was verified by numerical experiments whether or not the scale and rotation conversion state between the input image a and the model image b are correctly detected by the image recognition apparatus and the image recognition method according to the present invention.

[検証2の条件]
・モデル画像:256×256ピクセルの画像の中央に、(大きさD)2=130×130ピクセル、回転無し(回転角0.0°)、無表情の顔画像を配置した。
・入力画像:256×256ピクセルの画像の中央に、モデル画像bの顔画像に対して、同サイズ・不回転(130×130ピクセル、回転角0.0°)を含め、5種類の異なるサイズ変換(83×83、104×104、130×130、163×163、204×204ピクセル)と8種類の異なる回転変換(回転角0.0°、22.5°、45.0°、67.5°、90.0°、112.5°、135.0°、157.5°)がなされた合計40種類の異なるスケールおよび回転変換状態の顔画像を配置した。
なお、検証は100人の異なる顔画像について行った。
[Conditions for verification 2]
Model image: A face image of (expression D) 2 = 130 × 130 pixels, no rotation (rotation angle 0.0 °), and no expression was placed in the center of an image of 256 × 256 pixels.
Input image: Five different sizes including the same size and non-rotation (130 × 130 pixels, rotation angle 0.0 °) with respect to the face image of the model image b at the center of the 256 × 256 pixel image Transformation (83 × 83, 104 × 104, 130 × 130, 163 × 163, 204 × 204 pixels) and 8 different rotational transformations (rotation angles 0.0 °, 22.5 °, 45.0 °, 67. A total of 40 different scale and rotation-transformed face images having 5 °, 90.0 °, 112.5 °, 135.0 °, and 157.5 °) were arranged.
The verification was performed on 100 different face images.

[検証2の判定方法]
(1)スケールおよび回転変換状態が正しく検出できた否かの判定
スケール最大類似度Ss’をとるスケールパラメータs’が実際に入力画像に施されているスケール変換状態と同じであり、かつ 回転最大類似度Sr’をとるスケールパラメータr’が実際に入力画像に施されている回転変換状態と同じであるとき、スケールおよび回転変換状態を正しく検出できたものと判定した。
(2)本画像認識方法の有効性の判定
下記式により検出率を求め、各種条件を変えた数値実験3〜6に基づき判定した。
検出率(%)=(スケールおよび回転変換状態の両方を正しく検出した画像数)/(供試画像数=40枚/人×100人分)×100
[Verification Method for Verification 2]
(1) Determination of whether or not the scale and rotation conversion state can be detected correctly The scale parameter s ′ taking the maximum scale similarity Ss ′ is the same as the scale conversion state actually applied to the input image, and the rotation maximum When the scale parameter r ′ taking the similarity Sr ′ is the same as the rotation conversion state actually applied to the input image, it was determined that the scale and rotation conversion state were correctly detected.
(2) Judgment of effectiveness of this image recognition method The detection rate was calculated | required by the following formula, and it determined based on the numerical experiments 3-6 which changed various conditions.
Detection rate (%) = (number of images in which both scale and rotation conversion state are correctly detected) / (number of test images = 40 sheets / person × 100 people) × 100

[数値実験3]・・・位置ズレによる依存性
顔画像の大きさD(ピクセル)に対して中心点からd(ピクセル)(相対距離Sp=d/D)ずらした点(図8の白色のドットで示した点)を基準として特徴量を抽出して検出率を求めた。
[Numerical experiment 3] Dependence due to positional deviation A point shifted by d (pixel) (relative distance Sp = d / D) from the center point with respect to the size D (pixel) of the face image (white color in FIG. 8) The detection rate was obtained by extracting the feature amount based on the dot).

[数値実験4]・・・表情による依存性
モデル画像bに対して不回転かつ同一サイズで表情の異なる入力画像aを用い、各画像の中心点を基準として特徴量を抽出して検出率を求めた。
[Numerical experiment 4] ... Dependence on facial expression Using an input image a that is non-rotating, has the same size, and has a different facial expression with respect to the model image b, extracts the feature amount based on the center point of each image, and determines the detection rate. Asked.

[数値実験5]・・・表情、位置ズレ、スケール/回転による依存性
数値実験3および4を組み合わせたものであり、モデル画像bに対してスケールおよび回転の変換を施し、更に、表情を異ならせ、中心点からずれた点を基準として特徴量を抽出して検出率を求めた。
[Numerical experiment 5] ... Dependence by facial expression, positional deviation, scale / rotation Combining numerical experiments 3 and 4, the model image b is converted to scale and rotation, and the facial expression is different. The detection rate was obtained by extracting the feature value based on the point shifted from the center point.

[数値実験6]・・・人物による依存性
数値実験3において、入力画像aとモデル画像bの人物を異ならせて特徴量を抽出し、検出率を求めた。
[Numerical Experiment 6]... Dependence by Person In Numerical Experiment 3, the input image a and the model image b were made different from each other to extract feature amounts, and the detection rate was obtained.

上記数値実験3〜6の検出率の結果を図9および表1に示した。数値実験3の位置ズレによる依存性に関し、図9に示したように、中心点からの相対距離Sp(=d/D)が約0.1以下では検出率が98%以上の値を示し、ほぼ正しい検出が行なわれるという結果を得た(中心点を基準として特徴量を抽出したものの検出率は、いずれも100%であった。)。また、表1に示した数値実験3〜5の検出率と数値実験6の検出率との差からも判るように、入力画像a上の特徴量の抽出の位置、スケールおよび回転、顔の表情を変えても高い確率で同一人物を同定することが可能であった。   The results of the detection rates of the numerical experiments 3 to 6 are shown in FIG. Regarding the dependency due to the positional deviation in the numerical experiment 3, as shown in FIG. 9, when the relative distance Sp (= d / D) from the center point is about 0.1 or less, the detection rate is 98% or more, The result that almost correct detection was carried out was obtained (the detection rate of the features extracted from the center point was 100% in all cases). Further, as can be seen from the difference between the detection rates of the numerical experiments 3 to 5 and the detection rate of the numerical experiment 6 shown in Table 1, the position, scale and rotation of the feature amount extraction on the input image a, facial expression It was possible to identify the same person with a high probability even when changing.

ところで、上述した数値実験にあっては、人の顔画像を用いた検証結果について示したが、数値実験3〜6と同様な実験であって、モデル画像bとして、21種類の犬の画像、19種類の猫の画像、20種類の自動車の画像であっても同様の結果が得られた。   By the way, in the numerical experiment mentioned above, it showed about the verification result using a human face image, but it is an experiment similar to the numerical experiments 3-6, Comprising: As a model image b, 21 types of dog images, Similar results were obtained with 19 types of cat images and 20 types of car images.

A 画像認識装置
2 画像入力手段
3 画像記憶手段
4 演算手段
5 判別手段
A image recognition device 2 image input means 3 image storage means 4 calculation means 5 discrimination means

Claims (4)

複数の周波数成分と複数の方位成分との二次元マトリックスで構成された一群のガボールフィルタによるガボール・ウェーブレット変換を用いて、入力画像とモデル画像のそれぞれから第1の特徴量を抽出し、これら第1の特徴量から所定の演算により第2の特徴量を算出して前記入力画像と前記モデル画像とを比較する画像認識方法であって、
前記入力画像および前記モデル画像それぞれの中心点を基準として前記ガボール・ウェーブレット変換を用いて第1の特徴量を抽出する第1のステップと、
前記第1の特徴量から、下記数式1および下記数式2を用いて第2の特徴量を算出する第2のステップと、この第2のステップにおいて算出された第2の特徴量の内、
前記入力画像から抽出された第1の特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものが入力画像スケール・マージナライズド特徴量であり、
前記入力画像から抽出された第1の特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものが入力画像回転・マージナライズド特徴量であり、
前記モデル画像から抽出された特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものがモデル画像スケール・マージナライズド特徴量であり、
前記モデル画像から抽出された特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものがモデル画像回転・マージナライズド特徴量であり、
前記各周波数成分において、前記入力画像スケール・マージナライズド特徴量と前記モデル画像スケール・マージナライズド特徴量とから下記数式3によりスケール変換パラメータに関する類似度を算出すると共に、前記各方位成分において、前記入力画像回転・マージナライズド特徴量と前記モデル画像回転・マージナライズド特徴量とから下記数式4により回転変換パラメータに関する類似度を算出する第3のステップと、
前記スケール変換パラメータに関する類似度の内、最大の類似度となるスケール変換パラメータと、前記回転変換パラメータに関する類似度の内、最大の類似度となる回転変換パラメータとを割り出す第4のステップとを含んでいることを特徴とする画像認識方法。
A first feature amount is extracted from each of the input image and the model image by using Gabor wavelet transform by a group of Gabor filters composed of a two-dimensional matrix of a plurality of frequency components and a plurality of orientation components. An image recognition method for calculating a second feature value from a feature value of one by a predetermined calculation and comparing the input image with the model image,
A first step of extracting a first feature amount using the Gabor wavelet transform with reference to a center point of each of the input image and the model image;
From the first feature amount, a second step of calculating a second feature amount using the following Equation 1 and Equation 2 below, and among the second feature amount calculated in the second step,
What is calculated for the plurality of azimuth components for each frequency component of the first feature amount extracted from the input image is an input image scale marginalized feature amount,
What is calculated for the plurality of frequency components for each azimuth component of the first feature amount extracted from the input image is the input image rotation and marginalized feature amount,
What is calculated for the plurality of azimuth components for each frequency component the feature amount extracted from the model image is a model image scale marginalized feature amount,
A feature amount extracted from the model image is calculated for the plurality of frequency components for each azimuth component is a model image rotation / marginalized feature amount,
In each of the frequency components, a similarity with respect to a scale conversion parameter is calculated from the input image scale / marginalized feature quantity and the model image scale / marginalized feature quantity by Equation 3 below, and in each azimuth component, the input image rotation A third step of calculating a degree of similarity related to the rotation transformation parameter from the marginalized feature quantity and the model image rotation / marginalized feature quantity by the following equation 4;
A fourth step of determining a scale conversion parameter having the maximum similarity among the similarities regarding the scale conversion parameter and a rotation conversion parameter having the maximum similarity among the similarities regarding the rotation conversion parameter; An image recognition method characterized by
さらに、スケール変換パラメータに関する類似度の内、最大の類似度と、回転変換パラメータに関する類似度の内、最大の類似度とから、入力画像内に、モデル画像中に表示された特定画像が含まれているか否かを判別する第5のステップとを含んでいることを特徴とする請求項1記載の画像認識方法。   Furthermore, the specific image displayed in the model image is included in the input image based on the maximum similarity among the similarities regarding the scale conversion parameters and the maximum similarity among the similarities regarding the rotation conversion parameters. The image recognition method according to claim 1, further comprising a fifth step of determining whether or not the image is present. 複数の空間周波数成分と複数の方位成分との二次元マトリックスで構成された一群のガボールフィルタによるガボール・ウェーブレット変換を用いて、入力画像とモデル画像のそれぞれから第1の特徴量を抽出し、これら第1の特徴量から所定の演算により第2の特徴量を算出して前記入力画像と前記モデル画像とを比較する画像認識装置であって、
前記入力画像を受信する画像入力手段と、
この画像入力手段に接続され、該画像入力手段が受信した前記入力画像を記憶すると共に、前記モデル画像を予め記憶しておく画像記憶手段と、この画像記憶手段は、前記入力画像を記憶する入力画像記憶部と、前記モデル画像を記憶するモデル画像記憶部とを有し、
前記画像記憶手段に接続され、該画像記憶手段から前記入力画像および前記モデル画像を読み込んで演算する演算手段と、この演算手段は、
前記入力画像および前記モデル画像それぞれの中心点を基準としてガボール・ウェーブレット変換を用いて前記第1の特徴量を抽出するガボール・ウェーブレット変換部と、
前記第1の特徴量から、下記数式1および下記数式2を用いて第2の特徴量を算出するマージナライズド特徴量演算部と、
このマージナライズド特徴量演算部において算出された第2の特徴量の内、
前記入力画像から抽出された第1の特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものが入力画像スケール・マージナライズド特徴量であり、
前記入力画像から抽出された第1の特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものが入力画像回転・マージナライズド特徴量であり、
前記モデル画像から抽出された特徴量を前記各周波数成分毎に前記複数の方位成分について算出したものがモデル画像スケール・マージナライズド特徴量であり、
前記モデル画像から抽出された特徴量を前記各方位成分毎に前記複数の周波数成分について算出したものがモデル画像回転・マージナライズド特徴量であり、
前記各周波数成分において、前記入力画像スケール・マージナライズド特徴量と前記モデル画像スケール・マージナライズド特徴量とから下記数式3によりスケール変換パラメータに関する類似度を算出すると共に、前記各方位成分において、前記入力画像回転・マージナライズド特徴量と前記モデル画像回転・マージナライズド特徴量とから下記数式4により回転変換パラメータに関する類似度を算出する類似度演算部と、
前記スケール変換パラメータに関する類似度の内、最大の類似度となるスケール変換パラメータと、前記回転変換パラメータに関する類似度の内、最大の類似度となる回転変換パラメータとを割り出す変換状態演算部とを備えていることを特徴とする画像認識装置。
The first feature quantity is extracted from each of the input image and the model image by using the Gabor wavelet transform by a group of Gabor filters composed of a two-dimensional matrix of a plurality of spatial frequency components and a plurality of orientation components. An image recognition device that calculates a second feature value from a first feature value by a predetermined calculation and compares the input image with the model image,
Image input means for receiving the input image;
An image storage means connected to the image input means for storing the input image received by the image input means and storing the model image in advance, and the image storage means for inputting the input image An image storage unit, and a model image storage unit for storing the model image,
An arithmetic unit connected to the image storage unit and reading and calculating the input image and the model image from the image storage unit;
A Gabor wavelet transform unit for extracting the first feature amount using a Gabor wavelet transform based on a center point of each of the input image and the model image;
A marginalized feature amount computing unit that calculates a second feature amount from the first feature amount using the following Equation 1 and Equation 2;
Of the second feature amount calculated by the marginalized feature amount calculation unit,
What is calculated for the plurality of azimuth components for each frequency component of the first feature amount extracted from the input image is an input image scale marginalized feature amount,
What is calculated for the plurality of frequency components for each azimuth component of the first feature amount extracted from the input image is the input image rotation and marginalized feature amount,
What is calculated for the plurality of azimuth components for each frequency component the feature amount extracted from the model image is a model image scale marginalized feature amount,
A feature amount extracted from the model image is calculated for the plurality of frequency components for each azimuth component is a model image rotation / marginalized feature amount,
In each of the frequency components, a similarity with respect to a scale conversion parameter is calculated from the input image scale / marginalized feature quantity and the model image scale / marginalized feature quantity by Equation 3 below, and in each azimuth component, the input image rotation A similarity calculation unit that calculates a similarity with respect to a rotation conversion parameter from the marginalized feature quantity and the model image rotation / marginalized feature quantity by the following Equation 4.
A conversion state calculation unit that calculates a scale conversion parameter that is the maximum similarity among the similarities regarding the scale conversion parameter and a rotation conversion parameter that is the maximum similarity among the similarities regarding the rotation conversion parameter; An image recognition apparatus characterized by comprising:
演算手段に接続され、該演算手段により算出されたスケール変換パラメータに関する類似度の内、最大の類似度と、回転変換パラメータに関する類似度の内、最大の類似度とから、入力画像内に、モデル画像中に表示された特定画像が含まれているか否かを判別する判別手段とを備えていることを特徴とする請求項3記載の画像認識装置。   A model is connected to the calculation means from the maximum similarity of the scale conversion parameters calculated by the calculation means and the maximum similarity of the rotation conversion parameters. 4. The image recognition apparatus according to claim 3, further comprising a discriminating unit that discriminates whether or not the specific image displayed in the image is included.
JP2009003011A 2009-01-09 2009-01-09 Image recognition method and apparatus Active JP5048691B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009003011A JP5048691B2 (en) 2009-01-09 2009-01-09 Image recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009003011A JP5048691B2 (en) 2009-01-09 2009-01-09 Image recognition method and apparatus

Publications (2)

Publication Number Publication Date
JP2010160707A JP2010160707A (en) 2010-07-22
JP5048691B2 true JP5048691B2 (en) 2012-10-17

Family

ID=42577815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003011A Active JP5048691B2 (en) 2009-01-09 2009-01-09 Image recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP5048691B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101402063B1 (en) * 2012-06-20 2014-06-02 동국대학교 산학협력단 Method for adjusting COA and rotation angle of low resolution image and Apparatus thereof
KR101381927B1 (en) 2013-09-13 2014-04-24 김선택 Apparatus and method for obliquely scanning circuit elements using x-ray
CN116363678B (en) * 2023-05-31 2023-08-11 华南理工大学 Mathematical formula image identification method, system and computer equipment

Also Published As

Publication number Publication date
JP2010160707A (en) 2010-07-22

Similar Documents

Publication Publication Date Title
US9881204B2 (en) Method for determining authenticity of a three-dimensional object
US8515180B2 (en) Image data correction apparatus and method using feature points vector data
US9480417B2 (en) Posture estimation device, posture estimation system, and posture estimation method
US20230360432A1 (en) Facial authentication device, facial authentication method, and program recording medium
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
JP2008191816A (en) Image processor, image processing method, and computer program
TW200910223A (en) Image processing apparatus and image processing method
JP6410450B2 (en) Object identification device, object identification method, and program
JPWO2010122721A1 (en) Verification device, verification method and verification program
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
KR101786754B1 (en) Device and method for human age estimation
US20220019771A1 (en) Image processing device, image processing method, and storage medium
CN112784712B (en) Missing child early warning implementation method and device based on real-time monitoring
JP2004265267A (en) Face authentication method and face authentication device
CN111898571A (en) Action recognition system and method
CN111199197B (en) Image extraction method and processing equipment for face recognition
CN111222452A (en) Face matching method and device, electronic equipment and readable storage medium
US20210174062A1 (en) Image processing device, image processing method, and recording medium
JP5048691B2 (en) Image recognition method and apparatus
Zhou et al. Automatic landmark location with a combined active shape model
JP2012128638A (en) Image processing device, alignment method and program
JP2014199519A (en) Object identification device, object identification method and program
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
WO2017179728A1 (en) Image recognition device, image recognition method, and image recognition program
JP2014199505A (en) Image recognition apparatus, image recognition method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5048691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250