JP2008251039A - Image recognition system, recognition method thereof and program - Google Patents
Image recognition system, recognition method thereof and program Download PDFInfo
- Publication number
- JP2008251039A JP2008251039A JP2008150018A JP2008150018A JP2008251039A JP 2008251039 A JP2008251039 A JP 2008251039A JP 2008150018 A JP2008150018 A JP 2008150018A JP 2008150018 A JP2008150018 A JP 2008150018A JP 2008251039 A JP2008251039 A JP 2008251039A
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial area
- partial
- inter
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は画像を用いた画像認識システム及びその認識方法並びにプログラムに関し、特に画像に撮影された対象物体が、辞書に登録された物体かどうかを識別する、あるいは辞書に登録された複数のカテゴリ中の一つに分類する画像認識システム及びその認識方法並びにプログラムに関する。 The present invention relates to an image recognition system using an image, a recognition method thereof, and a program, and in particular, identifies whether a target object photographed in an image is an object registered in a dictionary, or includes a plurality of categories registered in a dictionary. The present invention relates to an image recognition system classified into one of the above, a recognition method thereof, and a program.
従来の画像による認識システムの一例として、顔画像照合装置(たとえば、特許文献1参照)がある。これは人間の顔画像を照合するものであり、画像全体をフーリエ解析したフーリエスペクトルパタンの固有ベクトルを用いて照合を行う。 An example of a conventional image recognition system is a face image matching device (see, for example, Patent Document 1). This collates human face images, and collation is performed using eigenvectors of Fourier spectrum patterns obtained by Fourier analysis of the entire image.
また、パターン認識装置およびその方法(たとえば、特許文献2参照)には複数の入力画像から求められる部分空間と、登録された画像によって張られる部分空間との角度(相互部分空間類似度)によって照合を行う手法が述べられている。図29に従来の画像認識システムの一例の構成図を示す。従来の画像認識システムの一例は画像入力部210と、部分空間間の角度計算部211と、認識部212と、辞書記憶部213とから構成されている。
Further, in the pattern recognition apparatus and method (for example, see Patent Document 2), collation is performed based on an angle (mutual subspace similarity) between a partial space obtained from a plurality of input images and a partial space stretched by registered images. The method of doing is described. FIG. 29 shows a configuration diagram of an example of a conventional image recognition system. An example of a conventional image recognition system includes an
このような構成を有する従来の画像認識システムはつぎのように動作する。すなわち、画像入力部210によって、複数方向で撮影された複数の画像を入力する。次に部分空間間の角度計算部211において、部分空間間の角度を計算する。
The conventional image recognition system having such a configuration operates as follows. That is, the
まず入力画像群をN次元部分空間で表現する。具体的には画像全体を1次元特徴データとみなして主成分分析し、N個の固有ベクトルを抽出する。辞書記憶部213には、あらかじめM次元の部分空間で表現された辞書データが、カテゴリごとに用意されている。部分空間間の角度計算部211において、さらに入力画像のN次元部分空間と辞書のM次元部分空間との角度を、カテゴリごとに計算する。認識部212は、部分空間間の角度計算部211において算出された角度を比較し、角度が最も小さいカテゴリを認識結果として出力する。
First, an input image group is expressed in an N-dimensional subspace. Specifically, the entire image is regarded as one-dimensional feature data and subjected to principal component analysis, and N eigenvectors are extracted. In the
辞書部分空間の基底ベクトルをΦm(m=1,….M)とし、入力部分空間の基底ベクトルをΨn(n=1,…N)とすると、式(1)または式(2)のxijを要素に持つ行列Xを計算する。 When the basis vector of the dictionary subspace is Φm (m = 1,... M) and the basis vector of the input subspace is Ψn (n = 1,... N), xij in the equation (1) or (2) is Calculate the matrix X of the elements.
これら従来の画像認識システムに共通するのは、照合時の類似度計算あるいは距離計算を、画像全体から抽出した特徴を用いて一度だけ行うという点である。 What is common to these conventional image recognition systems is that the similarity calculation or distance calculation at the time of matching is performed only once using the features extracted from the entire image.
また、2次元画像と3次元データとの照合に関する発明が特許文献3に開示されている。これは予め登録された個人の3次元データを用いて照明変動および姿勢変動処理を行うものである。また、この種の他の画像認識システムの例が特許文献4〜9に開示されている。
Further,
しかし、対象画像が照明変動によって一部が黒つぶれしている場合や、オクルージョンが発生した場合(対象物体の一部が物陰に隠れている場合)には、画像全体から取得した特徴量が異常になり、正確に照合できないという問題があった。 However, if the target image is partially blacked out due to lighting fluctuations, or if occlusion occurs (a part of the target object is hidden behind the object), the feature value acquired from the entire image is abnormal. As a result, there was a problem that it could not be accurately verified.
一方、特許文献3に開示の発明は照明変動および姿勢変動処理の公知例であるが、本発明では1枚の画像から標準3次元データを用いて複数の変動画像群を生成しているので、特許文献3に開示の発明は認識システムとしては本発明と全く異なる発明である。また、特許文献4〜9のいずれにも上記本発明の構成は開示されていない。
On the other hand, the invention disclosed in
そこで本発明の目的は、照明変動やオクルージョンの状態に関係なく、入力画像を正しく分類する画像認識システムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image recognition system that correctly classifies input images regardless of illumination fluctuations and occlusion conditions.
前記課題を解決するため本発明による画像認識システムは、入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出手段と、複数の前記パターン間距離値を用いて前記入力画像を識別する識別手段とを含む画像認識システムであって、前記識別手段は、複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする。 In order to solve the above-described problem, an image recognition system according to the present invention provides an inter-pattern distance value for calculating a distance value between patterns between a partial area of an input image and a partial area of a registered image corresponding to the partial area. An image recognition system comprising distance calculation means and identification means for identifying the input image using a plurality of inter-pattern distance values, wherein the identification means is a distance value from among the plurality of inter-pattern distance values. The input image is identified using an integrated distance value calculated using only a predetermined number in ascending order of.
又、本発明による画像認識方法は、パターン間距離算出手段が入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出ステップと、識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法であって、前記識別ステップでは、前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする。 In the image recognition method according to the present invention, the inter-pattern distance calculating means calculates inter-pattern distance values between the partial area of the input image and the partial area of the registered image corresponding to the partial area for the plurality of partial areas. An inter-pattern distance calculating step, and an identifying means for identifying the input image using a plurality of inter-pattern distance values, wherein the identifying means includes a plurality of the identifying means. The input image is identified using an integrated distance value calculated by using only a predetermined number in order of increasing distance value from among the inter-pattern distance values.
又、本発明によるプログラムは、パターン間距離算出手段が入力画像の部分領域と該部分領域に対応する登録画像の部分領域とのパターン間距離値を複数の前記部分領域に対して算出するパターン間距離算出ステップと、識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法のプログラムを実行するコンピュータに、前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別するステップを実行させるためのものであることを特徴とする。 Further, the program according to the present invention provides an inter-pattern distance calculation unit that calculates an inter-pattern distance value between a partial area of an input image and a partial area of a registered image corresponding to the partial area for a plurality of the partial areas. In a computer that executes a program of an image recognition method including a distance calculating step and an identifying step in which the identifying unit identifies the input image using a plurality of inter-pattern distance values, the identifying unit includes a plurality of inter-pattern distances. The step of identifying the input image using the integrated distance value calculated by using only a predetermined number in order of increasing distance value from the values is performed.
本発明によれば、照明変動やオクルージョンの状態に関係なく、入力画像を正しく分類することが可能となる。 According to the present invention, it is possible to correctly classify input images regardless of illumination fluctuations and occlusion conditions.
以下、本発明の実施の形態について添付図面を参照しながら説明する。図1は本発明に係る画像認識システムの第1の実施の形態の構成図である。同図を参照すると、画像認識システムは、入力画像から対象を認識する照合部1と、照合に用いる辞書を格納する辞書格納手段5と、画像から部分領域を抽出するための位置情報を格納した部分領域情報記憶手段6と、登録画像から辞書を生成する登録部7とを含んで構成されている。入力画像の一例として人間の顔画像が挙げられる。この場合、顔パターンの画像中の位置、大きさはあらかじめ一定であることが望ましい。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a configuration diagram of a first embodiment of an image recognition system according to the present invention. Referring to the figure, the image recognition system stores collation unit 1 for recognizing an object from an input image, dictionary storage means 5 for storing a dictionary used for collation, and position information for extracting a partial region from the image. The image forming apparatus includes a partial area
なお、ここで述べる入力画像とは、実世界を撮影した自然画像だけでなく、空間フィルタを作用させたものやコンピュータグラフィクスで生成されたものを含む2次元のパターン全般を含んでいる。 The input image described here includes not only a natural image obtained by photographing the real world, but also general two-dimensional patterns including those obtained by applying a spatial filter and those generated by computer graphics.
次に照合部1の動作について説明する。照合部1は、入力画像部分領域抽出手段2と、パターン間距離算出手段3と、領域距離値統合手段10と、識別手段4とから構成されている。入力された画像に対し、入力画像部分領域抽出手段2において、P個(Pは2以上の整数)の部分領域を設定し、それぞれの部分領域に属する画素値を元に特徴ベクトルを算出する。これを領域別入力特徴ベクトルと呼ぶ。領域別入力特徴ベクトルの一例として、画素値を要素とする特徴ベクトルがあげられる。その他の領域別入力特徴ベクトルを生成する例については後述する。
Next, operation | movement of the collation part 1 is demonstrated. The collation unit 1 includes an input image partial
部分領域の設定に際しては部分領域情報記憶手段6から各部分領域の位置と大きさと形状に関する情報を取得する。
When setting the partial area, information on the position, size, and shape of each partial area is acquired from the partial area
次に部分領域の抽出について説明する。図2は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像300は、P個の矩形の部分領域に均等に分割されている(部分領域分割結果302参照)。部分領域分割結果302は、一例として横5個、縦4個の、均等に配置された大きさの等しい20個の部分領域である。部分領域の形状は矩形ではなく、楕円形や、任意の閉曲線で定義することができる。またそれぞれの大きさは均一である必要はない。また、それぞれの部分領域が一部重なり合うように定義することが可能である。部分領域分割結果302のように、均一の大きさの矩形が、画像全体に均等に配置された部分領域が定義されているときは、画像処理が簡潔になり高速化されるという利点がある。
Next, extraction of partial areas will be described. FIG. 2 is a conceptual diagram showing a pattern distance calculation method of the image recognition system according to the present invention. Referring to the figure, the input image 300 is equally divided into P rectangular partial areas (see partial area division result 302). The partial
部分領域に含まれる画素数は少なくとも2画素以上が必要である。なぜならば、1画素の部分領域とは、所詮1画素に過ぎず、従来の方法と原理的に同等となり、性能向上が図れないからである。実験的な結果からは部分領域の画素数は16画素程度以上が望ましい。 The number of pixels included in the partial area needs to be at least two pixels. This is because the partial area of one pixel is only one pixel, and is equivalent in principle to the conventional method, and the performance cannot be improved. From the experimental results, the number of pixels in the partial area is preferably about 16 pixels or more.
次にパターン間距離算出手段3の動作について説明する。パターン間距離算出手段3においては、部分領域に分割して得られた領域別入力特徴ベクトルを用いて、登録された各カテゴリの部分領域ごとの辞書データとの間のパターン間距離を算出する。辞書データは辞書格納手段5から読み取る。パターン間距離算出手段3は、P個の部分領域ごとにパターン間距離値dp(p=1,…P)を算出する。
Next, the operation of the inter-pattern
パターン間距離算出手段3の一例として、図3に示すパターン間距離算出手段40がある。同図を参照すると、パターン間距離算出手段40はノルム算出手段41を含んで構成されている。ノルム距離算出手段41は、部分領域ごとに、入力特徴ベクトルx(i)と辞書特徴ベクトルy(i)との差分のノルムを算出する。ノルムの例としてL2ノルムがある。L2ノルムによる距離はユークリッド距離であり、算出方法を式(3)に示す。ただしベクトルの次元数をnとする。 As an example of the inter-pattern distance calculating means 3, there is an inter-pattern distance calculating means 40 shown in FIG. Referring to the figure, the inter-pattern distance calculating means 40 includes a norm calculating means 41. The norm distance calculation means 41 calculates the norm of the difference between the input feature vector x (i) and the dictionary feature vector y (i) for each partial region. An example of a norm is the L2 norm. The distance by the L2 norm is the Euclidean distance, and the calculation method is shown in Equation (3). However, the number of dimensions of the vector is n.
入力画像300の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別入力特徴ベクトル309として記憶される。P個の中の一つである部分領域Aに注目すると、部分領域A入力画像304が1次元ベクトルとして部分領域A入力特徴ベクトル307に変換される。
Image data belonging to each of P partial regions of the input image 300 is extracted as a one-dimensional feature vector and stored as a region-specific
同様に登録画像301の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別辞書特徴ベクトル310として記憶される。P個の中の一つである部分領域A に注目すると、部分領域A登録画像305が1次元ベクトルとして部分領域A辞書特徴ベクトル308に変換される。
Similarly, image data belonging to each of P partial regions of the registered image 301 is extracted as a one-dimensional feature vector and stored as a region-specific dictionary feature vector 310. When attention is paid to partial area A which is one of P, partial area A registered image 305 is converted into partial area A
パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力特徴データ307は、部分領域A辞書特徴ベクトル308と比較され、ノルム距離を算出する。このように、P個すべての部分領域についてノルム距離が独立に算出される。
The inter-pattern distance calculation is performed for each partial region. For example, the partial area A
パターン間距離算出手段3の他の一例として、図4のパターン間距離算出手段50がある。同図を参照すると、パターン間距離算出手段50は部分空間投影距離算出手段51を含んで構成されている。部分空間投影距離算出手段51は、部分領域ごとに、部分空間投影距離を算出する。
Another example of the inter-pattern
部分空間投影距離によるパターンマッチングは部分空間法と呼ばれており、例えば文献1(前田、村瀬、“カーネル非線形部分空間法によるパターン認識”、電子情報通信学会論文誌,D−II,Vol.J82−D−II,No.4,pp.600−612,1999)などに記載されている。部分空間投影距離は、辞書登録された特徴データ群が張る部分空間と、入力特量ベクトルとの距離値を定義したものである。部分空間投影距離の算出方法の例について述べる。入力特徴ベクトルをXとする。辞書登録された特徴ベクトル群の平均ベクトルをVとする。辞書登録された特徴ベクトル群を主成分分析し、固有値の大きなK個の固有ベクトルを列とする行列をΨi(i=1、、、K)とする。本文では、この平均ベクトルVとK個の固有ベクトルによる行列Ψiを合わせたものを主成分データと呼ぶ。このとき部分空間投影距離dsは式(5)によって算出される。 Pattern matching based on the subspace projection distance is called a subspace method, for example, Document 1 (Maeda, Murase, “Pattern recognition by kernel nonlinear subspace method”, IEICE Transactions, D-II, Vol. J82). -D-II, No. 4, pp. 600-612, 1999). The partial space projection distance defines a distance value between the partial space spanned by the feature data group registered in the dictionary and the input feature vector. An example of a method for calculating the subspace projection distance will be described. Let X be the input feature vector. Let V be the average vector of the feature vector group registered in the dictionary. The feature vector group registered in the dictionary is subjected to principal component analysis, and a matrix having K eigenvectors having large eigenvalues as columns is denoted by ψi (i = 1,..., K). In the present text, a combination of the average vector V and the matrix Ψi of K eigenvectors is referred to as principal component data. At this time, the subspace projection distance ds is calculated by Expression (5).
入力画像340の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別入力特徴ベクトル349として記憶される。P個の中の一つである部分領域Aに注目すると、部分領域A入力画像344が1次元ベクトルとして部分領域A入力特徴ベクトル347に変換される。
Image data belonging to the P partial regions of the input image 340 is extracted as a one-dimensional feature vector and stored as a region-specific
登録画像シーケンス341のJ個の画像から、それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたJ個の特徴ベクトルから主成分データを算出し、領域別辞書主成分データ350として記憶される。P個の領域の一つである部分領域Aに注目すると、部分領域Aに属する特徴データ列である部分領域A登録シーケンス345を用いて、部分領域A辞書主成分データ348を算出する。
A one-dimensional feature vector is extracted for each partial region from J images of the registered image sequence 341. Principal component data is calculated from the extracted J feature vectors and stored as dictionary-specific dictionary
パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力特徴データ347は、部分領域A辞書主成分ベクトル348と比較されて、部分空間投影距離が算出される。このように、P個すべての部分領域について部分空間投影距離が独立に算出される。
The inter-pattern distance calculation is performed for each partial region. For example, the partial area A
次に領域距離値統合手段10において、カテゴリごとにP個の距離値を用いて、ある関数F(d1,d2,d3…dp)を作用させ、一つの統合距離値を算出する。 Next, the area distance value integration means 10 uses a P distance value for each category to apply a function F (d1, d2, d3... Dp) to calculate one integrated distance value.
距離値統合手段10の一例として、図6の領域距離値統合手段70がある。領域距離値統合手段は加重平均値算出手段71を含んで構成されている。領域距離値統合手段70は、P個の部分領域の距離値が与えられると、加重平均値算出手段71は、P個の距離値の加重平均値Dwを計算して統合距離値として出力する。加重平均値Dwの計算式を式(6)に示す。
As an example of the distance
次に、距離値統合手段10の一例として、図7に示す領域距離値統合手段80がある。領域距離値統合手段は、距離値ソート手段82と、距離値上位平均算出手段81から構成されている。領域距離値統合手段80は、P個の部分領域の距離値が与えられると、距離値ソート手段82においてP個の距離値を小さい順にソートし、距離値上位平均算出手段81において距離値の小さいP´個(P´はP未満の整数)の平均値Dpを計算し、統合距離値として出力する。P´の値については、Pの値に応じて予め決めておく方法がある。またP´を各部分領域の距離値の関数として定義することにより、P´の値を動的に変化させる方法がある。また画像全体の明るさ、コントラストに応じてP´の値を可変にすることができる。
Next, as an example of the distance
また、距離値統合手段10の一例として、P個の部分領域の距離値の中で予め与えられたしきい値よりも小さいP´個(P´はP未満の整数)の平均値を算出するものがある。
Further, as an example of the distance
次に、距離値統合手段80で、部分領域の距離値が小さいものだけを用いて統合距離を算出する方法の利点について図8を用いて説明する。図8は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。入力画像400と、登録画像401を比較することを考える。登録画像401は照明の影響で左側に影があり、左側の画像パターンが大きく異なっている。部分領域ごとに距離値を計算した結果を濃淡値で図示すると、部分領域距離値マップ404が得られる。黒い領域は距離値が大きく(照合スコアは低い)、白い領域は距離値が小さい(照合スコアは高い)。登録画像左側の影が写った部分領域の照合スコアは低くなっている。直感的に、不明瞭な左側の部分領域を無視して右側の部分領域だけで照合するほうが、より正確な照合結果が得られることがわかる。よって距離値統合手段80のように、照合スコアの高い(距離値の低い)部分領域のみを考慮した距離値統合手段が有効である。 Next, the advantage of the method of calculating the integrated distance using only the distance values integrating means 80 having a small partial region distance value will be described with reference to FIG. FIG. 8 is a conceptual diagram showing a pattern distance calculation method of the image recognition system according to the present invention. Consider comparing the input image 400 with the registered image 401. The registered image 401 has a shadow on the left side due to the influence of illumination, and the image pattern on the left side is greatly different. When the result of calculating the distance value for each partial area is shown as a gray value, a partial area distance value map 404 is obtained. The black area has a large distance value (low matching score), and the white area has a small distance value (high matching score). The collation score of the partial area where the shadow on the left side of the registered image appears is low. Intuitively, it can be seen that a more accurate collation result can be obtained by ignoring the unclear left partial area and collating only with the right partial area. Therefore, distance value integration means that considers only partial regions with high matching scores (low distance values), such as distance value integration means 80, is effective.
次に、識別手段4は、距離値統合手段10から得られた各カテゴリとの統合距離値を比較し、最終的に入力画像が属するカテゴリを出力する。識別手段4の一例として図9に示す識別手段90がある。同図を参照すると、識別手段90は、最小値算出手段91と、しきい値処理手段92とを含んで構成される。まず最小値算出手段91において、各カテゴリとの統合距離値の最小値を算出する。次にしきい値処理手段92において最小値をしきい値と比較し、しきい値よりも小さいときは、最小値が得られたカテゴリを識別結果として出力する。しきい値よりも大きいときは、辞書には存在しないという結果を出力する。
Next, the identification unit 4 compares the integrated distance value with each category obtained from the distance
次に登録部7の動作について説明する。登録部7は、登録画像部分領域抽出手段9と、辞書データ生成手段8とを含んで構成されている。登録部7へは登録画像と対応するカテゴリのID(Identification)とが入力される。この画像はカテゴリIDによって指定されたカテゴリに属するものとする。登録画像に対し、登録画像部分領域抽出手段9は、部分領域情報6を参照して、P個の部分領域を設定し、それぞれの部分領域に属する画素値を元に領域別辞書特徴ベクトルを生成する。領域別辞書特徴ベクトルの一例として、画素値を要素とする特徴ベクトルがあげられる。その他の領域別辞書特徴ベクトルを生成する例については後述する。
Next, the operation of the registration unit 7 will be described. The registration unit 7 includes a registered image partial
そして辞書データ生成手段8では領域別辞書特徴ベクトルを、適切な保存形式に変換し、辞書格納手段5に出力する。辞書として主成分データが必要な場合は、辞書特徴ベクトル群の主成分分析を行う。保存形式の一例が図10に示されている。 Then, the dictionary data generation means 8 converts the region-specific dictionary feature vector into an appropriate storage format and outputs it to the dictionary storage means 5. When principal component data is required as a dictionary, principal component analysis of a dictionary feature vector group is performed. An example of the storage format is shown in FIG.
辞書データ生成手段8の一例として、図27の辞書データ生成手段190がある。辞書データ生成手段190は主成分データ生成手段191を含む。主成分データ生成手段191は、入力された複数の領域別辞書特徴ベクトル群の主成分分析を行い、領域別主成分データを生成する。
As an example of the dictionary data generation means 8, there is the dictionary data generation means 190 of FIG. The dictionary data generation unit 190 includes a principal component
図10に辞書格納手段5の一例である辞書格納手段100の構成図を示す。図10(A)は辞書格納手段100の全体構成図、図10(B)はレコード記憶部101の構成図である。辞書格納手段100はC個のレコード記憶部101を持ち、各レコードには、レコード番号102、領域別辞書データ103、カテゴリID104を記憶することができる。領域別辞書データは、P個の部分領域別の辞書データからなっている。辞書格納手段100は、同じカテゴリIDを持つ複数の辞書レコードを格納することが可能である。領域別辞書データ103の具体的なデータは、パターン間距離算出手段3の距離計算方式に依存し、例えばパターン間距離算出手段40を用いるときは1次元の特徴ベクトルとなり、パターン間距離算出手段50やパターン間距離算出手段60を用いるときは、平均ベクトルVとK個の固有ベクトルからなる主成分データとなる。
FIG. 10 shows a configuration diagram of a
図11に、ビデオシーケンスなどの複数枚の入力画像から対象を認識する実施例である照合部21の構成を示す。本実施例の入力としては、ビデオ映像などの動画像や、同じ物体を撮影した複数枚の静止画像が含まれている。なお、図1と同様の構成部分には同一番号を付し、その説明を省略する。照合部21は、入力画像列を平均化し、1枚の入力画像を生成する入力画像列平滑化手段22と、入力画像部分領域抽出手段2と、パターン間距離算出手段3と、識別手段4とを含んで構成されている。照合部21は、はじめにN枚(Nは2以上の整数)の入力画像が入力されると、画素ごとにN枚の平均を取り、1枚の入力平均画像を生成する。この入力平均画像を入力画像として照合部1と同等の動作を行う。
FIG. 11 shows a configuration of a
図12に、ビデオシーケンスなどの複数枚の入力画像から対象を認識するもう一つの実施例である照合部31の構成を示す。本実施例の入力としては、ビデオ映像などの動画像や、同じ物体を撮影した複数枚の静止画像が含まれている。なお、図1と同様の構成部分には同一番号を付し、その説明を省略する。照合部31は、入力画像部分領域抽出手段2と、入力主成分生成部32と、パターン間距離算出手段33と、識別手段4とを含んで構成されている。照合部31は、N枚の入力画像が入力されると、各画像に対し、入力画像部分領域抽出手段2において、P個の部分領域を設定し、それぞれの部分領域に属する画像データを抽出する。部分領域の設定に際しては部分領域情報記憶手段6から各部分領域の位置と大きさと形状に関する情報を取得する。次に入力主成分生成部32において、部分領域ごとの入力主成分データである領域別入力主成分データを算出する。パターン間距離算出手段33では、得られたP個の入力主成分データと、辞書データとを用いて、各カテゴリとの距離値を計算する。各カテゴリとの距離値を元に識別手段において、入力画像列が、どのカテゴリに属するかを判断し、認識結果を出力する。
FIG. 12 shows a configuration of a
パターン間距離算出手段33の例として、図13に示すパターン間距離算出手段60がある。パターン間距離算出手段60は、部分空間間距離算出手段61とから構成されている。部分空間間距離算出手段61は、領域別入力主成分データと領域別辞書主成分データを入力として、部分領域ごとに距離値を算出する。
As an example of the inter-pattern distance calculating means 33, there is an inter-pattern distance calculating means 60 shown in FIG. The inter-pattern
部分空間間距離算出手段61の実現方法として、部分空間同士の距離を求める方法がある。一例を以下に述べる。辞書主成分データは、辞書平均ベクトルV1とK個の辞書固有ベクトルΨiとからなる。入力主成分データは、入力平均ベクトルV2とL個の入力固有ベクトルΦiとからなる。まず入力平均ベクトルV2と辞書固有ベクトルで張られる部分空間との距離値dM1を式(7)によって算出する。 As a method for realizing the inter-subspace distance calculation means 61, there is a method for obtaining a distance between the subspaces. An example is described below. The dictionary principal component data is composed of a dictionary average vector V1 and K dictionary eigenvectors ψi. The input principal component data is composed of an input average vector V2 and L input eigenvectors Φi. First, the distance value dM1 between the input average vector V2 and the partial space spanned by the dictionary eigenvector is calculated by the equation (7).
関数Gの一例として式(9)などがある。 An example of the function G is equation (9).
次に、図14を用いてパターン間距離算出手段60における部分領域ごとの照合について説明する。図14は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像320は識別対象として入力された画像シーケンスである。登録画像シーケンス321は、あらかじめ辞書として登録された、ある1つのカテゴリに属する画像シーケンスである。入力画像シーケンスはN枚、登録画像シーケンス321はJ枚の登録画像からなる。入力画像シーケンス320の各画像はP個の部分領域に分割され、入力画像領域分割結果322が得られる。登録画像シーケンス341も同様にP個の部分領域に分割され、登録画像領域分割結果323が得られる。
Next, collation for each partial area in the inter-pattern distance calculation means 60 will be described with reference to FIG. FIG. 14 is a conceptual diagram showing an inter-pattern distance calculation method of the image recognition system according to the present invention. Referring to the figure, an input image 320 is an image sequence input as an identification target. The registered image sequence 321 is an image sequence that is registered in advance as a dictionary and belongs to a certain category. The input image sequence includes N registered images, and the registered image sequence 321 includes J registered images. Each image of the input image sequence 320 is divided into P partial areas, and an input image
入力画像シーケンス320の、N枚の画像から、P個それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたN個の特徴ベクトルから主成分データを算出し、領域別入力主成分データ329として記憶される。P個の領域の一つである部分領域A に注目すると、部分領域Aに属する特徴データ列である部分領域A入力シーケンス324を用いて、部分領域A入力主成分データ326が算出される。
A one-dimensional feature vector is extracted for each of P partial regions from N images of the input image sequence 320. Principal component data is calculated from the extracted N feature vectors and stored as region-specific input
一方、登録画像シーケンス321のJ枚の画像から、P個それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたJ個の特徴ベクトルから主成分データを算出し、領域別辞書主成分データ330として記憶される。P個の領域の一つである部分領域Aに注目すると、部分領域Aに属する特徴データ列である部分領域A登録シーケンス325を用いて、部分領域A 辞書主成分データ327が算出される。
On the other hand, a one-dimensional feature vector is extracted for each of P partial regions from J images of the registered image sequence 321. Principal component data is calculated from the extracted J feature vectors and stored as dictionary-specific dictionary
パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力主成分データ326は、部分領域A辞書主成分データ327と比較され、部分空間間距離が例えば式(9)によって算出される。P個すべての部分領域について部分空間間距離が独立に算出される。
The inter-pattern distance calculation is performed for each partial region. For example, the partial area A input
次に、入力画像部分領域抽出手段2について詳細に説明する。入力画像部分領域抽出手段3の一例として、図18の入力画像部分領域抽出手段110がある。入力画像部分領域抽出手段110は、部分画像取得手段111と、特徴抽出手段112とを含んでいる。部分画像取得手段111は、部分領域情報記憶手段6に格納された部分領域情報を参照し、部分画像の画素値を取得する。特徴抽出手段112は、得られた部分画像データを1次元特徴ベクトルに変換する。特徴抽出手段112の例として、部分画像の画素値を要素とするベクトルを生成するものがある。また特徴抽出手段112の例として、部分画像の画素値に対し、画素値の濃度正規化、ヒストグラム平坦化、フィルタリング等の補正処理を加えたものを特徴ベクトルとするものがある。また、フーリエ変換、DCT、ウェーブレット変換を利用した周波数特徴を抽出するものがある。周波数特徴は一般に位置ずれに頑強である。なお周波数特徴への変換は画素値ベクトルに対するフィルタリングの一種である。
Next, the input image partial
周波数特徴を出力する特徴抽出手段112の一例として、図19に示す特徴抽出手段130がある。特徴抽出手段130は、フーリエスペクトル変換手段131を含む。フーリエスペクトル変換手段131は、部分領域の画素値のベクトルに対し離散フーリエ変換を施す。特徴抽出手段130は、画素値の離散フーリエ変換係数を要素とする特徴ベクトルを出力する。
As an example of the
入力画像部分領域抽出手段2の他の一例として、図20の入力画像部分領域抽出手段120がある。入力画像部分領域抽出手段120は、姿勢補正手段121と、部分画像取得手段111と、特徴抽出手段112とを含む。入力画像部分領域抽出手段120は、姿勢補正手段121によって、特徴を抽出する前に入力画像中の物体の姿勢を適切に補正する。画像中の物体の姿勢を補正するというのは、具体的には、入力画像中の物体が、予め定められた固定方向からカメラで観察した状態になるように、入力画像データ自身を変換することである。姿勢補正手段121によって、一定の姿勢に変換された画像データに対し、部分画像取得手段111と特徴抽出手段112を用いて、領域別入力特徴ベクトルを生成する。入力画像の姿勢を補正することにより、画像中の物体の姿勢変化による照合精度の劣化を改善することができる。また登録側の画像を、入力と同じパラメータの姿勢に補正することで、照合精度を向上させることができる。
As another example of the input image partial
図21を参照して、姿勢補正方法について説明する。一般に姿勢補正のパラメータは、XYZ軸に沿った移動とXYZ軸回りの回転の合計6個である。図21では顔画像を例として、様々な方向を向いた顔画像を入力画像として示している。入力画像A140は上向き、入力画像B141は右向き、入力画像C142は下向き、入力画像D143は左向きである。それに対して姿勢補正画像144は、前記入力画像を、正面向き画像に変換したものである。
The posture correction method will be described with reference to FIG. In general, the posture correction parameters are a total of six parameters: movement along the XYZ axes and rotation around the XYZ axes. In FIG. 21, a face image is taken as an example, and face images facing various directions are shown as input images. The input image A140 is upward, the input image B141 is rightward, the input image C142 is downward, and the input image D143 is leftward. On the other hand, the
前記姿勢補正画像144への変換のような姿勢補正方法の一例として、画像データをアフィン変換する方法がある。アフィン変換によって物体の姿勢補正する方法は、たとえば特開2000−90190号公報に示されている。
As an example of a posture correction method such as conversion to the
また、その他の姿勢補正方法の一例として、図22及び図23に示す3次元モデルを使用する方法がある。図22及び図23には、人間の顔を想定した3次元モデルが示されており、図22が楕円体モデル151、図23が標準3次元顔モデル152である。標準3次元顔モデルは標準的な人間の顔の形状を表す3次元モデルであり、3次元CADソフトや、レンジファインダーによる測定を利用して得ることができる。姿勢補正は、入力画像を3次元モデル上にテクスチャマッピングした後、3次元モデルを移動回転させることによって実現することができる。
As another example of the posture correction method, there is a method using a three-dimensional model shown in FIGS. 22 and 23 show a three-dimensional model assuming a human face. FIG. 22 shows an
次に、登録画像部分領域抽出手段9について詳細に説明する。登録部分領域抽出手段9の一例として、図24の登録部分領域抽出手段160がある。登録部分領域抽出手段160は、部分画像取得手段111と、特徴抽出手段112とを含んでいる。部分画像取得手段111と特徴抽出手段112の動作についてはすでに述べた。登録部分領域抽出手段160は登録画像から領域別辞書特徴ベクトルを生成する。
Next, the registered image partial
登録画像部分領域抽出手段9の他の一例として、図25の登録画像部分領域抽出手段170がある。登録画像部分領域抽出手段170は、姿勢補正手段121と、部分画像取得手段111と、特徴抽出手段112とを含む。登録画像部分領域抽出手段170は、姿勢補正手段121によって特徴を抽出する前に登録画像中の物体の姿勢を適切に補正する。
Another example of the registered image partial
姿勢補正手段121によって一定の姿勢に変換された画像データに対し、部分画像取得手段111と特徴抽出手段112を用いて、領域別辞書特徴ベクトルを生成する。登録画像の姿勢を補正することにより、画像中の物体の姿勢変化による照合精度の劣化を改善することができる。
A region-specific dictionary feature vector is generated by using the partial
登録画像部分領域抽出手段9の他の一例として、図26の登録画像部分領域抽出手段180がある。登録画像部分領域抽出手段180は、変動画像生成手段181と、部分画像取得手段111と、特徴抽出手段112とを含む。変動画像生成手段181は、入力された登録画像を、それ自身を含む複数の変動画像に変換する。変動画像は、入力された画像に対し、姿勢変動、照明変動など、様々な要因によって起こる対象物の見えの変化をシミュレートして変換した画像である。
As another example of the registered image partial
図28に、人間の顔を対象とした変動画像の例を示す。入力画像250に対し、それ自身を含む7種類の変動画像が生成されている。姿勢変動画像A251は、顔を上向きに変換した画像である。姿勢変動画像B252は、顔を右向きに変換した画像である。姿勢変動画像C253は、顔を下向きに変換した画像である。姿勢変動画像D254は、顔を左向きに変換した画像である。これらの姿勢変動画像は、前記姿勢補正手段121に用いられた方法を利用して変換することができる。照明変動画像255は、入力画像250に対して照明による明暗の変化を付加した画像であり、例えば入力画像250の画素値を全体的に明るく、または暗くする方法で実現することができる。表情変動画像256は、顔の表情を変化させて笑顔に変換した画像である。変換方法は、例えば両方の口もとを上にあげて両目を細くするなどの変形を加えることで実現することができる。元画像257は入力画像そのままのデータである。
FIG. 28 shows an example of a variation image for a human face. Seven types of variation images including themselves are generated for the
また変動画像生成手段181は、同じ変動でもパラメータを複数段階に変化させたものを複数出力することができる。例えば右向きの姿勢変動の場合には、右15度回転と右30度回転と右45度回転の3種類の変換画像を同時に出力することができる。また、姿勢変動と照明変動など、異なる変動要因を組み合わせた変換を施した画像を出力することができる。 In addition, the fluctuation image generation means 181 can output a plurality of changes of the parameter in a plurality of stages even with the same fluctuation. For example, in the case of a posture change in the right direction, three types of converted images of right 15 degrees rotation, right 30 degrees rotation, and right 45 degrees rotation can be output simultaneously. In addition, it is possible to output an image that has been converted by combining different variation factors such as posture variation and illumination variation.
変動画像生成手段181によって生成された複数の変動画像群は、部分画像取得手段111と特徴抽出手段112によって、領域別辞書特徴ベクトル群に変換される。
The plurality of variation image groups generated by the variation
登録画像部分領域抽出手段180によって生成された領域別辞書特徴ベクトル群は、辞書データ生成手段8によって複数の辞書レコードに変換されるか、あるいは図27に示す辞書データ生成手段190によって、主成分データが生成される。主成分データが生成された場合は、図5の概念図に示された方法によって入力画像を照合する。
The region-specific dictionary feature vector group generated by the registered image partial region extracting unit 180 is converted into a plurality of dictionary records by the dictionary
辞書登録側で変動画像を生成しておくことにより、入力画像中の物体の姿勢や照明環境が変化しても、登録側にあらかじめ想定された変動画像が登録されているため、正確に照合することができる。 By creating a fluctuating image on the dictionary registration side, even if the posture or lighting environment of the object in the input image changes, the assumed fluctuating image is registered on the registration side in advance, so it is accurately verified be able to.
次に、図15を参照して本実施形態の全体の動作について詳細に説明する。図15は本発明に係る画像認識システムの全体の動作を示すフローチャートである。まず、識別対象の入力画像データを入力する(ステップA1)。次に入力画像をP個の部分領域に分割し、部分領域ごとに特徴ベクトルの抽出を行う(ステップA2)。次に辞書データを参照し、部分領域ごとに登録画像との距離を算出する(ステップA3)。次に、P個の部分領域ごとの距離値を用いて、1つの統合距離値を算出する(ステップA4)。登録カテゴリの中で最小の距離値を算出する(ステップA5)。次に最小距離がしきい値より小さいかどうかを判定する(ステップA6)。最小距離がしきい値よりも小さいときは、最小距離を持つカテゴリを認識結果として出力する(ステップA7)。最小距離がしきい値よりも大きいときは、該当カテゴリなしを出力する(ステップA8)。 Next, the overall operation of this embodiment will be described in detail with reference to FIG. FIG. 15 is a flowchart showing the overall operation of the image recognition system according to the present invention. First, input image data to be identified is input (step A1). Next, the input image is divided into P partial areas, and feature vectors are extracted for each partial area (step A2). Next, the dictionary data is referred to, and the distance from the registered image is calculated for each partial area (step A3). Next, one integrated distance value is calculated using the distance value for each of the P partial areas (step A4). The minimum distance value in the registered category is calculated (step A5). Next, it is determined whether the minimum distance is smaller than the threshold value (step A6). If the minimum distance is smaller than the threshold value, the category having the minimum distance is output as a recognition result (step A7). When the minimum distance is larger than the threshold value, “no corresponding category” is output (step A8).
次に図16を参照して本実施形態の辞書データ学習の動作について説明する。図16は辞書データ学習の動作を示すフローチャートである。登録画像データと対応するカテゴリIDを入力する(ステップB1)。次に登録画像をP個の部分領域に分割する(ステップB2)。次に各部分領域に属する画像データを用いて、部分領域ごとに辞書データを生成する(ステップB3)。辞書データを辞書データ格納手段に保存する(ステップB4)。以上の動作を必要なだけ繰り返す。 Next, the dictionary data learning operation of this embodiment will be described with reference to FIG. FIG. 16 is a flowchart showing the dictionary data learning operation. A category ID corresponding to the registered image data is input (step B1). Next, the registered image is divided into P partial areas (step B2). Next, using the image data belonging to each partial area, dictionary data is generated for each partial area (step B3). The dictionary data is stored in the dictionary data storage means (step B4). The above operation is repeated as necessary.
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。図17は本発明の第2の実施の形態の構成図である。本発明の第2の実施の形態は、プログラム制御により動作するコンピュータ200と、画像認識プログラムを記録した記録媒体201と、カメラ204と、操作卓202と、表示装置203とから構成されている。この記録媒体201は磁気ディスク、半導体メモリその他の記録媒体であってよい。
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 17 is a block diagram of the second embodiment of the present invention. The second embodiment of the present invention includes a
コンピュータ200は、照合部1と登録部7と辞書格納手段5と部分領域情報記憶手段6とを実現するプログラムをロードして実行する。プログラムは記憶媒体201に保存され、コンピュータ200は記憶媒体201からプログラムを読み出して実行する。プログラムは図15と図16のフローチャートに示す動作を行う。本実施例では入力画像はカメラ204から入力され、認識結果は表示装置203に表示される。認識の指示、学習の指示は操作卓202からオペレータが行う。
The
本発明による画像認識システムによれば、前記入力画像の部分領域とこれと対応する前記登録画像の部分領域とのパターン間距離を算出し、各部分領域の前記パターン間距離に基づき前記入力画像を識別する照合手段を含むため、照明変動や、オクルージョンの状態に関係なく、入力画像を正しく分類することが可能となる。又、本発明による画像認識方法及びプログラムも上記画像認識システムと同様の効果を奏する。 According to the image recognition system of the present invention, the inter-pattern distance between the partial area of the input image and the corresponding partial area of the registered image is calculated, and the input image is calculated based on the inter-pattern distance of each partial area. Since the identification means for identifying is included, it is possible to correctly classify the input images regardless of illumination fluctuations and occlusion conditions. The image recognition method and program according to the present invention also have the same effects as the image recognition system.
具体的に説明すると、本発明の効果は、画像中の複数の部分領域を独立に照合し、それらの結果を統合することにより、照明変動や、オクルージョンの影響を低減し、入力画像を正しく識別できることである。その理由は、照明変動やオクルージョンによってスコアが異常となる部分領域を、距離値統合時に排除することができるからである。 Specifically, the effect of the present invention is to identify a plurality of partial areas in an image independently and integrate the results to reduce the influence of illumination fluctuation and occlusion and correctly identify an input image. It can be done. The reason is that a partial region whose score is abnormal due to illumination variation or occlusion can be eliminated during distance value integration.
1 照合部
2 入力画像部分領域抽出手段
3 パターン間距離算出手段
4 識別手段
5 辞書格納手段
6 部分領域情報記憶手段
7 登録部
8 登録画像部分領域抽出手段
9 辞書データ生成手段
10 領域距離値統合手段
21 照合部
22 入力画像列平滑化部
31 照合部
32 入力主成分生成部
33 パターン間距離算出手段
40 パターン間距離算出手段
41 ノルム算出手段
50 パターン間距離算出手段
51 部分空間投影距離算出手段
60 パターン間距離算出手段
61 部分空間間距離算出手段
70 領域距離値統合手段
71 加重平均値算出手段
80 領域距離値統合手段
81 距離値ソート手段
82 距離値上位平均算出手段
90 識別手段
91 最小値算出手段
92 しきい値処理手段
100 辞書格納手段
101 レコード記憶部
102 レコード番号
103 領域別辞書データ
104 カテゴリID
110 入力画像部分領域抽出手段
111 部分画像取得手段
112 特徴抽出手段
120 入力画像部分領域抽出手段
121 姿勢補正手段
130 特徴抽出手段
131 フーリエスペクトル変換手段
140 入力画像A
141 入力画像B
142 入力画像C
143 入力画像D
144 姿勢補正画像
150 楕円体モデル
151 標準3次元顔モデル
160 登録画像部分領域抽出手段
170 登録画像部分領域抽出手段
180 登録画像部分領域抽出手段
181 変動画像生成手段
190 辞書データ生成手段
191 主成分データ生成手段
200 コンピュータ
201 記憶媒体
202 操作卓
203 表示装置
204 カメラ
210 画像入力部
211 部分空間間の角度計算部
212 認識部
213 辞書記憶部
250 入力画像
251 姿勢変動画像A
252 姿勢変動画像B
253 姿勢変動画像C
254 姿勢変動画像D
255 照明変動画像
256 表情変動画像
257 元画像
300 入力画像
301 登録画像
302 入力画像領域分割結果
303 登録画像領域分割結果
304 部分領域A入力画像
305 部分領域A登録画像
306 照合対
307 部分領域A入力特徴ベクトル
308 部分領域A辞書特徴ベクトル
309 領域別入力特徴ベクトル
310 領域別辞書特徴ベクトル
320 入力画像シーケンス
321 登録画像シーケンス
322 入力画像領域分割結果
323 登録画像領域分割結果
324 部分領域A入力シーケンス
325 部分領域A登録シーケンス
326 部分領域A入力主成分データ
327 部分領域A辞書主成分データ
328 照合対
329 領域別入力主成分データ
330 領域別辞書主成分データ
340 入力画像
341 登録画像シーケンス
342 入力画像領域分割結果
343 登録画像領域分割結果
344 部分領域A入力画像
345 部分領域A登録シーケンス
346 照合対
347 部分領域A入力特徴ベクトル
348 部分領域A辞書主成分データ
349 領域別入力特徴ベクトル
350 領域別辞書主成分データ
400 入力画像
401 登録画像
402 低照合スコア部分領域群
403 高照合スコア部分領域群
404 部分領域距離値マップ
DESCRIPTION OF SYMBOLS 1
DESCRIPTION OF SYMBOLS 110 Input image partial area extraction means 111 Partial image acquisition means 112 Feature extraction means 120 Input image partial area extraction means 121 Posture correction means 130 Feature extraction means 131 Fourier spectrum conversion means 140 Input image A
141 Input image B
142 Input Image C
143 Input image D
144
252 Posture change image B
253 Posture change image C
254 Posture change image D
255 Illumination variation image 256 Expression variation image 257 Original image 300 Input image 301
Claims (3)
複数の前記パターン間距離値を用いて前記入力画像を識別する識別手段とを含む画像認識システムであって、
前記識別手段は、複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする画像認識システム。 An inter-pattern distance calculating means for calculating an inter-pattern distance value between a partial area of the input image and a partial area of the registered image corresponding to the partial area;
An image recognition system including identification means for identifying the input image using a plurality of inter-pattern distance values,
The identification means identifies the input image using an integrated distance value calculated by using only a predetermined number from a plurality of distance values between patterns in ascending order of distance values. .
識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法であって、
前記識別ステップでは、前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別することを特徴とする画像認識方法。 An inter-pattern distance calculating means for calculating an inter-pattern distance value between a partial area of the input image and a partial area of the registered image corresponding to the partial area for the plurality of partial areas;
An identification means for identifying the input image using a plurality of inter-pattern distance values,
In the identifying step, the identifying means identifies the input image using an integrated distance value calculated by using only a predetermined number from a plurality of distance values between patterns in ascending order of distance values. Image recognition method.
識別手段が複数の前記パターン間距離値を用いて前記入力画像を識別する識別ステップとを含む画像認識方法のプログラムを実行するコンピュータに、
前記識別手段が複数の前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された統合距離値を用いて前記入力画像を識別するステップを実行させるためのプログラム。 An inter-pattern distance calculating means for calculating an inter-pattern distance value between a partial area of the input image and a partial area of the registered image corresponding to the partial area for the plurality of partial areas;
A computer for executing a program of an image recognition method including an identification step in which an identification unit identifies the input image using a plurality of inter-pattern distance values;
A program for causing the identification unit to execute a step of identifying the input image using an integrated distance value calculated by using only a predetermined number from a plurality of distance values between patterns in ascending order of distance values.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008150018A JP4803214B2 (en) | 2002-02-27 | 2008-06-09 | Image recognition system, recognition method thereof, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002050644 | 2002-02-27 | ||
JP2002050644 | 2002-02-27 | ||
JP2008150018A JP4803214B2 (en) | 2002-02-27 | 2008-06-09 | Image recognition system, recognition method thereof, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002272601A Division JP4161659B2 (en) | 2002-02-27 | 2002-09-19 | Image recognition system, recognition method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008251039A true JP2008251039A (en) | 2008-10-16 |
JP4803214B2 JP4803214B2 (en) | 2011-10-26 |
Family
ID=39837695
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008066928A Pending JP2008217803A (en) | 2002-02-27 | 2008-03-17 | Image recognition system and recognition method thereof, and program |
JP2008150018A Expired - Lifetime JP4803214B2 (en) | 2002-02-27 | 2008-06-09 | Image recognition system, recognition method thereof, and program |
JP2013184563A Expired - Lifetime JP5574033B2 (en) | 2002-02-27 | 2013-09-06 | Image recognition system, recognition method thereof, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008066928A Pending JP2008217803A (en) | 2002-02-27 | 2008-03-17 | Image recognition system and recognition method thereof, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013184563A Expired - Lifetime JP5574033B2 (en) | 2002-02-27 | 2013-09-06 | Image recognition system, recognition method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP2008217803A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013008093A (en) * | 2011-06-22 | 2013-01-10 | Canon Inc | Image recognition device, image recognition method and program |
KR20160075738A (en) * | 2013-11-30 | 2016-06-29 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Method and System for Recognizing Faces |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217803A (en) * | 2002-02-27 | 2008-09-18 | Nec Corp | Image recognition system and recognition method thereof, and program |
JP5554984B2 (en) * | 2009-12-24 | 2014-07-23 | キヤノン株式会社 | Pattern recognition method and pattern recognition apparatus |
JP6351243B2 (en) | 2013-11-28 | 2018-07-04 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP6630999B2 (en) | 2014-10-15 | 2020-01-15 | 日本電気株式会社 | Image recognition device, image recognition method, and image recognition program |
JP6991771B2 (en) | 2017-07-31 | 2022-01-13 | キヤノン株式会社 | Information processing equipment, information processing system, information processing method and program |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
AU2019208182B2 (en) | 2018-07-25 | 2021-04-08 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0343877A (en) * | 1989-07-12 | 1991-02-25 | Omron Corp | Image collating device |
JPH07254062A (en) * | 1994-03-14 | 1995-10-03 | Yamatake Honeywell Co Ltd | Fingerprint matching device |
JPH08194716A (en) * | 1995-01-17 | 1996-07-30 | Canon Inc | Picture processing method and its device |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0573663A (en) * | 1991-09-17 | 1993-03-26 | Nippon Telegr & Teleph Corp <Ntt> | Recognition method for picture of three-dimensional object |
JP3305551B2 (en) * | 1995-11-30 | 2002-07-22 | 日本電信電話株式会社 | Specific symmetric object judgment method |
JPH103544A (en) * | 1996-06-14 | 1998-01-06 | Imeeji Joho Kagaku Kenkyusho | Device for recognizing gesture |
JP3577908B2 (en) * | 1997-09-04 | 2004-10-20 | 富士通株式会社 | Face image recognition system |
JPH11339049A (en) * | 1998-05-27 | 1999-12-10 | Hitachi Maxell Ltd | Card authentication system |
JP4052609B2 (en) * | 1998-08-27 | 2008-02-27 | 株式会社東芝 | Pattern recognition apparatus and method |
JP3886660B2 (en) * | 1999-03-11 | 2007-02-28 | 株式会社東芝 | Registration apparatus and method in person recognition apparatus |
JP4398533B2 (en) * | 1999-03-12 | 2010-01-13 | 富士通株式会社 | Image tracking device and recording medium |
JP3926059B2 (en) * | 1999-05-12 | 2007-06-06 | 日本電気株式会社 | Image collation device, image collation method thereof, and recording medium recording control program thereof |
JP4332649B2 (en) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | Hand shape and posture recognition device, hand shape and posture recognition method, and recording medium storing a program for executing the method |
JP2001283216A (en) * | 2000-04-03 | 2001-10-12 | Nec Corp | Image collating device, image collating method and recording medium in which its program is recorded |
JP4443722B2 (en) * | 2000-04-25 | 2010-03-31 | 富士通株式会社 | Image recognition apparatus and method |
JP2001337990A (en) * | 2000-05-26 | 2001-12-07 | Victor Co Of Japan Ltd | Image retrieval system and image retrieval method |
JP2002008026A (en) * | 2000-06-27 | 2002-01-11 | Victor Co Of Japan Ltd | Pattern collation device and device therefor |
JP2002024830A (en) * | 2000-07-05 | 2002-01-25 | Nec Corp | Image checking device, method and computer-readable storage medium |
JP2008217803A (en) * | 2002-02-27 | 2008-09-18 | Nec Corp | Image recognition system and recognition method thereof, and program |
JP4161659B2 (en) * | 2002-02-27 | 2008-10-08 | 日本電気株式会社 | Image recognition system, recognition method thereof, and program |
-
2008
- 2008-03-17 JP JP2008066928A patent/JP2008217803A/en active Pending
- 2008-06-09 JP JP2008150018A patent/JP4803214B2/en not_active Expired - Lifetime
-
2013
- 2013-09-06 JP JP2013184563A patent/JP5574033B2/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0343877A (en) * | 1989-07-12 | 1991-02-25 | Omron Corp | Image collating device |
JPH07254062A (en) * | 1994-03-14 | 1995-10-03 | Yamatake Honeywell Co Ltd | Fingerprint matching device |
JPH08194716A (en) * | 1995-01-17 | 1996-07-30 | Canon Inc | Picture processing method and its device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013008093A (en) * | 2011-06-22 | 2013-01-10 | Canon Inc | Image recognition device, image recognition method and program |
KR20160075738A (en) * | 2013-11-30 | 2016-06-29 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Method and System for Recognizing Faces |
JP2016538674A (en) * | 2013-11-30 | 2016-12-08 | ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | Method, system and computer readable storage medium for recognizing a face |
US9798959B2 (en) | 2013-11-30 | 2017-10-24 | Beijing Sensetime Technology Development Co., Ltd | Method and system for recognizing faces |
KR102047953B1 (en) * | 2013-11-30 | 2019-12-04 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | Method and System for Recognizing Faces |
Also Published As
Publication number | Publication date |
---|---|
JP4803214B2 (en) | 2011-10-26 |
JP2008217803A (en) | 2008-09-18 |
JP5574033B2 (en) | 2014-08-20 |
JP2013239211A (en) | 2013-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4161659B2 (en) | Image recognition system, recognition method thereof, and program | |
JP5574033B2 (en) | Image recognition system, recognition method thereof, and program | |
US9053388B2 (en) | Image processing apparatus and method, and computer-readable storage medium | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
US8300950B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
US6671391B1 (en) | Pose-adaptive face detection system and process | |
KR102290392B1 (en) | Method and apparatus for registering face, method and apparatus for recognizing face | |
US8861805B2 (en) | Face recognition apparatus and method for controlling the same | |
US20100014758A1 (en) | Method for detecting particular object from image and apparatus thereof | |
CN110838119B (en) | Human face image quality evaluation method, computer device and computer readable storage medium | |
US8861803B2 (en) | Image recognition apparatus, image recognition method, and program | |
JP3962517B2 (en) | Face detection method and apparatus, and computer-readable medium | |
Geetha et al. | 3D face recognition using Hadoop | |
Naveen et al. | Pose and head orientation invariant face detection based on optimised aggregate channel feature | |
CN112183422A (en) | Human face living body detection method and device based on space-time characteristics, electronic equipment and storage medium | |
JP2007025899A (en) | Image processor and image processing method | |
Wang | Integrated content-aware image retargeting system | |
Freitas | 3D face recognition under unconstrained settings using low-cost sensors | |
Mondal | Hog Feature-A Survey | |
Chen et al. | UAV-based distributed ATR under realistic simulated environmental effects | |
Xavier et al. | Face Recognition through Different Facial Expressions for Women Security: A Survey | |
Keche et al. | Facial feature expression based approach for human face recognition: A review | |
Sagar et al. | Automatic Countenance Recognition Using DCT-PCA Technique of Facial Patches with High Detection Rate | |
Kim et al. | Adaptive Deformation Handling for Pedestrian Detection | |
Karpathy | Scaling for Multimodal 3D Object Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110712 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110725 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4803214 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140819 Year of fee payment: 3 |
|
EXPY | Cancellation because of completion of term |