JP4803214B2 - Image recognition system, recognition method thereof, and program - Google Patents

Image recognition system, recognition method thereof, and program Download PDF

Info

Publication number
JP4803214B2
JP4803214B2 JP2008150018A JP2008150018A JP4803214B2 JP 4803214 B2 JP4803214 B2 JP 4803214B2 JP 2008150018 A JP2008150018 A JP 2008150018A JP 2008150018 A JP2008150018 A JP 2008150018A JP 4803214 B2 JP4803214 B2 JP 4803214B2
Authority
JP
Japan
Prior art keywords
image
inter
partial
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008150018A
Other languages
Japanese (ja)
Other versions
JP2008251039A (en
Inventor
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008150018A priority Critical patent/JP4803214B2/en
Publication of JP2008251039A publication Critical patent/JP2008251039A/en
Application granted granted Critical
Publication of JP4803214B2 publication Critical patent/JP4803214B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は画像を用いた画像認識システム及びその認識方法並びにプログラムに関し、特に画像に撮影された対象物体が、辞書に登録された物体かどうかを識別する、あるいは辞書に登録された複数のカテゴリ中の一つに分類する画像認識システム及びその認識方法並びにプログラムに関する。   The present invention relates to an image recognition system using an image, a recognition method thereof, and a program, and in particular, identifies whether a target object photographed in an image is an object registered in a dictionary, or includes a plurality of categories registered in a dictionary. The present invention relates to an image recognition system classified into one of the above, a recognition method thereof, and a program.

従来の画像による認識システムの一例として、顔画像照合装置(たとえば、特許文献1参照)がある。これは人間の顔画像を照合するものであり、画像全体をフーリエ解析したフーリエスペクトルパタンの固有ベクトルを用いて照合を行う。   An example of a conventional image recognition system is a face image matching device (see, for example, Patent Document 1). This collates human face images, and collation is performed using eigenvectors of Fourier spectrum patterns obtained by Fourier analysis of the entire image.

また、パターン認識装置およびその方法(たとえば、特許文献2参照)には複数の入力画像から求められる部分空間と、登録された画像によって張られる部分空間との角度(相互部分空間類似度)によって照合を行う手法が述べられている。図29に従来の画像認識システムの一例の構成図を示す。従来の画像認識システムの一例は画像入力部210と、部分空間間の角度計算部211と、認識部212と、辞書記憶部213とから構成されている。   Further, in the pattern recognition apparatus and method (for example, see Patent Document 2), collation is performed based on an angle (mutual subspace similarity) between a partial space obtained from a plurality of input images and a partial space stretched by registered images. The method of doing is described. FIG. 29 shows a configuration diagram of an example of a conventional image recognition system. An example of a conventional image recognition system includes an image input unit 210, an angle calculation unit 211 between subspaces, a recognition unit 212, and a dictionary storage unit 213.

このような構成を有する従来の画像認識システムはつぎのように動作する。すなわち、画像入力部210によって、複数方向で撮影された複数の画像を入力する。次に部分空間間の角度計算部211において、部分空間間の角度を計算する。   The conventional image recognition system having such a configuration operates as follows. That is, the image input unit 210 inputs a plurality of images taken in a plurality of directions. Next, in the angle calculation part 211 between subspaces, the angle between subspaces is calculated.

まず入力画像群をN次元部分空間で表現する。具体的には画像全体を1次元特徴データとみなして主成分分析し、N個の固有ベクトルを抽出する。辞書記憶部213には、あらかじめM次元の部分空間で表現された辞書データが、カテゴリごとに用意されている。部分空間間の角度計算部211において、さらに入力画像のN次元部分空間と辞書のM次元部分空間との角度を、カテゴリごとに計算する。認識部212は、部分空間間の角度計算部211において算出された角度を比較し、角度が最も小さいカテゴリを認識結果として出力する。   First, an input image group is expressed in an N-dimensional subspace. Specifically, the entire image is regarded as one-dimensional feature data and subjected to principal component analysis, and N eigenvectors are extracted. In the dictionary storage unit 213, dictionary data expressed in advance in an M-dimensional partial space is prepared for each category. The angle calculation unit 211 between subspaces further calculates the angle between the N-dimensional subspace of the input image and the M-dimensional subspace of the dictionary for each category. The recognition unit 212 compares the angles calculated by the angle calculation unit 211 between the subspaces, and outputs a category having the smallest angle as a recognition result.

辞書部分空間の基底ベクトルをΦm(m=1,….M)とし、入力部分空間の基底ベクトルをΨn(n=1,…N)とすると、式(1)または式(2)のxijを要素に持つ行列Xを計算する。   When the basis vector of the dictionary subspace is Φm (m = 1,... M) and the basis vector of the input subspace is Ψn (n = 1,... N), xij in the equation (1) or (2) is Calculate the matrix X of the elements.

Figure 0004803214
Figure 0004803214

Figure 0004803214
部分空間間の角度Θの、余弦の二乗は、行列Xの最大固有値として求められる。角度が小さいということは、余弦の2乗が大きいことを意味する。すなわち余弦の2乗はパターンの類似度と言い換えることができる。従来の画像認識システムでは行列Xの最大固有値を類似度とし、類似度が最大のカテゴリに分類する。
Figure 0004803214
The square of the cosine of the angle Θ between the subspaces is obtained as the maximum eigenvalue of the matrix X. A small angle means that the square of the cosine is large. That is, the square of the cosine can be rephrased as a pattern similarity. In the conventional image recognition system, the maximum eigenvalue of the matrix X is set as the similarity, and the category is classified into the category having the maximum similarity.

これら従来の画像認識システムに共通するのは、照合時の類似度計算あるいは距離計算を、画像全体から抽出した特徴を用いて一度だけ行うという点である。   What is common to these conventional image recognition systems is that the similarity calculation or distance calculation at the time of matching is performed only once using the features extracted from the entire image.

また、2次元画像と3次元データとの照合に関する発明が特許文献3に開示されている。これは予め登録された個人の3次元データを用いて照明変動および姿勢変動処理を行うものである。また、この種の他の画像認識システムの例が特許文献4〜9に開示されている。   Further, Patent Document 3 discloses an invention related to collation between a two-dimensional image and three-dimensional data. This performs illumination variation and posture variation processing using pre-registered individual three-dimensional data. Examples of other image recognition systems of this type are disclosed in Patent Documents 4 to 9.

特開平05−020442号公報Japanese Patent Laid-Open No. 05-020442 特開平10−199128号公報JP-A-10-199128 特開2001−283216号公報JP 2001-283216 A 特開平03−043877号公報Japanese Patent Laid-Open No. 03-043877 特開平07−287753号公報Japanese Patent Application Laid-Open No. 07-287753 特開2000−259838号公報JP 2000-259838 A 特開2001−052182号公報JP 2001-052182 A 特開2001−236508号公報JP 2001-236508 A 特開平10−232938号公報Japanese Patent Laid-Open No. 10-232938

しかし、対象画像が照明変動によって一部が黒つぶれしている場合や、オクルージョンが発生した場合(対象物体の一部が物陰に隠れている場合)には、画像全体から取得した特徴量が異常になり、正確に照合できないという問題があった。   However, if the target image is partially blackened due to lighting fluctuations, or if occlusion occurs (a part of the target object is hidden behind the object), the feature value acquired from the entire image is abnormal. As a result, there was a problem that it could not be accurately verified.

一方、特許文献3に開示の発明は照明変動および姿勢変動処理の公知例であるが、本発明では1枚の画像から標準3次元データを用いて複数の変動画像群を生成しているので、特許文献3に開示の発明は認識システムとしては本発明と全く異なる発明である。また、特許文献4〜9のいずれにも上記本発明の構成は開示されていない。   On the other hand, the invention disclosed in Patent Document 3 is a well-known example of illumination variation and posture variation processing, but in the present invention, a plurality of variation image groups are generated using standard three-dimensional data from one image. The invention disclosed in Patent Document 3 is a completely different invention from the present invention as a recognition system. Further, none of Patent Documents 4 to 9 discloses the configuration of the present invention.

そこで本発明の目的は、照明変動やオクルージョンの状態に関係なく、入力画像を正しく分類する画像認識システムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image recognition system that correctly classifies input images regardless of illumination fluctuations and occlusion conditions.

前記課題を解決するために本発明による画像認識システムは、入力画像における複数の部分領域と、前記各部分領域と対応した位置にある登録画像の各部分領域との、複数のパターン間距離値を算出するパターン間距離算出手段と、複数の前記パターン間距離値に基づき前記入力画像を識別する識別手段とを含む画像認識システムであって、前記パターン間距離算出手段は、画像全体に配置された部分領域について前記パターン間距離値を算出し、前記識別手段は、前記算出された前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された一つの統合距離値に基づいて、入力画像を識別することを特徴とする。 In order to solve the above problems, an image recognition system according to the present invention provides a plurality of inter-pattern distance values between a plurality of partial areas in an input image and each partial area of a registered image at a position corresponding to each partial area. An image recognition system including an inter-pattern distance calculating means for calculating and an identifying means for identifying the input image based on a plurality of inter-pattern distance values, wherein the inter-pattern distance calculating means is arranged over the entire image The inter-pattern distance value is calculated for the partial area, and the identification unit calculates a single integrated distance value calculated by using only a predetermined number from the calculated inter-pattern distance value in ascending order of the distance value . Based on this , the input image is identified.

又、本発明による画像認識方法は、入力画像における複数の部分領域と、前記各部分領域と対応した位置にある登録画像の各部分領域との、複数のパターン間距離値を算出するパターン間距離算出ステップと、複数の前記パターン間距離値に基づき前記入力画像を識別する識別ステップとを含む画像認識方法であって、
前記パターン間距離算出ステップでは、画像全体に配置された部分領域について前記パターン間距離値が算出され、前記識別ステップでは、前記算出された前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された一つの統合距離値に基づいて、入力画像が識別されることを特徴とする。
Further, the image recognition method according to the present invention is a pattern inter-pattern distance for calculating a plurality of inter-pattern distance values between a plurality of partial areas in an input image and each partial area of a registered image at a position corresponding to each partial area. An image recognition method comprising: a calculation step; and an identification step for identifying the input image based on a plurality of inter-pattern distance values,
In the inter-pattern distance calculating step, the inter-pattern distance value is calculated for the partial region arranged in the entire image, and in the identifying step, the predetermined distance value is determined in ascending order of the distance value from the calculated inter-pattern distance value. The input image is identified based on one integrated distance value calculated using only the number.

又、本発明によるプログラムは、入力画像における複数の部分領域と、前記各部分領域と対応した位置にある登録画像の各部分領域との、複数のパターン間距離値を算出するパターン間距離算出ステップと、複数の前記パターン間距離値に基づき前記入力画像を識別する識別ステップとを含む画像認識方法をコンピュータに実行させるためのプログラムであって、前記パターン間距離算出ステップでは、画像全体に配置された部分領域について前記パターン間距離値が算出され、
前記識別ステップでは、前記算出された前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された一つの統合距離値に基づいて、入力画像が識別されることを特徴とする。
Further, the program according to the present invention provides a pattern distance calculation step for calculating a plurality of pattern distance values between a plurality of partial areas in the input image and each partial area of the registered image at a position corresponding to each partial area. And an identification method for identifying the input image based on a plurality of inter-pattern distance values , wherein the image recognition method is arranged over the entire image in the inter-pattern distance calculation step. The inter-pattern distance value is calculated for each partial area,
In the identifying step, the input image is identified based on one integrated distance value calculated using only a predetermined number from the calculated pattern distance values in ascending order of distance values. And

本発明によれば、照明変動やオクルージョンの状態に関係なく、入力画像を正しく分類することが可能となる。   According to the present invention, it is possible to correctly classify input images regardless of illumination fluctuations and occlusion conditions.

以下、本発明の実施の形態について添付図面を参照しながら説明する。図1は本発明に係る画像認識システムの第1の実施の形態の構成図である。同図を参照すると、画像認識システムは、入力画像から対象を認識する照合部1と、照合に用いる辞書を格納する辞書格納手段5と、画像から部分領域を抽出するための位置情報を格納した部分領域情報記憶手段6と、登録画像から辞書を生成する登録部7とを含んで構成されている。入力画像の一例として人間の顔画像が挙げられる。この場合、顔パターンの画像中の位置、大きさはあらかじめ一定であることが望ましい。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a configuration diagram of a first embodiment of an image recognition system according to the present invention. Referring to the figure, the image recognition system stores collation unit 1 for recognizing an object from an input image, dictionary storage means 5 for storing a dictionary used for collation, and position information for extracting a partial region from the image. The image forming apparatus includes a partial area information storage unit 6 and a registration unit 7 that generates a dictionary from a registered image. An example of the input image is a human face image. In this case, it is desirable that the position and size of the face pattern in the image be constant in advance.

なお、ここで述べる入力画像とは、実世界を撮影した自然画像だけでなく、空間フィルタを作用させたものやコンピュータグラフィクスで生成されたものを含む2次元のパターン全般を含んでいる。   The input image described here includes not only a natural image obtained by photographing the real world, but also general two-dimensional patterns including those obtained by applying a spatial filter and those generated by computer graphics.

次に照合部1の動作について説明する。照合部1は、入力画像部分領域抽出手段2と、パターン間距離算出手段3と、領域距離値統合手段10と、識別手段4とから構成されている。入力された画像に対し、入力画像部分領域抽出手段2において、P個(Pは2以上の整数)の部分領域を設定し、それぞれの部分領域に属する画素値を元に特徴ベクトルを算出する。これを領域別入力特徴ベクトルと呼ぶ。領域別入力特徴ベクトルの一例として、画素値を要素とする特徴ベクトルがあげられる。その他の領域別入力特徴ベクトルを生成する例については後述する。   Next, operation | movement of the collation part 1 is demonstrated. The collation unit 1 includes an input image partial region extraction unit 2, an inter-pattern distance calculation unit 3, a region distance value integration unit 10, and an identification unit 4. For the input image, the input image partial area extraction means 2 sets P (P is an integer of 2 or more) partial areas, and calculates a feature vector based on the pixel values belonging to each partial area. This is called a region-specific input feature vector. As an example of the region-specific input feature vector, a feature vector having pixel values as elements can be cited. Examples of generating other region-specific input feature vectors will be described later.

部分領域の設定に際しては部分領域情報記憶手段6から各部分領域の位置と大きさと形状に関する情報を取得する。   When setting the partial area, information on the position, size, and shape of each partial area is acquired from the partial area information storage unit 6.

次に部分領域の抽出について説明する。図2は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像300は、P個の矩形の部分領域に均等に分割されている(部分領域分割結果302参照)。部分領域分割結果302は、一例として横5個、縦4個の、均等に配置された大きさの等しい20個の部分領域である。部分領域の形状は矩形ではなく、楕円形や、任意の閉曲線で定義することができる。またそれぞれの大きさは均一である必要はない。また、それぞれの部分領域が一部重なり合うように定義することが可能である。部分領域分割結果302のように、均一の大きさの矩形が、画像全体に均等に配置された部分領域が定義されているときは、画像処理が簡潔になり高速化されるという利点がある。   Next, extraction of partial areas will be described. FIG. 2 is a conceptual diagram showing a pattern distance calculation method of the image recognition system according to the present invention. Referring to the figure, the input image 300 is equally divided into P rectangular partial areas (see partial area division result 302). The partial area division result 302 is, for example, 20 partial areas of equal horizontal size, 5 horizontal and 4 vertical. The shape of the partial area is not a rectangle, but can be defined by an ellipse or an arbitrary closed curve. Moreover, each size does not need to be uniform. Further, it is possible to define each partial region so as to partially overlap. As in the partial area division result 302, when a partial area is defined in which a rectangle having a uniform size is evenly arranged in the entire image, there is an advantage that the image processing is simplified and speeded up.

部分領域に含まれる画素数は少なくとも2画素以上が必要である。なぜならば、1画素の部分領域とは、所詮1画素に過ぎず、従来の方法と原理的に同等となり、性能向上が図れないからである。実験的な結果からは部分領域の画素数は16画素程度以上が望ましい。   The number of pixels included in the partial area needs to be at least two pixels. This is because the partial area of one pixel is only one pixel, and is equivalent in principle to the conventional method, and the performance cannot be improved. From the experimental results, the number of pixels in the partial area is preferably about 16 pixels or more.

次にパターン間距離算出手段3の動作について説明する。パターン間距離算出手段3においては、部分領域に分割して得られた領域別入力特徴ベクトルを用いて、登録された各カテゴリの部分領域ごとの辞書データとの間のパターン間距離を算出する。辞書データは辞書格納手段5から読み取る。パターン間距離算出手段3は、P個の部分領域ごとにパターン間距離値dp(p=1,…P)を算出する。   Next, the operation of the inter-pattern distance calculation unit 3 will be described. The inter-pattern distance calculation means 3 calculates the inter-pattern distance between the registered partial data of each category and the dictionary data using the input characteristic vector for each area obtained by dividing the pattern into partial areas. Dictionary data is read from the dictionary storage means 5. The inter-pattern distance calculation means 3 calculates an inter-pattern distance value dp (p = 1,... P) for every P partial regions.

パターン間距離算出手段3の一例として、図3に示すパターン間距離算出手段40がある。同図を参照すると、パターン間距離算出手段40はノルム算出手段41を含んで構成されている。ノルム距離算出手段41は、部分領域ごとに、入力特徴ベクトルx(i)と辞書特徴ベクトルy(i)との差分のノルムを算出する。ノルムの例としてL2ノルムがある。L2ノルムによる距離はユークリッド距離であり、算出方法を式(3)に示す。ただしベクトルの次元数をnとする。   As an example of the inter-pattern distance calculating means 3, there is an inter-pattern distance calculating means 40 shown in FIG. Referring to the figure, the inter-pattern distance calculating means 40 includes a norm calculating means 41. The norm distance calculation means 41 calculates the norm of the difference between the input feature vector x (i) and the dictionary feature vector y (i) for each partial region. An example of a norm is the L2 norm. The distance by the L2 norm is the Euclidean distance, and the calculation method is shown in Equation (3). However, the number of dimensions of the vector is n.

Figure 0004803214
ノルムのもう一つの例としてL1ノルムがある。L1ノルムによる距離の算出方法を式(4)に示す。L1ノルムによる距離は市街地距離と呼ばれる。
Figure 0004803214
Another example of the norm is the L1 norm. A method for calculating the distance based on the L1 norm is shown in Expression (4). The distance by the L1 norm is called city distance.

Figure 0004803214
次に図2を用いてパターン間距離算出手段40における部分領域ごとの照合について説明する。同図を参照すると、入力画像300は識別対象として入力された画像である。登録画像301はあらかじめ辞書として登録されている画像である。入力画像300はP個の部分領域に分割され、入力画像領域分割結果302が得られる。登録画像301も同じP個の部分領域に分割され、登録画像領域分割結果303が得られる。
Figure 0004803214
Next, collation for each partial area in the inter-pattern distance calculation means 40 will be described with reference to FIG. Referring to the figure, an input image 300 is an image input as an identification target. A registered image 301 is an image registered in advance as a dictionary. The input image 300 is divided into P partial areas, and an input image area division result 302 is obtained. The registered image 301 is also divided into the same P partial areas, and a registered image area division result 303 is obtained.

入力画像300の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別入力特徴ベクトル309として記憶される。P個の中の一つである部分領域Aに注目すると、部分領域A入力画像304が1次元ベクトルとして部分領域A入力特徴ベクトル307に変換される。   Image data belonging to each of P partial regions of the input image 300 is extracted as a one-dimensional feature vector and stored as a region-specific input feature vector 309. When attention is paid to partial area A which is one of P, partial area A input image 304 is converted into partial area A input feature vector 307 as a one-dimensional vector.

同様に登録画像301の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別辞書特徴ベクトル310として記憶される。P個の中の一つである部分領域A に注目すると、部分領域A登録画像305が1次元ベクトルとして部分領域A辞書特徴ベクトル308に変換される。   Similarly, image data belonging to each of P partial regions of the registered image 301 is extracted as a one-dimensional feature vector and stored as a region-specific dictionary feature vector 310. When attention is paid to partial area A which is one of P, partial area A registered image 305 is converted into partial area A dictionary feature vector 308 as a one-dimensional vector.

パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力特徴データ307は、部分領域A辞書特徴ベクトル308と比較され、ノルム距離を算出する。このように、P個すべての部分領域についてノルム距離が独立に算出される。   The inter-pattern distance calculation is performed for each partial region. For example, the partial area A input feature data 307 is compared with the partial area A dictionary feature vector 308 to calculate a norm distance. Thus, the norm distance is calculated independently for all P partial regions.

パターン間距離算出手段3の他の一例として、図4のパターン間距離算出手段50がある。同図を参照すると、パターン間距離算出手段50は部分空間投影距離算出手段51を含んで構成されている。部分空間投影距離算出手段51は、部分領域ごとに、部分空間投影距離を算出する。   Another example of the inter-pattern distance calculating unit 3 is the inter-pattern distance calculating unit 50 shown in FIG. Referring to the figure, the inter-pattern distance calculation means 50 includes a partial space projection distance calculation means 51. The partial space projection distance calculation means 51 calculates a partial space projection distance for each partial region.

部分空間投影距離によるパターンマッチングは部分空間法と呼ばれており、例えば文献1(前田、村瀬、“カーネル非線形部分空間法によるパターン認識”、電子情報通信学会論文誌,D−II,Vol.J82−D−II,No.4,pp.600−612,1999)などに記載されている。部分空間投影距離は、辞書登録された特徴データ群が張る部分空間と、入力特量ベクトルとの距離値を定義したものである。部分空間投影距離の算出方法の例について述べる。入力特徴ベクトルをXとする。辞書登録された特徴ベクトル群の平均ベクトルをVとする。辞書登録された特徴ベクトル群を主成分分析し、固有値の大きなK個の固有ベクトルを列とする行列をΨi(i=1、、、K)とする。本文では、この平均ベクトルVとK個の固有ベクトルによる行列Ψiを合わせたものを主成分データと呼ぶ。このとき部分空間投影距離dsは式(5)によって算出される。   Pattern matching based on the subspace projection distance is called a subspace method, for example, Document 1 (Maeda, Murase, “Pattern recognition by kernel nonlinear subspace method”, IEICE Transactions, D-II, Vol. J82). -D-II, No. 4, pp. 600-612, 1999). The partial space projection distance defines a distance value between the partial space spanned by the feature data group registered in the dictionary and the input feature vector. An example of a method for calculating the subspace projection distance will be described. Let X be the input feature vector. Let V be the average vector of the feature vector group registered in the dictionary. The feature vector group registered in the dictionary is subjected to principal component analysis, and a matrix having K eigenvectors having large eigenvalues as columns is denoted by ψi (i = 1,..., K). In the present text, a combination of the average vector V and the matrix Ψi of K eigenvectors is referred to as principal component data. At this time, the subspace projection distance ds is calculated by Expression (5).

Figure 0004803214
次に、パターン間距離算出手段50における部分領域ごとの照合について説明する。図5は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像340は識別対象として入力された画像である。登録画像シーケンス341は、あらかじめ辞書として登録された、ある1つのカテゴリに属する画像シーケンスである。登録画像シーケンス341はJ個(Jは2以上の整数)の登録画像からなる。入力画像340はP個の部分領域に分割され、入力画像領域分割結果342が得られる。登録画像シーケンス341も同様にP個の部分領域に分割され、登録画像領域分割結果343が得られる。
Figure 0004803214
Next, collation for each partial area in the inter-pattern distance calculation means 50 will be described. FIG. 5 is a conceptual diagram showing an inter-pattern distance calculation method of the image recognition system according to the present invention. Referring to the figure, the input image 340 is an image input as an identification target. The registered image sequence 341 is an image sequence that is registered in advance as a dictionary and belongs to a certain category. The registered image sequence 341 includes J registered images (J is an integer of 2 or more). The input image 340 is divided into P partial areas, and an input image area division result 342 is obtained. The registered image sequence 341 is similarly divided into P partial areas, and a registered image area division result 343 is obtained.

入力画像340の、P個のそれぞれの部分領域に属する画像データが1次元特徴ベクトルとして抽出され、領域別入力特徴ベクトル349として記憶される。P個の中の一つである部分領域Aに注目すると、部分領域A入力画像344が1次元ベクトルとして部分領域A入力特徴ベクトル347に変換される。   Image data belonging to the P partial regions of the input image 340 is extracted as a one-dimensional feature vector and stored as a region-specific input feature vector 349. When attention is paid to the partial area A which is one of P, the partial area A input image 344 is converted into a partial area A input feature vector 347 as a one-dimensional vector.

登録画像シーケンス341のJ個の画像から、それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたJ個の特徴ベクトルから主成分データを算出し、領域別辞書主成分データ350として記憶される。P個の領域の一つである部分領域Aに注目すると、部分領域Aに属する特徴データ列である部分領域A登録シーケンス345を用いて、部分領域A辞書主成分データ348を算出する。   A one-dimensional feature vector is extracted for each partial region from J images of the registered image sequence 341. Principal component data is calculated from the extracted J feature vectors and stored as dictionary-specific dictionary principal component data 350. When attention is paid to the partial area A which is one of the P areas, the partial area A dictionary principal component data 348 is calculated using the partial area A registration sequence 345 which is a feature data string belonging to the partial area A.

パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力特徴データ347は、部分領域A辞書主成分ベクトル348と比較されて、部分空間投影距離が算出される。このように、P個すべての部分領域について部分空間投影距離が独立に算出される。   The inter-pattern distance calculation is performed for each partial region. For example, the partial area A input feature data 347 is compared with the partial area A dictionary principal component vector 348 to calculate a partial space projection distance. In this way, the partial space projection distance is calculated independently for all P partial regions.

次に領域距離値統合手段10において、カテゴリごとにP個の距離値を用いて、ある関数F(d1,d2,d3…dp)を作用させ、一つの統合距離値を算出する。   Next, the area distance value integration means 10 uses a P distance value for each category to apply a function F (d1, d2, d3... Dp) to calculate one integrated distance value.

距離値統合手段10の一例として、図6の領域距離値統合手段70がある。領域距離値統合手段は加重平均値算出手段71を含んで構成されている。領域距離値統合手段70は、P個の部分領域の距離値が与えられると、加重平均値算出手段71は、P個の距離値の加重平均値Dwを計算して統合距離値として出力する。加重平均値Dwの計算式を式(6)に示す。   As an example of the distance value integration unit 10, there is an area distance value integration unit 70 of FIG. The area distance value integration unit includes a weighted average value calculation unit 71. When the distance values of the P partial areas are given, the area distance value integration means 70 calculates the weighted average value Dw of the P distance values and outputs it as an integrated distance value. A formula for calculating the weighted average value Dw is shown in Formula (6).

Figure 0004803214
各領域に対応する重み値wはあらかじめ決められた値を用いることができるし、領域内の画像データに適当な関数を作用させて求めても良い。
Figure 0004803214
As the weight value w corresponding to each region, a predetermined value can be used, or it may be obtained by applying an appropriate function to the image data in the region.

次に、距離値統合手段10の一例として、図7に示す領域距離値統合手段80がある。領域距離値統合手段は、距離値ソート手段82と、距離値上位平均算出手段81から構成されている。領域距離値統合手段80は、P個の部分領域の距離値が与えられると、距離値ソート手段82においてP個の距離値を小さい順にソートし、距離値上位平均算出手段81において距離値の小さいP´個(P´はP未満の整数)の平均値Dpを計算し、統合距離値として出力する。P´の値については、Pの値に応じて予め決めておく方法がある。またP´を各部分領域の距離値の関数として定義することにより、P´の値を動的に変化させる方法がある。また画像全体の明るさ、コントラストに応じてP´の値を可変にすることができる。   Next, as an example of the distance value integration unit 10, there is a region distance value integration unit 80 shown in FIG. The area distance value integration unit includes a distance value sorting unit 82 and a distance value upper average calculation unit 81. When the distance values of the P partial areas are given, the area distance value integration unit 80 sorts the P distance values in ascending order by the distance value sorting unit 82, and the distance value upper average calculation unit 81 decreases the distance value. An average value Dp of P ′ pieces (P ′ is an integer less than P) is calculated and output as an integrated distance value. There is a method of predetermining the value of P ′ according to the value of P. There is also a method of dynamically changing the value of P ′ by defining P ′ as a function of the distance value of each partial region. Further, the value of P ′ can be made variable according to the brightness and contrast of the entire image.

また、距離値統合手段10の一例として、P個の部分領域の距離値の中で予め与えられたしきい値よりも小さいP´個(P´はP未満の整数)の平均値を算出するものがある。   Further, as an example of the distance value integration unit 10, an average value of P ′ (P ′ is an integer less than P) smaller than a predetermined threshold value among the distance values of the P partial areas is calculated. There is something.

次に、距離値統合手段80で、部分領域の距離値が小さいものだけを用いて統合距離を算出する方法の利点について図8を用いて説明する。図8は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。入力画像400と、登録画像401を比較することを考える。登録画像401は照明の影響で左側に影があり、左側の画像パターンが大きく異なっている。部分領域ごとに距離値を計算した結果を濃淡値で図示すると、部分領域距離値マップ404が得られる。黒い領域は距離値が大きく(照合スコアは低い)、白い領域は距離値が小さい(照合スコアは高い)。登録画像左側の影が写った部分領域の照合スコアは低くなっている。直感的に、不明瞭な左側の部分領域を無視して右側の部分領域だけで照合するほうが、より正確な照合結果が得られることがわかる。よって距離値統合手段80のように、照合スコアの高い(距離値の低い)部分領域のみを考慮した距離値統合手段が有効である。   Next, the advantage of the method of calculating the integrated distance using only the distance values integrating means 80 having a small partial region distance value will be described with reference to FIG. FIG. 8 is a conceptual diagram showing a pattern distance calculation method of the image recognition system according to the present invention. Consider comparing the input image 400 with the registered image 401. The registered image 401 has a shadow on the left side due to the influence of illumination, and the image pattern on the left side is greatly different. When the result of calculating the distance value for each partial area is shown as a gray value, a partial area distance value map 404 is obtained. The black area has a large distance value (low matching score), and the white area has a small distance value (high matching score). The collation score of the partial area where the shadow on the left side of the registered image appears is low. Intuitively, it can be seen that a more accurate collation result can be obtained by ignoring the unclear left partial area and collating only with the right partial area. Therefore, distance value integration means that considers only partial regions with high matching scores (low distance values), such as distance value integration means 80, is effective.

次に、識別手段4は、距離値統合手段10から得られた各カテゴリとの統合距離値を比較し、最終的に入力画像が属するカテゴリを出力する。識別手段4の一例として図9に示す識別手段90がある。同図を参照すると、識別手段90は、最小値算出手段91と、しきい値処理手段92とを含んで構成される。まず最小値算出手段91において、各カテゴリとの統合距離値の最小値を算出する。次にしきい値処理手段92において最小値をしきい値と比較し、しきい値よりも小さいときは、最小値が得られたカテゴリを識別結果として出力する。しきい値よりも大きいときは、辞書には存在しないという結果を出力する。   Next, the identification unit 4 compares the integrated distance value with each category obtained from the distance value integration unit 10 and finally outputs the category to which the input image belongs. As an example of the identification unit 4, there is an identification unit 90 shown in FIG. Referring to the figure, the identification unit 90 includes a minimum value calculation unit 91 and a threshold processing unit 92. First, the minimum value calculation means 91 calculates the minimum value of the integrated distance value with each category. Next, the threshold value processing means 92 compares the minimum value with the threshold value, and if it is smaller than the threshold value, the category from which the minimum value is obtained is output as the identification result. When it is larger than the threshold value, a result that it does not exist in the dictionary is output.

次に登録部7の動作について説明する。登録部7は、登録画像部分領域抽出手段9と、辞書データ生成手段8とを含んで構成されている。登録部7へは登録画像と対応するカテゴリのID(Identification)とが入力される。この画像はカテゴリIDによって指定されたカテゴリに属するものとする。登録画像に対し、登録画像部分領域抽出手段9は、部分領域情報6を参照して、P個の部分領域を設定し、それぞれの部分領域に属する画素値を元に領域別辞書特徴ベクトルを生成する。領域別辞書特徴ベクトルの一例として、画素値を要素とする特徴ベクトルがあげられる。その他の領域別辞書特徴ベクトルを生成する例については後述する。   Next, the operation of the registration unit 7 will be described. The registration unit 7 includes a registered image partial area extraction unit 9 and a dictionary data generation unit 8. A registration image and an ID (identification) of a corresponding category are input to the registration unit 7. This image belongs to the category designated by the category ID. For the registered image, the registered image partial area extraction unit 9 sets P partial areas with reference to the partial area information 6 and generates a region-specific dictionary feature vector based on the pixel values belonging to each partial area. To do. As an example of the region-specific dictionary feature vector, a feature vector having a pixel value as an element can be cited. Examples of generating other region-specific dictionary feature vectors will be described later.

そして辞書データ生成手段8では領域別辞書特徴ベクトルを、適切な保存形式に変換し、辞書格納手段5に出力する。辞書として主成分データが必要な場合は、辞書特徴ベクトル群の主成分分析を行う。保存形式の一例が図10に示されている。   Then, the dictionary data generation means 8 converts the region-specific dictionary feature vector into an appropriate storage format and outputs it to the dictionary storage means 5. When principal component data is required as a dictionary, principal component analysis of a dictionary feature vector group is performed. An example of the storage format is shown in FIG.

辞書データ生成手段8の一例として、図27の辞書データ生成手段190がある。辞書データ生成手段190は主成分データ生成手段191を含む。主成分データ生成手段191は、入力された複数の領域別辞書特徴ベクトル群の主成分分析を行い、領域別主成分データを生成する。   As an example of the dictionary data generation means 8, there is the dictionary data generation means 190 of FIG. The dictionary data generation unit 190 includes a principal component data generation unit 191. The principal component data generation unit 191 performs principal component analysis of the input plurality of region-specific dictionary feature vectors, and generates region-specific principal component data.

図10に辞書格納手段5の一例である辞書格納手段100の構成図を示す。図10(A)は辞書格納手段100の全体構成図、図10(B)はレコード記憶部101の構成図である。辞書格納手段100はC個のレコード記憶部101を持ち、各レコードには、レコード番号102、領域別辞書データ103、カテゴリID104を記憶することができる。領域別辞書データは、P個の部分領域別の辞書データからなっている。辞書格納手段100は、同じカテゴリIDを持つ複数の辞書レコードを格納することが可能である。領域別辞書データ103の具体的なデータは、パターン間距離算出手段3の距離計算方式に依存し、例えばパターン間距離算出手段40を用いるときは1次元の特徴ベクトルとなり、パターン間距離算出手段50やパターン間距離算出手段60を用いるときは、平均ベクトルVとK個の固有ベクトルからなる主成分データとなる。   FIG. 10 shows a configuration diagram of a dictionary storage unit 100 which is an example of the dictionary storage unit 5. FIG. 10A is an overall configuration diagram of the dictionary storage unit 100, and FIG. 10B is a configuration diagram of the record storage unit 101. The dictionary storage means 100 has C record storage units 101, and each record can store a record number 102, area-specific dictionary data 103, and category ID 104. The area-specific dictionary data includes P partial area-specific dictionary data. The dictionary storage means 100 can store a plurality of dictionary records having the same category ID. The specific data of the region-specific dictionary data 103 depends on the distance calculation method of the inter-pattern distance calculation means 3. For example, when the inter-pattern distance calculation means 40 is used, it becomes a one-dimensional feature vector, and the inter-pattern distance calculation means 50. When the inter-pattern distance calculation means 60 is used, the principal component data is an average vector V and K eigenvectors.

図11に、ビデオシーケンスなどの複数枚の入力画像から対象を認識する実施例である照合部21の構成を示す。本実施例の入力としては、ビデオ映像などの動画像や、同じ物体を撮影した複数枚の静止画像が含まれている。なお、図1と同様の構成部分には同一番号を付し、その説明を省略する。照合部21は、入力画像列を平均化し、1枚の入力画像を生成する入力画像列平滑化手段22と、入力画像部分領域抽出手段2と、パターン間距離算出手段3と、識別手段4とを含んで構成されている。照合部21は、はじめにN枚(Nは2以上の整数)の入力画像が入力されると、画素ごとにN枚の平均を取り、1枚の入力平均画像を生成する。この入力平均画像を入力画像として照合部1と同等の動作を行う。   FIG. 11 shows a configuration of a collation unit 21 that is an embodiment for recognizing a target from a plurality of input images such as a video sequence. The input of the present embodiment includes a moving image such as a video image and a plurality of still images obtained by photographing the same object. In addition, the same number is attached | subjected to the component similar to FIG. 1, and the description is abbreviate | omitted. The collation unit 21 averages the input image sequences, generates an input image sequence smoothing means 22, an input image partial area extracting means 2, an inter-pattern distance calculating means 3, and an identifying means 4. It is comprised including. When N input images (N is an integer greater than or equal to 2) are input first, the collating unit 21 takes an average of N images for each pixel and generates one input average image. An operation equivalent to that of the collating unit 1 is performed using the input average image as an input image.

図12に、ビデオシーケンスなどの複数枚の入力画像から対象を認識するもう一つの実施例である照合部31の構成を示す。本実施例の入力としては、ビデオ映像などの動画像や、同じ物体を撮影した複数枚の静止画像が含まれている。なお、図1と同様の構成部分には同一番号を付し、その説明を省略する。照合部31は、入力画像部分領域抽出手段2と、入力主成分生成部32と、パターン間距離算出手段33と、識別手段4とを含んで構成されている。照合部31は、N枚の入力画像が入力されると、各画像に対し、入力画像部分領域抽出手段2において、P個の部分領域を設定し、それぞれの部分領域に属する画像データを抽出する。部分領域の設定に際しては部分領域情報記憶手段6から各部分領域の位置と大きさと形状に関する情報を取得する。次に入力主成分生成部32において、部分領域ごとの入力主成分データである領域別入力主成分データを算出する。パターン間距離算出手段33では、得られたP個の入力主成分データと、辞書データとを用いて、各カテゴリとの距離値を計算する。各カテゴリとの距離値を元に識別手段において、入力画像列が、どのカテゴリに属するかを判断し、認識結果を出力する。   FIG. 12 shows a configuration of a collation unit 31 that is another embodiment for recognizing a target from a plurality of input images such as a video sequence. The input of the present embodiment includes a moving image such as a video image and a plurality of still images obtained by photographing the same object. In addition, the same number is attached | subjected to the component similar to FIG. 1, and the description is abbreviate | omitted. The collation unit 31 includes an input image partial region extraction unit 2, an input principal component generation unit 32, an inter-pattern distance calculation unit 33, and an identification unit 4. When N input images are input, the collation unit 31 sets P partial areas for each image in the input image partial area extraction unit 2 and extracts image data belonging to each partial area. . When setting the partial area, information on the position, size, and shape of each partial area is acquired from the partial area information storage unit 6. Next, the input principal component generation unit 32 calculates input principal component data for each region, which is input principal component data for each partial region. The inter-pattern distance calculation means 33 calculates the distance value between each category using the obtained P input principal component data and dictionary data. Based on the distance value with each category, the identification unit determines which category the input image sequence belongs to, and outputs a recognition result.

パターン間距離算出手段33の例として、図13に示すパターン間距離算出手段60がある。パターン間距離算出手段60は、部分空間間距離算出手段61とから構成されている。部分空間間距離算出手段61は、領域別入力主成分データと領域別辞書主成分データを入力として、部分領域ごとに距離値を算出する。   As an example of the inter-pattern distance calculating means 33, there is an inter-pattern distance calculating means 60 shown in FIG. The inter-pattern distance calculating unit 60 includes a subspace distance calculating unit 61. The inter-subspace distance calculating means 61 receives the area-based input principal component data and the area-specific dictionary principal component data as input, and calculates a distance value for each partial area.

部分空間間距離算出手段61の実現方法として、部分空間同士の距離を求める方法がある。一例を以下に述べる。辞書主成分データは、辞書平均ベクトルV1とK個の辞書固有ベクトルΨiとからなる。入力主成分データは、入力平均ベクトルV2とL個の入力固有ベクトルΦiとからなる。まず入力平均ベクトルV2と辞書固有ベクトルで張られる部分空間との距離値dM1を式(7)によって算出する。   As a method for realizing the inter-subspace distance calculation means 61, there is a method for obtaining a distance between the subspaces. An example is described below. The dictionary principal component data is composed of a dictionary average vector V1 and K dictionary eigenvectors ψi. The input principal component data is composed of an input average vector V2 and L input eigenvectors Φi. First, the distance value dM1 between the input average vector V2 and the partial space spanned by the dictionary eigenvector is calculated by the equation (7).

Figure 0004803214
次に辞書平均ベクトルV1と、入力固有ベクトルで張られる部分空間との距離値dM2を式(8)によって算出する。
Figure 0004803214
Next, a distance value dM2 between the dictionary average vector V1 and the subspace spanned by the input eigenvector is calculated by the equation (8).

Figure 0004803214
入力と辞書の部分空間同士の距離は、dM1とdM2の関数G(dM1,dM2)によって算出される。
Figure 0004803214
The distance between the input and dictionary subspaces is calculated by a function G (dM1, dM2) of dM1 and dM2.

関数Gの一例として式(9)などがある。   An example of the function G is equation (9).

Figure 0004803214
ただしαは定数である。
Figure 0004803214
Where α is a constant.

次に、図14を用いてパターン間距離算出手段60における部分領域ごとの照合について説明する。図14は本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。同図を参照すると、入力画像320は識別対象として入力された画像シーケンスである。登録画像シーケンス321は、あらかじめ辞書として登録された、ある1つのカテゴリに属する画像シーケンスである。入力画像シーケンスはN枚、登録画像シーケンス321はJ枚の登録画像からなる。入力画像シーケンス320の各画像はP個の部分領域に分割され、入力画像領域分割結果322が得られる。登録画像シーケンス341も同様にP個の部分領域に分割され、登録画像領域分割結果323が得られる。   Next, collation for each partial area in the inter-pattern distance calculation means 60 will be described with reference to FIG. FIG. 14 is a conceptual diagram showing an inter-pattern distance calculation method of the image recognition system according to the present invention. Referring to the figure, an input image 320 is an image sequence input as an identification target. The registered image sequence 321 is an image sequence that is registered in advance as a dictionary and belongs to a certain category. The input image sequence includes N registered images, and the registered image sequence 321 includes J registered images. Each image of the input image sequence 320 is divided into P partial areas, and an input image area division result 322 is obtained. The registered image sequence 341 is similarly divided into P partial areas, and a registered image area division result 323 is obtained.

入力画像シーケンス320の、N枚の画像から、P個それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたN個の特徴ベクトルから主成分データを算出し、領域別入力主成分データ329として記憶される。P個の領域の一つである部分領域A に注目すると、部分領域Aに属する特徴データ列である部分領域A入力シーケンス324を用いて、部分領域A入力主成分データ326が算出される。   A one-dimensional feature vector is extracted for each of P partial regions from N images of the input image sequence 320. Principal component data is calculated from the extracted N feature vectors and stored as region-specific input principal component data 329. When attention is paid to the partial area A which is one of the P areas, the partial area A input principal component data 326 is calculated using the partial area A input sequence 324 which is a feature data string belonging to the partial area A.

一方、登録画像シーケンス321のJ枚の画像から、P個それぞれの部分領域ごとに1次元特徴ベクトルが抽出される。抽出されたJ個の特徴ベクトルから主成分データを算出し、領域別辞書主成分データ330として記憶される。P個の領域の一つである部分領域Aに注目すると、部分領域Aに属する特徴データ列である部分領域A登録シーケンス325を用いて、部分領域A 辞書主成分データ327が算出される。   On the other hand, a one-dimensional feature vector is extracted for each of P partial regions from J images of the registered image sequence 321. Principal component data is calculated from the extracted J feature vectors and stored as dictionary-specific dictionary principal component data 330. When attention is paid to the partial area A which is one of the P areas, the partial area A dictionary principal component data 327 is calculated using the partial area A registration sequence 325 which is a feature data string belonging to the partial area A.

パターン間距離計算は、部分領域ごとに行われる。例えば部分領域A入力主成分データ326は、部分領域A辞書主成分データ327と比較され、部分空間間距離が例えば式(9)によって算出される。P個すべての部分領域について部分空間間距離が独立に算出される。   The inter-pattern distance calculation is performed for each partial region. For example, the partial area A input principal component data 326 is compared with the partial area A dictionary principal component data 327, and the distance between the partial spaces is calculated by, for example, Expression (9). The inter-subspace distances are calculated independently for all P partial regions.

次に、入力画像部分領域抽出手段2について詳細に説明する。入力画像部分領域抽出手段3の一例として、図18の入力画像部分領域抽出手段110がある。入力画像部分領域抽出手段110は、部分画像取得手段111と、特徴抽出手段112とを含んでいる。部分画像取得手段111は、部分領域情報記憶手段6に格納された部分領域情報を参照し、部分画像の画素値を取得する。特徴抽出手段112は、得られた部分画像データを1次元特徴ベクトルに変換する。特徴抽出手段112の例として、部分画像の画素値を要素とするベクトルを生成するものがある。また特徴抽出手段112の例として、部分画像の画素値に対し、画素値の濃度正規化、ヒストグラム平坦化、フィルタリング等の補正処理を加えたものを特徴ベクトルとするものがある。また、フーリエ変換、DCT、ウェーブレット変換を利用した周波数特徴を抽出するものがある。周波数特徴は一般に位置ずれに頑強である。なお周波数特徴への変換は画素値ベクトルに対するフィルタリングの一種である。   Next, the input image partial area extracting unit 2 will be described in detail. As an example of the input image partial area extracting unit 3, there is the input image partial area extracting unit 110 of FIG. The input image partial area extraction unit 110 includes a partial image acquisition unit 111 and a feature extraction unit 112. The partial image acquisition unit 111 refers to the partial area information stored in the partial area information storage unit 6 and acquires the pixel value of the partial image. The feature extraction unit 112 converts the obtained partial image data into a one-dimensional feature vector. As an example of the feature extraction unit 112, there is one that generates a vector whose element is a pixel value of a partial image. As an example of the feature extraction unit 112, there is a feature vector obtained by adding correction processing such as pixel value density normalization, histogram flattening, and filtering to the pixel value of a partial image. Some extract frequency features using Fourier transform, DCT, and wavelet transform. The frequency feature is generally robust to misalignment. The conversion to the frequency feature is a kind of filtering for the pixel value vector.

周波数特徴を出力する特徴抽出手段112の一例として、図19に示す特徴抽出手段130がある。特徴抽出手段130は、フーリエスペクトル変換手段131を含む。フーリエスペクトル変換手段131は、部分領域の画素値のベクトルに対し離散フーリエ変換を施す。特徴抽出手段130は、画素値の離散フーリエ変換係数を要素とする特徴ベクトルを出力する。   As an example of the feature extraction unit 112 that outputs a frequency feature, there is a feature extraction unit 130 shown in FIG. The feature extraction unit 130 includes a Fourier spectrum conversion unit 131. The Fourier spectrum conversion means 131 performs a discrete Fourier transform on the vector of pixel values in the partial area. The feature extraction unit 130 outputs a feature vector whose elements are discrete Fourier transform coefficients of pixel values.

入力画像部分領域抽出手段2の他の一例として、図20の入力画像部分領域抽出手段120がある。入力画像部分領域抽出手段120は、姿勢補正手段121と、部分画像取得手段111と、特徴抽出手段112とを含む。入力画像部分領域抽出手段120は、姿勢補正手段121によって、特徴を抽出する前に入力画像中の物体の姿勢を適切に補正する。画像中の物体の姿勢を補正するというのは、具体的には、入力画像中の物体が、予め定められた固定方向からカメラで観察した状態になるように、入力画像データ自身を変換することである。姿勢補正手段121によって、一定の姿勢に変換された画像データに対し、部分画像取得手段111と特徴抽出手段112を用いて、領域別入力特徴ベクトルを生成する。入力画像の姿勢を補正することにより、画像中の物体の姿勢変化による照合精度の劣化を改善することができる。また登録側の画像を、入力と同じパラメータの姿勢に補正することで、照合精度を向上させることができる。   As another example of the input image partial area extracting unit 2, there is an input image partial area extracting unit 120 of FIG. The input image partial area extraction unit 120 includes an attitude correction unit 121, a partial image acquisition unit 111, and a feature extraction unit 112. The input image partial area extracting unit 120 appropriately corrects the posture of the object in the input image before extracting the feature by the posture correcting unit 121. Specifically, correcting the posture of an object in the image means converting the input image data itself so that the object in the input image is observed by a camera from a predetermined fixed direction. It is. An area-specific input feature vector is generated using the partial image acquisition unit 111 and the feature extraction unit 112 for the image data converted into a fixed posture by the posture correction unit 121. By correcting the posture of the input image, it is possible to improve the deterioration of the collation accuracy due to the posture change of the object in the image. In addition, by correcting the image on the registration side to the same parameter orientation as that of the input, the collation accuracy can be improved.

図21を参照して、姿勢補正方法について説明する。一般に姿勢補正のパラメータは、XYZ軸に沿った移動とXYZ軸回りの回転の合計6個である。図21では顔画像を例として、様々な方向を向いた顔画像を入力画像として示している。入力画像A140は上向き、入力画像B141は右向き、入力画像C142は下向き、入力画像D143は左向きである。それに対して姿勢補正画像144は、前記入力画像を、正面向き画像に変換したものである。   The posture correction method will be described with reference to FIG. In general, the posture correction parameters are a total of six parameters: movement along the XYZ axes and rotation around the XYZ axes. In FIG. 21, a face image is taken as an example, and face images facing various directions are shown as input images. The input image A140 is upward, the input image B141 is rightward, the input image C142 is downward, and the input image D143 is leftward. On the other hand, the posture correction image 144 is obtained by converting the input image into a front-facing image.

前記姿勢補正画像144への変換のような姿勢補正方法の一例として、画像データをアフィン変換する方法がある。アフィン変換によって物体の姿勢補正する方法は、たとえば特開2000−90190号公報に示されている。   As an example of a posture correction method such as conversion to the posture correction image 144, there is a method of affine transformation of image data. A method for correcting the posture of an object by affine transformation is disclosed in, for example, Japanese Patent Application Laid-Open No. 2000-90190.

また、その他の姿勢補正方法の一例として、図22及び図23に示す3次元モデルを使用する方法がある。図22及び図23には、人間の顔を想定した3次元モデルが示されており、図22が楕円体モデル151、図23が標準3次元顔モデル152である。標準3次元顔モデルは標準的な人間の顔の形状を表す3次元モデルであり、3次元CADソフトや、レンジファインダーによる測定を利用して得ることができる。姿勢補正は、入力画像を3次元モデル上にテクスチャマッピングした後、3次元モデルを移動回転させることによって実現することができる。   As another example of the posture correction method, there is a method using a three-dimensional model shown in FIGS. 22 and 23 show a three-dimensional model assuming a human face. FIG. 22 shows an ellipsoid model 151 and FIG. 23 shows a standard three-dimensional face model 152. The standard 3D face model is a 3D model representing the shape of a standard human face, and can be obtained by using 3D CAD software or measurement by a range finder. Posture correction can be realized by texture-mapping an input image on a three-dimensional model and then moving and rotating the three-dimensional model.

次に、登録画像部分領域抽出手段9について詳細に説明する。登録部分領域抽出手段9の一例として、図24の登録部分領域抽出手段160がある。登録部分領域抽出手段160は、部分画像取得手段111と、特徴抽出手段112とを含んでいる。部分画像取得手段111と特徴抽出手段112の動作についてはすでに述べた。登録部分領域抽出手段160は登録画像から領域別辞書特徴ベクトルを生成する。   Next, the registered image partial area extracting unit 9 will be described in detail. As an example of the registered partial area extracting unit 9, there is a registered partial area extracting unit 160 shown in FIG. The registered partial area extraction unit 160 includes a partial image acquisition unit 111 and a feature extraction unit 112. The operations of the partial image acquisition unit 111 and the feature extraction unit 112 have already been described. The registered partial region extraction unit 160 generates a region-specific dictionary feature vector from the registered image.

登録画像部分領域抽出手段9の他の一例として、図25の登録画像部分領域抽出手段170がある。登録画像部分領域抽出手段170は、姿勢補正手段121と、部分画像取得手段111と、特徴抽出手段112とを含む。登録画像部分領域抽出手段170は、姿勢補正手段121によって特徴を抽出する前に登録画像中の物体の姿勢を適切に補正する。   Another example of the registered image partial area extracting unit 9 is a registered image partial area extracting unit 170 shown in FIG. The registered image partial area extraction unit 170 includes a posture correction unit 121, a partial image acquisition unit 111, and a feature extraction unit 112. The registered image partial area extracting unit 170 appropriately corrects the posture of the object in the registered image before the feature is extracted by the posture correcting unit 121.

姿勢補正手段121によって一定の姿勢に変換された画像データに対し、部分画像取得手段111と特徴抽出手段112を用いて、領域別辞書特徴ベクトルを生成する。登録画像の姿勢を補正することにより、画像中の物体の姿勢変化による照合精度の劣化を改善することができる。   A region-specific dictionary feature vector is generated by using the partial image acquisition unit 111 and the feature extraction unit 112 for the image data converted into a fixed posture by the posture correction unit 121. By correcting the posture of the registered image, it is possible to improve the deterioration of the collation accuracy due to the posture change of the object in the image.

登録画像部分領域抽出手段9の他の一例として、図26の登録画像部分領域抽出手段180がある。登録画像部分領域抽出手段180は、変動画像生成手段181と、部分画像取得手段111と、特徴抽出手段112とを含む。変動画像生成手段181は、入力された登録画像を、それ自身を含む複数の変動画像に変換する。変動画像は、入力された画像に対し、姿勢変動、照明変動など、様々な要因によって起こる対象物の見えの変化をシミュレートして変換した画像である。   As another example of the registered image partial area extracting unit 9, there is a registered image partial area extracting unit 180 shown in FIG. The registered image partial area extraction unit 180 includes a fluctuation image generation unit 181, a partial image acquisition unit 111, and a feature extraction unit 112. The fluctuation image generation means 181 converts the input registered image into a plurality of fluctuation images including itself. The variation image is an image obtained by simulating and converting the change in the appearance of the object caused by various factors such as posture variation and illumination variation with respect to the input image.

図28に、人間の顔を対象とした変動画像の例を示す。入力画像250に対し、それ自身を含む7種類の変動画像が生成されている。姿勢変動画像A251は、顔を上向きに変換した画像である。姿勢変動画像B252は、顔を右向きに変換した画像である。姿勢変動画像C253は、顔を下向きに変換した画像である。姿勢変動画像D254は、顔を左向きに変換した画像である。これらの姿勢変動画像は、前記姿勢補正手段121に用いられた方法を利用して変換することができる。照明変動画像255は、入力画像250に対して照明による明暗の変化を付加した画像であり、例えば入力画像250の画素値を全体的に明るく、または暗くする方法で実現することができる。表情変動画像256は、顔の表情を変化させて笑顔に変換した画像である。変換方法は、例えば両方の口もとを上にあげて両目を細くするなどの変形を加えることで実現することができる。元画像257は入力画像そのままのデータである。   FIG. 28 shows an example of a variation image for a human face. Seven types of variation images including themselves are generated for the input image 250. The posture variation image A251 is an image obtained by converting the face upward. The posture variation image B252 is an image obtained by converting the face to the right. The posture variation image C253 is an image obtained by converting the face downward. The posture variation image D254 is an image obtained by converting the face to the left. These posture variation images can be converted using the method used in the posture correction means 121. The illumination variation image 255 is an image obtained by adding a change in light and darkness due to illumination to the input image 250, and can be realized by, for example, a method of making the pixel values of the input image 250 brighter or darker as a whole. The facial expression variation image 256 is an image converted into a smile by changing the facial expression. The conversion method can be realized by adding a modification such as raising both mouths upward and narrowing both eyes. The original image 257 is data as it is the input image.

また変動画像生成手段181は、同じ変動でもパラメータを複数段階に変化させたものを複数出力することができる。例えば右向きの姿勢変動の場合には、右15度回転と右30度回転と右45度回転の3種類の変換画像を同時に出力することができる。また、姿勢変動と照明変動など、異なる変動要因を組み合わせた変換を施した画像を出力することができる。   In addition, the fluctuation image generation means 181 can output a plurality of changes of the parameter in a plurality of stages even with the same fluctuation. For example, in the case of a posture change in the right direction, three types of converted images of 15 ° rotation to the right, 30 ° rotation to the right, and 45 ° rotation to the right can be output simultaneously. In addition, it is possible to output an image that has been converted by combining different variation factors such as posture variation and illumination variation.

変動画像生成手段181によって生成された複数の変動画像群は、部分画像取得手段111と特徴抽出手段112によって、領域別辞書特徴ベクトル群に変換される。   The plurality of variation image groups generated by the variation image generation unit 181 is converted into a region-specific dictionary feature vector group by the partial image acquisition unit 111 and the feature extraction unit 112.

登録画像部分領域抽出手段180によって生成された領域別辞書特徴ベクトル群は、辞書データ生成手段8によって複数の辞書レコードに変換されるか、あるいは図27に示す辞書データ生成手段190によって、主成分データが生成される。主成分データが生成された場合は、図5の概念図に示された方法によって入力画像を照合する。   The region-specific dictionary feature vector group generated by the registered image partial region extracting unit 180 is converted into a plurality of dictionary records by the dictionary data generating unit 8, or by the dictionary data generating unit 190 shown in FIG. Is generated. When the principal component data is generated, the input images are collated by the method shown in the conceptual diagram of FIG.

辞書登録側で変動画像を生成しておくことにより、入力画像中の物体の姿勢や照明環境が変化しても、登録側にあらかじめ想定された変動画像が登録されているため、正確に照合することができる。   By creating a fluctuating image on the dictionary registration side, even if the posture or lighting environment of the object in the input image changes, the assumed fluctuating image is registered on the registration side in advance, so it is accurately verified be able to.

次に、図15を参照して本実施形態の全体の動作について詳細に説明する。図15は本発明に係る画像認識システムの全体の動作を示すフローチャートである。まず、識別対象の入力画像データを入力する(ステップA1)。次に入力画像をP個の部分領域に分割し、部分領域ごとに特徴ベクトルの抽出を行う(ステップA2)。次に辞書データを参照し、部分領域ごとに登録画像との距離を算出する(ステップA3)。次に、P個の部分領域ごとの距離値を用いて、1つの統合距離値を算出する(ステップA4)。登録カテゴリの中で最小の距離値を算出する(ステップA5)。次に最小距離がしきい値より小さいかどうかを判定する(ステップA6)。最小距離がしきい値よりも小さいときは、最小距離を持つカテゴリを認識結果として出力する(ステップA7)。最小距離がしきい値よりも大きいときは、該当カテゴリなしを出力する(ステップA8)。   Next, the overall operation of this embodiment will be described in detail with reference to FIG. FIG. 15 is a flowchart showing the overall operation of the image recognition system according to the present invention. First, input image data to be identified is input (step A1). Next, the input image is divided into P partial areas, and feature vectors are extracted for each partial area (step A2). Next, the dictionary data is referred to, and the distance from the registered image is calculated for each partial area (step A3). Next, one integrated distance value is calculated using the distance value for each of the P partial areas (step A4). The minimum distance value in the registered category is calculated (step A5). Next, it is determined whether the minimum distance is smaller than the threshold value (step A6). If the minimum distance is smaller than the threshold value, the category having the minimum distance is output as a recognition result (step A7). When the minimum distance is larger than the threshold value, “no corresponding category” is output (step A8).

次に図16を参照して本実施形態の辞書データ学習の動作について説明する。図16は辞書データ学習の動作を示すフローチャートである。登録画像データと対応するカテゴリIDを入力する(ステップB1)。次に登録画像をP個の部分領域に分割する(ステップB2)。次に各部分領域に属する画像データを用いて、部分領域ごとに辞書データを生成する(ステップB3)。辞書データを辞書データ格納手段に保存する(ステップB4)。以上の動作を必要なだけ繰り返す。   Next, the dictionary data learning operation of this embodiment will be described with reference to FIG. FIG. 16 is a flowchart showing the dictionary data learning operation. A category ID corresponding to the registered image data is input (step B1). Next, the registered image is divided into P partial areas (step B2). Next, using the image data belonging to each partial area, dictionary data is generated for each partial area (step B3). The dictionary data is stored in the dictionary data storage means (step B4). The above operation is repeated as necessary.

次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。図17は本発明の第2の実施の形態の構成図である。本発明の第2の実施の形態は、プログラム制御により動作するコンピュータ200と、画像認識プログラムを記録した記録媒体201と、カメラ204と、操作卓202と、表示装置203とから構成されている。この記録媒体201は磁気ディスク、半導体メモリその他の記録媒体であってよい。   Next, a second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 17 is a block diagram of the second embodiment of the present invention. The second embodiment of the present invention includes a computer 200 that operates under program control, a recording medium 201 that records an image recognition program, a camera 204, an operator console 202, and a display device 203. The recording medium 201 may be a magnetic disk, a semiconductor memory, or other recording medium.

コンピュータ200は、照合部1と登録部7と辞書格納手段5と部分領域情報記憶手段6とを実現するプログラムをロードして実行する。プログラムは記憶媒体201に保存され、コンピュータ200は記憶媒体201からプログラムを読み出して実行する。プログラムは図15と図16のフローチャートに示す動作を行う。本実施例では入力画像はカメラ204から入力され、認識結果は表示装置203に表示される。認識の指示、学習の指示は操作卓202からオペレータが行う。   The computer 200 loads and executes a program that realizes the collation unit 1, the registration unit 7, the dictionary storage unit 5, and the partial area information storage unit 6. The program is stored in the storage medium 201, and the computer 200 reads the program from the storage medium 201 and executes it. The program performs the operations shown in the flowcharts of FIGS. In this embodiment, the input image is input from the camera 204 and the recognition result is displayed on the display device 203. A recognition instruction and learning instruction are given by the operator from the console 202.

本発明による画像認識システムによれば、前記入力画像の部分領域とこれと対応する前記登録画像の部分領域とのパターン間距離を算出し、各部分領域の前記パターン間距離に基づき前記入力画像を識別する照合手段を含むため、照明変動や、オクルージョンの状態に関係なく、入力画像を正しく分類することが可能となる。又、本発明による画像認識方法及びプログラムも上記画像認識システムと同様の効果を奏する。   According to the image recognition system of the present invention, the inter-pattern distance between the partial area of the input image and the corresponding partial area of the registered image is calculated, and the input image is calculated based on the inter-pattern distance of each partial area. Since the identification means for identifying is included, it is possible to correctly classify the input images regardless of illumination fluctuations and occlusion conditions. The image recognition method and program according to the present invention also have the same effects as the image recognition system.

具体的に説明すると、本発明の効果は、画像中の複数の部分領域を独立に照合し、それらの結果を統合することにより、照明変動や、オクルージョンの影響を低減し、入力画像を正しく識別できることである。その理由は、照明変動やオクルージョンによってスコアが異常となる部分領域を、距離値統合時に排除することができるからである。   Specifically, the effect of the present invention is to identify a plurality of partial areas in an image independently and integrate the results to reduce the influence of illumination fluctuation and occlusion and correctly identify an input image. It can be done. The reason is that a partial region whose score is abnormal due to illumination variation or occlusion can be eliminated during distance value integration.

本発明に係る画像認識システムの第1の実施の形態の構成図である。1 is a configuration diagram of a first embodiment of an image recognition system according to the present invention. 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。It is a conceptual diagram which shows the distance calculation method between patterns of the image recognition system which concerns on this invention. パターン間距離算出手段40の構成図である。3 is a configuration diagram of an inter-pattern distance calculating unit 40. FIG. パターン間距離算出手段50の構成図である。3 is a configuration diagram of an inter-pattern distance calculating unit 50. FIG. 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。It is a conceptual diagram which shows the distance calculation method between patterns of the image recognition system which concerns on this invention. 領域距離値統合手段70の構成図である。It is a block diagram of the area distance value integration means 70. 領域距離値統合手段80の構成図である。4 is a configuration diagram of region distance value integration means 80. FIG. 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。It is a conceptual diagram which shows the distance calculation method between patterns of the image recognition system which concerns on this invention. 識別手段90の構成図である。3 is a configuration diagram of an identification unit 90. FIG. 辞書格納手段100の構成図である。3 is a configuration diagram of a dictionary storage unit 100. FIG. 照合部21の構成図である。3 is a configuration diagram of a collation unit 21. FIG. 照合部31の構成図である。3 is a configuration diagram of a collation unit 31. FIG. パターン間距離算出手段60の構成図である。4 is a configuration diagram of an inter-pattern distance calculation unit 60. FIG. 本発明に係る画像認識システムのパターン間距離算出方式を示す概念図である。It is a conceptual diagram which shows the distance calculation method between patterns of the image recognition system which concerns on this invention. 本発明に係る画像認識システムの全体の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the whole image recognition system which concerns on this invention. 辞書データ学習の動作を示すフローチャートである。It is a flowchart which shows operation | movement of dictionary data. 本発明の第2の実施の形態の構成図である。It is a block diagram of the 2nd Embodiment of this invention. 入力画像部分領域抽出手段110の構成図である。FIG. 3 is a configuration diagram of an input image partial area extraction unit 110. 特徴抽出手段130の構成図である。3 is a configuration diagram of feature extraction means 130. FIG. 入力画像部分領域抽出手段120の構成図である。4 is a configuration diagram of an input image partial area extraction unit 120. FIG. 姿勢補正方法を示す概念図である。It is a conceptual diagram which shows an attitude | position correction method. 楕円体モデルの一例を示す図である。It is a figure which shows an example of an ellipsoidal model. 標準3次元顔モデルの一例を示す図である。It is a figure which shows an example of a standard 3D face model. 登録画像部分領域抽出手段160の構成図である。FIG. 6 is a configuration diagram of registered image partial area extraction means 160. 登録画像部分領域抽出手段170の構成図である。FIG. 6 is a configuration diagram of registered image partial area extraction means 170. 登録画像部分領域抽出手段180の構成図である。FIG. 6 is a configuration diagram of registered image partial area extraction means 180. 辞書データ生成手段190の構成図である。4 is a configuration diagram of dictionary data generation means 190. FIG. 変動画像生成方法を示す概念図である。It is a conceptual diagram which shows the fluctuation | variation image generation method. 従来の画像認識システムの一例の構成図である。It is a block diagram of an example of the conventional image recognition system.

符号の説明Explanation of symbols

1 照合部
2 入力画像部分領域抽出手段
3 パターン間距離算出手段
4 識別手段
5 辞書格納手段
6 部分領域情報記憶手段
7 登録部
8 登録画像部分領域抽出手段
9 辞書データ生成手段
10 領域距離値統合手段
21 照合部
22 入力画像列平滑化部
31 照合部
32 入力主成分生成部
33 パターン間距離算出手段
40 パターン間距離算出手段
41 ノルム算出手段
50 パターン間距離算出手段
51 部分空間投影距離算出手段
60 パターン間距離算出手段
61 部分空間間距離算出手段
70 領域距離値統合手段
71 加重平均値算出手段
80 領域距離値統合手段
81 距離値ソート手段
82 距離値上位平均算出手段
90 識別手段
91 最小値算出手段
92 しきい値処理手段
100 辞書格納手段
101 レコード記憶部
102 レコード番号
103 領域別辞書データ
104 カテゴリID
110 入力画像部分領域抽出手段
111 部分画像取得手段
112 特徴抽出手段
120 入力画像部分領域抽出手段
121 姿勢補正手段
130 特徴抽出手段
131 フーリエスペクトル変換手段
140 入力画像A
141 入力画像B
142 入力画像C
143 入力画像D
144 姿勢補正画像
150 楕円体モデル
151 標準3次元顔モデル
160 登録画像部分領域抽出手段
170 登録画像部分領域抽出手段
180 登録画像部分領域抽出手段
181 変動画像生成手段
190 辞書データ生成手段
191 主成分データ生成手段
200 コンピュータ
201 記憶媒体
202 操作卓
203 表示装置
204 カメラ
210 画像入力部
211 部分空間間の角度計算部
212 認識部
213 辞書記憶部
250 入力画像
251 姿勢変動画像A
252 姿勢変動画像B
253 姿勢変動画像C
254 姿勢変動画像D
255 照明変動画像
256 表情変動画像
257 元画像
300 入力画像
301 登録画像
302 入力画像領域分割結果
303 登録画像領域分割結果
304 部分領域A入力画像
305 部分領域A登録画像
306 照合対
307 部分領域A入力特徴ベクトル
308 部分領域A辞書特徴ベクトル
309 領域別入力特徴ベクトル
310 領域別辞書特徴ベクトル
320 入力画像シーケンス
321 登録画像シーケンス
322 入力画像領域分割結果
323 登録画像領域分割結果
324 部分領域A入力シーケンス
325 部分領域A登録シーケンス
326 部分領域A入力主成分データ
327 部分領域A辞書主成分データ
328 照合対
329 領域別入力主成分データ
330 領域別辞書主成分データ
340 入力画像
341 登録画像シーケンス
342 入力画像領域分割結果
343 登録画像領域分割結果
344 部分領域A入力画像
345 部分領域A登録シーケンス
346 照合対
347 部分領域A入力特徴ベクトル
348 部分領域A辞書主成分データ
349 領域別入力特徴ベクトル
350 領域別辞書主成分データ
400 入力画像
401 登録画像
402 低照合スコア部分領域群
403 高照合スコア部分領域群
404 部分領域距離値マップ
DESCRIPTION OF SYMBOLS 1 Collation part 2 Input image partial area extraction means 3 Inter-pattern distance calculation means 4 Identification means 5 Dictionary storage means 6 Partial area information storage means 7 Registration part 8 Registered image partial area extraction means 9 Dictionary data generation means 10 Area distance value integration means 21 collating unit 22 input image sequence smoothing unit 31 collating unit 32 input principal component generating unit 33 inter-pattern distance calculating means 40 inter-pattern distance calculating means 41 norm calculating means 50 inter-pattern distance calculating means 51 subspace projection distance calculating means 60 patterns Inter-distance calculation means 61 Inter-subspace distance calculation means 70 Area distance value integration means 71 Weighted average value calculation means 80 Area distance value integration means 81 Distance value sorting means 82 Distance value higher average calculation means 90 Identification means 91 Minimum value calculation means 92 Threshold processing means 100 Dictionary storage means 101 Record storage section 102 Code 103-region dictionary data 104 category ID
DESCRIPTION OF SYMBOLS 110 Input image partial area extraction means 111 Partial image acquisition means 112 Feature extraction means 120 Input image partial area extraction means 121 Posture correction means 130 Feature extraction means 131 Fourier spectrum conversion means 140 Input image A
141 Input image B
142 Input Image C
143 Input image D
144 posture correction image 150 ellipsoid model 151 standard three-dimensional face model 160 registered image partial region extraction unit 170 registered image partial region extraction unit 180 registered image partial region extraction unit 181 variation image generation unit 190 dictionary data generation unit 191 principal component data generation Means 200 Computer 201 Storage medium 202 Console 203 Display device 204 Camera 210 Image input unit 211 Angle calculation unit between subspaces 212 Recognition unit 213 Dictionary storage unit 250 Input image 251 Posture change image A
252 Posture change image B
253 Posture change image C
254 Posture change image D
255 Illumination variation image 256 Expression variation image 257 Original image 300 Input image 301 Registered image 302 Input image region segmentation result 303 Registered image region segmentation result 304 Partial region A input image 305 Partial region A registered image 306 Collation pair 307 Partial region A input feature Vector 308 Partial region A dictionary feature vector 309 Regional input feature vector 310 Regional dictionary feature vector 320 Input image sequence 321 Registered image sequence 322 Input image region segmentation result 323 Registered image region segmentation result 324 Partial region A input sequence 325 Partial region A Registration Sequence 326 Partial Area A Input Principal Data 327 Partial Area A Dictionary Principal Data 328 Verification Pair 329 Area-Specific Input Principal Data 330 Area-Specific Dictionary Principal Data 340 Input Image 341 Registered Image System Kens 342 Input image region segmentation result 343 Registered image region segmentation result 344 Partial region A input image 345 Partial region A registration sequence 346 Matching pair 347 Partial region A input feature vector 348 Partial region A dictionary principal component data 349 Regional input feature vector 350 Region-based dictionary principal component data 400 Input image 401 Registered image 402 Low collation score partial region group 403 High collation score partial region group 404 Partial region distance value map

Claims (3)

入力画像における複数の部分領域と、前記各部分領域と対応した位置にある登録画像の各部分領域との、複数のパターン間距離値を算出するパターン間距離算出手段と、
複数の前記パターン間距離値に基づき前記入力画像を識別する識別手段とを含む画像認識システムであって、
前記パターン間距離算出手段は、画像全体に配置された部分領域について前記パターン間距離値を算出し、
前記識別手段は、前記算出された前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された一つの統合距離値に基づいて、入力画像を識別することを特徴とする画像認識システム。
Inter- pattern distance calculating means for calculating a plurality of inter-pattern distance values between a plurality of partial areas in the input image and each partial area of the registered image at a position corresponding to each of the partial areas ;
An image recognition system including identification means for identifying the input image based on a plurality of inter-pattern distance values,
The inter-pattern distance calculating means calculates the inter-pattern distance value for the partial region arranged in the entire image,
The identifying means identifies an input image based on one integrated distance value calculated using only a predetermined number in order of increasing distance values from the calculated distance values between patterns. Image recognition system.
入力画像における複数の部分領域と、前記各部分領域と対応した位置にある登録画像の各部分領域との、複数のパターン間距離値を算出するパターン間距離算出ステップと、
複数の前記パターン間距離値に基づき前記入力画像を識別する識別ステップとを含む画像認識方法であって、
前記パターン間距離算出ステップでは、画像全体に配置された部分領域について前記パターン間距離値が算出され、
前記識別ステップでは、前記算出された前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された一つの統合距離値に基づいて、入力画像が識別されることを特徴とする画像認識方法。
An inter- pattern distance calculating step of calculating a plurality of inter-pattern distance values between a plurality of partial areas in the input image and each partial area of the registered image at a position corresponding to each of the partial areas ;
An identification step for identifying the input image based on a plurality of inter-pattern distance values,
In the inter-pattern distance calculating step, the inter-pattern distance value is calculated for the partial region arranged in the entire image,
In the identifying step, the input image is identified based on one integrated distance value calculated using only a predetermined number from the calculated pattern distance values in ascending order of distance values. An image recognition method.
入力画像における複数の部分領域と、前記各部分領域と対応した位置にある登録画像の各部分領域との、複数のパターン間距離値を算出するパターン間距離算出ステップと、
複数の前記パターン間距離値に基づき前記入力画像を識別する識別ステップとを含む画像認識方法をコンピュータに実行させるためのプログラムであって、
前記パターン間距離算出ステップでは、画像全体に配置された部分領域について前記パターン間距離値が算出され、
前記識別ステップでは、前記算出された前記パターン間距離値の中から距離値の小さい順に所定の数だけを用いて算出された一つの統合距離値に基づいて、入力画像が識別されることを特徴とするプログラム。
An inter- pattern distance calculating step of calculating a plurality of inter-pattern distance values between a plurality of partial areas in the input image and each partial area of the registered image at a position corresponding to each of the partial areas ;
A program for causing a computer to execute an image recognition method including an identification step of identifying the input image based on a plurality of inter-pattern distance values,
In the inter-pattern distance calculating step, the inter-pattern distance value is calculated for the partial region arranged in the entire image,
In the identifying step, the input image is identified based on one integrated distance value calculated using only a predetermined number from the calculated pattern distance values in ascending order of distance values. Program.
JP2008150018A 2002-02-27 2008-06-09 Image recognition system, recognition method thereof, and program Expired - Lifetime JP4803214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008150018A JP4803214B2 (en) 2002-02-27 2008-06-09 Image recognition system, recognition method thereof, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002050644 2002-02-27
JP2002050644 2002-02-27
JP2008150018A JP4803214B2 (en) 2002-02-27 2008-06-09 Image recognition system, recognition method thereof, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002272601A Division JP4161659B2 (en) 2002-02-27 2002-09-19 Image recognition system, recognition method thereof, and program

Publications (2)

Publication Number Publication Date
JP2008251039A JP2008251039A (en) 2008-10-16
JP4803214B2 true JP4803214B2 (en) 2011-10-26

Family

ID=39837695

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2008066928A Pending JP2008217803A (en) 2002-02-27 2008-03-17 Image recognition system and recognition method thereof, and program
JP2008150018A Expired - Lifetime JP4803214B2 (en) 2002-02-27 2008-06-09 Image recognition system, recognition method thereof, and program
JP2013184563A Expired - Lifetime JP5574033B2 (en) 2002-02-27 2013-09-06 Image recognition system, recognition method thereof, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008066928A Pending JP2008217803A (en) 2002-02-27 2008-03-17 Image recognition system and recognition method thereof, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013184563A Expired - Lifetime JP5574033B2 (en) 2002-02-27 2013-09-06 Image recognition system, recognition method thereof, and program

Country Status (1)

Country Link
JP (3) JP2008217803A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239211A (en) * 2002-02-27 2013-11-28 Nec Corp Image recognition system, recognition method thereof and program
US9633284B2 (en) 2013-11-28 2017-04-25 Canon Kabushiki Kaisha Image processing apparatus and image processing method of identifying object in image
US9953211B2 (en) 2014-10-15 2018-04-24 Nec Corporation Image recognition apparatus, image recognition method and computer-readable medium
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5554984B2 (en) * 2009-12-24 2014-07-23 キヤノン株式会社 Pattern recognition method and pattern recognition apparatus
JP5755046B2 (en) * 2011-06-22 2015-07-29 キヤノン株式会社 Image recognition apparatus, image recognition method, and program
JP6235730B2 (en) * 2013-11-30 2017-11-22 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Method, system and computer readable storage medium for recognizing a face
JP6991771B2 (en) 2017-07-31 2022-01-13 キヤノン株式会社 Information processing equipment, information processing system, information processing method and program

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0343877A (en) * 1989-07-12 1991-02-25 Omron Corp Image collating device
JPH0573663A (en) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> Recognition method for picture of three-dimensional object
JPH07254062A (en) * 1994-03-14 1995-10-03 Yamatake Honeywell Co Ltd Fingerprint matching device
JPH08194716A (en) * 1995-01-17 1996-07-30 Canon Inc Picture processing method and its device
JP3305551B2 (en) * 1995-11-30 2002-07-22 日本電信電話株式会社 Specific symmetric object judgment method
JPH103544A (en) * 1996-06-14 1998-01-06 Imeeji Joho Kagaku Kenkyusho Device for recognizing gesture
JP3577908B2 (en) * 1997-09-04 2004-10-20 富士通株式会社 Face image recognition system
JPH11339049A (en) * 1998-05-27 1999-12-10 Hitachi Maxell Ltd Card authentication system
JP4052609B2 (en) * 1998-08-27 2008-02-27 株式会社東芝 Pattern recognition apparatus and method
JP3886660B2 (en) * 1999-03-11 2007-02-28 株式会社東芝 Registration apparatus and method in person recognition apparatus
JP4398533B2 (en) * 1999-03-12 2010-01-13 富士通株式会社 Image tracking device and recording medium
JP3926059B2 (en) * 1999-05-12 2007-06-06 日本電気株式会社 Image collation device, image collation method thereof, and recording medium recording control program thereof
JP4332649B2 (en) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 Hand shape and posture recognition device, hand shape and posture recognition method, and recording medium storing a program for executing the method
JP2001283216A (en) * 2000-04-03 2001-10-12 Nec Corp Image collating device, image collating method and recording medium in which its program is recorded
JP4443722B2 (en) * 2000-04-25 2010-03-31 富士通株式会社 Image recognition apparatus and method
JP2001337990A (en) * 2000-05-26 2001-12-07 Victor Co Of Japan Ltd Image retrieval system and image retrieval method
JP2002008026A (en) * 2000-06-27 2002-01-11 Victor Co Of Japan Ltd Pattern collation device and device therefor
JP2002024830A (en) * 2000-07-05 2002-01-25 Nec Corp Image checking device, method and computer-readable storage medium
JP2008217803A (en) * 2002-02-27 2008-09-18 Nec Corp Image recognition system and recognition method thereof, and program
JP4161659B2 (en) * 2002-02-27 2008-10-08 日本電気株式会社 Image recognition system, recognition method thereof, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239211A (en) * 2002-02-27 2013-11-28 Nec Corp Image recognition system, recognition method thereof and program
US9633284B2 (en) 2013-11-28 2017-04-25 Canon Kabushiki Kaisha Image processing apparatus and image processing method of identifying object in image
US9953211B2 (en) 2014-10-15 2018-04-24 Nec Corporation Image recognition apparatus, image recognition method and computer-readable medium
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2008251039A (en) 2008-10-16
JP2013239211A (en) 2013-11-28
JP5574033B2 (en) 2014-08-20
JP2008217803A (en) 2008-09-18

Similar Documents

Publication Publication Date Title
JP4161659B2 (en) Image recognition system, recognition method thereof, and program
JP5574033B2 (en) Image recognition system, recognition method thereof, and program
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
US7912253B2 (en) Object recognition method and apparatus therefor
US8300950B2 (en) Image processing apparatus, image processing method, program, and storage medium
US6671391B1 (en) Pose-adaptive face detection system and process
US5844573A (en) Image compression by pointwise prototype correspondence using shape and texture information
KR102290392B1 (en) Method and apparatus for registering face, method and apparatus for recognizing face
US8861805B2 (en) Face recognition apparatus and method for controlling the same
US20100014758A1 (en) Method for detecting particular object from image and apparatus thereof
CN110838119B (en) Human face image quality evaluation method, computer device and computer readable storage medium
US8861803B2 (en) Image recognition apparatus, image recognition method, and program
JP3577908B2 (en) Face image recognition system
Geetha et al. 3D face recognition using Hadoop
Mousa Pasandi Face, Age and Gender Recognition Using Local Descriptors
Naveen et al. Pose and head orientation invariant face detection based on optimised aggregate channel feature
Schimbinschi et al. Ensemble methods for robust 3D face recognition using commodity depth sensors
Freitas 3D face recognition under unconstrained settings using low-cost sensors
Mondal Hog Feature-A Survey
Chen et al. UAV-based distributed ATR under realistic simulated environmental effects
Xavier et al. Face Recognition through Different Facial Expressions for Women Security: A Survey
CN112183422A (en) Human face living body detection method and device based on space-time characteristics, electronic equipment and storage medium
Lutsiv et al. Modeling attention zones on the basis of an analysis of local features of the image texture
Straka et al. Person independent head pose estimation by non-linear regression and manifold embedding
Karpathy Scaling for Multimodal 3D Object Detection

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4803214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

EXPY Cancellation because of completion of term