JP2012221061A - Image recognition apparatus, image recognition method and program - Google Patents

Image recognition apparatus, image recognition method and program Download PDF

Info

Publication number
JP2012221061A
JP2012221061A JP2011084009A JP2011084009A JP2012221061A JP 2012221061 A JP2012221061 A JP 2012221061A JP 2011084009 A JP2011084009 A JP 2011084009A JP 2011084009 A JP2011084009 A JP 2011084009A JP 2012221061 A JP2012221061 A JP 2012221061A
Authority
JP
Japan
Prior art keywords
image
local
local region
similarity
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011084009A
Other languages
Japanese (ja)
Other versions
JP5777380B2 (en
Inventor
Kotaro Yano
光太郎 矢野
Hiroshi Sato
博 佐藤
Toshiaki Nakano
俊亮 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011084009A priority Critical patent/JP5777380B2/en
Publication of JP2012221061A publication Critical patent/JP2012221061A/en
Application granted granted Critical
Publication of JP5777380B2 publication Critical patent/JP5777380B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To recognize an object with higher accuracy.SOLUTION: An image recognition apparatus comprises: extraction means for cutting out a plurality of local areas from an input image and extracting a feature amount from each of the plurality of local areas; collation means for calculating the degree of similarity between the input image and a registered image for each of the local areas cut out by the extraction means; selection means for selecting a local area based on the state of the local areas cut out by the extraction means; and identification means for selecting a metric matrix to calculate the distance to the registered image based on the local area selected by the selection means, and identifying whether the input image is an image in the same category with the registered image by using the selected metric matrix and the degree of similarity, which is calculated by the collation means, of the local area selected by the selection means.

Description

本発明は、画像認識装置、画像認識方法、及びプログラムに関する。   The present invention relates to an image recognition apparatus, an image recognition method, and a program.

従来から、人物の顔を含む画像から顔の領域(顔画像)を抽出し、抽出した顔画像を予め登録した特定の人物の顔画像と比較することにより、個人識別を行う顔認識技術が知られている。
この技術は、例えば、カメラに写っている人物が登録者であると認証されたときにオフィスへの入室を許可する等のセキュリティ用途に使用されている。一方、この技術を同一人物が写っている写真の検索に利用したいといった要望もある。
前者の用途においては、人物を撮影する際の条件に制約を付けて高精度の認識を可能としている。しかしながら、後者の場合においては、人物の撮影条件が多岐におよび、認識の精度が低下するといった問題がある。例えば、顔の向き、表情、撮影時の照明が異なった写真間では同一人物が写っていても、別人物であると誤判定されてしまうことがある。
2. Description of the Related Art Conventionally, there has been known a face recognition technique for performing personal identification by extracting a face region (face image) from an image including a human face and comparing the extracted face image with a face image of a specific person registered in advance. It has been.
This technique is used for security purposes, for example, permitting a person to enter the office when the person in the camera is authenticated as a registrant. On the other hand, there is a demand for using this technique for searching for a photograph showing the same person.
In the former application, high-accuracy recognition is possible by limiting the conditions for photographing a person. However, in the latter case, there are problems that the photographing conditions of the person are diverse and the recognition accuracy is lowered. For example, even if the same person is photographed between photographs with different face orientations, facial expressions, and illumination at the time of shooting, they may be erroneously determined to be different persons.

このような問題を解決するために、顔画像から複数の局所領域を抽出し、局所領域の類似性に基づいて認識を行う方法が提案されている。例えば、顔画像の局所領域毎に主成分分析に基づく照合を行って顔の向きや隠れへの耐性を強化する方法が開示されている(非特許文献1参照)。ここで、局所領域とは、例えば目、鼻、口といった顔の特徴的な領域を表す部分である。
一方、入力の顔画像と登録の顔画像との類似度を評価するメトリック関数を予め収集した同一人物、及び非同一人物の顔画像の組を用いて学習しておき、メトリック関数を用いて照合を行うことで識別性能を向上させている方法が公開されている(非特許文献2)。即ち、顔画像の類似性の判定を単なる主成分分析ではなく、顔画像の特徴量における同一人物と非同一人物との間の識別に適した成分を学習用のサンプルから抽出するという方法がとられている。
In order to solve such a problem, a method of extracting a plurality of local regions from a face image and performing recognition based on the similarity of the local regions has been proposed. For example, a method is disclosed in which collation based on principal component analysis is performed for each local region of a face image to enhance resistance to face orientation and hiding (see Non-Patent Document 1). Here, the local area is a part representing a characteristic area of the face such as eyes, nose and mouth.
On the other hand, a metric function that evaluates the similarity between the input face image and the registered face image is learned using a set of face images of the same person and non-identical person that have been collected in advance, and collation is performed using the metric function. A method for improving the identification performance by performing is disclosed (Non-Patent Document 2). That is, the determination of the similarity of face images is not a simple principal component analysis, but a method of extracting components suitable for discrimination between the same person and non-identical persons in the feature amount of the face image from the learning sample. It has been.

Pentland, Moghaddam and Starner. View-based and modular eigenspaces for face recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94)Pentland, Moghaddam and Starner. View-based and modular eigenspaces for face recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94) Guillaumin, Verbeek and Schmid. Is that you? Metric learning approaches for face identification. IEEE International Conference on Computer Vision (ICCV), Oct. 2009Guillaumin, Verbeek and Schmid.Is that you? Metric learning approaches for face identification.IEEE International Conference on Computer Vision (ICCV), Oct. 2009 Viola and Jones. Rapid Object Detection using Boosted Cascade of Simple Features. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2001)Viola and Jones.Rapid Object Detection using Boosted Cascade of Simple Features.Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2001) Cootes, Edwards and Taylor. Active Appearance Models. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No.6, JUNE 2001Cootes, Edwards and Taylor. Active Appearance Models. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No. 6, JUNE 2001 村瀬, 金子, 五十嵐. 増分符号相関によるロバスト画像照合. 電子情報通信学会論文誌(D-II),vol.J83-D-II, no.5, pp.1323-1331, May 2000.Murase, Kaneko, Igarashi. Robust Image Matching by Incremental Sign Correlation. IEICE Transactions (D-II), vol.J83-D-II, no.5, pp.1323-1331, May 2000.

しかしながら、非特許文献2の方法では、類似度の判定の際、単純に局所領域の特徴量を結合した特徴ベクトル間の類似度が評価されているので、顔向きの差異、照明・隠れによる見えの著しい変化があった場合に認識の精度が低下する。   However, in the method of Non-Patent Document 2, the similarity between feature vectors obtained by simply combining the feature quantities of local regions is evaluated when determining the similarity. The accuracy of recognition decreases when there is a significant change in.

本発明はこのような問題点に鑑みなされたもので、より高い精度で物体を認識することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to recognize an object with higher accuracy.

そこで、本発明に係る画像認識装置は、入力画像から複数の局所領域を切り出して特徴量を抽出する抽出手段と、前記抽出手段で切り出された局所領域ごとに登録画像との類似度を算出する照合手段と、前記抽出手段で切り出された局所領域の状態をもとに局所領域を選択する選択手段と、前記選択手段で選択された局所領域をもとに前記登録画像との距離を算出するメトリック行列を選択し、選択したメトリック行列と前記選択手段で選択された局所領域の前記照合手段で算出された類似度とを用いて前記入力画像が前記登録画像と同じカテゴリの画像であるかを識別する識別手段とを有することを特徴とする。   Therefore, the image recognition apparatus according to the present invention calculates the similarity between an extraction unit that extracts a plurality of local regions from an input image and extracts a feature amount, and a registered image for each local region extracted by the extraction unit. The distance between the collating unit, the selecting unit that selects the local region based on the state of the local region cut out by the extracting unit, and the registered image based on the local region selected by the selecting unit is calculated. A metric matrix is selected, and whether the input image is an image in the same category as the registered image using the selected metric matrix and the similarity calculated by the matching unit of the local region selected by the selection unit. And identifying means for identifying.

本発明によれば、より高い精度で物体を認識することができる。   According to the present invention, an object can be recognized with higher accuracy.

画像認識装置の構成の一例を示す図である。It is a figure which shows an example of a structure of an image recognition apparatus. 認識処理に係るフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which concerns on a recognition process. 端点の一例を示す図である。It is a figure which shows an example of an end point. 矩形領域の一例を示す図である。It is a figure which shows an example of a rectangular area. 入力画像の一例を示す図である。It is a figure which shows an example of an input image.

以下、本発明の実施形態について図面に基づいて説明する。なお、実施形態は、本発明を限定するものではなく、また、実施形態で説明されている全ての構成が本発明の課題を解決するための手段に必須であるとは限らない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments do not limit the present invention, and all the configurations described in the embodiments are not necessarily essential to the means for solving the problems of the present invention.

図1は、本実施形態に係る画像認識装置の構成の一例を示す図である。画像取得部110は、カメラ等の撮像部で撮像された画像データを取得する。顔検出部120は、画像取得部110で取得された画像データから顔領域(顔画像)を切り出す。
端点検出部130は、顔検出部120で切り出された顔画像から顔の特徴を表す目、鼻、口などの顔部品の端点を検出する。局所特徴抽出部140は、顔検出部120で切り出された顔画像から端点検出部130で検出された端点位置に基づいて局所領域を切り出し、切り出した局所領域から顔を認識するための特徴量を求める。
FIG. 1 is a diagram illustrating an example of a configuration of an image recognition apparatus according to the present embodiment. The image acquisition unit 110 acquires image data captured by an imaging unit such as a camera. The face detection unit 120 cuts out a face area (face image) from the image data acquired by the image acquisition unit 110.
The end point detection unit 130 detects end points of facial parts such as eyes, nose, and mouth that represent facial features from the face image cut out by the face detection unit 120. The local feature extraction unit 140 cuts out a local region from the face image cut out by the face detection unit 120 based on the end point position detected by the end point detection unit 130, and calculates a feature amount for recognizing the face from the cut out local region. Ask.

次元圧縮部150は、局所特徴抽出部140で求められた局所領域の特徴量(局所特徴量)を低次元特徴空間に圧縮する。この際、次元圧縮部150は、認識パラメータ記憶部210に記憶されている射影行列を用いる。特徴量照合部160は、次元圧縮部150で圧縮された特徴量と予め登録顔データ記憶部220に登録されている特徴量とを照合し、これらの類似度を求める。局所領域選択部170は、特徴量照合部160で求められた類似度から顔の識別に使う局所領域を選択する。
統合識別部180は、局所領域選択部170で選択された局所領域の類似度を統合し、入力の顔画像の人物が登録された画像(登録画像)の人物であるかの判定を行う。この際、統合識別部180は、局所領域選択部170で選択された局所領域に応じて認識パラメータ記憶部210に記憶されているメトリック行列を選択的に適用する。
The dimension compressing unit 150 compresses the feature amount (local feature amount) of the local region obtained by the local feature extracting unit 140 into a low-dimensional feature space. At this time, the dimension compression unit 150 uses a projection matrix stored in the recognition parameter storage unit 210. The feature amount collation unit 160 collates the feature amount compressed by the dimension compression unit 150 with the feature amount registered in the registered face data storage unit 220 in advance, and obtains a similarity between them. The local region selection unit 170 selects a local region used for face identification from the similarity obtained by the feature amount matching unit 160.
The integrated identification unit 180 integrates the similarity of the local regions selected by the local region selection unit 170, and determines whether the person of the input face image is a registered image (registered image). At this time, the integrated identification unit 180 selectively applies the metric matrix stored in the recognition parameter storage unit 210 according to the local region selected by the local region selection unit 170.

認識パラメータ記憶部210は、次元圧縮部150で使用される事前学習により求められた射影行列、及び統合識別部180で使用される事前学習により求められたメトリック行列を記憶するメモリである。なお、各事前学習は、画像認識装置で行われてもよいし、画像認識装置とは異なる他の装置で行われてもよい。
登録顔データ記憶部220は、特徴量照合部160で使用される予め登録された特定の人物の顔画像(登録画像の一例)から得られた特徴量などを記憶するメモリである。
The recognition parameter storage unit 210 is a memory that stores the projection matrix obtained by pre-learning used by the dimension compression unit 150 and the metric matrix obtained by pre-learning used by the integrated identification unit 180. Each pre-learning may be performed by an image recognition device, or may be performed by another device different from the image recognition device.
The registered face data storage unit 220 is a memory that stores a feature amount obtained from a face image (an example of a registered image) of a specific person registered in advance used by the feature amount matching unit 160.

以下、画像認識装置の動作について図2のフローチャートに従って説明する。図2は、認識処理に係るフローチャートの一例を示す図である。
まず、画像取得部110は、カメラ等の撮像部で撮像された画像データ(入力画像)を取得する(S101)。取得された画像データは、画像取得部110内部のメモリに記憶される。このとき、取得された画像データは、輝度画像であるとする。なお、画像取得部110は、RGB等のカラー画像を取得した場合、輝度画像に変換して記憶する。
Hereinafter, the operation of the image recognition apparatus will be described with reference to the flowchart of FIG. FIG. 2 is a diagram illustrating an example of a flowchart relating to recognition processing.
First, the image acquisition unit 110 acquires image data (input image) captured by an imaging unit such as a camera (S101). The acquired image data is stored in a memory inside the image acquisition unit 110. At this time, it is assumed that the acquired image data is a luminance image. Note that when acquiring a color image such as RGB, the image acquisition unit 110 converts it into a luminance image and stores it.

顔検出部120は、画像取得部110で取得された画像データから顔領域を切り出す(S102)。例えば、顔検出部120は、非特許文献3で開示されている方法によって画像取得部110のメモリに記憶されている入力画像中の顔領域の位置を求める。そして、顔検出部120は、検出した顔領域を所定サイズ(例えば100×100画素)になるように変倍し、顔画像を顔検出部120内部のメモリに記憶する。
端点検出部130は、顔検出部120で切り出された顔画像から顔の特徴を表す目、鼻、口などの顔部品の端点を検出する(S103)。例えば、端点検出部130は、図3のように両目の目尻、目頭、口の左右の両端点の位置を検出する。これらの特徴点を検出する技術としては、例えば、非特許文献4に開示されている方法を用いる。検出された端点位置の座標は、端点検出部130内部のメモリに記憶される。
The face detection unit 120 cuts out a face region from the image data acquired by the image acquisition unit 110 (S102). For example, the face detection unit 120 obtains the position of the face area in the input image stored in the memory of the image acquisition unit 110 by the method disclosed in Non-Patent Document 3. Then, the face detection unit 120 scales the detected face area to a predetermined size (for example, 100 × 100 pixels), and stores the face image in the memory inside the face detection unit 120.
The end point detection unit 130 detects end points of facial parts such as eyes, nose, and mouth representing facial features from the face image cut out by the face detection unit 120 (S103). For example, the end point detection unit 130 detects the positions of the left and right end points of the eyes, the corners of the eyes, and the mouth as shown in FIG. As a technique for detecting these feature points, for example, a method disclosed in Non-Patent Document 4 is used. The coordinates of the detected end point position are stored in a memory inside the end point detection unit 130.

局所特徴抽出部140は、顔検出部120で切り出された顔画像から端点検出部130で検出された端点位置に基づいて局所領域を切り出し、切り出した局所領域から顔を認識するための特徴量を求める(S104)。例えば、局所特徴抽出部140は、図4の破線で示すように左右の目、左右の眉、鼻、口の領域、合せて6つの領域を局所領域として切り出す。
例えば、局所特徴抽出部140は、左目の領域を切り出す場合は、端点検出部130内部のメモリに記憶されている左目の目尻、及び目頭の位置の座標を参照して顔検出部120内部のメモリに記憶されている顔画像から切り出す。即ち、局所特徴抽出部140は、左目の目尻、及び目頭の位置の座標から顔画像中の左目領域の四隅の位置の座標を所定の幾何学的関係に基づいて求め、左目領域が所定の矩形になるように幾何変換を施して局所領域画像を得る。なお、局所領域は、例えば30×31画素の矩形領域になるように変換される。
The local feature extraction unit 140 cuts out a local region from the face image cut out by the face detection unit 120 based on the end point position detected by the end point detection unit 130, and calculates a feature amount for recognizing the face from the cut out local region. Obtained (S104). For example, the local feature extraction unit 140 cuts out six regions including the left and right eyes, the left and right eyebrows, the nose, and the mouth region as local regions as indicated by broken lines in FIG.
For example, when extracting the region of the left eye, the local feature extraction unit 140 refers to the memory of the face detection unit 120 with reference to the coordinates of the position of the left eye corner and the eye eye stored in the memory inside the end point detection unit 130. Cut out from the face image stored in. That is, the local feature extraction unit 140 obtains the coordinates of the positions of the four corners of the left eye region in the face image from the coordinates of the positions of the left eye corner and the eye head based on a predetermined geometric relationship, and the left eye region is a predetermined rectangular shape. A local region image is obtained by performing geometric transformation so that The local area is converted so as to be a rectangular area of 30 × 31 pixels, for example.

そして、局所特徴抽出部140は、求めた局所領域画像から局所特徴量を求める。本実施形態では、局所特徴抽出部140は、局所特徴量として増分符号特徴量を求める。増分符号特徴量は、非特許文献5に説明されているように隣り合う画素の輝度の増加、或いは減少の傾向を表すものであり、ここでは上下間の画素の大小関係から特徴量を1ビットで表現される。なお、増分符号特徴量は、照明変動にロバストな特徴を持つ。
求められた特徴量は、30×30画素、1ビット、即ち、900ビットで局所特徴抽出部140内部のメモリに記憶される。同様にして、局所特徴抽出部140は、その他の局所領域に対しても夫々参照すべき端点位置の座標に基づいて顔検出部120内部のメモリに記憶されている顔画像から画像データを切り出して特徴量を求める。
また、局所領域のサイズは、局所領域毎に適切なサイズで求めるようにしてもよいし、全局所領域で同じサイズにしてもよい。また、さらに多くの局所領域から特徴量を求めるようにしてもよい。また、ここでは、特徴量として増分符号を用いる場合について説明したが、その他、輝度勾配ヒストグラム、ガボールウェーブレットなどの特徴量を用いるようにしてもよいし、それらを組合せた特徴量を用いるようにしてもよい。
And the local feature extraction part 140 calculates | requires a local feature-value from the calculated | required local region image. In the present embodiment, the local feature extraction unit 140 obtains an incremental code feature quantity as the local feature quantity. As described in Non-Patent Document 5, the incremental sign feature amount represents a tendency of increase or decrease in luminance of adjacent pixels. Here, the feature amount is represented by 1 bit based on the magnitude relationship between the upper and lower pixels. It is expressed by Note that the incremental code feature amount has a feature that is robust to illumination variations.
The obtained feature amount is stored in the memory inside the local feature extraction unit 140 in 30 × 30 pixels, 1 bit, that is, 900 bits. Similarly, the local feature extraction unit 140 cuts out image data from the face image stored in the memory inside the face detection unit 120 based on the coordinates of the end point positions to be referred to for other local regions. Find the feature quantity.
In addition, the size of the local region may be obtained with an appropriate size for each local region, or may be the same size for all local regions. Further, the feature amount may be obtained from more local regions. In addition, although the case where the incremental code is used as the feature amount has been described here, other feature amounts such as a luminance gradient histogram and a Gabor wavelet may be used, or a feature amount obtained by combining them may be used. Also good.

次元圧縮部150は、局所特徴抽出部140で求められた局所特徴量を低次元特徴空間に圧縮する(S105)。ここで、次元圧縮部150は、認識パラメータ記憶部210に記憶されている射影行列を用いる。
射影行列については、予め局所領域毎に学習用のサンプルから得た特徴量を主成分分析して求めておく。即ち、多くの顔画像を予め数千から数万サンプルのオーダーで収集しておき、前述のS101〜S104の処理を行い、局所領域毎に900ビットで表現された900次元の特徴ベクトルとして求めておく。そして、求めた特徴ベクトルの集合に対して主成分分析を行い、上位の主成分(規定の数であり、例えば、50個)に射影する射影ベクトルを局所領域毎に求めて認識パラメータ記憶部210に記憶しておく。
The dimension compressing unit 150 compresses the local feature amount obtained by the local feature extracting unit 140 into a low-dimensional feature space (S105). Here, the dimension compression unit 150 uses a projection matrix stored in the recognition parameter storage unit 210.
The projection matrix is obtained in advance by performing principal component analysis on feature quantities obtained from learning samples for each local region. That is, many face images are collected in the order of several thousand to several tens of thousands of samples in advance, and the above-described processing of S101 to S104 is performed to obtain a 900-dimensional feature vector expressed in 900 bits for each local region. deep. Then, a principal component analysis is performed on the obtained set of feature vectors, and a projection vector projected onto a higher-order principal component (a predetermined number, for example, 50) is obtained for each local region, and a recognition parameter storage unit 210 is obtained. Remember it.

また、次元圧縮処理は、単純であり、前述した方法で求められた射影行列を用いて入力の局所特徴量を射影変換するだけのものである。変換後の特徴量は、低次元の特徴ベクトルとなり、ノイズ成分を除去した局所領域の特徴量を構成する主たる成分のみが抽出されている。変換された特徴量は、次元圧縮部150内部のメモリに記憶される。この次元圧縮処理は、各局所領域に対して繰り返し行われる。
特徴量照合部160は、次元圧縮部150で圧縮された特徴量と予め登録顔データ記憶部220に登録されている特徴量とを照合し、これらの類似度を求める(S106)。ここで、登録顔(登録の顔画像)の特徴量は、入力の顔画像と同様に前述のS101〜S105の処理により求められた特徴量である。特徴量同士の照合は、局所領域毎にマンハッタン距離の計算により行われ、その逆数が類似度を表す。
なお、距離計算の方法は、マンハッタン距離の他、ユークリッド距離、データの分散を考慮したマハラノビス距離などを用いてもよい。また、コサイン類似度で類似度を求める方法を用いてもよい。
The dimension compression process is simple and only performs projective transformation of the input local feature quantity using the projection matrix obtained by the above-described method. The converted feature quantity is a low-dimensional feature vector, and only main components constituting the feature quantity of the local region from which the noise component is removed are extracted. The converted feature value is stored in a memory inside the dimension compression unit 150. This dimension compression process is repeated for each local region.
The feature amount collation unit 160 collates the feature amount compressed by the dimension compression unit 150 with the feature amount registered in the registered face data storage unit 220 in advance, and obtains a similarity between them (S106). Here, the feature amount of the registered face (registered face image) is the feature amount obtained by the above-described processing of S101 to S105, similarly to the input face image. The matching between feature amounts is performed by calculating the Manhattan distance for each local region, and the reciprocal thereof represents the similarity.
In addition to the Manhattan distance, the distance calculation method may use a Euclidean distance, a Mahalanobis distance considering data dispersion, or the like. Further, a method for obtaining the similarity by the cosine similarity may be used.

局所領域選択部170は、特徴量照合部160で求められた類似度から顔の識別に使う局所領域を選択する(S107)。即ち、局所領域選択部170は、特徴量照合部160で求められた類似度のうち所定値より特徴量間の距離が小さい局所領域、又は所定値より類似度の大きい局所領域のみを後段の処理で選択的に使うようにする。
図5は、顔の左目及び左眉の部分に髪の毛がかかり、隠れが生じた場合の入力の顔画像を示す図である。この場合、入力の顔画像の人物と登録の顔画像の人物とが同一人物であったとしても、隠れの発生した局所領域において類似度が極度に低くなる。このように、入力の顔画像の一部に隠れがあった場合に、その局所領域の特徴量を使ってしまうと認識の精度の低下を招くため、そのような局所領域の状態によって精度が低下する影響を回避するようにしている。同様のことが、顔が正面でなく、斜め向きであった場合、外部環境により顔の一部に強烈な陰影が生じた場合にも言える。
The local region selection unit 170 selects a local region used for face identification from the similarity obtained by the feature amount matching unit 160 (S107). That is, the local region selection unit 170 performs subsequent processing only on a local region having a distance between feature amounts smaller than a predetermined value or a local region having a similarity higher than a predetermined value among the similarities obtained by the feature amount matching unit 160. To use selectively.
FIG. 5 is a diagram showing an input face image when the left eye and the left eyebrows of the face are covered with hair and are hidden. In this case, even if the person of the input face image and the person of the registered face image are the same person, the similarity is extremely low in the local area where the hiding has occurred. As described above, when a part of the input face image is hidden, if the feature amount of the local region is used, the recognition accuracy is lowered. I try to avoid the effects. The same can be said for a case where the face is not frontal but oblique, or when a strong shadow is generated on a part of the face due to the external environment.

また、選択された局所領域の入力顔と登録顔との類似度は、局所領域選択部170内部のメモリに記憶される。S106及びS107の処理は、各局所領域に対して繰り返し行われる。
なお、本実施形態では、登録の顔画像との局所特徴量の類似度をもとに局所領域を選択するかどうかを判断するようにしたが、他の方法によって選択するようにしてもよい。例えば、局所領域選択部170は、局所領域選択部170内に局所領域毎に入力の顔画像の局所領域の状態が精度の低下を招くものかどうかを入力の顔画像の局所特徴量をもとに判定する。換言するならば、局所領域選択部170は、局所領域の状態をもとに顔の識別に使う局所領域を選択するものである。
例えば、図5に示したような隠れが生じた場合や顔が斜め向きであった場合、局所領域選択部170は、強烈な陰影が生じた場合に得られる特徴量であるか否かという判定を行い、その場合には局所領域を選択しないようにする。
The similarity between the input face and the registered face in the selected local area is stored in the memory inside the local area selection unit 170. The processing of S106 and S107 is repeated for each local region.
In the present embodiment, it is determined whether to select a local region based on the similarity of the local feature amount with the registered face image. However, the local region may be selected by another method. For example, the local region selection unit 170 determines whether or not the state of the local region of the input face image for each local region causes a decrease in accuracy in the local region selection unit 170 based on the local feature amount of the input face image. Judgment. In other words, the local region selection unit 170 selects a local region used for face identification based on the state of the local region.
For example, when the hiding as shown in FIG. 5 occurs or when the face is inclined, the local region selection unit 170 determines whether or not the feature amount is obtained when an intense shadow occurs. In this case, the local region is not selected.

統合識別部180は、局所領域選択部170で選択された局所領域に応じて認識パラメータ記憶部210に記憶されているメトリック行列を選択する(S108)。
まず、メトリック行列について説明する。メトリック行列とは、非特許文献2で説明されているように2つの特徴ベクトル間の距離を測るための行列である。
通常は、データの分散共分散行列を用いてマハラノビス距離を測定するが、近年、教師付きデータをもとに目的関数を設定し、この目的関数の誤差を最小化するように距離を測る行列を学習により求める方法が提案されている。
例えば、非特許文献2では、LDML(Logistic Discriminant based Metric Learning)を顔画像の特徴量に適用してメトリック行列を求めている。また、例えば、非特許文献2では、ITML(Information Theoretic Metric Learning)を顔画像の特徴量に適用してメトリック行列を求めている。本実施形態においてもLDMLやITMLでメトリック行列を学習し、テスト画像について結果のよいものを採用する。
The integrated identification unit 180 selects a metric matrix stored in the recognition parameter storage unit 210 according to the local region selected by the local region selection unit 170 (S108).
First, the metric matrix will be described. The metric matrix is a matrix for measuring the distance between two feature vectors as described in Non-Patent Document 2.
Normally, the Mahalanobis distance is measured using the data variance-covariance matrix, but in recent years, an objective function is set based on supervised data, and a matrix that measures the distance to minimize the error of this objective function is used. A method for obtaining by learning has been proposed.
For example, in Non-Patent Document 2, a metric matrix is obtained by applying LDML (Logistic Discriminant based Metric Learning) to a feature amount of a face image. Further, for example, in Non-Patent Document 2, a metric matrix is obtained by applying Information Theoretic Metric Learning (ITML) to a feature amount of a face image. Also in the present embodiment, a metric matrix is learned by LDML or ITML, and a test image having a good result is adopted.

また、本実施形態では、S106の処理において局所領域毎に類似度を求めており、それらが結合されて特徴ベクトルxが構成される。即ち、以下の(式1)のように距離dMを定義する。
M = xTMx (式1)
ここで、Mは、D行D列の対称正定値行列で、Dは、特徴ベクトルxの次元、Tは、転置を表す。また、x=(x1,x2,x3, ・・・,xNT で、xiは、i番目の局所領域の入力画像と登録画像との類似度である。
In the present embodiment, the similarity is obtained for each local region in the processing of S106, and these are combined to form the feature vector x. That is, the distance d M is defined as in (Equation 1) below.
d M = x T Mx (Formula 1)
Here, M is a symmetric positive definite matrix of D rows and D columns, D is the dimension of the feature vector x, and T is transposition. Further, x = (x 1 , x 2 , x 3 ,..., X N ) T , and x i is the similarity between the input image of the i-th local region and the registered image.

学習時には、予め収集した顔画像のサンプル(画像サンプル)に対して前述のS101〜S106の処理が局所領域毎に行われ、求められた類似度が同一人物と非同一人物とのペア別(カテゴリ別)に分類される。そして、同一人物の顔画像の局所領域の特徴量同士の距離(画像間の距離)が小さく、非同一人物のそれが大きくなるようにメトリック行列を求めるようにする。
また、メトリック行列による類似度の算出では、(式1)に従い、局所領域毎に求められた類似度が結合されて構成される特徴ベクトルから距離dMが求められる。ただし、本実施形態では、S107で有効な局所領域のみが選択され、それに対して顔全体の類似度が算出されるようにする。そのため、メトリック行列の学習が局所領域の選択ケースの全ての場合について行われ、求められたメトリック行列を認識パラメータ記憶部210に記憶しておく。
At the time of learning, the processing of S101 to S106 described above is performed for each local region on a face image sample (image sample) collected in advance, and the obtained similarity is classified by category (category) Another). Then, the metric matrix is obtained so that the distance between the feature quantities in the local area of the face image of the same person (distance between the images) is small and that of the non-identical person is large.
In the calculation of the similarity using the metric matrix, the distance d M is obtained from the feature vector configured by combining the similarities obtained for each local region according to (Equation 1). However, in the present embodiment, only the effective local region is selected in S107, and the similarity of the entire face is calculated for it. Therefore, learning of the metric matrix is performed for all cases of selection of the local region, and the obtained metric matrix is stored in the recognition parameter storage unit 210.

これらは、例えば、局所領域として全ての領域を使うメトリック行列、6つの領域中の5つの領域のみ使うメトリック行列(左眉のみ使わない場合や右眉のみ使わない場合)等のメトリック行列である。
そして、局所領域選択部170で選択された局所領域に応じて認識パラメータ記憶部210に記憶されているメトリック行列が選択されるようにする。例えば、図5に示した顔画像の場合には左目、及び左眉を除いた4つの領域の類似度を用いて顔全体の類似度を算出するメトリック行列が選択されるようにする。
These are, for example, a metric matrix that uses all regions as local regions, and a metric matrix that uses only five regions out of six regions (when only the left eyebrow is not used or when only the right eyebrow is not used).
Then, the metric matrix stored in the recognition parameter storage unit 210 is selected according to the local region selected by the local region selection unit 170. For example, in the case of the face image shown in FIG. 5, a metric matrix for calculating the similarity of the entire face is selected using the similarity of four regions excluding the left eye and the left eyebrow.

なお、局所領域の選択ケースの全ての場合についてメトリック行列を保持しようとすると、局所領域数が多い場合には認識パラメータ記憶部210でのメモリ容量が膨大となってしまう。
そのような場合は、より多くの局所領域に対応した要素数の多いメトリック行列のみを認識パラメータ記憶部210に記憶し、S107で選択された局所領域が包含されるメトリック行列が選択されるようにする。
そして、選択されたメトリック行列から選択された局所領域に対応する要素のみを使用して顔全体の類似度が算出されるようにする。
Note that if the metric matrix is to be held for all cases of selection of local regions, the memory capacity in the recognition parameter storage unit 210 becomes enormous if the number of local regions is large.
In such a case, only the metric matrix having a large number of elements corresponding to more local regions is stored in the recognition parameter storage unit 210 so that the metric matrix including the local region selected in S107 is selected. To do.
Then, the similarity of the entire face is calculated using only elements corresponding to the local region selected from the selected metric matrix.

次に、統合識別部180は、局所領域選択部170で選択された局所領域の類似度を統合して局所領域選択部170で選択されたメトリック行列を用いて入力の顔画像の人物が登録の顔画像の人物であるか否かの判定を行う(S109)。以下の(式2)のように、距離dM′が算出され、その逆数が顔全体の類似度を表す。
M′ = x′TM′x′ (式2)
ここで、M′は、S108で選択されたメトリック行列、x′は、S107で選択された局所領域間の特徴量の類似度が結合されて構成される特徴ベクトルである。
Next, the integrated identification unit 180 integrates the similarity of the local regions selected by the local region selection unit 170 and registers the person of the input face image using the metric matrix selected by the local region selection unit 170. It is determined whether or not the person is a face image (S109). The distance d M ′ is calculated as in (Equation 2) below, and the reciprocal thereof represents the similarity of the entire face.
d M '= x' T M'x '(Formula 2)
Here, M ′ is a metric matrix selected in S108, and x ′ is a feature vector formed by combining the similarity of feature amounts between local regions selected in S107.

そして、統合識別部180は、顔全体の類似度が所定の値以上の場合に入力の顔画像の人物が登録の顔画像の人物と同一人物であると判断する。
以上は、登録人物が一人の場合について説明したが、登録人物が複数である場合にも本実施形態は適用できる。前述したS106〜S109の処理を登録人物の顔画像毎に繰り返し、類似度が所定の値以上の登録の顔画像が複数あった場合に、類似度が最大の登録の顔画像の人物を該当人物と判断するようにする。
また、統合識別部180は、認識結果を出力する(S110)。
Then, the integrated identification unit 180 determines that the person of the input face image is the same person as the person of the registered face image when the similarity of the entire face is greater than or equal to a predetermined value.
The case where there is one registered person has been described above, but the present embodiment can also be applied when there are a plurality of registered persons. When the processes of S106 to S109 described above are repeated for each registered person's face image and there are a plurality of registered face images whose similarity is equal to or greater than a predetermined value, the person of the registered face image having the maximum similarity is determined as the person Judge that.
Further, the integrated identification unit 180 outputs a recognition result (S110).

以上、本実施形態を顔の個人識別に適用する例について説明した。前述したように本実施形態では、入力画像と登録画像との類似度を局所領域毎に算出し、類似度の高い局所領域を選択して、それに対応したメトリック行列を用いて顔を識別するようにした。
したがって、局所領域の類似性に基づいた隠れや顔の向き、照明の影響にロバストな認識方法とメトリック行列による高精度の類似度の判定との両方のメリットを生かした高精度の顔認識を行うことができる。
なお、本実施形態では、顔の認識を例に説明したが、本実施形態は入力画像が所定のカテゴリの物体であるかを識別するアプリケーションに広く適用できる。例えば、本実施形態は、顔画像が犬の顔であるか、猫の顔であるか、或いはどの犬種の顔であるか等、動物の顔の分類に適用することができる。
The example in which this embodiment is applied to personal identification of a face has been described above. As described above, in the present embodiment, the similarity between the input image and the registered image is calculated for each local region, a local region having a high similarity is selected, and a face is identified using a metric matrix corresponding to the local region. I made it.
Therefore, high-accuracy face recognition that takes advantage of both the recognition method that is robust to the influence of hiding, face orientation, and lighting based on local region similarity and the high-precision similarity determination using a metric matrix be able to.
In this embodiment, face recognition has been described as an example, but this embodiment can be widely applied to applications that identify whether an input image is an object of a predetermined category. For example, the present embodiment can be applied to the classification of animal faces, such as whether the face image is a dog face, a cat face, or a dog breed.

<その他の実施形態>
画像認識装置は、CPU、ROM、RAM、ハードディスク等を有する情報処理装置(コンピュータ)、情報処理装置を有するカメラ等であってもよい。この場合、基本的には、CPUにより、ROM、ハードディスク等に記憶されているプログラムがRAMにロードされて実行されることで、画像認識装置の機能、フローチャートに係る処理が実現される。
ただし、画像認識装置の機能、フローチャートに係る処理の一部、又は全部を専用のハードウェアを用いて構成してもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The image recognition device may be an information processing device (computer) having a CPU, ROM, RAM, hard disk, or the like, a camera having an information processing device, or the like. In this case, basically, the CPU stores the program stored in the ROM, hard disk or the like in the RAM and executes the program, thereby realizing the functions of the image recognition apparatus and the processing related to the flowchart.
However, you may comprise the function of an image recognition apparatus, a part of process based on a flowchart, or all using dedicated hardware.
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

上述した実施形態の構成によれば、より高い精度で物体を認識することができる。   According to the configuration of the above-described embodiment, an object can be recognized with higher accuracy.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

Claims (6)

入力画像から複数の局所領域を切り出して特徴量を抽出する抽出手段と、
前記抽出手段で切り出された局所領域ごとに登録画像との類似度を算出する照合手段と、
前記抽出手段で切り出された局所領域の状態をもとに局所領域を選択する選択手段と、
前記選択手段で選択された局所領域をもとに前記登録画像との距離を算出するメトリック行列を選択し、選択したメトリック行列と前記選択手段で選択された局所領域の前記照合手段で算出された類似度とを用いて前記入力画像が前記登録画像と同じカテゴリの画像であるかを識別する識別手段とを有することを特徴とする画像認識装置。
Extraction means for extracting a feature amount by cutting out a plurality of local regions from the input image;
Collating means for calculating a similarity with a registered image for each local region cut out by the extracting means;
Selection means for selecting a local region based on the state of the local region cut out by the extraction unit;
A metric matrix for calculating the distance from the registered image is selected based on the local area selected by the selection means, and the metric matrix calculated by the matching means for the selected metric matrix and the local area selected by the selection means An image recognition apparatus comprising: an identification unit that identifies whether the input image is an image in the same category as the registered image using similarity.
前記選択手段は、前記照合手段で算出された類似度が高いものから規定の数の局所領域を選択することを特徴とする請求項1に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the selection unit selects a prescribed number of local regions from those having a high degree of similarity calculated by the matching unit. 前記メトリック行列は、予め収集した画像サンプルに対して前記局所領域をカテゴリ別に分類し、同じカテゴリの画像間の距離が小さく、異なるカテゴリの画像間の距離が大きくなるように求められたものであることを特徴とする請求項1に記載の画像認識装置。   The metric matrix is obtained by classifying the local regions into categories for image samples collected in advance so that the distance between images in the same category is small and the distance between images in different categories is large. The image recognition apparatus according to claim 1. 前記登録画像は、人物の顔画像であることを特徴とする請求項1に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the registered image is a human face image. 入力画像から複数の局所領域を切り出して特徴量を抽出する抽出工程と、
前記抽出工程で切り出された局所領域ごとに登録画像との類似度を算出する照合工程と、
前記抽出工程で切り出された局所領域の状態をもとに局所領域を選択する選択工程と、
前記選択工程で選択された局所領域をもとに前記登録画像との距離を算出するメトリック行列を選択し、選択したメトリック行列と前記選択工程で選択された局所領域の前記照合工程で算出された類似度とを用いて前記入力画像が前記登録画像と同じカテゴリの画像であるかを識別する識別工程とを有することを特徴とする画像認識方法。
An extraction step of extracting a feature amount by cutting out a plurality of local regions from the input image;
A matching step for calculating a similarity with a registered image for each local region cut out in the extraction step;
A selection step of selecting a local region based on the state of the local region cut out in the extraction step;
Select a metric matrix that calculates the distance from the registered image based on the local region selected in the selection step, and calculated in the matching step of the selected metric matrix and the local region selected in the selection step And an identification step of identifying whether the input image is an image in the same category as the registered image using similarity.
請求項5に記載の画像認識方法の各工程をコンピュータに実行させるプログラム。   The program which makes a computer perform each process of the image recognition method of Claim 5.
JP2011084009A 2011-04-05 2011-04-05 Image recognition apparatus, image recognition method, and program Expired - Fee Related JP5777380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011084009A JP5777380B2 (en) 2011-04-05 2011-04-05 Image recognition apparatus, image recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011084009A JP5777380B2 (en) 2011-04-05 2011-04-05 Image recognition apparatus, image recognition method, and program

Publications (2)

Publication Number Publication Date
JP2012221061A true JP2012221061A (en) 2012-11-12
JP5777380B2 JP5777380B2 (en) 2015-09-09

Family

ID=47272547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011084009A Expired - Fee Related JP5777380B2 (en) 2011-04-05 2011-04-05 Image recognition apparatus, image recognition method, and program

Country Status (1)

Country Link
JP (1) JP5777380B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106197A (en) * 2013-11-28 2015-06-08 キヤノン株式会社 Image processing device and image processing method
JP2015133085A (en) * 2014-01-15 2015-07-23 キヤノン株式会社 Information processing device and method thereof
WO2015146241A1 (en) * 2014-03-27 2015-10-01 Nkワークス株式会社 Image processing device
JP2016018422A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing method, image processing device, program, storage medium, manufacturing apparatus, and manufacturing method for parts to be assembled
JP2017167987A (en) * 2016-03-17 2017-09-21 ヤフー株式会社 Determination device and determination method
CN110088765A (en) * 2016-12-21 2019-08-02 松下知识产权经营株式会社 Comparison device and contrast method
WO2020121425A1 (en) * 2018-12-12 2020-06-18 三菱電機株式会社 State determination device, state determination method, and state determination program
CN112513926A (en) * 2018-07-31 2021-03-16 奥林巴斯株式会社 Image analysis device and image analysis method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102221118B1 (en) 2016-02-16 2021-02-26 삼성전자주식회사 Method for extracting feature of image to recognize object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134432A (en) * 1995-07-17 1997-05-20 Nec Corp Pattern recognition method
JPH10177650A (en) * 1996-12-16 1998-06-30 Nec Corp Device for extracting picture characteristic, device for analyzing picture characteristic, and system for collating picture
JP2003296735A (en) * 2002-03-29 2003-10-17 Nec Corp Method and device for generating face meta-data
JP2008152789A (en) * 2006-12-18 2008-07-03 Samsung Electronics Co Ltd Method and device for calculating similarity of face video, method and device for retrieving face video using this, and face composing method
JP2009211178A (en) * 2008-02-29 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2010257158A (en) * 2009-04-23 2010-11-11 Canon Inc Device and method for identifying object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134432A (en) * 1995-07-17 1997-05-20 Nec Corp Pattern recognition method
JPH10177650A (en) * 1996-12-16 1998-06-30 Nec Corp Device for extracting picture characteristic, device for analyzing picture characteristic, and system for collating picture
JP2003296735A (en) * 2002-03-29 2003-10-17 Nec Corp Method and device for generating face meta-data
JP2008152789A (en) * 2006-12-18 2008-07-03 Samsung Electronics Co Ltd Method and device for calculating similarity of face video, method and device for retrieving face video using this, and face composing method
JP2009211178A (en) * 2008-02-29 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2010257158A (en) * 2009-04-23 2010-11-11 Canon Inc Device and method for identifying object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATTHIEU GUILLAUMIN, JAKOB VERBEEK AND CORDELIA SCHMID: "Is that you? Metric Learning Approaches for Face Identification", IEEE CONFERENCE ON COMPUTER VISION, JPN6015006424, October 2009 (2009-10-01), ISSN: 0003010183 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106197A (en) * 2013-11-28 2015-06-08 キヤノン株式会社 Image processing device and image processing method
JP2015133085A (en) * 2014-01-15 2015-07-23 キヤノン株式会社 Information processing device and method thereof
US10469793B2 (en) 2014-03-27 2019-11-05 Noritsu Precision Co., Ltd. Image processing device
WO2015146241A1 (en) * 2014-03-27 2015-10-01 Nkワークス株式会社 Image processing device
JP2016018422A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing method, image processing device, program, storage medium, manufacturing apparatus, and manufacturing method for parts to be assembled
JP2017167987A (en) * 2016-03-17 2017-09-21 ヤフー株式会社 Determination device and determination method
CN110088765A (en) * 2016-12-21 2019-08-02 松下知识产权经营株式会社 Comparison device and contrast method
CN110088765B (en) * 2016-12-21 2023-01-03 松下知识产权经营株式会社 Comparison device and comparison method
CN112513926A (en) * 2018-07-31 2021-03-16 奥林巴斯株式会社 Image analysis device and image analysis method
WO2020121425A1 (en) * 2018-12-12 2020-06-18 三菱電機株式会社 State determination device, state determination method, and state determination program
JPWO2020121425A1 (en) * 2018-12-12 2021-05-20 三菱電機株式会社 Status determination device, status determination method, and status determination program
DE112018008131B4 (en) 2018-12-12 2022-10-27 Mitsubishi Electric Corporation STATUS DEVICE, STATUS METHOD AND STATUS PROGRAM
US11963759B2 (en) 2018-12-12 2024-04-23 Mitsubishi Electric Corporation State determination device, state determination method, and recording medium

Also Published As

Publication number Publication date
JP5777380B2 (en) 2015-09-09

Similar Documents

Publication Publication Date Title
JP5777380B2 (en) Image recognition apparatus, image recognition method, and program
Soltanpour et al. A survey of local feature methods for 3D face recognition
Lei et al. A two-phase weighted collaborative representation for 3D partial face recognition with single sample
Arashloo et al. Class-specific kernel fusion of multiple descriptors for face verification using multiscale binarised statistical image features
Biswas et al. Pose-robust recognition of low-resolution face images
Pedagadi et al. Local fisher discriminant analysis for pedestrian re-identification
Xu et al. Automatic 3D face recognition from depth and intensity Gabor features
Kumar et al. Real time face recognition using adaboost improved fast PCA algorithm
JP5202148B2 (en) Image processing apparatus, image processing method, and computer program
Barnouti et al. Face recognition: A literature review
Geng et al. Face recognition based on the multi-scale local image structures
Kahou et al. Facial expression analysis based on high dimensional binary features
Wei et al. Dynamic image-to-class warping for occluded face recognition
Danelakis et al. A survey on facial expression recognition in 3D video sequences
Ouanan et al. Facial landmark localization: Past, present and future
Sharma Designing of face recognition system
Narzillo et al. Peculiarities of face detection and recognition
US8861803B2 (en) Image recognition apparatus, image recognition method, and program
Ramalingam et al. Robust face recognition using enhanced local binary pattern
JP2013218605A (en) Image recognition device, image recognition method, and program
Acevedo et al. Facial expression recognition based on static and dynamic approaches
JP5286574B2 (en) Object detection recognition apparatus, object detection recognition method, and program
Deepa et al. Challenging aspects for facial feature extraction and age estimation
Shinwari et al. A comparative study of face recognition algorithms under occlusion
Choudhury et al. Biometrics security: Facial marks detection from the low quality images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150707

R151 Written notification of patent or utility model registration

Ref document number: 5777380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees