JP2013218605A - Image recognition device, image recognition method, and program - Google Patents

Image recognition device, image recognition method, and program Download PDF

Info

Publication number
JP2013218605A
JP2013218605A JP2012090259A JP2012090259A JP2013218605A JP 2013218605 A JP2013218605 A JP 2013218605A JP 2012090259 A JP2012090259 A JP 2012090259A JP 2012090259 A JP2012090259 A JP 2012090259A JP 2013218605 A JP2013218605 A JP 2013218605A
Authority
JP
Japan
Prior art keywords
similarity
image
viewpoint
feature
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012090259A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012090259A priority Critical patent/JP2013218605A/en
Publication of JP2013218605A publication Critical patent/JP2013218605A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to obtain an accurate recognition result while suppressing an increase in the number of collation times.SOLUTION: A local area is cut out from a face image, a local feature amount for recognizing a face is obtained from the cutout area, similarity of local feature amounts between adjacent viewpoints is calculated, and the viewpoints of a multi-viewpoint image are labeled based on the calculated similarity. Then, the local feature amounts are integrated based on the labeling result. In comparison with a registered image, similarity is calculated based on the integrated local feature amount, thereby obtaining a recognition result.

Description

本発明は、例えば、顔認識を行うために用いて好適な画像認識装置、画像認識方法及びプログラムに関する。   The present invention relates to an image recognition apparatus, an image recognition method, and a program suitable for use in, for example, face recognition.

従来、人物の顔を含む画像から顔の領域を顔画像として抽出し、抽出した顔画像を予め登録した特定人物の顔画像と比較することにより個人識別を行う顔認識技術が知られている。この顔認識技術は、例えば、カメラに写っている人物が登録者であると認証されたときにオフィス等への入室を許可するなどのセキュリティ用途に使用されている。   2. Description of the Related Art Conventionally, there has been known a face recognition technique for performing individual identification by extracting a face area as a face image from an image including a human face and comparing the extracted face image with a face image of a specific person registered in advance. This face recognition technology is used for security purposes, for example, permitting entry into an office or the like when a person in a camera is authenticated as a registered person.

一方、この顔認識技術を同一人物が写っている写真の検索に利用したいといった要望もある。前述したようなセキュリティ用途においては、人物を撮影する際の撮影条件に制約を付けて高精度の認識を可能としているが、検索に利用する場合は人物の撮影条件が様々であるため認識精度が低下するといった問題がある。例えば、顔の向きや表情、撮影時の照明が異なった写真間では、同一人物が写っていても別人物と誤判定してしまうことがあった。   On the other hand, there is also a demand for using this face recognition technology for searching for a photograph showing the same person. In security applications such as those described above, high-precision recognition is possible by limiting the shooting conditions when shooting a person. However, when used for search, the recognition accuracy is high because there are various shooting conditions for people. There is a problem that it falls. For example, between photographs with different face orientations, facial expressions, and illumination at the time of shooting, the same person may be mistakenly identified as a different person.

そこで、近年では、顔の向きが異なる場合においても高精度に顔認識を行う方法として、複数方向の顔画像を利用した様々な方式が提案されている。例えば、非特許文献1には、複数方向の顔画像から部分空間を作成し、登録顔及び入力顔の部分空間同士の類似度から認識を行う方法が開示されている。さらに、特許文献1では、複数のカメラから獲得された同一人物の時系列の顔画像を一つの画像列として統合し、顔の見え方の変動を獲得した上で個人識別を行う方法が開示されており、ここでも部分空間による認識が利用されている。一方、特許文献2には、複数方向の顔画像から向きの異なる2枚の顔画像を選択し、フィールドモーフィングにより正面顔画像を生成して正面顔同士で照合を行う方法が開示されている。また、第3の方法として、複数方向の顔画像を登録顔及び入力顔で用意し、登録顔画像群及び入力顔画像群から夫々一枚の顔画像を選択して網羅的に照合を繰り返す方法も提案されている。   Therefore, in recent years, various methods using face images in a plurality of directions have been proposed as methods for performing face recognition with high accuracy even when the face orientations are different. For example, Non-Patent Document 1 discloses a method in which a partial space is created from face images in a plurality of directions, and recognition is performed based on the similarity between the partial spaces of the registered face and the input face. Further, Patent Document 1 discloses a method for integrating individual time series face images of the same person acquired from a plurality of cameras as a single image sequence, and performing individual identification after acquiring a change in the appearance of the face. Here, subspace recognition is also used. On the other hand, Patent Document 2 discloses a method of selecting two face images having different directions from face images in a plurality of directions, generating a front face image by field morphing, and collating the front faces. As a third method, face images in a plurality of directions are prepared as registered faces and input faces, and one face image is selected from each of the registered face image group and the input face image group, and comprehensive verification is repeated. Has also been proposed.

特開2007−317062号公報JP 2007-317062 A 特開2009−25874号公報JP 2009-25874 A

福井 和広: "複数視点画像を用いた顔画像認識", 精密工学会画像応用技術専門委員会研究報告, Vol.19, No.3, pp.1-10, (2004)Kazuhiro Fukui: "Face image recognition using multi-viewpoint images", Reports of the Japan Society for Precision Engineering Image Applied Technology Technical Committee, Vol.19, No.3, pp.1-10, (2004) Viola and Jones. Rapid Object Detection using Boosted Cascade of Simple Features. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2001)Viola and Jones.Rapid Object Detection using Boosted Cascade of Simple Features.Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2001) Cootes, Edwards and Taylor. Active Appearance Models. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No.6, JUNE 2001Cootes, Edwards and Taylor. Active Appearance Models. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No. 6, JUNE 2001 C. Shan and T. Gritti, Learning Discriminative LBP-Histogram Bins For Facial Expression Recognition. In Proc. British Machine Vision Conference, 2008C. Shan and T. Gritti, Learning Discriminative LBP-Histogram Bins For Facial Expression Recognition. In Proc. British Machine Vision Conference, 2008

しかしながら、部分空間を利用した方法においては、顔の向きの変化の範囲が広すぎると顔の見え方が大きく変わってしまうため、個人の特徴を正確に表現できる部分空間を作成することが困難になる。また、画像モーフィングを利用した方法では、画像間の対応付けを失敗すると生成した正面顔が破綻してしまうといった問題点がある。そこで、最も高精度に顔認証を行うためには、登録顔画像群と入力顔画像群とで網羅的に照合を繰り返す手法を用いることが望ましい。しかしながら、この方法では、取得する顔画像の枚数が多くなるに従って照合回数が増加し、計算量が膨大になるという問題点がある。   However, in the method using subspaces, if the range of face orientation changes is too wide, the appearance of the face changes greatly, making it difficult to create a subspace that can accurately represent individual features. Become. In addition, the method using image morphing has a problem that the generated front face breaks down if the association between images fails. Therefore, in order to perform face authentication with the highest accuracy, it is desirable to use a method in which collation is comprehensively repeated between the registered face image group and the input face image group. However, this method has a problem that the number of collations increases as the number of face images to be acquired increases, and the amount of calculation becomes enormous.

本発明は前述の問題点に鑑み、照合回数の増加を抑えて高精度の認識結果を得ることができるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to obtain a highly accurate recognition result while suppressing an increase in the number of collations.

本発明の画像認識装置は、被写体の撮像方向がそれぞれ異なる複数の単視点画像を含む多視点画像を取得する取得手段と、前記複数の単視点画像からそれぞれ特徴量を抽出する抽出手段と、前記抽出手段によって抽出されたそれぞれの特徴量の間での類似度を算出する第一の類似度算出手段と、前記第一の類似度算出手段によって算出された類似度と前記多視点画像の視点位置とに基づいて前記特徴量を統合する統合手段と、前記統合手段によって統合された特徴量と、登録画像の特徴量との類似度を算出する第二の類似度算出手段と、前記第二の類似度算出手段によって算出された類似度に基づいて前記被写体を認識する認識手段とを備えたことを特徴とする。   The image recognition apparatus according to the present invention includes an acquisition unit that acquires a multi-viewpoint image including a plurality of single-viewpoint images with different imaging directions of the subject, an extraction unit that extracts a feature amount from each of the plurality of single-viewpoint images, A first similarity calculating unit that calculates a similarity between each feature amount extracted by the extracting unit; a similarity calculated by the first similarity calculating unit; and a viewpoint position of the multi-viewpoint image An integration unit that integrates the feature amounts based on the second feature, a second similarity calculation unit that calculates a similarity between the feature amount integrated by the integration unit and a feature amount of a registered image, and the second Recognizing means for recognizing the subject based on the similarity calculated by the similarity calculating means.

本発明によれば、多視点画像間の照合を網羅的に行っても照合回数の増加を抑えることが可能になる。また、複数画像群同士の照合において認識精度を保持することができる。   According to the present invention, it is possible to suppress an increase in the number of verifications even if exhaustive verification between multi-viewpoint images is performed. In addition, recognition accuracy can be maintained in collation between a plurality of image groups.

実施形態に係る画像認識装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image recognition apparatus which concerns on embodiment. 実施形態における多視点画像取得部を構成する多眼撮像装置の一例を示す図である。It is a figure which shows an example of the multiview imaging device which comprises the multiview image acquisition part in embodiment. 実施形態において、多視点画像を登録する処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure for registering a multi-viewpoint image in the embodiment. 多視点画像の一例を示す図である。It is a figure which shows an example of a multiview image. 特徴点の位置を説明する図である。It is a figure explaining the position of a feature point. 人物の顔における局所領域を説明する図である。It is a figure explaining the local area | region in a person's face. 実施形態におけるラベル付けの結果の一例を示す図である。It is a figure which shows an example of the result of labeling in embodiment. 実施形態において、多視点画像を入力して登録されている多視点画像と照合する処理手順の一例を示すフローチャートである。In an embodiment, it is a flow chart which shows an example of a processing procedure which inputs a multi-viewpoint image and collates with a registered multi-viewpoint image.

以下、図面を参照しながら、本発明の好適な実施形態について詳細に説明する。本実施形態では、多視点顔画像から顔の個人識別を行う例について説明する。
図1は、本実施形態に係る画像認識装置100の機能構成例を示すブロック図である。
図1において、多視点画像取得部101は、複数の撮像部を備えた多眼撮像装置と、多眼撮像装置を構成する撮像部の制御を行う撮像制御部と、多眼撮像装置で取得した多視点画像を視点位置毎に記録する記録装置とにより構成されている。図2に、多眼撮像装置200の一例を示す。図2に示すように、多眼撮像装置200には、画像データを取得する25個の撮像部201〜225が正方格子上に均等に配置されている。このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から撮像した、撮像方向の異なる画像群を得ることができる。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, an example of performing individual identification of a face from a multi-viewpoint face image will be described.
FIG. 1 is a block diagram illustrating a functional configuration example of an image recognition apparatus 100 according to the present embodiment.
In FIG. 1, a multi-viewpoint image acquisition unit 101 acquires a multi-view imaging device including a plurality of imaging units, an imaging control unit that controls an imaging unit included in the multi-view imaging device, and a multi-view imaging device. And a recording device that records a multi-viewpoint image for each viewpoint position. FIG. 2 shows an example of the multi-eye imaging apparatus 200. As illustrated in FIG. 2, in the multi-lens imaging device 200, 25 imaging units 201 to 225 that acquire image data are evenly arranged on a square lattice. With such a multi-lens imaging device, it is possible to obtain a group of images with different imaging directions in which the same subject is imaged from a plurality of viewpoint positions.

顔検出部102は、多視点画像取得部101で取得した多視点画像を構成する夫々の単視点画像から顔領域を検出し、その位置座標の情報を出力する。顔画像正規化部103は、顔検出部102で検出した顔領域の位置座標から顔領域が所定の配置及び大きさになるように元の単視点画像に対して画像の幾何学的変換を行い、正規化された顔画像を切り出す。   The face detection unit 102 detects a face region from each single-viewpoint image constituting the multi-viewpoint image acquired by the multi-viewpoint image acquisition unit 101, and outputs information on the position coordinates. The face image normalization unit 103 performs image geometric conversion on the original single-viewpoint image so that the face region has a predetermined arrangement and size from the position coordinates of the face region detected by the face detection unit 102. , Cut out the normalized face image.

顔特徴点検出部104は、顔画像正規化部103で正規化した顔画像から顔の特徴を表す目、鼻、口などの顔部品の端点を検出し、その位置座標の情報を出力する。局所特徴抽出部105は、顔特徴点検出部104で検出した顔特徴の端点位置に基づいて、顔画像正規化部103で正規化した顔画像から局所領域を切り出し、切り出した領域から顔を認識するための局所特徴量を求める。局所特徴記憶部106は、局所特徴抽出部105で求めた顔の局所特徴量を記憶するメモリである。   The face feature point detection unit 104 detects end points of facial parts such as eyes, nose, and mouth that represent facial features from the face image normalized by the face image normalization unit 103, and outputs information on the position coordinates. The local feature extraction unit 105 extracts a local region from the face image normalized by the face image normalization unit 103 based on the face feature end point position detected by the face feature point detection unit 104, and recognizes the face from the extracted region. A local feature amount for obtaining the value is obtained. The local feature storage unit 106 is a memory that stores the local feature amount of the face obtained by the local feature extraction unit 105.

第一の類似度算出部107は、局所特徴記憶部106に記憶されている多視点画像内の異なる単視点画像の局所特徴量の類似度を算出する。ラベル付け部108は、第一の類似度算出部107が算出した類似度に基づいて多視点画像の視点にラベルを付ける。局所特徴統合部109は、ラベル付け部108の結果に基づいて局所特徴記憶部106に記憶されている局所特徴量を統合する。多視点顔特徴登録部110は、局所特徴統合部109によって統合した局所特徴量を多視点画像の視点位置と対応付けて登録する。   The first similarity calculation unit 107 calculates the similarity of local feature amounts of different single-viewpoint images in the multi-viewpoint image stored in the local feature storage unit 106. The labeling unit 108 labels the viewpoints of the multi-viewpoint image based on the similarity calculated by the first similarity calculation unit 107. The local feature integration unit 109 integrates the local feature amounts stored in the local feature storage unit 106 based on the result of the labeling unit 108. The multi-view face feature registration unit 110 registers the local feature amount integrated by the local feature integration unit 109 in association with the viewpoint position of the multi-view image.

第二の類似度算出部111は、多視点画像間の局所特徴量の類似度を算出する。すなわち、局所特徴統合部109によって統合した局所特徴量と多視点顔特徴登録部110に既に登録されている局所特徴量との類似度を算出する。類似度統合部112は、第二の類似度算出部111で算出した類似度を統合して多視点画像間の類似度として出力する。認識部113は、類似度統合部112の類似度に基づいて入力された多視点画像の人物が登録されている多視点画像の人物と同一人物かどうかを判定する。   The second similarity calculation unit 111 calculates the similarity of local feature amounts between multi-viewpoint images. That is, the similarity between the local feature amount integrated by the local feature integration unit 109 and the local feature amount already registered in the multi-viewpoint face feature registration unit 110 is calculated. The similarity integration unit 112 integrates the similarities calculated by the second similarity calculation unit 111 and outputs the similarities between the multi-viewpoint images. The recognizing unit 113 determines whether the person of the multi-view image input based on the similarity of the similarity integrating unit 112 is the same person as the person of the registered multi-view image.

次に、本実施形態に係る画像認識装置100の動作について説明する。
図3は、本実施形態における多視点画像を登録する処理手順の一例を示すフローチャートである。
まず、多視点画像取得部101は、多視点画像を取得し、取得した多視点画像を多視点画像取得部101の内部メモリに記憶する(S301)。このとき、取得する多視点画像は輝度画像とし、RGB等のカラー画像を取得した場合は輝度画像に変換して内部メモリに記憶する。図4には、多視点画像の例を示しており、例えば、図4における左上端の顔画像401は図2の撮像部201で取得されたものである。
Next, the operation of the image recognition apparatus 100 according to this embodiment will be described.
FIG. 3 is a flowchart illustrating an example of a processing procedure for registering a multi-viewpoint image according to the present embodiment.
First, the multi-view image acquisition unit 101 acquires a multi-view image and stores the acquired multi-view image in the internal memory of the multi-view image acquisition unit 101 (S301). At this time, the acquired multi-viewpoint image is a luminance image, and when a color image such as RGB is acquired, it is converted into a luminance image and stored in the internal memory. FIG. 4 shows an example of a multi-viewpoint image. For example, the face image 401 at the upper left end in FIG. 4 is acquired by the imaging unit 201 in FIG.

次に、顔検出部102は、多視点画像取得部101で取得した多視点画像から顔領域の正確な位置及び大きさを求める(S302)。例えば、非特許文献3で開示されている方法によって、多視点画像取得部101の内部メモリに記憶されている輝度画像中の顔領域の位置を求める。この処理では、例えば、図4に示した25個の顔の位置(両目の中心位置に相当)、及び大きさ(両目間の距離に相当)を求め、不図示のメモリに記憶しておく。   Next, the face detection unit 102 obtains an accurate position and size of the face area from the multi-viewpoint image acquired by the multi-viewpoint image acquisition unit 101 (S302). For example, the position of the face area in the luminance image stored in the internal memory of the multi-viewpoint image acquisition unit 101 is obtained by the method disclosed in Non-Patent Document 3. In this processing, for example, the positions of 25 faces (corresponding to the center position of both eyes) and the size (corresponding to the distance between both eyes) shown in FIG. 4 are obtained and stored in a memory (not shown).

次に、顔画像正規化部103は、顔検出部102で検出した顔の位置及び大きさに基づいて、検出した顔領域が所定の配置、大きさになるように幾何学変換を行い、不図示のメモリに記憶する(S303)。例えば、両目の夫々の位置が画像中の所定の位置に配置される100×100画素の顔画像になるように変換する。   Next, the face image normalization unit 103 performs geometric conversion so that the detected face area has a predetermined arrangement and size based on the position and size of the face detected by the face detection unit 102, and The data is stored in the illustrated memory (S303). For example, conversion is performed so that the positions of the eyes are 100 × 100 pixel face images arranged at predetermined positions in the image.

次に、顔特徴点検出部104は、顔画像正規化部103で正規化した顔画像から顔の特徴を表す目、鼻、口などの顔部品の端点を検出する(S304)。本実施形態では、図5に示すように、両目の目尻、目頭、口の左右の端点の位置を特徴点として検出する。これらの特徴点を検出する技術は、例えば、非特許文献3に開示されている方法を用いる。そして、検出した端点の位置座標の情報を不図示のメモリに記憶しておく。   Next, the face feature point detection unit 104 detects end points of facial parts such as eyes, nose, and mouth that represent facial features from the face image normalized by the face image normalization unit 103 (S304). In the present embodiment, as shown in FIG. 5, the positions of the left and right end points of the eyes, eyes, and mouth of both eyes are detected as feature points. As a technique for detecting these feature points, for example, a method disclosed in Non-Patent Document 3 is used. Then, information on the position coordinates of the detected end point is stored in a memory (not shown).

次に、局所特徴抽出部105は、顔特徴点検出部104で検出した端点の位置に基づいて、顔画像正規化部103で正規化した顔画像から局所領域を切り出し、切り出した領域から顔を認識するための局所特徴量を求める(S305)。本実施形態では、図6の破線で示すように左右の目、眉、鼻、口の6領域を局所領域として切り出す。例えば、左目の領域を切り出す場合は左目の目尻、目頭の位置座標を参照して顔画像から切り出す。すなわち、左目の目尻、目頭の位置座標から顔画像中の左目領域の四隅の位置座標を所定の幾何学的関係に基づいて求め、左目領域が所定の矩形になるように幾何変換を施して局所領域を切り出す。局所領域は、例えば30×30画素の矩形領域になるように変換する。   Next, the local feature extraction unit 105 cuts out a local region from the face image normalized by the face image normalization unit 103 based on the position of the end point detected by the face feature point detection unit 104, and extracts a face from the cut out region. A local feature amount for recognition is obtained (S305). In the present embodiment, as shown by broken lines in FIG. 6, the left and right eyes, the eyebrows, the nose, and the mouth are cut out as local areas. For example, when the left eye region is cut out, it is cut out from the face image with reference to the position coordinates of the left eye corner and eye corner. In other words, the position coordinates of the four corners of the left eye region in the face image are obtained from the position coordinates of the left eye corner and the eye corner based on a predetermined geometric relationship, and subjected to geometric transformation so that the left eye region becomes a predetermined rectangle. Cut out the area. The local area is converted so as to be a rectangular area of 30 × 30 pixels, for example.

そして、求めた局所領域の画像から局所特徴量を求める。本実施形態では、局所特徴量としてLBPヒストグラム(ヒストグラム特徴)を求める。LBPヒストグラムは、非特許文献4に記載されているように近傍の画素の輝度の増加あるいは減少傾向を符号化したLBP特徴を求め、局所領域内で符号化した値毎にヒストグラム化したものである。LBP特徴は照明変動にロバストな特性を持つ。   Then, a local feature amount is obtained from the obtained image of the local area. In this embodiment, an LBP histogram (histogram feature) is obtained as the local feature amount. As described in Non-Patent Document 4, the LBP histogram is obtained by obtaining an LBP feature in which an increase or decrease in luminance of neighboring pixels is encoded, and generating a histogram for each value encoded in a local region. . The LBP feature has characteristics that are robust to illumination variations.

求めた局所特徴量の情報は、顔画像の多視点画像中の視点インデックス(図2の各撮像手段のどれかを示すポインタ)、及び局所領域インデックス(局所領域のどれかを示すポインタ)とともに局所特徴記憶部106に記憶される。同様にして、その他の局所領域に対しても夫々参照すべき端点の位置座標に基づいて顔画像から局所特徴量を求める。本実施形態では、局所特徴量としてLBPヒストグラムを用いる場合について説明したが、その他の特徴量を用いてもよい。例えば、輝度勾配ヒストグラムやガボールウェーブレット特徴量、等を用いるようにしてもよいし、それらを組合せた特徴量を用いるようにしてもよい。   The information of the obtained local feature amount is local together with a viewpoint index (a pointer indicating any one of the imaging units in FIG. 2) and a local area index (a pointer indicating any of the local areas) in the multi-view image of the face image. It is stored in the feature storage unit 106. Similarly, local feature amounts are obtained from the face image based on the position coordinates of the end points to be referred to for other local regions. In the present embodiment, the case where the LBP histogram is used as the local feature amount has been described, but other feature amounts may be used. For example, a luminance gradient histogram, a Gabor wavelet feature amount, or the like may be used, or a feature amount combining them may be used.

次に、多視点画像中のすべての顔についてS303〜S305の処理を行ったか否かを判定する(S306)。この判定の結果、すべての顔について処理を行っていない場合はS303に戻り、すべての顔について処理が終了した場合は、次のS307に進む。   Next, it is determined whether or not the processing of S303 to S305 has been performed for all the faces in the multi-viewpoint image (S306). As a result of the determination, if all the faces have not been processed, the process returns to S303, and if all the faces have been processed, the process proceeds to the next S307.

次に、第一の類似度算出部107は、局所特徴記憶部106に記憶されている局所特徴量のうち、一つの局所領域について、隣接する視点間での局所特徴同士の類似度を算出する(S307)。例えば、左目の領域について類似度を算出する場合には、まず、図4の左上端の視点インデックスと左目の局所領域インデックスを持つ局所特徴量とを局所特徴記憶部106から読み出す。そして、読み出した局所特徴量の右隣りの視点インデックスと左目の局所領域インデックスを持つ局所特徴量とを読みだし、類似度の計算を行う。類似度の計算では、LBPヒストグラムのヒストグラムインターセクションを計算する。同様にして、下隣りの視点インデックスと左目の局所領域インデックスを持つ局所特徴量とを読みだし、類似度の計算を行う。   Next, the first similarity calculation unit 107 calculates the similarity between local features between adjacent viewpoints for one local region among the local feature amounts stored in the local feature storage unit 106. (S307). For example, when calculating the similarity for the left eye region, first, the viewpoint feature at the upper left corner of FIG. 4 and the local feature amount having the local region index of the left eye are read from the local feature storage unit 106. Then, the viewpoint index adjacent to the right of the read local feature quantity and the local feature quantity having the local region index of the left eye are read, and the similarity is calculated. In the similarity calculation, a histogram intersection of the LBP histogram is calculated. Similarly, the lower side view index and the local feature quantity having the left eye local area index are read, and the similarity is calculated.

本実施形態では、局所特徴量としてLBPヒストグラムを用いたのでヒストグラムインターセクションを類似度としたが、正規化相関等の他の方法で類似度を求めるようにしてもよい。これらの処理を全ての隣接する視点間の局所特徴同士で繰り返し、求めた類似度を順次、不図示のメモリに記憶する。   In this embodiment, since the LBP histogram is used as the local feature quantity, the histogram intersection is set as the similarity, but the similarity may be obtained by other methods such as normalized correlation. These processes are repeated for local features between all adjacent viewpoints, and the obtained similarities are sequentially stored in a memory (not shown).

次に、ラベル付け部108は、第一の類似度算出部107が算出した類似度に基づいて多視点画像の視点にラベルを付ける(S308)。例えば、図4の左上端の視点のラベルをL1として、S307で求めた類似度が所定の値よりも大きい場合には同じラベル、異なる場合には新規のラベル(例えばL2)を付ける。これらの処理を全ての隣接する視点間の局所特徴同士で繰り返す。図7には、ラベル付けの結果の一例を示している。そして、求めたラベル付けの結果を不図示のメモリに記憶する。   Next, the labeling unit 108 labels the viewpoints of the multi-viewpoint image based on the similarity calculated by the first similarity calculation unit 107 (S308). For example, assuming that the label at the upper left viewpoint in FIG. 4 is L1, the same label is attached when the similarity calculated in S307 is larger than a predetermined value, and a new label (for example, L2) is attached when different. These processes are repeated for local features between all adjacent viewpoints. FIG. 7 shows an example of the labeling result. Then, the obtained labeling result is stored in a memory (not shown).

次に、局所特徴統合部109は、ラベル付け部108の結果に基づいて局所特徴記憶部106に記憶されている局所特徴量を統合する(S309)。本実施形態では、ラベル付け部108によって同じラベルが付けられた局所特徴量を局所特徴記憶部106から読み出し、統合を行う。統合処理では、複数のLBPヒストグラムをヒストグラムのビン毎に加算し、統合する局所特徴量の数で正規化する。この統合処理はS308で付けられた全てのラベルについて繰り返し行う。このようにS307〜S309において、視点インデックスを利用して隣接する視点間で局所特徴量の類似度の算出を行うようにしたので、類似する局所特徴量のラベル付け及び局所特徴量の統合を精度良く、かつ効率良く行うことができる。   Next, the local feature integration unit 109 integrates the local feature amounts stored in the local feature storage unit 106 based on the result of the labeling unit 108 (S309). In the present embodiment, the local feature quantity labeled with the same label by the labeling unit 108 is read from the local feature storage unit 106 and integrated. In the integration process, a plurality of LBP histograms are added for each histogram bin, and normalized by the number of local feature amounts to be integrated. This integration process is repeated for all the labels attached in S308. As described above, in S307 to S309, the similarity of the local feature amount is calculated between the adjacent viewpoints using the viewpoint index, so that it is possible to accurately label similar local features and integrate the local feature amounts. Good and efficient.

次に、すべての局所領域に対して前述したS307〜S309の処理を行ったか否かを判定する(S310)。この判定の結果、すべての局所領域に対して処理を行っていない場合は、S307に戻る。一方、すべての局所領域に対して処理を行った場合は、次のS311に進む。   Next, it is determined whether or not the above-described processing of S307 to S309 has been performed on all local regions (S310). If the result of this determination is that processing has not been performed for all local regions, the process returns to S307. On the other hand, if processing has been performed for all local regions, the process proceeds to the next S311.

このようにS307〜S309の処理を局所領域毎に行うことにより、夫々の領域に応じた多視点画像の視点のラベル付けが可能であり、局所特徴量の統合を高精度に行うことができる。例えば、目の領域は顔全面に対してほぼ平面であるため、正面顔に近い向きの画像の見えは類似している。したがって、多視点画像の中央の画像が正面顔である場合には図7に示したようなラベルが付くと予想される。一方、鼻の領域は顔全面に対して立体的な構造であるため、正面顔に近い向きでも画像の見えは異なってくる。したがって、多視点画像の中央の画像でも異なるラベルが付くことが予想される。しかし、側面に近い向きでは見えは類似しているので同じラベルになり、特徴量を統合できると期待できる。すなわちラベル付けの結果は対象とする物体や物体領域の形状に依存する。   Thus, by performing the processing of S307 to S309 for each local area, it is possible to label the viewpoints of the multi-viewpoint images corresponding to each area, and it is possible to integrate the local feature amounts with high accuracy. For example, since the eye region is substantially flat with respect to the entire face, the appearance of the image in the direction close to the front face is similar. Therefore, when the center image of the multi-viewpoint image is a front face, it is expected that a label as shown in FIG. 7 is attached. On the other hand, since the nose region has a three-dimensional structure with respect to the entire face, the appearance of the image differs even in the direction close to the front face. Therefore, it is expected that different labels are attached even to the center image of the multi-viewpoint image. However, in the direction close to the side, the appearance is similar, so the labels are the same, and it can be expected that the features can be integrated. That is, the labeling result depends on the shape of the target object or object region.

次に、多視点顔特徴登録部110は、局所特徴統合部109によって統合した局所特徴量を局所領域毎に登録する(S311)。本実施形態では、ラベル及びラベル毎に統合した局所特徴量が登録される。また、図7に示したようなラベル付け部108で求めたラベル付けの結果も登録しておく。すなわち、統合した局所特徴量を多視点画像の視点位置と対応付けておく。   Next, the multi-view face feature registration unit 110 registers the local feature amount integrated by the local feature integration unit 109 for each local region (S311). In this embodiment, the local feature amount integrated for each label and each label is registered. Further, the labeling result obtained by the labeling unit 108 as shown in FIG. 7 is also registered. That is, the integrated local feature amount is associated with the viewpoint position of the multi-viewpoint image.

図8は、本実施形態において、多視点画像を入力して登録されている多視点画像(登録画像)と照合する処理手順の一例を示すフローチャートである。
まず、多視点画像取得部101は、多視点画像を取得する(S801)。ここでの処理は、図3のS301と同じである。次に、多視点画像から顔の局所特徴量を取得する(S802)。ここでの処理は、図3のS302〜S309と同じである。
FIG. 8 is a flowchart illustrating an example of a processing procedure for collating with a multi-viewpoint image (registered image) registered by inputting a multi-viewpoint image in the present embodiment.
First, the multi-viewpoint image acquisition unit 101 acquires a multi-viewpoint image (S801). The processing here is the same as S301 in FIG. Next, a local feature amount of the face is acquired from the multi-viewpoint image (S802). The processing here is the same as S302 to S309 in FIG.

次に、第二の類似度算出部111は、S802で取得した顔の局所特徴量と多視点顔特徴登録部110に登録されている局所特徴量との類似度を局所領域毎に算出する(S803)。例えば、左目の領域について類似度を算出する場合には、左目の局所領域インデックスを持つ局所特徴量を、S802の処理結果から取得するとともに、多視点顔特徴登録部110から取得する。   Next, the second similarity calculation unit 111 calculates the similarity between the local feature amount of the face acquired in S802 and the local feature amount registered in the multi-view face feature registration unit 110 for each local region ( S803). For example, when the similarity is calculated for the left eye region, the local feature amount having the local region index of the left eye is acquired from the processing result of S802 and acquired from the multi-view face feature registration unit 110.

例えば、まず、S802のラベル付けステップでラベルL1の付いた局所特徴量と多視点顔特徴登録部110に登録されているラベルL1の付いた局所特徴量とを取得し、類似度を算出する。類似度の計算では、第一の類似度算出部107が行った方法と同様に、LBPヒストグラムのヒストグラムインターセクションを計算する。同様にして全てのラベルの組合せについて類似度の計算を行う。このとき、局所特徴統合部109により局所特徴量が統合されているので、この組合せの数は統合を行わない視点数の全組合せと比較すれば各段に削減されている。また、第一の類似度算出部107で算出した類似度に基づいて局所特徴量が統合されているので、ここで算出される類似度の精度は保持されている。   For example, first, the local feature amount with the label L1 and the local feature amount with the label L1 registered in the multi-viewpoint face feature registration unit 110 are acquired in the labeling step of S802, and the similarity is calculated. In the calculation of the similarity, the histogram intersection of the LBP histogram is calculated in the same manner as the method performed by the first similarity calculation unit 107. Similarly, similarity is calculated for all label combinations. At this time, since the local feature amounts are integrated by the local feature integration unit 109, the number of combinations is reduced to each stage as compared with all combinations of the number of viewpoints that are not integrated. Moreover, since the local feature-value is integrated based on the similarity calculated by the 1st similarity calculation part 107, the precision of the similarity calculated here is hold | maintained.

さらに、入力された多視点画像の視点位置と登録されている多視点画像の視点位置とが所定値以上に離れている場合は類似度の計算を省略することができる。例えば、入力した多視点画像の視点位置が左上端(図2の撮像部201に相当)であり、登録した多視点画像の視点位置が右下端(図2の撮像部225に相当)の場合である。統合した局所特徴量と多視点画像の位置とを対応付けておくことによえい、このような見えが一致する可能性の少ない状況を判断することができる。求めた類似度は順次、不図示のメモリに記憶される。以上の処理を局所領域毎に繰り返す。   Furthermore, when the viewpoint position of the input multi-view image and the viewpoint position of the registered multi-view image are separated by a predetermined value or more, the calculation of the similarity can be omitted. For example, when the viewpoint position of the input multi-viewpoint image is the upper left corner (corresponding to the imaging unit 201 in FIG. 2) and the viewpoint position of the registered multi-viewpoint image is the lower right corner (corresponding to the imaging unit 225 in FIG. 2). is there. By associating the integrated local feature quantity with the position of the multi-viewpoint image, it is possible to determine a situation with a low possibility of matching such appearances. The obtained similarities are sequentially stored in a memory (not shown). The above processing is repeated for each local region.

次に、類似度統合部112は、第二の類似度算出部111で算出した類似度を統合し、多視点画像間の類似度として出力する(S804)。まず、局所領域毎に類似度を統合する。例えば、左目の領域についてS803で算出した類似度のうち、最も類似度の高い類似度を左目領域の類似度とする。入力時の顔の向きと登録時の顔の向きとでずれが生じていたとしても、多視点画像取得部101のいずれかの撮像部で向きが一致することが期待できる。入力された多視点画像と登録されている多視点画像との間の複数の視点の組合せの中から最大類似度を求めることにより、顔の向きが一致した画像間での類似度を抽出することができ、精度を上げることができる。同様にして他の局所領域での類似度を統合する。そして求めた局所領域毎の類似度の総和を取ることにより、多視点画像間の類似度として統合する。   Next, the similarity integration unit 112 integrates the similarities calculated by the second similarity calculation unit 111 and outputs the similarities between the multi-viewpoint images (S804). First, the similarity is integrated for each local region. For example, among the similarities calculated in step S803 for the left eye region, the highest similarity is set as the similarity of the left eye region. Even if there is a difference between the orientation of the face at the time of input and the orientation of the face at the time of registration, it can be expected that the orientations coincide in any of the imaging units of the multi-viewpoint image acquisition unit 101. Extracting the similarity between images with matching face orientations by finding the maximum similarity from the combination of multiple viewpoints between the input multi-view image and the registered multi-view image Can improve accuracy. Similarly, similarities in other local regions are integrated. Then, by summing up the obtained similarities for each local region, the similarities between the multi-viewpoint images are integrated.

次に、認識部113は、類似度統合部112で統合された類似度に基づいて、入力された多視点顔画像の人物が登録されている多視点顔画像の人物と同一人物かどうかを判定する(S805)。この処理では、多視点画像間の類似度が所定値以上の場合に同一人物と判定する。   Next, the recognition unit 113 determines whether the person of the input multi-view face image is the same person as the person of the registered multi-view face image based on the similarity integrated by the similarity integration unit 112. (S805). In this process, when the degree of similarity between multi-viewpoint images is a predetermined value or more, it is determined that they are the same person.

以上の説明では、登録人物が一人の場合について説明したが、登録人物が複数の場合にも本発明は適用できる。この場合、前述したS803〜S805を登録人物の顔画像毎に繰り返し、類似度が所定値以上の登録顔が複数あった場合に、類似度が最大の登録人物を該当人物と判断するようにする。   In the above description, the case where there is one registered person has been described. However, the present invention can also be applied to a case where there are a plurality of registered persons. In this case, the above-described steps S803 to S805 are repeated for each registered person's face image, and when there are a plurality of registered faces whose similarity is equal to or greater than a predetermined value, the registered person having the maximum similarity is determined as the corresponding person. .

以上、顔の個人識別に適用する実施形態について説明した。前述したように本実施形態では局所領域毎に隣接した視点の多視点画像内の類似度から局所特徴量を統合し、統合した局所特徴量を用いて多視点画像間での類似度を求めるようにした。したがって、多視点画像間の照合において、認識精度を保持しつつ、類似度算出回数の増加を抑えることができる。なお、本実施形態においては、登録する多視点画像及び入力される(判定される)多視点画像で夫々局所特徴量を統合して多視点画像間の照合を行うようにしたが、どちらかの多視点画像のみで局所特徴量を統合してもよい。   The embodiment applied to personal identification of the face has been described above. As described above, in the present embodiment, local feature amounts are integrated from similarities in multi-view images of adjacent viewpoints for each local region, and the similarity between multi-view images is obtained using the integrated local feature amounts. I made it. Therefore, in the collation between multi-viewpoint images, it is possible to suppress an increase in the number of similarity calculations while maintaining recognition accuracy. In the present embodiment, local feature amounts are integrated in the multi-view image to be registered and the input (determined) multi-view image, respectively, and collation between the multi-view images is performed. Local feature amounts may be integrated using only multi-viewpoint images.

また、本実施形態では、多視点画像のうち隣接する視点の画像から抽出した局所特徴量同士の類似度を算出し、類似度に基づいて局所特徴量を統合するようにしたが、特に隣接する視点に限定するものではない。例えば、100×100個の撮像部を持つ多眼撮像装置で多視点画像を取得した場合、必ずしも全ての視点画像を用いて特徴抽出や類似度算出を行わなくてもよい。その場合には、局所特徴量の統合はできるだけ近傍視点の画像から行うようにする。   Further, in the present embodiment, the similarity between local feature amounts extracted from images of adjacent viewpoints among multi-viewpoint images is calculated, and the local feature amounts are integrated based on the similarity. It is not limited to the viewpoint. For example, when a multi-viewpoint image is acquired by a multi-view imaging apparatus having 100 × 100 imaging units, it is not always necessary to perform feature extraction or similarity calculation using all viewpoint images. In that case, integration of local feature amounts is performed from an image of a near viewpoint as much as possible.

また、本実施形態では顔の認識を例に説明したが、顔以外の特定の物体の識別にも適用できる。特に顔のような、撮影方向の角度変化に対して見えの変化が異なる物体においても有効に機能する。特に、本実施形態では多視点画像内の類似度から局所特徴量の統合を行っているので、予め対象物の形状や向き等が分かっていない場合でも適切に局所特徴量の統合を行うことができる。   In the present embodiment, face recognition has been described as an example, but the present invention can also be applied to identification of a specific object other than a face. In particular, it functions effectively even for an object such as a face, whose appearance changes with respect to an angle change in the shooting direction. In particular, in the present embodiment, since local feature amounts are integrated based on the similarity in the multi-viewpoint image, it is possible to appropriately integrate the local feature amounts even when the shape or orientation of the target is not known in advance. it can.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101 多視点画像取得部
105 局所特徴抽出部
107 第一の類似度算出部
109 局所特徴統合部
111 第二の類似度算出部
113 認識部
101 Multi-viewpoint image acquisition unit 105 Local feature extraction unit 107 First similarity calculation unit 109 Local feature integration unit 111 Second similarity calculation unit 113 recognition unit

Claims (8)

被写体の撮像方向がそれぞれ異なる複数の単視点画像を含む多視点画像を取得する取得手段と、
前記複数の単視点画像からそれぞれ特徴量を抽出する抽出手段と、
前記抽出手段によって抽出されたそれぞれの特徴量の間での類似度を算出する第一の類似度算出手段と、
前記第一の類似度算出手段によって算出された類似度と前記多視点画像の視点位置とに基づいて前記特徴量を統合する統合手段と、
前記統合手段によって統合された特徴量と、登録画像の特徴量との類似度を算出する第二の類似度算出手段と、
前記第二の類似度算出手段によって算出された類似度に基づいて前記被写体を認識する認識手段とを備えたことを特徴とする画像認識装置。
Obtaining means for obtaining a multi-viewpoint image including a plurality of single-viewpoint images having different imaging directions of the subject;
Extraction means for extracting feature amounts from the plurality of single viewpoint images,
First similarity calculation means for calculating a similarity between the respective feature amounts extracted by the extraction means;
Integration means for integrating the feature quantities based on the similarity calculated by the first similarity calculation means and the viewpoint position of the multi-viewpoint image;
Second similarity calculation means for calculating the similarity between the feature quantity integrated by the integration means and the feature quantity of the registered image;
An image recognition apparatus comprising: recognition means for recognizing the subject based on the similarity calculated by the second similarity calculation means.
前記第一の類似度算出手段は、前記多視点画像のうち、近傍の視点の単視点画像から抽出した特徴量同士で類似度を算出し、
前記統合手段は、前記多視点画像のうち、近傍の視点の単視点画像から抽出した特徴量同士を統合することを特徴とする請求項1に記載の画像認識装置。
The first similarity calculation means calculates a similarity between feature quantities extracted from a single viewpoint image of a nearby viewpoint among the multi-viewpoint images,
The image recognition apparatus according to claim 1, wherein the integration unit integrates feature quantities extracted from a single viewpoint image of a nearby viewpoint among the multi-viewpoint images.
前記抽出手段は、前記単視点画像から複数の局所領域を抽出して前記局所領域から特徴量を抽出し、
前記第一の類似度算出手段は、前記局所領域ごとに類似度を算出し、
前記統合手段は、前記局所領域ごとに特徴量を統合し、
前記第二の類似度算出手段は、前記局所領域ごとに前記統合した特徴量に基づいて類似度を算出することを特徴とする請求項1又は2に記載の画像認識装置。
The extraction means extracts a plurality of local regions from the single viewpoint image and extracts feature amounts from the local regions,
The first similarity calculation means calculates a similarity for each local region,
The integration unit integrates feature quantities for each local region,
The image recognition apparatus according to claim 1, wherein the second similarity calculation unit calculates a similarity based on the integrated feature amount for each local region.
前記統合した特徴量を前記多視点画像の視点位置と対応付けて登録する登録手段をさらに備えたことを特徴とする請求項1〜3の何れか1項に記載の画像認識装置。   The image recognition apparatus according to claim 1, further comprising a registration unit configured to register the integrated feature amount in association with a viewpoint position of the multi-viewpoint image. 前記特徴量はヒストグラム特徴であることを特徴とする請求項1〜4の何れか1項に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the feature amount is a histogram feature. 前記単視点画像は顔画像であることを特徴とする請求項1〜5の何れか1項に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the single viewpoint image is a face image. 被写体の撮像方向がそれぞれ異なる複数の単視点画像を含む多視点画像を取得する取得工程と、
前記複数の単視点画像からそれぞれ特徴量を抽出する抽出工程と、
前記抽出工程において抽出されたそれぞれの特徴量の間での類似度を算出する第一の類似度算出工程と、
前記第一の類似度算出工程において算出された類似度と前記多視点画像の視点位置とに基づいて前記特徴量を統合する統合工程と、
前記統合工程において統合された特徴量と、登録画像の特徴量との類似度を算出する第二の類似度算出工程と、
前記第二の類似度算出工程において算出された類似度に基づいて前記被写体を認識する認識工程とを備えたことを特徴とする画像認識方法。
An acquisition step of acquiring a multi-viewpoint image including a plurality of single-viewpoint images having different imaging directions of the subject;
An extraction step of extracting feature amounts from the plurality of single viewpoint images,
A first similarity calculation step of calculating a similarity between the respective feature amounts extracted in the extraction step;
An integration step of integrating the feature quantities based on the similarity calculated in the first similarity calculation step and the viewpoint position of the multi-viewpoint image;
A second similarity calculation step of calculating the similarity between the feature amount integrated in the integration step and the feature amount of the registered image;
An image recognition method comprising: a recognition step of recognizing the subject based on the similarity calculated in the second similarity calculation step.
被写体の撮像方向がそれぞれ異なる複数の単視点画像を含む多視点画像を取得する取得工程と、
前記複数の単視点画像からそれぞれ特徴量を抽出する抽出工程と、
前記抽出工程において抽出されたそれぞれの特徴量の間での類似度を算出する第一の類似度算出工程と、
前記第一の類似度算出工程において算出された類似度と前記多視点画像の視点位置とに基づいて前記特徴量を統合する統合工程と、
前記統合工程において統合された特徴量に基づいて、登録画像との類似度を算出する第二の類似度算出工程と、
前記第二の類似度算出工程において算出された類似度に基づいて前記被写体を認識する認識工程とをコンピュータに実行させることを特徴とするプログラム。
An acquisition step of acquiring a multi-viewpoint image including a plurality of single-viewpoint images having different imaging directions of the subject;
An extraction step of extracting feature amounts from the plurality of single viewpoint images,
A first similarity calculation step of calculating a similarity between the respective feature amounts extracted in the extraction step;
An integration step of integrating the feature quantities based on the similarity calculated in the first similarity calculation step and the viewpoint position of the multi-viewpoint image;
A second similarity calculation step of calculating a similarity with a registered image based on the feature amount integrated in the integration step;
A program causing a computer to execute a recognition step of recognizing the subject based on the similarity calculated in the second similarity calculation step.
JP2012090259A 2012-04-11 2012-04-11 Image recognition device, image recognition method, and program Pending JP2013218605A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012090259A JP2013218605A (en) 2012-04-11 2012-04-11 Image recognition device, image recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012090259A JP2013218605A (en) 2012-04-11 2012-04-11 Image recognition device, image recognition method, and program

Publications (1)

Publication Number Publication Date
JP2013218605A true JP2013218605A (en) 2013-10-24

Family

ID=49590604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012090259A Pending JP2013218605A (en) 2012-04-11 2012-04-11 Image recognition device, image recognition method, and program

Country Status (1)

Country Link
JP (1) JP2013218605A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099563A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2015170461A1 (en) * 2014-05-07 2015-11-12 日本電気株式会社 Image processing device, image processing method, and computer-readable recording medium
WO2016015170A1 (en) * 2014-07-28 2016-02-04 Xiaoou Tang A method for face recognition and a system thereof
KR101784418B1 (en) * 2016-04-04 2017-10-11 연세대학교 산학협력단 Apparatus for for recognizing facical expression using adaptive random forest and feedback module and method thereof
CN109214439A (en) * 2018-08-22 2019-01-15 电子科技大学 A kind of infrared image icing River detection method based on multi-feature fusion

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099563A (en) * 2013-11-20 2015-05-28 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2015170461A1 (en) * 2014-05-07 2015-11-12 日本電気株式会社 Image processing device, image processing method, and computer-readable recording medium
JPWO2015170461A1 (en) * 2014-05-07 2017-04-20 日本電気株式会社 Image processing apparatus, image processing method, and computer-readable recording medium
US10147015B2 (en) 2014-05-07 2018-12-04 Nec Corporation Image processing device, image processing method, and computer-readable recording medium
WO2016015170A1 (en) * 2014-07-28 2016-02-04 Xiaoou Tang A method for face recognition and a system thereof
KR101784418B1 (en) * 2016-04-04 2017-10-11 연세대학교 산학협력단 Apparatus for for recognizing facical expression using adaptive random forest and feedback module and method thereof
CN109214439A (en) * 2018-08-22 2019-01-15 电子科技大学 A kind of infrared image icing River detection method based on multi-feature fusion
CN109214439B (en) * 2018-08-22 2021-12-03 电子科技大学 Infrared image frozen river detection method based on multi-feature fusion

Similar Documents

Publication Publication Date Title
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
CN111310731B (en) Video recommendation method, device, equipment and storage medium based on artificial intelligence
JP5517858B2 (en) Image processing apparatus, imaging apparatus, and image processing method
Kose et al. Countermeasure for the protection of face recognition systems against mask attacks
Bustard et al. Toward unconstrained ear recognition from two-dimensional images
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4241763B2 (en) Person recognition apparatus and method
CN104933414B (en) A kind of living body faces detection method based on WLD-TOP
US8929595B2 (en) Dictionary creation using image similarity
JP5959093B2 (en) People search system
US20130010095A1 (en) Face recognition device and face recognition method
JP6112801B2 (en) Image recognition apparatus and image recognition method
US20070053590A1 (en) Image recognition apparatus and its method
KR20160066380A (en) Method and apparatus for registering face, method and apparatus for recognizing face
US20110227923A1 (en) Image synthesis method
Ouanan et al. Facial landmark localization: Past, present and future
JP5936561B2 (en) Object classification based on appearance and context in images
JP2010262601A (en) Pattern recognition system and pattern recognition method
Yin et al. A face anti-spoofing method based on optical flow field
JP2013218605A (en) Image recognition device, image recognition method, and program
JP2015197708A (en) Object identification device, object identification method, and program
Fawwad Hussain et al. Gray level face recognition using spatial features
Deng et al. Attention-aware dual-stream network for multimodal face anti-spoofing
JPH1185988A (en) Face image recognition system
Shermina Face recognition system using multilinear principal component analysis and locality preserving projection