JP6429823B2 - Feature extraction device - Google Patents
Feature extraction device Download PDFInfo
- Publication number
- JP6429823B2 JP6429823B2 JP2016071544A JP2016071544A JP6429823B2 JP 6429823 B2 JP6429823 B2 JP 6429823B2 JP 2016071544 A JP2016071544 A JP 2016071544A JP 2016071544 A JP2016071544 A JP 2016071544A JP 6429823 B2 JP6429823 B2 JP 6429823B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- object image
- input
- reconstructed
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 35
- 239000013598 vector Substances 0.000 claims description 27
- 239000000284 extract Substances 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 18
- 239000006185 dispersion Substances 0.000 claims 1
- 238000000034 method Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 11
- 230000001815 facial effect Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 238000000556 factor analysis Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000000491 multivariate analysis Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
本発明は、特徴量抽出装置に係り、特に、物体画像から特徴量を抽出する特徴量抽出装置に関する。 The present invention relates to a feature amount extraction apparatus, and more particularly to a feature amount extraction apparatus that extracts a feature amount from an object image.
従来、対象者の顔を撮影して取得した2次元の顔画像と登録された顔画像とを照合することで、その対象者を認証する顔画像認証装置が提案されている。このような顔画像認証装置は、事前に取得した対象者本人の登録顔画像と、利用時に取得した入力顔画像とを照合して類似度を算出し、類似度を用いて一致判定を行った結果に基づいて認証の可否を決定する。そのため、登録顔画像と入力顔画像との間に、顔の向きや表情などにおいて差異が生じていると類似度が低くなり、認証の誤り率が高くなる。 2. Description of the Related Art Conventionally, there has been proposed a face image authentication device that authenticates a target person by collating a two-dimensional face image acquired by photographing the face of the target person with a registered face image. Such a face image authentication device calculates the degree of similarity by comparing the registered face image of the subject person acquired in advance with the input face image acquired at the time of use, and performs a match determination using the degree of similarity. Whether to authenticate is determined based on the result. For this reason, if there is a difference in facial orientation or facial expression between the registered face image and the input face image, the degree of similarity is lowered and the authentication error rate is increased.
登録顔画像と入力顔画像とを照合して本人確認を行う方法としては、非特許文献1に開示されているように、大きさと位置を正規化した顔画像中の各画素の輝度値列からなる特徴ベクトルの部分空間を主成分分析により生成し、入力顔画像と登録顔画像との特徴ベクトルを前記部分空間上に射影して類似度を算出し、照合判定を行う固有顔(Eigenface)法が広く知られている。 As a method for verifying the identity by collating the registered face image and the input face image, as disclosed in Non-Patent Document 1, from the luminance value sequence of each pixel in the face image whose size and position are normalized. A unique space (Eigenface) method for generating a feature vector subspace by principal component analysis, projecting the feature vector of the input face image and the registered face image onto the partial space, calculating similarity, and performing matching determination Is widely known.
非特許文献1の従来技術によれば、顔の向きや表情の変化によって顔画像中に部分的なゆがみが生じ、登録顔画像と入力顔画像との間で特徴ベクトルの各要素に対応する画素の位置関係が変わると、類似度が低くなり認証の可否が正しく判定できない問題があった。 According to the prior art of Non-Patent Document 1, partial distortion occurs in a face image due to changes in face orientation and facial expression, and pixels corresponding to each element of a feature vector between a registered face image and an input face image When the positional relationship between the two changes, the degree of similarity becomes low, and there is a problem that whether or not authentication is possible cannot be correctly determined.
こうした問題に対し、個人性による顔画像の変動を表す部分空間と、照明条件や表情の変動による顔画像の変動を表す部分空間とを分離して推定し、個人性による顔画像の変動を表す部分空間への射影によって照合判定を行う方法が、非特許文献2で開示されている。 To solve this problem, we estimate separately the subspace that represents the face image variation due to personality and the subspace that represents the face image variation due to variations in lighting conditions and facial expressions, and represents the face image variation due to individuality. Non-Patent Document 2 discloses a method for performing collation determination by projection onto a partial space.
非特許文献2の従来技術によれば、個人性による顔画像の変動を表す部分空間に特徴ベクトルを射影することで、照明条件や表情の変動の影響が低減され、非特許文献1の従来技術の問題点を緩和することができる。また、主成分分析で求められた固有値が大きい固有ベクトルで構成される空間とは異なり、非特許文献2の従来技術で求められた部分空間にはシャープな特徴が残る為、低次元の部分空間でも、目や鼻の形状といった共通的な顔面特徴を反映した照合が可能となる。 According to the prior art of Non-Patent Document 2, by projecting a feature vector onto a partial space representing the variation of a face image due to personality, the influence of variations in lighting conditions and facial expressions is reduced. Can be alleviated. In addition, unlike a space composed of eigenvectors having a large eigenvalue obtained by principal component analysis, a sharp feature remains in the subspace obtained by the prior art of Non-Patent Document 2, so even in a low-dimensional subspace, It is possible to perform collation reflecting common facial features such as eye and nose shapes.
しかし、シミやホクロといった微細な特徴を部分空間に反映するためには、当該部分空間を非常に高い次元数で構成する必要があり、計算の精度や処理時間の問題から現実的ではなかった。 However, in order to reflect minute features such as spots and moles in a subspace, it is necessary to configure the subspace with a very high number of dimensions, which is not realistic due to problems of calculation accuracy and processing time.
本発明は、簡易な処理で、微細な特徴を抽出することができる特徴量抽出装置を提供することを目的とする。 An object of the present invention is to provide a feature quantity extraction apparatus that can extract fine features by simple processing.
上記の目的を達成するために本発明に係る特徴量抽出装置は、物体を撮像した物体画像から特徴量を抽出する特徴量抽出装置であって、複数の学習用物体画像に基づいて学習を行うことにより求めた基底ベクトルの集合である再構成基底を予め記憶した記憶部と、前記物体画像と前記再構成基底とを用いて前記物体画像を再構成した再構成物体画像を生成する再構成物体画像生成手段と、前記物体画像と前記再構成物体画像との差分画像から特徴量を抽出する特徴量抽出手段と、を含んで構成されている。 In order to achieve the above object, a feature quantity extraction apparatus according to the present invention is a feature quantity extraction apparatus that extracts a feature quantity from an object image obtained by imaging an object, and performs learning based on a plurality of learning object images. A reconstructed object that generates a reconstructed object image obtained by reconstructing the object image using the storage unit that stores a reconstructed basis that is a set of basis vectors obtained in advance and the object image and the reconstructed basis Image generation means, and feature quantity extraction means for extracting a feature quantity from a difference image between the object image and the reconstructed object image are configured.
本発明に係る物体画像は、入力された入力物体画像、及び登録されている登録物体画像であり、前記再構成物体画像生成手段は、前記再構成物体画像として、前記入力物体画像と前記再構成基底とを用いて前記入力物体画像を再構成した入力再構成物体画像を生成し、前記特徴量抽出手段は、前記特徴量として、前記入力物体画像と前記入力再構成物体画像との差分画像である第一差分画像から第一特徴量を抽出すると共に、前記登録物体画像と前記入力再構成物体画像との差分画像である第二差分画像から第二特徴量を抽出し、前記第一特徴量と前記第二特徴量との比較により前記入力物体画像と前記登録物体画像とを画像照合する照合手段を更に含むことができる。 The object image according to the present invention is an input object image that has been input and a registered object image that has been registered, and the reconstructed object image generation means uses the input object image and the reconstructed image as the reconstructed object image. An input reconstructed object image is generated by reconstructing the input object image using a base, and the feature amount extraction unit is a difference image between the input object image and the input reconstructed object image as the feature amount. A first feature amount is extracted from a certain first difference image, a second feature amount is extracted from a second difference image that is a difference image between the registered object image and the input reconstructed object image, and the first feature amount is extracted. And the second feature quantity may further include a matching unit that performs image matching between the input object image and the registered object image.
本発明に係る物体画像は、入力された入力物体画像、及び登録されている登録物体画像であり、前記再構成物体画像生成手段は、前記再構成物体画像として、前記入力物体画像と前記再構成基底とを用いて前記入力物体画像を再構成した入力再構成物体画像、及び前記登録物体画像と前記再構成基底とを用いて前記登録物体画像を再構成した登録再構成物体画像を生成し、前記特徴量抽出手段は、前記特徴量として、前記入力物体画像と前記入力再構成物体画像との差分画像である第一差分画像から第一特徴量を抽出すると共に、前記登録物体画像と前記登録再構成物体画像との差分画像である第二差分画像から第二特徴量を抽出し、前記第一特徴量と前記第二特徴量との比較により前記入力物体画像と前記登録物体画像とを画像照合する照合手段を更に含むことができる。 The object image according to the present invention is an input object image that has been input and a registered object image that has been registered, and the reconstructed object image generation means uses the input object image and the reconstructed image as the reconstructed object image. An input reconstructed object image obtained by reconstructing the input object image using a base, and a registered reconstructed object image obtained by reconstructing the registered object image using the registered object image and the reconstructed base, The feature amount extraction unit extracts, as the feature amount, a first feature amount from a first difference image that is a difference image between the input object image and the input reconstructed object image, and the registered object image and the registration A second feature amount is extracted from a second difference image that is a difference image from the reconstructed object image, and the input object image and the registered object image are obtained by comparing the first feature amount and the second feature amount. Matching It can further comprise means.
本発明に係る物体画像は、入力された入力物体画像、及び登録されている登録物体画像であり、前記再構成物体画像生成手段は、前記再構成物体画像として、前記登録物体画像と前記再構成基底とを用いて前記登録物体画像を再構成した登録再構成物体画像を生成し、前記特徴量抽出手段は、前記特徴量として、前記入力物体画像と前記登録再構成物体画像との差分画像である第一差分画像から第一特徴量を抽出すると共に、前記登録物体画像と前記登録再構成物体画像との差分画像である第二差分画像から第二特徴量を抽出し、前記第一特徴量と前記第二特徴量との比較により前記入力物体画像と前記登録物体画像とを画像照合する照合手段を更に含むことができる。 The object image according to the present invention is an input object image that has been input and a registered object image that has been registered, and the reconstructed object image generation unit includes the registered object image and the reconstructed image as the reconstructed object image. A registered reconstructed object image is generated by reconstructing the registered object image using a base, and the feature amount extraction unit is a difference image between the input object image and the registered reconstructed object image as the feature amount. A first feature amount is extracted from a certain first difference image, a second feature amount is extracted from a second difference image that is a difference image between the registered object image and the registered reconstructed object image, and the first feature amount is extracted. And the second feature quantity may further include a matching unit that performs image matching between the input object image and the registered object image.
本発明に係る特徴量抽出手段は、前記第一差分画像と前記入力物体画像とから前記第一特徴量を抽出し、前記第二差分画像と前記登録物体画像とから前記第二特徴量を抽出することができる。 The feature amount extraction unit according to the present invention extracts the first feature amount from the first difference image and the input object image, and extracts the second feature amount from the second difference image and the registered object image. can do.
本発明に係る特徴量抽出手段は、前記第一特徴量として、前記第一差分画像の各画素を前記学習により求まる再構成残差の分散値で除算した画像から特徴量を抽出することができる。 The feature amount extraction means according to the present invention can extract a feature amount from the image obtained by dividing each pixel of the first difference image by the variance value of the reconstruction residual obtained by the learning as the first feature amount. .
本発明に係る特徴量抽出手段は、前記第一差分画像における所定閾値以上の画素値の画素位置を前記第一特徴量として抽出し、前記第二差分画像における前記所定閾値以上の画素値の画素位置を前記第二特徴量として抽出することができる。 The feature amount extraction unit according to the present invention extracts a pixel position having a pixel value equal to or greater than a predetermined threshold in the first difference image as the first feature amount, and a pixel having a pixel value equal to or greater than the predetermined threshold in the second difference image. The position can be extracted as the second feature amount.
本発明に係る入力物体画像は、異なる時刻に撮像した複数の入力物体画像であり、前記再構成物体画像生成手段は、前記複数の入力物体画像の各々について前記入力再構成物体画像を生成し、前記特徴量抽出手段は、各入力物体画像について該入力物体画像に対応する前記入力再構成物体画像との前記第一差分画像を求め、各入力物体画像について求めた前記第一差分画像に基づいて得られる統合差分画像から前記第一特徴量を抽出することができる。 The input object image according to the present invention is a plurality of input object images captured at different times, and the reconstructed object image generation means generates the input reconstructed object image for each of the plurality of input object images, The feature amount extraction unit obtains the first difference image between each input object image and the input reconstructed object image corresponding to the input object image, and based on the first difference image obtained for each input object image The first feature amount can be extracted from the obtained integrated difference image.
本発明に係る再構成基底に含まれる基底ベクトルの数を、前記学習用物体画像と、前記学習用物体画像及び前記再構成基底を用いて再構成した再構成物体画像との残差が予め定められた範囲内となるように設定することができる。 The number of basis vectors included in the reconstruction basis according to the present invention is determined in advance as a residual between the learning object image and the reconstruction object image reconstructed using the learning object image and the reconstruction basis. It can be set to be within the specified range.
以上説明したように、本発明の特徴量抽出装置によれば、物体画像と再構成基底とを用いて物体画像を再構成した再構成物体画像を生成し、物体画像と再構成物体画像との差分画像から特徴量を抽出することにより、簡易な処理で、微細な特徴を抽出することができる、という効果が得られる。 As described above, according to the feature quantity extraction device of the present invention, a reconstructed object image obtained by reconstructing an object image using the object image and the reconstructed base is generated, and the object image and the reconstructed object image are By extracting the feature amount from the difference image, it is possible to extract a fine feature by a simple process.
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、出入管理システムに本発明を適用し、物体画像として、入力顔画像及び登録顔画像を用い、入力顔画像と登録顔画像とを照合する場合を例に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, an example will be described in which the present invention is applied to an access control system, an input face image and a registered face image are used as object images, and the input face image and the registered face image are collated.
<システム構成>
以下、部屋の入口の出入を管理するための出入管理システム100の設置例を模式的に示した図1と、本発明を適用した出入管理システム100の概略構成を示した図2を参照し、本発明の実施の形態の構成を説明する。
<System configuration>
Hereinafter, referring to FIG. 1 schematically showing an installation example of the entrance / exit management system 100 for managing entrance / exit of the room entrance and FIG. 2 showing a schematic configuration of the entrance / exit management system 100 to which the present invention is applied, The configuration of the embodiment of the present invention will be described.
(出入管理システム100)
出入管理システム100は、撮像装置1、電気錠制御装置2、および顔画像認証装置3を有する。図1に示す模式図では、撮像装置1、電気錠制御装置2、および顔画像認証装置3が部屋の出入口付近に配置されている。図1に示すように、撮像装置1は、入口101に通じる通路を撮影領域として撮影できるように入口101の近傍の壁面または天井に、撮影方向をやや下方へ向け、入口101に通ずる通路側へ向けた状態で取り付けられる。これにより、撮像装置1は、進行方向102に沿って入口101に向かう人物110を撮像することができる。
(Access control system 100)
The access management system 100 includes an imaging device 1, an electric lock control device 2, and a face image authentication device 3. In the schematic diagram shown in FIG. 1, the imaging device 1, the electric lock control device 2, and the face image authentication device 3 are arranged in the vicinity of the entrance / exit of the room. As shown in FIG. 1, the imaging apparatus 1 has a shooting direction directed slightly downward on a wall surface or ceiling near the entrance 101 so that the passage leading to the entrance 101 can be taken as a shooting area, and toward the passage side leading to the entrance 101. It is attached in the state of facing. Thereby, the imaging device 1 can image the person 110 heading toward the entrance 101 along the traveling direction 102.
顔画像認証装置3は、電気錠制御装置2を介して電気錠104を制御することにより部屋の入口101の出入を管理する。入口101には、扉103が設けられ、扉103には電気錠104が設けられる。電気錠104は、顔画像認証装置3により施錠及び解錠の制御が可能となっている。電気錠104は、扉103を常時施錠しており、顔画像認証装置3にて通行が許可された人物であると認証できれば一定時間(例えば5秒)のみ解錠される。なお、電気錠104は、解錠され扉が開けられた後、扉が閉じて一定時間が経過すると、自動的に施錠される。 The face image authentication device 3 manages the entrance / exit of the entrance 101 of the room by controlling the electric lock 104 via the electric lock control device 2. The entrance 101 is provided with a door 103, and the door 103 is provided with an electric lock 104. The electric lock 104 can be locked and unlocked by the face image authentication device 3. The electric lock 104 always locks the door 103, and is unlocked only for a fixed time (for example, 5 seconds) if it can be authenticated that the face image authentication device 3 is permitted to pass. The electric lock 104 is automatically locked when the door is closed and the door is closed and a predetermined time elapses after the door is opened.
以下、図2を参照して、顔画像認証装置3について詳細に説明する。図2は、本発明を適用した出入管理システム100の概略構成を示す図である。 Hereinafter, the face image authentication device 3 will be described in detail with reference to FIG. FIG. 2 is a diagram showing a schematic configuration of the access control system 100 to which the present invention is applied.
(撮像装置1)
撮像装置1は、図1に示したように所定の撮影領域を撮影する監視カメラである。撮像装置1は、顔画像認証装置3と接続され、取得した入力画像を顔画像認証装置3へ出力する。
(Imaging device 1)
The imaging device 1 is a surveillance camera that captures a predetermined imaging region as shown in FIG. The imaging device 1 is connected to the face image authentication device 3 and outputs the acquired input image to the face image authentication device 3.
(電気錠制御装置2)
電気錠制御装置2は、顔画像認証装置3と接続され、顔画像認証装置3からの信号に従って、電気錠104を施錠又は解錠する。
(Electric lock control device 2)
The electric lock control device 2 is connected to the face image authentication device 3, and locks or unlocks the electric lock 104 according to a signal from the face image authentication device 3.
(顔画像認証装置3)
顔画像認証装置3は、CPU(Central Processing Unit)、MPU(Micro−Processing Unit)、周辺回路、端子、及び各種メモリなどから構成され、撮像装置1が撮影した人物の顔画像を認証し、入口101の通行を許可された人物であると認証されれば電気錠制御装置2に対して電気錠104の制御信号を出力する。顔画像認証装置3は、機能的には、顔画像取得部10、出力部20、記憶部30、及び画像処理部40から構成される。以下、顔画像認証装置3の各部について詳細に説明する。
(Face image authentication device 3)
The face image authentication device 3 includes a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), peripheral circuits, terminals, and various memories. The face image authentication device 3 authenticates a person's face image captured by the imaging device 1, and If it is authenticated that the person is permitted to pass 101, the control signal of the electric lock 104 is output to the electric lock control device 2. The face image authentication device 3 is functionally composed of a face image acquisition unit 10, an output unit 20, a storage unit 30, and an image processing unit 40. Hereinafter, each part of the face image authentication device 3 will be described in detail.
(顔画像取得部10)
顔画像取得部10は撮像装置1と接続され、撮像装置1が撮影した入力画像から、人物の顔を含む顔領域画像を抽出し、画像処理部40に出力する。前記入力画像に複数の人物の顔が撮影されている場合は、複数の人物毎に、順次顔領域画像を抽出し、画像処理部40に出力する。
(Face image acquisition unit 10)
The face image acquisition unit 10 is connected to the imaging device 1, extracts a face area image including a human face from an input image captured by the imaging device 1, and outputs it to the image processing unit 40. When a plurality of human faces are photographed in the input image, face area images are sequentially extracted for each of the plurality of persons and output to the image processing unit 40.
顔領域画像の抽出に際しては、後述する画像再構成処理が可能な状態となるように顔領域画像の切り出し位置、及びサイズを正規化する。具体的には、顔領域画像から両目中心、鼻頂点、及び口中心の4点の特徴点を抽出し、両目間のピクセル数が既定値になるように顔画像の拡大縮小を行うとともに、前記4点の特徴点の重心位置を中心とした所定のサイズの矩形で切り出す。ここでの両目間ピクセル数、及び矩形の切り出しサイズは、再構成基底の算出に先立って位置合わせした学習用顔画像の両目間ピクセル数、及び矩形の切り出しサイズと同値とする。 When extracting the face area image, the cut-out position and size of the face area image are normalized so that an image reconstruction process described later can be performed. Specifically, four feature points of the center of both eyes, the nose vertex, and the center of the mouth are extracted from the face area image, and the face image is enlarged and reduced so that the number of pixels between both eyes becomes a predetermined value. Cut out a rectangle of a predetermined size centered on the barycentric positions of the four feature points. The number of pixels between eyes and the cutout size of the rectangle here are the same values as the number of pixels between eyes of the learning face image and the cutout size of the rectangle that are aligned prior to the calculation of the reconstruction basis.
なお、顔領域画像の抽出方法、および顔特徴点の抽出方法は従来から多数提案されており、適宜公知の方法を採用すれば良い。例えば、顔画像や顔特徴点周辺の画像を学習した識別器と呼ばれるフィルタにて抽出する方法や、入力画像の二値化エッジ画像を生成し、当該エッジ画像において顔の形状である楕円形状部分や、顔特徴点周辺の特徴的な形状を検出する方法を採用すれば良い。 Many face area image extraction methods and face feature point extraction methods have been proposed in the past, and publicly known methods may be employed as appropriate. For example, a method of extracting a face image or an image around a facial feature point with a learned filter called a discriminator, or a binarized edge image of an input image is generated, and an elliptical portion that is a face shape in the edge image Alternatively, a method of detecting a characteristic shape around the face feature point may be employed.
(出力部20)
出力部20は、外部の接続機器である電気錠制御装置2と接続されたインターフェース及びその制御回路である。出力部20は、画像処理部40から人物についての認証成功を示す信号を受け取ると、接続されている電気錠制御装置2に対して認証成功の旨を示す信号を出力する。
(Output unit 20)
The output unit 20 is an interface connected to the electric lock control device 2 that is an external connection device and a control circuit thereof. When the output unit 20 receives a signal indicating that the person has been successfully authenticated from the image processing unit 40, the output unit 20 outputs a signal indicating that the authentication has been successful to the connected electric lock control device 2.
(記憶部30)
記憶部30は、ROM(Read Only Memory)、及びRAM(Random Access Memory)等の半導体メモリ、又は磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。記憶部30は、顔画像認証装置3を制御するためのコンピュータプログラム及び各種データを記憶し、画像処理部40との間でこれらの情報を入出力する。各種データには、再構成基底31、及び入口101の通行を許可されている登録者の登録顔画像33を示すデータが含まれる。
(Storage unit 30)
The storage unit 30 includes a semiconductor memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), or a magnetic recording medium and its access device or an optical recording medium and its access device. The storage unit 30 stores a computer program and various data for controlling the face image authentication device 3, and inputs / outputs such information to / from the image processing unit 40. The various data includes data indicating the reconstructed base 31 and the registered face image 33 of the registrant permitted to pass through the entrance 101.
(再構成基底31)
再構成基底31は、人物の顔画像を再構成する部分空間を表す基底ベクトルの集合である。当該基底ベクトルの要素数は、再構成手段41が出力する画像の画素数と同じであり、人物の顔画像は、当該基底ベクトルの線形和によって再構成される。再構成基底31に含まれる基底ベクトルの数は有限であり、例えば、多数の人物の顔画像に対して因子分析を適用することで既定数の基底ベクトルを求めることができる。
(Reconstruction base 31)
The reconstruction base 31 is a set of basis vectors representing a partial space for reconstructing a human face image. The number of elements of the basis vector is the same as the number of pixels of the image output by the reconstruction unit 41, and the human face image is reconstructed by a linear sum of the basis vectors. The number of basis vectors included in the reconstructed basis 31 is finite. For example, a predetermined number of basis vectors can be obtained by applying factor analysis to a large number of human face images.
以下、学習用に用意したN枚の人物の顔画像に対して因子分析を適用し、M個の基底ベクトルを求める手順を具体的に説明する。以下の説明では、再構成手段41が出力する画像の画素数をDとし、因子分析を適用する人物の顔画像をD次元のベクトル
、N枚の人物の顔画像の平均を同じくD次元のベクトル
、M個の基底ベクトルからなる部分空間をD×Mの行列
で表す。
Hereinafter, a procedure for applying factor analysis to N face images prepared for learning and obtaining M basis vectors will be described in detail. In the following description, the number of pixels of the image output by the reconstruction unit 41 is D, and the face image of a person to which factor analysis is applied is a D-dimensional vector.
, The average of N face images is also a D-dimensional vector
, D × M matrix of subspace consisting of M basis vectors
Represented by
学習に先立って、N枚の人物の顔画像の位置合わせを行う。位置合わせの方法には、例えば、両目間ピクセル数と顔画像の重心を合わせる方法がある。具体的には、図3に示すように顔画像300から両目中心、鼻頂点、及び口中心の特徴点301を抽出し、両目間のピクセル数が既定値になるように顔画像の拡大縮小を行うとともに、前記4点の特徴点の重心位置302を中心とする所定のサイズの矩形303で切り出しを行なう。図4に両目間ピクセル数が100となるように拡大縮小し、特徴点重心を中心とする1辺192ピクセルの矩形で切り出しを行なった顔画像を例示する。 Prior to learning, the face images of N persons are aligned. As an alignment method, for example, there is a method of aligning the number of pixels between both eyes and the center of gravity of the face image. Specifically, as shown in FIG. 3, feature points 301 at the center of both eyes, the nose apex, and the center of the mouth are extracted from the face image 300, and the face image is scaled so that the number of pixels between the eyes becomes a predetermined value. At the same time, a rectangle 303 having a predetermined size centered on the barycentric position 302 of the four feature points is cut out. FIG. 4 shows an example of a face image that is enlarged and reduced so that the number of pixels between both eyes is 100 and cut out with a rectangle of 192 pixels per side centered on the feature point centroid.
人物の顔画像
は、部分空間内の座標を表すM次元のベクトル
と、再構成の残差を表すD次元のベクトル
を用いて、式(1)で表せると仮定する。
Human face image
Is an M-dimensional vector representing coordinates in the subspace
And a D-dimensional vector representing the residual of the reconstruction
Is assumed to be expressed by the equation (1).
(1)
(1)
再構成の残差を表すD次元のベクトル
が平均0、分散行列
の正規分布に従うとすると、
の尤度を最大化する
を求めるEM(expectation−maximization)アルゴリズムは、式(2)で与えられる。
A D-dimensional vector representing the residual of the reconstruction
Is mean 0, variance matrix
According to the normal distribution of
Maximize the likelihood of
The EM (expectation-maximization) algorithm for obtaining is given by equation (2).
(2)
(2)
まず、
に任意の初期値を設定し、式(2)に示したE-Stepで
および
の期待値
を求める。次に、M-StepでE-Stepで求めた
、
を用いて新たな
を求める。このE-StepとM-Stepを繰り返すことで、学習用の人物の顔画像
に対する尤度を最大化する
が得られる。こうして得られた
を再構成基底31として、記憶部30に記憶する。
First,
Set an arbitrary initial value to, and use the E-Step shown in Equation (2)
and
Expected value
Ask for. Next, it was calculated by E-Step by M-Step
,
New with
Ask for. By repeating this E-Step and M-Step, the person's face image for learning
Maximize the likelihood for
Is obtained. Obtained in this way
Is stored in the storage unit 30 as the reconstruction base 31.
再構成基底
を構成する基底の数Mについては、顔画像の次元数Dに比べて十分に小さく、かつ、任意の学習用の顔画像
と、顔画像
を再構成基底
で再構成した再構成顔画像
との残差Eiが十分に小さくなる程度の数に設定する。残差Eiについては、式(3)で表されるピクセル単位の差分量などで表し、任意の学習用の顔画像
に対し残差Eiが予め定められた範囲(例えば、10から20までの範囲)内となるように基底の数Mを設定する。
Reconstruction base
Is smaller than the dimension D of the face image, and the learning face image is arbitrary.
And face image
Reconstruct basis
Reconstructed face image reconstructed with
Is set to such a number that the residual E i becomes sufficiently small. The residual E i is expressed by a difference amount in units of pixels expressed by the expression (3), and a face image for arbitrary learning.
The number of bases M is set so that the residual E i falls within a predetermined range (for example, a range from 10 to 20).
(3)
(3)
再構成顔画像
については、上記式(2)で求められる顔画像
に対応する再構成基底
からなる部分空間内の座標
の期待値
を用いて、式(4)により求めることができる。
Reconstructed face image
Is the face image obtained by the above equation (2)
Reconstruction base corresponding to
Coordinates in the subspace consisting of
Expected value
Can be obtained by the equation (4).
(4)
(4)
尚、再構成基底31の算出法については、以上説明した因子分析法の他にも、主成分分析や独立成分分析、スパースコーディングなど、公知の様々な多変量解析手法が適用できるが、いずれの多変量解析手法を適用した場合でも、再構成基底を構成する基底の数Mについては、顔画像の次元数Dに比べて十分に小さく、かつ、顔画像と再構成基底31による再構成顔画像との残差が十分に小さくなる程度の数に設定する。 In addition to the factor analysis method described above, various known multivariate analysis methods such as principal component analysis, independent component analysis, and sparse coding can be applied to the calculation method of the reconstruction basis 31. Even when the multivariate analysis method is applied, the number M of bases constituting the reconstructed base is sufficiently smaller than the dimension D of the face image, and the reconstructed face image by the face image and the reconstructed base 31 is used. And set the number so that the residual is sufficiently small.
(登録顔画像33)
登録顔画像33は、予め出入を許可された人物の顔画像であり、入力された顔画像との認証に使用する。人物毎に、1枚または複数枚の顔画像が記憶される。
(Registered face image 33)
The registered face image 33 is a face image of a person permitted to enter and exit in advance, and is used for authentication with the input face image. One or more face images are stored for each person.
(画像処理部40)
画像処理部40は、メモリ、その周辺回路及びそのマイクロプロセッサなどのいわゆるコンピュータにより構成され、顔画像取得部10から取得した顔領域画像に対し記憶部30を参照しながら各種処理を実行し、その処理結果を出力部20に出力する。画像処理部40は、再構成手段41、特徴量算出手段42、及び照合手段43を有する。画像処理部40の各手段は、マイクロプロセッサ上で動作するソフトウェアにより実現される機能モジュールである。
(Image processing unit 40)
The image processing unit 40 includes a so-called computer such as a memory, a peripheral circuit thereof, and a microprocessor thereof. The image processing unit 40 performs various processes on the face area image acquired from the face image acquisition unit 10 while referring to the storage unit 30. The processing result is output to the output unit 20. The image processing unit 40 includes a reconstruction unit 41, a feature amount calculation unit 42, and a collation unit 43. Each means of the image processing unit 40 is a functional module realized by software operating on a microprocessor.
(再構成手段41)
再構成手段41は、顔画像取得部10で切り出し位置、及びサイズを正規化した顔領域画像を、記憶部30に記憶されている再構成基底31を参照して再構成する。
(Reconstruction means 41)
The reconstruction unit 41 reconstructs the face area image whose face position and size have been normalized by the face image acquisition unit 10 with reference to the reconstruction base 31 stored in the storage unit 30.
以下、顔画像取得部10が出力した顔領域画像のベクトルを
として、再構成手段41における画像再構成処理を詳細に説明する。
Hereinafter, the vector of the face area image output by the face image acquisition unit 10 is
The image reconstruction process in the reconstruction unit 41 will be described in detail.
は、再構成基底の学習用顔画像と同様に、式(5)の形式で表せると仮定すると、式(5)中の
の期待値
は、式(2)のE-Stepで示した式と同様に、式(5)で求められる。
Is assumed to be expressed in the form of Equation (5), similar to the learning face image of the reconstruction basis,
Expected value
Is obtained by equation (5), similar to the equation shown by E-Step in equation (2).
(5)
(6)
(5)
(6)
ここで求めた
の期待値
を用いて、式(7)により入力再構成顔画像
を得る。
Sought here
Expected value
And the input reconstructed face image according to equation (7)
Get.
(7)
(7)
以上説明した方法では、再構成に使用する基底の寄与度を決定するにあたって、各基底方向の学習用の人物の顔画像
の広がりは考慮していない。すなわち、以上説明した方法で求めた再構成顔画像は、主成分分析で求められた固有値が大きい固有ベクトルで構成される空間に投影して得られる顔画像とは異なり、目や鼻の形といった顔面特徴を反映したシャープな画像となる特徴がある。図5に、顔領域画像の例500と以上説明した方法による再構成顔画像501の例を示す。
In the method described above, in determining the contribution of the basis used for reconstruction, the face image of the person for learning in each basis direction
Is not considered. That is, the reconstructed face image obtained by the above-described method is different from the face image obtained by projecting on the space composed of eigenvectors having a large eigenvalue obtained by principal component analysis, and the face such as the shape of eyes and nose There is a feature that makes a sharp image reflecting the feature. FIG. 5 shows an example of a face area image 500 and an example of a reconstructed face image 501 by the method described above.
再構成手段41は、顔画像取得部10で取得した顔領域画像と同様に、登録顔画像33を、記憶部30に記憶されている再構成基底31を参照して再構成して、登録再構成顔画像を得る。 The reconstruction unit 41 reconstructs the registered face image 33 with reference to the reconstruction base 31 stored in the storage unit 30 in the same manner as the face area image acquired by the face image acquisition unit 10, and performs registration reconfiguration. A constituent face image is obtained.
(特徴量算出手段42)
特徴量算出手段42は、顔画像取得部10が出力した顔領域画像
と、再構成手段41で求めた入力再構成顔画像
の差分画像である第一差分画像を求め、当該第一差分画像から顔画像の照合に用いる顔照合特徴量を算出する。
(Feature amount calculation means 42)
The feature amount calculating means 42 is a face area image output by the face image acquisition unit 10.
And the input reconstructed face image obtained by the reconstructing means 41
The first difference image that is the difference image is obtained, and the face matching feature amount used for matching the face image is calculated from the first difference image.
入力顔画像
の輝度値が0〜255の8bit表現である場合、通常は再構成顔画像
の輝度値も同様に0〜255の範囲で値をとる。したがって、従来の特徴量算出の方法を適用する為に、差分画像についても輝度値が0〜255の8bit表現とする場合には、例えば式(8)に示すような値域変換を適用して、差分画像
を得る。
Input face image
If the brightness value is 8bit representation of 0-255, usually the reconstructed face image
Similarly, the luminance value takes a value in the range of 0 to 255. Therefore, in order to apply the conventional method for calculating the feature amount, in the case of the 8-bit expression with the luminance value of 0 to 255 for the difference image, for example, by applying a range conversion as shown in Equation (8), Difference image
Get.
(8)
(8)
以上で説明した通り、再構成手段41で求めた再構成顔画像
は、図5(B)の再構成顔画像501に示すように目や鼻の形といった顔面特徴を反映したシャープな画像となる特徴がある為、差分画像
には、主にホクロやシミといった個人間で発生位置が異なるような微細な特徴が反映される。図6に差分画像
の例600と、差分画像600上に現れたホクロの特徴601を示す。
As described above, the reconstructed face image obtained by the reconstructing means 41
5B has a feature that becomes a sharp image reflecting facial features such as the shape of eyes and nose as shown in the reconstructed face image 501 in FIG.
This reflects the fine features such as moles and spots that differ in the position of occurrence among individuals. Figure 6 shows the difference image
, And a mole feature 601 appearing on the difference image 600.
特徴量算出手段42は少なくとも、以上の手順で求めた第一差分画像
から顔画像の照合に用いる第一顔照合特徴量を算出する。顔照合特徴量の算出については、例えばLBP(Local Binary Pattern)など、種々様々な公知の方法が利用できるので、詳細の説明は省略する。特徴量算出手段42は、第一差分画像
に限らず、顔領域画像
や入力再構成顔画像
からも顔照合特徴量を抽出しても良い。
The feature quantity calculation means 42 is at least the first difference image obtained by the above procedure.
To calculate a first face matching feature value used for face image matching. Since various known methods such as LBP (Local Binary Pattern) can be used for calculating the face matching feature value, detailed description thereof is omitted. The feature quantity calculation means 42 is a first difference image.
Not only face image
And input reconstruction face image
Also, the face matching feature value may be extracted.
特徴量算出手段42は、顔画像取得部10が出力した顔領域画像と同様に、登録顔画像33についても、登録顔画像33と再構成手段41で求めた登録再構成顔画像との差分画像である第二差分画像を求め、当該第二差分画像から顔画像の照合に用いる第二顔照合特徴量を算出する。 Similar to the face area image output by the face image acquisition unit 10, the feature amount calculating unit 42 also calculates a difference image between the registered face image 33 and the registered reconstructed face image obtained by the reconstructing unit 41 for the registered face image 33. A second difference image is obtained, and a second face matching feature amount used for face image matching is calculated from the second difference image.
本実施の形態では、画像処理部40は、記憶部30に記憶されているすべての登録顔画像33について登録顔画像33から登録再構成顔画像および第二差分画像を求め、予め第二顔照合特徴量を算出しておく。なお、画像処理部40は、顔領域画像を照合する度に、各登録顔画像33についての第二顔照合特徴量を算出してもよい。 In the present embodiment, the image processing unit 40 obtains a registered reconstructed face image and a second difference image from the registered face image 33 for all the registered face images 33 stored in the storage unit 30, and preliminarily stores the second face collation. The feature amount is calculated in advance. Note that the image processing unit 40 may calculate the second face matching feature amount for each registered face image 33 each time the face area image is collated.
(照合手段43)
照合手段43は、顔画像取得部10が出力した顔領域画像と、記憶部30に記憶されている全ての登録顔画像33とを照合する。
(Verification means 43)
The collation unit 43 collates the face area image output from the face image acquisition unit 10 with all the registered face images 33 stored in the storage unit 30.
以下、照合手段43における照合処理を詳細に説明する。まず、顔領域画像から算出した第一顔照合特徴量と、登録顔画像33から算出した第二顔照合特徴量との類似度を求め、当該類似度が最大となる登録顔画像33を選択し、当該類似度が認証閾値以上である場合に、顔領域画像に写っている顔が当該登録顔画像33に対応する登録者の顔であると判定する。 Hereinafter, the collation process in the collation means 43 will be described in detail. First, the similarity between the first face matching feature value calculated from the face area image and the second face matching feature value calculated from the registered face image 33 is obtained, and the registered face image 33 that maximizes the similarity is selected. When the similarity is equal to or greater than the authentication threshold, it is determined that the face shown in the face area image is the face of the registrant corresponding to the registered face image 33.
顔領域画像から算出した第一顔照合特徴量と、登録顔画像33から算出した第二顔照合特徴量との類似度の算出法については、正規化相関値やL2距離の逆数等、特徴量算出手段42で算出した特徴量に合わせて、種々様々な公知の方法から選択すればよいので、詳細の説明は省略する。 For the method of calculating the similarity between the first face matching feature value calculated from the face area image and the second face matching feature value calculated from the registered face image 33, a feature value such as a normalized correlation value or the reciprocal of the L2 distance is used. Since various known methods may be selected in accordance with the feature amount calculated by the calculation means 42, detailed description thereof is omitted.
照合手段43は、登録者の顔であると判定すると、出力部20に認証成功を示す信号を出力し、電気錠制御装置2に対して解錠制御を行う信号を出力させる。 If the collation means 43 determines that the face is the registrant's face, it outputs a signal indicating successful authentication to the output unit 20 and causes the electric lock control device 2 to output a signal for performing unlock control.
<顔画像認証装置の動作>
以下、図8に示したフローチャートを参照しつつ、本発明を適用した顔画像認証装置3による認証処理の動作を説明する。なお、以下に説明する動作は、入力画像を1つ取得するごとに実行される。
<Operation of face image authentication device>
The operation of the authentication process by the face image authentication apparatus 3 to which the present invention is applied will be described below with reference to the flowchart shown in FIG. The operation described below is executed every time one input image is acquired.
最初に、顔画像認証装置3の顔画像取得部10は、撮像装置1が撮影した入力画像を取得する(ステップS101)。そして、顔画像取得部10は当該入力顔画像から顔領域画像を抽出する(ステップS102)。顔画像取得部10は、1つ以上の顔領域画像が抽出されたか否かを判定し(ステップS103)、顔領域画像が全く抽出されなかった場合には以降の処理を行わず、認証処理を終了する。一方、1つ以上の顔領域画像が抽出された場合、顔画像取得部10は、ステップS104に処理を移行させる。 First, the face image acquisition unit 10 of the face image authentication device 3 acquires an input image captured by the imaging device 1 (step S101). Then, the face image acquisition unit 10 extracts a face area image from the input face image (step S102). The face image acquisition unit 10 determines whether or not one or more face area images have been extracted (step S103). If no face area image has been extracted, the following process is not performed and the authentication process is performed. finish. On the other hand, when one or more face area images are extracted, the face image acquisition unit 10 shifts the processing to step S104.
以下のステップS104〜S109の処理は、顔画像取得部10が抽出した顔領域画像ごとに行われる。 The following steps S104 to S109 are performed for each face area image extracted by the face image acquisition unit 10.
再構成手段41は、記憶部30に記憶されている再構成基底31を参照して、顔領域画像
から入力再構成顔画像
を求める(ステップS104)。次に、特徴量算出手段42は、顔領域画像
と再構成手段41が出力した入力再構成顔画像
から第一差分画像
を求め(ステップS105)、第一差分画像
から第一顔照合特徴量を求める(ステップS106)。
The reconstruction unit 41 refers to the reconstruction base 31 stored in the storage unit 30 and refers to the face area image.
Reconstructed face image input from
Is obtained (step S104). Next, the feature quantity calculating means 42 is a face area image.
And the input reconstructed face image output by the reconstruction means 41
First difference image from
(Step S105), the first difference image
The first face matching feature amount is obtained from (step S106).
次に、照合手段43は、特徴量算出手段42が算出した第一顔照合特徴量と、記憶部30に記憶された全ての登録顔画像33の第二顔照合特徴量との類似度を算出し、類似度が最も高くなる登録顔画像33を選択する(ステップS107)。選択された登録顔画像33における類似度が認証閾値以上である場合(ステップS108)、顔領域画像に写る人物の顔は、当該登録顔画像33に対応する登録者の顔であると判定し、出力部20に認証成功を示す信号を出力する(ステップS109)。認証成功を示す信号が出力部20に出力された場合、出力部20から電気錠制御装置2に対して解錠制御を行う信号が出力される。一方、選択された登録顔画像33における類似度が認証閾値未満である場合、照合手段43は、特に処理を行わない。 Next, the matching unit 43 calculates the similarity between the first face matching feature value calculated by the feature value calculating unit 42 and the second face matching feature value of all the registered face images 33 stored in the storage unit 30. Then, the registered face image 33 having the highest similarity is selected (step S107). When the similarity in the selected registered face image 33 is equal to or higher than the authentication threshold (step S108), it is determined that the face of the person shown in the face area image is the face of the registrant corresponding to the registered face image 33; A signal indicating successful authentication is output to the output unit 20 (step S109). When a signal indicating successful authentication is output to the output unit 20, a signal for performing unlock control on the electric lock control device 2 is output from the output unit 20. On the other hand, when the similarity in the selected registered face image 33 is less than the authentication threshold, the matching unit 43 does not perform any particular processing.
全ての顔領域画像についてステップS104〜109の処理が終わると、画像処理部40は、一連のステップを終了する。 When the processes of steps S104 to S109 are completed for all face area images, the image processing unit 40 ends a series of steps.
以上説明してきたように、本発明の実施の形態に係る顔画像認証装置は、顔領域画像と再構成基底とを用いて顔領域画像を再構成した入力再構成顔画像を生成し、顔領域画像と入力再構成顔画像との差分画像から特徴量を抽出することにより、顔画像からホクロやシミといった個人特有の微細な特徴を表す顔照合特徴量を抽出することができる。この結果、双子など目鼻口等の器官の形状が非常に類似しているが、ホクロやシミなどの個人特有の特徴は異なる人物の識別において、高い識別精度を得ることが可能となる。 As described above, the face image authentication apparatus according to the embodiment of the present invention generates an input reconstructed face image obtained by reconstructing a face area image using the face area image and the reconstruction base, and By extracting the feature amount from the difference image between the image and the input reconstructed face image, it is possible to extract a face matching feature amount that represents a fine feature unique to an individual such as a mole or a stain from the face image. As a result, although the shapes of organs such as eyes and nose and mouth such as twins are very similar, it is possible to obtain high identification accuracy in identifying persons with different individual features such as moles and spots.
<変形例>
以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、本実施形態では、顔画像取得部10は、撮像装置1が撮影した入力画像を処理して、画像処理部40へ出力するが、ハードディスク等の媒体から入力画像を取得し、顔領域画像を抽出した上で画像処理部40へ出力してもよい。
<Modification>
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, in the present embodiment, the face image acquisition unit 10 processes the input image captured by the imaging device 1 and outputs the processed image to the image processing unit 40. However, the face image acquisition unit 10 acquires the input image from a medium such as a hard disk, May be extracted and output to the image processing unit 40.
また、本実施の形態では、認証結果を通行の可否に使用するので電気錠制御装置2へ認証結果を出力しているが、一般公衆回線や携帯電話回線などの通信回線を介して、認証結果を監視センタ装置などの外部装置へ出力してもよい。また、外部装置への出力とせずに、認証結果を表示するランプを顔画像認証装置3に設けておき、認証結果を通行者に知らせてもよい。 In this embodiment, since the authentication result is used to pass or not, the authentication result is output to the electric lock control device 2. However, the authentication result is transmitted via a communication line such as a general public line or a mobile phone line. May be output to an external device such as a monitoring center device. In addition, a lamp for displaying the authentication result may be provided in the face image authentication device 3 without outputting it to the external device, and the authentication result may be notified to the passerby.
また、上記の実施の形態では、第一差分画像を求める場合の再構成顔画像として入力再構成顔画像を用い、かつ、第二差分画像を求める場合の再構成顔画像として登録再構成顔画像を用いる例について説明したが、再構成顔画像として、登録再構成顔画像を用いることなく入力再構成顔画像を用いて第一差分画像及び第二差分画像の各々を求めてもよく、再構成顔画像として、入力再構成顔画像を用いることなく登録再構成顔画像を用いて第一差分画像及び第二差分画像の各々を求めてもよい。 In the above embodiment, the input reconstructed face image is used as the reconstructed face image when obtaining the first difference image, and the registered reconstructed face image is used as the reconstructed face image when obtaining the second difference image. However, as the reconstructed face image, each of the first difference image and the second difference image may be obtained using the input reconstructed face image without using the registered reconstructed face image. As the face image, each of the first difference image and the second difference image may be obtained using the registered reconstructed face image without using the input reconstructed face image.
再構成顔画像として入力再構成顔画像を用いて第一差分画像及び第二差分画像の各々を求める場合は、顔領域画像と入力再構成顔画像との差分画像を第一差分画像として求め、求めた第一差分画像から第一顔照合特徴量を抽出し、登録顔画像と入力再構成顔画像との差分画像を第二差分画像として求め、求めた第二差分画像から第二顔照合特徴量を抽出する。 When obtaining each of the first difference image and the second difference image using the input reconstruction face image as the reconstruction face image, the difference image between the face area image and the input reconstruction face image is obtained as the first difference image, A first face matching feature is extracted from the obtained first difference image, a difference image between the registered face image and the input reconstructed face image is obtained as a second difference image, and the second face matching feature is obtained from the obtained second difference image. Extract the amount.
また、再構成顔画像として登録再構成顔画像を用いて第一差分画像及び第二差分画像の各々を求める場合は、顔領域画像と登録再構成顔画像との差分画像を第一差分画像として求め、求めた第一差分画像から第一顔照合特徴量を抽出し、登録顔画像と登録再構成顔画像との差分画像を第二差分画像として求め、求めた第二差分画像から第二顔照合特徴量を抽出する。 In addition, when obtaining each of the first difference image and the second difference image using the registered reconstructed face image as the reconstructed face image, the difference image between the face area image and the registered reconstructed face image is used as the first difference image. The first face matching feature value is extracted from the obtained first difference image, the difference image between the registered face image and the registered reconstructed face image is obtained as the second difference image, and the second face is obtained from the obtained second difference image. Extract matching features.
また、本実施形態では、特徴量算出手段42は、単純な差分演算によって差分画像のベクトル
を求めているが、図6に示すように、再構成残差が大きい部分にも差分が現れる。そこで、入力顔画像のベクトル
と再構成顔画像のベクトル
との差に対し、画素毎に、再構成基底31の算出時に求めた再構成残差の分散行列
の対角成分で除算する等して、第一差分画像を求めることにより、残差の影響を低減するように構成しても良い。例えば、式(9)のようにして差分画像
の各ピクセルの画素値を求めても良い。
Further, in the present embodiment, the feature amount calculating unit 42 calculates the difference image vector by a simple difference calculation.
However, as shown in FIG. 6, a difference also appears in a portion where the reconstruction residual is large. So, input face image vector
And reconstruction face image vector
For each pixel, the variance matrix of the reconstruction residual obtained when calculating the reconstruction base 31
The influence of the residual may be reduced by obtaining the first difference image, for example, by dividing by the diagonal component. For example, the difference image as shown in Expression (9)
The pixel value of each pixel may be obtained.
(9)
ただし、
はそれぞれ、
の要素であり、
である。
(9)
However,
Respectively
Elements of
It is.
さらには、特徴量算出手段42で求めた差分画像
について絶対値が所定閾値以上のピクセルを抽出し、当該ピクセルの位置情報を、個人特有の特徴を有する位置情報を表す顔照合特徴量として抽出しても良い。この場合には、顔領域画像についての第一差分画像から、絶対値が所定閾値以上のピクセルを抽出し、当該ピクセルの位置情報を、第一顔照合特徴量として抽出し、登録顔画像についての第二差分画像の各々から、絶対値が所定閾値以上のピクセルを抽出し、当該ピクセルの位置情報を、第二顔照合特徴量として抽出する。
Further, the difference image obtained by the feature amount calculating means 42
A pixel having an absolute value greater than or equal to a predetermined threshold value may be extracted, and position information of the pixel may be extracted as a face matching feature amount representing position information having individual-specific features. In this case, a pixel having an absolute value greater than or equal to a predetermined threshold is extracted from the first difference image for the face area image, and the position information of the pixel is extracted as the first face matching feature amount. A pixel having an absolute value equal to or greater than a predetermined threshold is extracted from each of the second difference images, and position information of the pixel is extracted as a second face matching feature amount.
また、図7に示すように、上記式(9)で求めた差分画像
の各ピクセルに対して、画素値が所定閾値未満の場合は画素値を0にする閾値処理を施してもよい。こうした画像から画像特徴量やピーク位置を顔照合特徴量として抽出して比較してもよい。これにより、個人特有の特徴を有する位置情報の照合が可能となる。
Moreover, as shown in FIG. 7, the difference image calculated | required by said Formula (9).
For each of the pixels, threshold processing for setting the pixel value to 0 may be performed when the pixel value is less than a predetermined threshold. Image features and peak positions may be extracted from these images as face matching feature values and compared. Thereby, collation of the positional information which has the characteristic peculiar to an individual is attained.
さらには、特徴量算出手段42で求めた差分画像を時間方向に蓄積し、かつ、平均した統合差分画像を、差分画像
としても良い。この場合には、再構成手段41は、異なる時刻に撮像した複数の入力顔画像の各々について入力再構成顔画像を求め、特徴量算出手段42は、各入力顔画像について該入力顔画像に対応する入力再構成顔画像との第一差分画像を求め、各入力顔画像について求めた第一差分画像を平均して得られる統合差分画像から第一顔照合特徴量を抽出するようにすればよい。
Further, the difference image obtained by the feature amount calculating unit 42 is accumulated in the time direction, and the averaged integrated difference image is converted into the difference image.
It is also good. In this case, the reconstruction unit 41 obtains an input reconstruction face image for each of a plurality of input face images captured at different times, and the feature amount calculation unit 42 corresponds to the input face image for each input face image. What is necessary is just to extract the 1st face collation feature-value from the integrated difference image obtained by calculating | requiring the 1st difference image with the input reconstruction face image to perform, and averaging the 1st difference image calculated | required about each input face image .
また、顔画像認証装置に本発明を適用する場合を例に説明したが、これに限定されるものではない。例えば、入力された顔画像が表わす顔の状態を推定する装置に、本発明を適用してもよい。この場合、入力された顔画像について抽出された特徴量から、顔の状態を推定するようにすればよい。 Moreover, although the case where this invention is applied to a face image authentication apparatus was demonstrated to the example, it is not limited to this. For example, the present invention may be applied to a device that estimates the state of the face represented by the input face image. In this case, the state of the face may be estimated from the feature amount extracted for the input face image.
また、入力された顔画像の特徴量を抽出して画像照合を行う場合を例に説明したが、これに限定されるものではなく、顔以外の形状を有する物体を表す画像の特徴量を抽出して、画像照合を行うようにしても良い。例えば、車を表す画像の特徴量を抽出して、画像照合を行うようにしても良い。 In addition, the case where image matching is performed by extracting the feature amount of the input face image has been described as an example. However, the present invention is not limited to this, and the feature amount of an image representing an object having a shape other than a face is extracted. Then, image collation may be performed. For example, a feature amount of an image representing a car may be extracted and image collation may be performed.
以上のように、当業者は本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes in accordance with the embodiment to be implemented within the scope of the present invention.
1 撮像装置
2 電気錠制御装置
3 顔画像認証装置
10 顔画像取得部
30 記憶部
31 再構成基底
33 登録顔画像
40 画像処理部
41 再構成手段
42 特徴量算出手段
43 照合手段
100 出入管理システム
300 顔画像
501 再構成顔画像
600 差分画像
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Electric lock control device 3 Face image authentication apparatus 10 Face image acquisition part 30 Storage part 31 Reconstruction base 33 Registered face image 40 Image processing part 41 Reconstruction means 42 Feature amount calculation means 43 Collation means 100 Access control system 300 Face image 501 Reconstructed face image 600 Difference image
Claims (8)
前記物体画像は、入力された入力物体画像、及び登録されている登録物体画像であり、
複数の学習用物体画像に基づいて学習を行うことにより求めた基底ベクトルの集合である再構成基底を予め記憶した記憶部と、
前記入力物体画像と前記再構成基底とを用いて前記入力物体画像を再構成した入力再構成物体画像を生成する再構成物体画像生成手段と、
前記入力物体画像と前記入力再構成物体画像との差分画像である第一差分画像から第一特徴量を抽出する
前記入力物体画像と前記入力再構成物体画像との差分画像である第一差分画像から第一特徴量を抽出すると共に、前記登録物体画像と前記入力再構成物体画像との差分画像である第二差分画像から第二特徴量を抽出する特徴量抽出手段と、
前記第一特徴量と前記第二特徴量との比較により前記入力物体画像と前記登録物体画像とを画像照合する照合手段と、
を含む特徴量抽出装置。 A feature amount extraction device that extracts a feature amount from an object image obtained by imaging an object,
The object image is an input object image that has been input and a registered object image that has been registered,
A storage unit that stores in advance a reconstructed basis that is a set of basis vectors obtained by performing learning based on a plurality of learning object images;
Reconstructed object image generation means for generating an input reconstructed object image obtained by reconstructing the input object image using the input object image and the reconstructed base;
A first difference image that is a difference image between the input object image that extracts a first feature amount from a first difference image that is a difference image between the input object image and the input reconstructed object image and the input reconstructed object image It extracts the first feature quantity from the feature quantity extraction means for extracting a second feature value from a second differential image wherein a differential image between the registered object image and the input reconstructed image,
Collating means for collating the input object image and the registered object image by comparing the first feature quantity and the second feature quantity;
A feature amount extraction device.
前記物体画像は、入力された入力物体画像、及び登録されている登録物体画像であり、
複数の学習用物体画像に基づいて学習を行うことにより求めた基底ベクトルの集合である再構成基底を予め記憶した記憶部と、
前記入力物体画像と前記再構成基底とを用いて前記入力物体画像を再構成した入力再構成物体画像、及び前記登録物体画像と前記再構成基底とを用いて前記登録物体画像を再構成した登録再構成物体画像を生成する再構成物体画像生成手段と、
前記入力物体画像と前記入力再構成物体画像との差分画像である第一差分画像及び前記入力再構成物体画像から第一特徴量を抽出すると共に、前記登録物体画像と前記登録再構成物体画像との差分画像である第二差分画像及び前記登録再構成物体画像から第二特徴量を抽出する特徴量抽出手段と、
前記第一特徴量と前記第二特徴量との比較により前記入力物体画像と前記登録物体画像とを画像照合する照合手段と、
を含む特徴量抽出装置。 A feature amount extraction device that extracts a feature amount from an object image obtained by imaging an object,
The object image is an input object image that has been input and a registered object image that has been registered,
A storage unit that stores in advance a reconstructed basis that is a set of basis vectors obtained by performing learning based on a plurality of learning object images;
Registration reconstituted the registration object image using reconstructed input reconstructed image, and said reconstituted basement and the registered object images the input object image using said reconstituted basement and the input object image Reconstructed object image generating means for generating a reconstructed object image;
The first feature image is extracted from the first difference image that is a difference image between the input object image and the input reconstructed object image and the input reconstructed object image, and the registered object image and the registered reconstructed object image A feature amount extraction means for extracting a second feature amount from the second difference image and the registered reconstructed object image ,
Collating means for collating the input object image and the registered object image by comparing the first feature quantity and the second feature quantity;
A feature amount extraction device.
前記物体画像は、入力された入力物体画像、及び登録されている登録物体画像であり、
複数の学習用物体画像に基づいて学習を行うことにより求めた基底ベクトルの集合である再構成基底を予め記憶した記憶部と、
前記登録物体画像と前記再構成基底とを用いて前記登録物体画像を再構成した登録再構成物体画像を生成する再構成物体画像生成手段と、
前記入力物体画像と前記登録再構成物体画像との差分画像である第一差分画像から第一特徴量を抽出すると共に、前記登録物体画像と前記登録再構成物体画像との差分画像である第二差分画像から第二特徴量を抽出する特徴量抽出手段と、
前記第一特徴量と前記第二特徴量との比較により前記入力物体画像と前記登録物体画像とを画像照合する照合手段と、
を含む特徴量抽出装置。 A feature amount extraction device that extracts a feature amount from an object image obtained by imaging an object,
The object image is an input object image that has been input and a registered object image that has been registered,
A storage unit that stores in advance a reconstructed basis that is a set of basis vectors obtained by performing learning based on a plurality of learning object images;
Reconstructed object image generating means for generating a registered reconstructed object image obtained by reconstructing the registered object image using the registered object image and the reconstructed base;
A first feature amount is extracted from a first difference image that is a difference image between the input object image and the registered reconstructed object image, and a second image that is a difference image between the registered object image and the registered reconstructed object image. Feature amount extraction means for extracting a second feature amount from the difference image ;
Collating means for collating the input object image and the registered object image by comparing the first feature quantity and the second feature quantity;
A feature amount extraction device.
前記再構成物体画像生成手段は、前記複数の入力物体画像の各々について前記入力再構成物体画像を生成し、
前記特徴量抽出手段は、各入力物体画像について該入力物体画像に対応する前記入力再構成物体画像との前記第一差分画像を求め、各入力物体画像について求めた前記第一差分画像に基づいて得られる統合差分画像から前記第一特徴量を抽出する請求項1又は請求項2に記載の特徴量抽出装置。 The input object images are a plurality of input object images taken at different times,
The reconstructed object image generating means generates the input reconstructed object image for each of the plurality of input object images,
The feature amount extraction unit obtains the first difference image between each input object image and the input reconstructed object image corresponding to the input object image, and based on the first difference image obtained for each input object image feature extraction apparatus according to claim 1 or claim 2 from the resulting integrated difference image to extract the first feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071544A JP6429823B2 (en) | 2016-03-31 | 2016-03-31 | Feature extraction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071544A JP6429823B2 (en) | 2016-03-31 | 2016-03-31 | Feature extraction device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018196589A Division JP2019008838A (en) | 2018-10-18 | 2018-10-18 | Feature amount extraction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017182606A JP2017182606A (en) | 2017-10-05 |
JP6429823B2 true JP6429823B2 (en) | 2018-11-28 |
Family
ID=60006057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016071544A Active JP6429823B2 (en) | 2016-03-31 | 2016-03-31 | Feature extraction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6429823B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11893718B2 (en) | 2019-07-12 | 2024-02-06 | Murata Machinery, Ltd. | Image recognition method and image recognition device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3307354B2 (en) * | 1999-01-29 | 2002-07-24 | 日本電気株式会社 | Personal identification method and apparatus and recording medium recording personal identification program |
JP2002032766A (en) * | 2000-07-18 | 2002-01-31 | Matsushita Electric Ind Co Ltd | Device and method for recognizing image |
JP2005242432A (en) * | 2004-02-24 | 2005-09-08 | Nec Soft Ltd | Face authentication system and processing method for the system and program therefor |
WO2009131209A1 (en) * | 2008-04-24 | 2009-10-29 | 日本電気株式会社 | Image matching device, image matching method, and image matching program |
EP2386998B1 (en) * | 2010-05-14 | 2018-07-11 | Honda Research Institute Europe GmbH | A Two-Stage Correlation Method for Correspondence Search |
-
2016
- 2016-03-31 JP JP2016071544A patent/JP6429823B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11893718B2 (en) | 2019-07-12 | 2024-02-06 | Murata Machinery, Ltd. | Image recognition method and image recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP2017182606A (en) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5010905B2 (en) | Face recognition device | |
JP4951995B2 (en) | Face matching device | |
US20170262472A1 (en) | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces | |
US9189686B2 (en) | Apparatus and method for iris image analysis | |
KR20190001066A (en) | Face verifying method and apparatus | |
KR101464446B1 (en) | Method for user vertification using face recognition and head pose estimation and apparatus thereof | |
Yan et al. | Multi-biometrics 2D and 3D ear recognition | |
JP6222948B2 (en) | Feature point extraction device | |
US10885171B2 (en) | Authentication verification using soft biometric traits | |
WO2007050630A2 (en) | Face recognition system and method | |
Peter et al. | Improving ATM security via face recognition | |
EP2717223A1 (en) | Information processing device, information processing method, and information processing program | |
Mohamed et al. | Automated face recogntion system: Multi-input databases | |
Boodoo et al. | Robust multi biometric recognition using face and ear images | |
JP6429823B2 (en) | Feature extraction device | |
JP2005293399A (en) | Personal authentication method and device | |
Shin et al. | Combination of warping robust elastic graph matching and kernel-based projection discriminant analysis for face recognition | |
JP6430987B2 (en) | Reference point position determination device | |
JP2019008838A (en) | Feature amount extraction device | |
JP2008015871A (en) | Authentication device and authenticating method | |
Shukla et al. | A Hybrid Model of Multimodal Biometrics System using Fingerprint and Face as Traits | |
Tobji et al. | A Synthetic Fusion Rule Based on FLDA and PCA for Iris Recognition Using 1D Log‐Gabor Filter | |
Nguyen et al. | User re-identification using clothing information for smartphones | |
KR20210050649A (en) | Face verifying method of mobile device | |
Fagbolu et al. | Secured banking operations with face-based automated teller machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6429823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R157 | Certificate of patent or utility model (correction) |
Free format text: JAPANESE INTERMEDIATE CODE: R157 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |