JP2007133560A - Near infrared face image preparation device, near infrared face image preparation method, and face image collation device - Google Patents

Near infrared face image preparation device, near infrared face image preparation method, and face image collation device Download PDF

Info

Publication number
JP2007133560A
JP2007133560A JP2005324761A JP2005324761A JP2007133560A JP 2007133560 A JP2007133560 A JP 2007133560A JP 2005324761 A JP2005324761 A JP 2005324761A JP 2005324761 A JP2005324761 A JP 2005324761A JP 2007133560 A JP2007133560 A JP 2007133560A
Authority
JP
Japan
Prior art keywords
face image
color
pixel
pixel value
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005324761A
Other languages
Japanese (ja)
Other versions
JP4606304B2 (en
Inventor
Osamu Tokumi
修 徳見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005324761A priority Critical patent/JP4606304B2/en
Publication of JP2007133560A publication Critical patent/JP2007133560A/en
Application granted granted Critical
Publication of JP4606304B2 publication Critical patent/JP4606304B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and method for performing the pseudo preparation of a near infrared face image to be photographed by using near infrared rays of light as illumination from the color image of the face of a person. <P>SOLUTION: This near infrared face image preparation device 1 is configured of a color face image acquisition means 101 for acquiring a color face image having a plurality of color half-tone information for every pixel; a pixel value extraction means 112 for extracting color half-tone information owned by the pixel value of the pixel of the acquired color face image for every pixel; a pixel value estimating means 113 for calculating an estimated pixel value in the wavelength of a near infrared region based on the correlation of the color half-tone information based on skin color reflection characteristics and the pixel value of the near infrared region and the extracted color half-tone information for every pixel; and an estimated image preparation means 115 for composing a near infrared face image from the pixel having the estimated pixel value estimated by the pixel value estimating means 113. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、擬似的に近赤外線の顔画像を作成する装置及び方法に関するものであり、より詳しくは、複数の色情報を有する顔画像に基づいて擬似的に近赤外線顔画像を作成する装置及び方法と、作成された近赤外線顔画像を用いて、顔画像の照合を行う顔画像照合装置に関する。   The present invention relates to an apparatus and method for creating a pseudo near-infrared face image, and more specifically, an apparatus for creating a pseudo near-infrared face image based on a face image having a plurality of color information and The present invention relates to a method and a face image matching device that performs face image matching using a created near-infrared face image.

近年、顔を撮影した画像情報を用いて個人認証を行う照合装置が提案されている。人の顔は、顔の輪郭、目、口など特徴的な部位の位置、目の形状などに個々人の特徴が表されるという知見が得られている。そこで、そのような照合装置では、撮影された顔画像から、目、口の位置、形状などを特徴量として抽出し、事前に登録された参照用画像(以下、登録顔画像という)の各特徴量との類似度を算出し、その類似度が所定の基準を満たすか否かで照合を行う。   In recent years, collation devices that perform personal authentication using image information obtained by photographing a face have been proposed. It has been found that human faces are characterized by individual features such as facial contours, positions of characteristic parts such as eyes and mouth, and eye shapes. Therefore, in such a collation device, each feature of a reference image (hereinafter referred to as a registered face image) registered in advance is extracted from the captured face image as a feature amount such as the position and shape of the eyes and mouth. The degree of similarity with the quantity is calculated, and collation is performed based on whether the degree of similarity satisfies a predetermined criterion.

また、照合に用いる顔画像としては、多くの場合、可視光(波長約400nm〜約700nm)又は近赤外光(波長約700nm〜約850nm)を照明光として撮影されたものが使用されている。   In many cases, a face image used for collation is taken using visible light (wavelength of about 400 nm to about 700 nm) or near infrared light (wavelength of about 700 nm to about 850 nm) as illumination light. .

照明光源に可視光のものを用いて撮影する場合、特殊な撮影機材が不要であり、また色情報も照合の特徴量として使用することができるというメリットがある。しかし、周囲の照明環境の影響により、取得される画像の明るさ及び色調が変動するおそれがある。そのような悪影響を避けるために、人の顔に当たる照明光の照度を高くすると、被撮影者に眩しさを感じさせるなど、不快感を生じさせるため、望ましくない。   When photographing using a visible light source as an illumination light source, there is an advantage that no special photographing equipment is required and color information can also be used as a feature amount for collation. However, the brightness and color tone of the acquired image may vary due to the influence of the surrounding lighting environment. In order to avoid such an adverse effect, increasing the illuminance of the illumination light that strikes the face of the person is undesirable because it causes the subject to feel uncomfortable, such as dazzling.

一方、照明光源に近赤外光のものを用いて撮影する場合、比較的高い照度となるように設定しても、被撮影者が眩しいと感じることは少ないため、安定した照明条件を確保し易く、それ故取得される画像の質も安定するため、高い照合精度が得易いというメリットがあり、可視光を照明光源として用いるものよりも広く使用されている。   On the other hand, when shooting with a near-infrared light source as the illumination light source, even if it is set to have a relatively high illuminance, the subject will rarely feel dazzling, ensuring stable lighting conditions. It is easy and therefore the quality of the acquired image is stable, and there is a merit that it is easy to obtain high collation accuracy, and it is used more widely than that using visible light as an illumination light source.

照明光が近赤外光の場合、色情報を得ることは困難であり、明るさに関する情報のみが含まれるため、撮影画像はモノクロ画像となる。これに対して、照合に使用する登録顔画像が可視光下で撮影されたカラー画像である場合、両者に含まれる情報及びコントラストの違いにより、高い照合精度を得ることができない。そのため、近赤外光を照明に用いて撮影された顔画像を入力(以下入力顔画像という)として用いる場合、登録顔画像も近赤外光を照明に用いて撮影された画像であることが望ましい。   When the illumination light is near-infrared light, it is difficult to obtain color information, and since only the information related to brightness is included, the captured image is a monochrome image. On the other hand, when the registered face image used for collation is a color image taken under visible light, high collation accuracy cannot be obtained due to the difference in information and contrast contained in both. Therefore, when using a face image captured using near-infrared light for illumination as input (hereinafter referred to as an input face image), the registered face image may also be an image captured using near-infrared light for illumination. desirable.

しかし、近赤外光を照明光として撮影するためには、近赤外照明装置及び近赤外領域に感度を有するカメラなどの撮影機材が必要となるが、一般的に入手が容易なものではない。したがって、登録顔画像を用意するために、被撮影者が実際に照合装置に赴いて撮影してもらうなどの特別な作業が必要となる。登録者数が数百人、数千人などの規模となると、この作業に要する工数及び時間は膨大なものとなる。そこで、一般的に入手が容易な、可視光による撮影機材を用いて撮影されたカラー画像を利用して、上記の作業に要する工数を減らすことが望ましい。またカラー画像であれば、社員証などの身分証明書用に別途撮影された顔画像など、既存の画像を利用可能な場合もある。   However, in order to photograph near infrared light as illumination light, a photographing device such as a near infrared illumination device and a camera having sensitivity in the near infrared region is required. Absent. Therefore, in order to prepare a registered face image, a special work is required such that the person to be photographed actually visits the collation device and takes a picture. If the number of registrants reaches several hundreds or thousands, the man-hours and time required for this work become enormous. Therefore, it is desirable to reduce the man-hours required for the above-described work by using a color image that is generally obtained with a photographing device using visible light that is easily available. In the case of a color image, an existing image such as a face image taken separately for an identification card such as an employee ID card may be used.

一方、登録顔画像がカラー画像である場合に、白黒画像に変換して顔の照合を行う方法及び装置が提案されている(特許文献1参照)。特許文献1に記載された方法及び装置では、カラー画像をモノクロ化することで、化粧や照明の変化に応じて顔の色情報に生じる変化の悪影響を避け、照合の認識精度を高めるようにしている。また同様に、半導体チップの実装において、ICの位置認識を正確に行うために、カラー画像をモノクロ化した画像を用いて、認識対象を認識する認識装置が知られている(特許文献2参照)。   On the other hand, when a registered face image is a color image, a method and apparatus for converting a black and white image and performing face matching has been proposed (see Patent Document 1). In the method and apparatus described in Patent Document 1, the color image is converted to monochrome so as to avoid the adverse effect of changes in face color information caused by changes in makeup and lighting, and to improve the recognition accuracy of collation. Yes. Similarly, in a semiconductor chip mounting, a recognition device is known that recognizes a recognition target using a monochrome image of a color image in order to accurately perform IC position recognition (see Patent Document 2). .

しかし、単にカラー画像をモノクロ化した画像は、近赤外光で照明して撮影した顔画像とコントラストが異なる。そのため、登録顔画像に単なるモノクロ画像を用い、入力顔画像に近赤外画像を用いて照合を行うと、必ずしも良好な認識結果を得ることができるわけではなかった。   However, an image obtained by simply converting a color image into a monochrome image has a contrast different from that of a face image taken by illuminating with near infrared light. Therefore, if a simple monochrome image is used for the registered face image and a near-infrared image is used for the input face image, it is not always possible to obtain a good recognition result.

そこで、入手が容易なカラー顔画像から、高い認識精度で近赤外画像と照合可能な画像を得る方法、及びそのような方法で得られた画像を用いて顔画像に基づく照合装置の開発が望まれている。   Therefore, a method for obtaining an image that can be collated with a near-infrared image with high recognition accuracy from easily available color face images, and a collation device based on the face image using the image obtained by such a method have been developed. It is desired.

特開2000−331167号公報JP 2000-331167 A 特開2002−26075号公報JP 2002-26075 A

上記の問題点に鑑み、本発明の目的は、人の顔のカラー画像から、近赤外光を照明として撮影される近赤外線顔画像を擬似的に作成する装置及び方法を提供することにある。   In view of the above-described problems, an object of the present invention is to provide an apparatus and a method for artificially creating a near-infrared face image photographed using near-infrared light as illumination from a color image of a human face. .

また、本発明の別の目的は、近赤外線顔画像を用いて、高精度で認証可能な顔画像照合装置を提供することにある。   Another object of the present invention is to provide a face image collation apparatus that can authenticate with high accuracy using a near-infrared face image.

上記の目的を達成するために、本発明に係る、複数の色階調情報を画素ごとに有するカラーの顔画像から近赤外線の顔画像を作成する近赤外線顔画像作成装置は、カラーの顔画像を取得するカラー顔画像取得手段と、取得したカラー顔画像の画素の画素値が有する色階調情報を画素ごとに抽出する画素値抽出手段と、画素ごとに、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、画素値抽出手段において抽出した色階調情報に基づき、近赤外線領域の波長における推定画素値を算出する画素値推定手段と、画素値推定手段にて推定された推定画素値を有する画素から近赤外線顔画像を構成する推定画像作成手段を具備することを特徴とする。   In order to achieve the above object, a near-infrared face image creating apparatus for creating a near-infrared face image from a color face image having a plurality of color gradation information for each pixel according to the present invention is provided. Color face image acquisition means for acquiring color gradation information possessed by pixel values of pixels of the acquired color face image for each pixel, and color gradation based on skin color reflection characteristics for each pixel A pixel value estimating unit for calculating an estimated pixel value at a wavelength in the near infrared region based on the correlation between the information and the pixel value in the near infrared region and the color gradation information extracted by the pixel value extracting unit; and a pixel value estimating unit Characterized in that it comprises estimated image creating means for constructing a near-infrared face image from pixels having estimated pixel values estimated in (1).

上記の装置によると、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、各画素の色階調情報を用いて近赤外線領域の波長における推定画素値を算出することにより、人の顔を近赤外で照明したと想定した場合の画素値を容易に推定することができる。   According to the above apparatus, the estimated pixel value at the wavelength in the near infrared region is calculated using the correlation between the color gradation information based on the skin color reflection characteristic and the pixel value in the near infrared region, and the color gradation information of each pixel. Thus, it is possible to easily estimate the pixel value when it is assumed that the human face is illuminated in the near infrared.

なお、画素値抽出手段は、色階調情報のうち少なくとも第一波長及びその第一波長より長い波長の第二波長における色階調情報を抽出し、上記の推定部における相関関係は、近赤外線領域の波長における画素値が第一波長及び第二波長の波長変化における色階調情報からの直線近似となる関係であることが好ましい。
または、画素値抽出手段は、異なる3波長の色階調情報を抽出し、推定部における相関関係は、3波長の色階調情報から最小二乗法により求められた関係であることが好ましい。
所定の波長の近赤外光で照明して撮影した場合の顔の肌部分に相当する画素値を、より少ない誤差で推定できるためである。
The pixel value extracting means extracts color gradation information at least at the first wavelength and the second wavelength longer than the first wavelength from the color gradation information, and the correlation in the estimation unit is near infrared It is preferable that the pixel value at the wavelength of the region has a relationship that is a linear approximation from the color gradation information in the wavelength change of the first wavelength and the second wavelength.
Alternatively, it is preferable that the pixel value extraction unit extracts color gradation information of three different wavelengths, and the correlation in the estimation unit is a relationship obtained from the color gradation information of three wavelengths by the least square method.
This is because the pixel value corresponding to the skin portion of the face when illuminated and photographed with near-infrared light of a predetermined wavelength can be estimated with fewer errors.

さらに、カラー顔画像取得手段にて取得したカラー顔画像から所定領域を特定する領域特定手段を有し、画素値抽出手段は、対象領域特定手段にて特定された所定領域の画素の画素値を抽出することが好ましい。必要な領域だけに限定して画素値の推定を行うことにより、近赤外線顔画像の作成に要する計算量及び計算時間を減らすことができるためである。
なお、上記の所定領域は、画像中の顔が写っている顔領域のみ、若しくは顔領域の一部だけでもよい。
Furthermore, it has an area specifying means for specifying a predetermined area from the color face image acquired by the color face image acquiring means, and the pixel value extracting means determines the pixel value of the pixel in the predetermined area specified by the target area specifying means. It is preferable to extract. This is because the calculation amount and the calculation time required for creating the near-infrared face image can be reduced by estimating the pixel value only in the necessary region.
The predetermined area may be only a face area where a face in the image is shown or only a part of the face area.

また、本発明に係る顔画像照合装置は、近赤外光照明にて照明して被照合者の近赤外線顔画像を取得する撮影部と、予め取得した被照合者のカラー顔画像を記憶している登録顔画像記憶部と、そのカラー顔画像から擬似近赤外線顔画像を推定する近赤外線顔画像推定部と、撮影部において取得した近赤外線顔画像と擬似近赤外線顔画像とを照合する照合部を具備する。そして、顔画像照合装置の近赤外線顔画像推定部が、登録顔画像記憶部に記憶されているカラー顔画像の画素の画素値が有する色階調情報を画素ごとに抽出する画素値抽出手段と、画素ごとに、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、画素値抽出手段において抽出した色階調情報に基づき、近赤外線領域の波長における推定画素値を算出する推定手段と、画像推定部において推定された推定画素値を有する画素から擬似近赤外線顔画像を構成する推定画像作成手段を有することを特徴とする。   In addition, the face image matching device according to the present invention stores a photographing unit that illuminates with near-infrared light illumination and acquires a near-infrared face image of the person to be verified, and a color face image of the person to be verified that has been acquired in advance. A registered face image storage unit, a near-infrared face image estimation unit that estimates a pseudo near-infrared face image from the color face image, and a collation that collates the near-infrared face image acquired by the photographing unit and the pseudo-near-infrared face image Part. And a near-infrared face image estimation unit of the face image collating device, for each pixel, extracting the color gradation information of the pixel value of the pixel of the color face image stored in the registered face image storage unit; For each pixel, the estimated pixel value at the wavelength in the near infrared region based on the correlation between the color gradation information based on the flesh color reflection characteristic and the pixel value in the near infrared region and the color gradation information extracted by the pixel value extracting means And an estimated image creating means for constructing a pseudo near-infrared face image from pixels having estimated pixel values estimated by the image estimation unit.

被照合者の照合に用いる画像をカラー顔画像とすることで、容易に作成すること、又は他の用途で作成されたカラー顔画像を流用することが可能となり、照合用の画像データの準備に要する工数を大幅に減少させることができる。さらに、照合自体は、ともに同じ照明波長で撮影されたものと想定して特徴量を抽出できるため、高精度で照合を行うことができる。   By making the color face image the image used for verification of the person to be verified, it is possible to easily create it, or it is possible to divert the color face image created for other uses, and prepare image data for verification The number of man-hours required can be greatly reduced. Further, since the matching itself can be extracted on the assumption that both images are taken at the same illumination wavelength, the matching can be performed with high accuracy.

また、本発明に係るカラー顔画像から近赤外線の顔画像を作成する方法は、カラー顔画像の画素の画素値が有する色階調情報を画素ごとに抽出する画素値抽出工程と、画素ごとに、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、画素値抽出工程において抽出した色階調情報に基づき、近赤外線領域の波長における推定画素値を算出する推定工程と、推定された推定画素値を有する画素から近赤外線顔画像を構成する推定画像構成工程を有することを特徴とする。   Further, the method for creating a near-infrared face image from a color face image according to the present invention includes a pixel value extraction step for extracting color gradation information of pixel values of pixels of the color face image for each pixel, and for each pixel. Estimation that calculates an estimated pixel value in the wavelength of the near infrared region based on the correlation between the color gradation information based on the skin color reflection characteristic and the pixel value of the near infrared region, and the color gradation information extracted in the pixel value extraction step And an estimated image construction step of constructing a near-infrared face image from pixels having estimated pixel values.

上記の方法によると、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、各画素の色階調情報を用いて近赤外線領域の波長における推定画素値を算出することにより、人の顔を近赤外で照明したと想定した場合の画素値を容易に推定することができる。   According to the above method, the estimated pixel value at the wavelength in the near infrared region is calculated using the correlation between the color gradation information based on the skin color reflection characteristic and the pixel value in the near infrared region, and the color gradation information of each pixel. Thus, it is possible to easily estimate the pixel value when it is assumed that the human face is illuminated in the near infrared.

本発明によれば、人の顔のカラー画像から、近赤外光を照明として撮影される近赤外画像を擬似的に作成する装置及び方法を提供することが可能となった。   ADVANTAGE OF THE INVENTION According to this invention, it became possible to provide the apparatus and method which produce pseudo | simulated the near-infrared image image | photographed using near-infrared light as illumination from the color image of a person's face.

また、人の顔の近赤外画像を用いて、高精度で認証可能な顔画像照合装置を提供することが可能となった。   In addition, it has become possible to provide a face image matching device that can be authenticated with high accuracy using a near-infrared image of a human face.

以下、本発明を近赤外線顔画像作成装置に適用した第1の実施の形態を図に基づき説明する。
図1は、本発明の第1の実施形態に係る近赤外線顔画像作成装置1の機能ブロック図である。近赤外線顔画像作成装置1は、カラー顔画像を記憶しているメディアなどからカラー顔画像を取得するカラー顔画像取得部101と、後述する近赤外線顔画像に変換する対象領域を抽出するための背景テンプレート画像を記憶している背景テンプレート記憶部102と、カラー顔画像から近赤外線顔画像を推定する画像推定部103と、推定された近赤外線顔画像を各種メディアや顔画像照合装置など、外部の機器へ出力する推定画像出力部104から構成されている。
A first embodiment in which the present invention is applied to a near-infrared face image creation device will be described below with reference to the drawings.
FIG. 1 is a functional block diagram of a near-infrared face image creation device 1 according to the first embodiment of the present invention. The near-infrared face image creation device 1 extracts a color face image acquisition unit 101 that acquires a color face image from a medium or the like that stores the color face image, and a target area to be converted into a near-infrared face image described later. A background template storage unit 102 that stores a background template image, an image estimation unit 103 that estimates a near-infrared face image from a color face image, an estimated near-infrared face image such as various media and a face image matching device, etc. It is comprised from the estimated image output part 104 output to this apparatus.

ここで、カラー顔画像取得部101から取得するカラー顔画像について説明する。カラー顔画像とは、人間の顔を被写体として含むデジタル画像であって、画素ごとにカラー表現が可能な情報を持つ画像をいう。カラー画像の表色系には、RGBカラー表色系、YUVカラー表色系、YIQカラー表色系、CMYカラー表色系などがあり、相互に表色系を変換することができる。かかるカラー表色系の識別情報は、画像ファイルのヘッダーに記憶されており、この識別情報をコンピュータにて読み取り、参照することで、ディスプレイやプリンターにおいてカラー画像を適切な色階調で表現することができる。ここでいうカラー顔画像は、各画素ごとに、RGB表色系でいうR(赤)成分、G(緑)成分、B(青)成分などの成分ごとに色階調の情報を含む画素値を持っている。   Here, the color face image acquired from the color face image acquisition unit 101 will be described. A color face image is a digital image that includes a human face as a subject and has information that can be expressed in color for each pixel. The color image color system includes an RGB color color system, a YUV color color system, a YIQ color color system, a CMY color color system, and the like, and the color system can be mutually converted. Such color color system identification information is stored in the header of an image file. By reading and referring to this identification information by a computer, a color image can be expressed with an appropriate color gradation on a display or printer. Can do. The color face image here is a pixel value including color gradation information for each component such as R (red), G (green), and B (blue) components in the RGB color system for each pixel. have.

カラー顔画像取得部101は、ICカード、USBメモリ、メモリカード、コンピュータのハードディスクなどに記憶されているカラー顔画像を、直接接続又は通信回線経由にて取得するカードリーダ、通信装置などで構成される。本実施の形態では、ICカードから顔画像を読み出すカードリーダである。   The color face image acquisition unit 101 is configured by a card reader, a communication device, or the like that acquires a color face image stored in an IC card, a USB memory, a memory card, a hard disk of a computer, etc. directly or via a communication line. The In this embodiment, the card reader reads a face image from an IC card.

背景テンプレート記憶部102は、フラッシュメモリ、ハードディスクなどの不揮発性メモリで構成され、顔画像中に占める、顔の領域など、近赤外線顔画像に変換する対象領域の特定に使用する背景テンプレートを記憶する。背景テンプレートは、顔のサイズ、顔画像中の顔の位置などにあわせて複数用意される。   The background template storage unit 102 is configured by a non-volatile memory such as a flash memory or a hard disk, and stores a background template used for specifying a target area to be converted into a near-infrared face image, such as a face area occupied in the face image. . A plurality of background templates are prepared according to the size of the face, the position of the face in the face image, and the like.

画像推定部103は、CPU、ROM、RAMなどで構成され、カラー顔画像取得部101から取得したカラー顔画像から、近赤外線顔画像を推定・作成する処理を行う。画像推定部103は、取得された顔画像の表色系がRGB表色系以外の場合に、RGB表色系に変換する表色系変換手段110と、近赤外線の画素値を生成したい領域を特定するための対象領域特定手段111と、特定された対象領域の各画素からRGB表色系の色階調情報であるR・G・Bの各色の画素値をそれぞれ抽出するRGB画素値抽出手段112と、RGB画素値抽出手段112が抽出した色階調情報(各色の画素値)から後述する数式(1)にて近赤外線領域の画素値を算出し、当該画素値を推定画素値とする画素値推定手段113と、推定画素値を用いて近赤外線顔画像を作成する推定画像作成手段114と、対象領域の全ての画素に対して推定画素値が算出されたか否かを判断する終了判定手段115の各機能を有している。   The image estimation unit 103 includes a CPU, a ROM, a RAM, and the like, and performs processing for estimating and creating a near-infrared face image from the color face image acquired from the color face image acquisition unit 101. The image estimation unit 103 includes a color system conversion unit 110 that converts the acquired face image into a RGB color system when the color system of the acquired face image is other than the RGB color system, and an area for generating a near-infrared pixel value. Target area specifying means 111 for specifying, and RGB pixel value extracting means for extracting pixel values of R, G, and B colors, which are color gradation information of the RGB color system, from each pixel of the specified target area 112 and the color gradation information (pixel value of each color) extracted by the RGB pixel value extraction unit 112, the pixel value in the near-infrared region is calculated by Equation (1) described later, and the pixel value is used as the estimated pixel value. Pixel value estimation means 113, estimated image creation means 114 for creating a near-infrared face image using the estimated pixel values, and end determination for determining whether estimated pixel values have been calculated for all pixels in the target region It has each function of means 115

次に、図2を参照して、画像推定部103で行われる処理を詳細に説明する。
近赤外線顔画像作成装置1は、特段図示していないが、電源をON状態とし動作可能な状態にあるとする。その後、図示しない操作スイッチにて、操作者がカラー顔画像の取り込み指示をすることにより、図2のフローがスタートする。本実施の形態では、一枚のカラー顔画像に対する処理として説明するが、複数枚のカラー顔画像の場合であっても、同様な処理を繰り返すことになる。
Next, processing performed by the image estimation unit 103 will be described in detail with reference to FIG.
Although the near-infrared face image creation device 1 is not particularly illustrated, it is assumed that the near-infrared face image creation device 1 is in an operable state with the power turned on. Thereafter, when the operator gives an instruction to capture a color face image using an operation switch (not shown), the flow of FIG. 2 starts. In the present embodiment, the processing is described for one color face image, but the same processing is repeated even in the case of a plurality of color face images.

まず、カラー顔画像取得部101において、カラー顔画像ファイルを取得する(ステップS101)。そして、カラー顔画像ファイルのヘッダにある表色系の識別情報を読み出し、表色系がRGB表色系か否か判定する(ステップS102)。   First, the color face image acquisition unit 101 acquires a color face image file (step S101). Then, the color system identification information in the header of the color face image file is read out, and it is determined whether or not the color system is the RGB color system (step S102).

表色系がRGB表色系であれば、対象領域特定手段111が、近赤外線顔画像を作成する領域を特定する(ステップS104)。すなわち、取得したカラー顔画像と予め背景テンプレート記憶部102に記憶している背景テンプレートとを比較し、顔部分の領域を抽出し、当該顔画像領域を特定する。なお、領域特定は、カラー顔画像の全体を近赤外線顔画像にしたい場合は、省略することができる。また、操作者が画面を見ながら顔の領域を指定することも可能である。   If the color system is the RGB color system, the target area specifying unit 111 specifies an area for creating a near-infrared face image (step S104). That is, the acquired color face image is compared with the background template stored in the background template storage unit 102 in advance, the face portion area is extracted, and the face image area is specified. Note that the area specification can be omitted if the entire color face image is to be a near-infrared face image. It is also possible for the operator to specify a face area while looking at the screen.

次に、特定した領域を構成する画素を順次特定する(ステップS105)。カラー顔画像中の特定した領域を構成する各画素は、RGBカラー表色系を用いて表現される場合、R(赤)、G(緑)、B(青)の各色成分を、それぞれ8bit(画素値0−255の256階調)で表現された色階調の情報を含む画素値を有している。R、G、Bの各成分は、例えばそれぞれ波長660nm、550nm、440nmを中心としたカラーフィルタで単色化した光を、CCDセンサ、C−MOSセンサなどの光電変換素子で受光した受光量を8bitでデジタル化したものである。   Next, the pixels constituting the specified region are sequentially specified (step S105). When each pixel constituting the specified area in the color face image is expressed using the RGB color system, each color component of R (red), G (green), and B (blue) is set to 8 bits ( The pixel value includes information on color gradation expressed by 256 gradations of pixel values 0 to 255). For each component of R, G, and B, for example, the amount of light received by a photoelectric conversion element such as a CCD sensor or a C-MOS sensor, which is monochromatic with a color filter centered at wavelengths of 660 nm, 550 nm, and 440 nm, is 8 bits. It is digitalized.

かかる対象画素の画素値であるIr、Ig、IbをRGB画素値抽出手段112において抽出する(ステップS106)。 The pixel values I r , I g , and I b of the target pixel are extracted by the RGB pixel value extraction unit 112 (step S106).

次に、画素値推定手段113において、ステップS106で抽出した画素値Ir、Ig、Ibを数式(1)に代入し、推定画素値Iirを算出する(ステップS107)。 Next, the pixel value estimation unit 113 substitutes the pixel values I r , I g , and I b extracted in step S106 into Equation (1) to calculate the estimated pixel value I ir (step S107).

ここで、数式(1)について説明する。まず、数式(1)の説明に先立って、人の肌の反射特性について、図3を参照して説明する。   Here, Formula (1) will be described. First, prior to the description of Equation (1), the reflection characteristics of human skin will be described with reference to FIG.

人の肌の反射特性のグラフを図3に示す。図3において横軸は波長を表し、縦軸は、各波長に対する反射率を表す。実線で示したグラフ51は、人の肌の反射特性を表す。グラフを参照して明らかなように、人の顔の大半を占める肌の反射特性は、おおよそB(青)、G(緑)、R(赤)の順に反射率が高くなり、近赤外領域(波長約700nm〜約850nm)では、Rよりもさらに反射率が高いことが分かる。またさらに、波長約400nm〜約750nmの範囲では、肌の反射率は、波長が長くなるにつれて比例的に増加していることが見てとれる。   A graph of the reflection characteristics of human skin is shown in FIG. In FIG. 3, the horizontal axis represents the wavelength, and the vertical axis represents the reflectance for each wavelength. A graph 51 indicated by a solid line represents the reflection characteristics of human skin. As is apparent from the graph, the reflectance of the skin occupying most of the human face increases in the order of B (blue), G (green), and R (red) in the near infrared region. It can be seen that the reflectance is higher than R at (wavelength of about 700 nm to about 850 nm). Furthermore, it can be seen that in the range of wavelengths from about 400 nm to about 750 nm, the reflectance of the skin increases proportionally as the wavelength increases.

そのため、近赤外光の反射率を、図3の点線で示すグラフ52のように、例えば波長440nm、550nm、660nmの反射率から、最小二乗法などを用いて求めた直線による近似で求めることができる。すなわち、肌色反射特性に基づく色階調たるB、G、Rの反射率と近赤外領域の反射率との相関関係がグラフ52に表される。   Therefore, the reflectance of near-infrared light is obtained by approximation with a straight line obtained by using, for example, the least square method from the reflectances of wavelengths of 440 nm, 550 nm, and 660 nm, as in the graph 52 indicated by the dotted line in FIG. Can do. That is, the correlation between the reflectances of B, G, and R, which are color gradations based on the skin color reflection characteristics, and the reflectance in the near infrared region is shown in the graph 52.

このことから、複数の波長の可視光を含む照明光、好ましくは、互いに数10nm程度離れた3波長の可視光を含む照明光で顔を撮影した画像に基づき、照明光の各波長成分の強度及び各照明波長に対応する肌からの反射光強度から、近赤外光(例えば、波長760nm)で照明した場合の肌の反射による光強度を近似的に推定することができ、擬似的に近赤外線顔画像を作成することができる。   From this, the intensity of each wavelength component of the illumination light based on an image obtained by photographing a face with illumination light containing visible light of a plurality of wavelengths, preferably illumination light containing three wavelengths of visible light separated from each other by several tens of nanometers In addition, from the reflected light intensity from the skin corresponding to each illumination wavelength, it is possible to approximately estimate the light intensity due to skin reflection when illuminated with near infrared light (for example, wavelength 760 nm). An infrared face image can be created.

Rの波長をwr、Gの波長をwg、Bの波長をwbとし、R、G、Bの画素値Ir、Ig、Ibとすると、近赤外領域の推定画素値Iirとの関係は以下の式となる。

Figure 2007133560
なお、数式(1)において、R、G、Bの各波長Wr、Wg、Wbは、例えば440nm、550nm、660nmの値を用いる。また、実際のカラー画像の作成時においては、必ずしもR、G、Bの各波長は上記の値ではないが、一般的な環境で撮影されるデジタル画像では、R、G、Bの各波長の値を上記の値と仮定しても、顔画像の照合に使用するという目的下では、十分な照合精度を得ることができる擬似近赤外線顔画像を作成できる。 Assume that the wavelength of R is w r , the wavelength of G is w g , the wavelength of B is w b, and the pixel values I r , I g , and I b of R, G, and B are the estimated pixel values I in the near infrared region. The relationship with ir is as follows.
Figure 2007133560
In Equation (1), R, G, and B wavelengths W r , W g , and W b are values of 440 nm, 550 nm, and 660 nm, for example. Also, when an actual color image is created, the R, G, and B wavelengths are not necessarily the above values. However, in a digital image taken in a general environment, the R, G, and B wavelengths are not included. Even if the value is assumed to be the above value, a pseudo near-infrared face image capable of obtaining sufficient matching accuracy can be created for the purpose of being used for face image matching.

ステップS107では、数式(1)に波長wirの値を入力し、推定画素値Iirを算出する。
ただし、数式(1)で推定画素値Iirを精度良く推定できる波長は、約730nm〜760nmである。近赤外の他の波長域について推定したい場合は、図1に示すように、R、G、Bの各波長の反射率と、近赤外の波長の反射率の関係は固定されていることから、その波長域に合わせて、上式を修正すればよい。
In step S107, the value of the wavelength w ir is input to Equation (1), and the estimated pixel value I ir is calculated.
However, the wavelength with which the estimated pixel value I ir can be estimated with high accuracy using Equation (1) is approximately 730 nm to 760 nm. When estimating other wavelength regions in the near infrared, as shown in FIG. 1, the relationship between the reflectance of each wavelength of R, G, and B and the reflectance of the near infrared wavelength is fixed. Therefore, the above equation may be corrected according to the wavelength range.

なお、上記のような近似は、人の肌については成り立つが、目、口などの他の部位については必ずしも成立するわけではない。しかし、後述するように、顔画像の照合処理においては、人の肌については、コントラストが重要であるのに対し、目、口などは、顔中に占める相対的な位置関係、若しくはその形状などを正確に得ることが重要であり、コントラスト自体は重要ではない。また、毛髪や髭については、可視光に対しても、赤外光に対しても反射率が低いため、肌の部分と比較してかなり低い画素値となり、肌の部分と容易に区別を付けることができるため、上記の近似では正確に近赤外光で照明した場合の光強度を得られなくとも、実質上問題は無い。
そのため、上記の近似により擬似的に作成した近赤外線顔画像は、顔の照合において十分使用可能な情報を備えている。
The approximation as described above holds for human skin, but does not always hold for other parts such as eyes and mouth. However, as will be described later, in face image matching processing, contrast is important for human skin, while the eyes, mouth, and the like occupy the relative positional relationship in the face or its shape. Is important, and the contrast itself is not important. For hair and wrinkles, the reflectance is low for both visible light and infrared light, so the pixel value is considerably lower than that of the skin part, so that it can be easily distinguished from the skin part. Therefore, in the above approximation, even if the light intensity when illuminated with near infrared light cannot be obtained accurately, there is substantially no problem.
For this reason, the near-infrared face image created in a pseudo manner by the above approximation includes information that can be sufficiently used in face matching.

なお、推定画素値Iirを算出する数式は、上記の説明による方法に限られるものではない。例えば、上記では、R、G、Bの各反射率を使用したが、このうちの二つを用いて、線形補間により近赤外の反射率を推定することもできる。その場合、例えば、波長440nm(Bに相当)及び波長660nm(Rに相当)の反射率を使用するとすれば、図3に示す人の肌の反射率特性のグラフ51上の波長440nmの反射率と、波長660nmの反射率を結ぶ直線を、推定画素値Iirを算出する数式としてもよい。また近赤外の反射率の推定は、線形補間に限られるものではなく、2次曲線近似により行ってもよい。さらに、RGBに相当する波長も、上記の例に限られない。 The mathematical formula for calculating the estimated pixel value Iir is not limited to the method described above. For example, in the above description, the reflectances of R, G, and B are used, but the reflectance of near infrared can be estimated by linear interpolation using two of them. In this case, for example, if reflectances with a wavelength of 440 nm (corresponding to B) and a wavelength of 660 nm (corresponding to R) are used, the reflectance with a wavelength of 440 nm on the graph 51 of reflectance characteristics of human skin shown in FIG. And a straight line connecting the reflectance of the wavelength of 660 nm may be a mathematical formula for calculating the estimated pixel value I ir . The estimation of the near-infrared reflectance is not limited to linear interpolation, and may be performed by quadratic curve approximation. Furthermore, the wavelength corresponding to RGB is not limited to the above example.

推定画素値Iirが算出されると、推定画像作成手段114がステップS107で算出された推定画素値Iirを予め記憶している推定画像フレームの対応する画素の画素値として記憶し、推定画像を構成する(ステップS108)。そして、全対象画素の画素値が記憶されることにより、近赤外線顔画像の推定画像の構成が完了することになる。 When the estimated pixel value I ir is calculated, the estimated image creating unit 114 stores the estimated pixel value I ir calculated in step S107 as the pixel value of the corresponding pixel of the estimated image frame stored in advance, and the estimated image (Step S108). Then, by storing the pixel values of all the target pixels, the configuration of the estimated image of the near-infrared face image is completed.

次に、全対象画素について、ステップS105からステップS108の処理がされたか否かを終了判定手段115において判断する(ステップS109)。終了判定手段115は、未処理の対象画素があれば、前述のステップS105からステップS108の処理を繰り返し実行する。他方、終了判定手段115が全対象画素について処理が終了したと判定すれば、ステップS110へ進む。   Next, the end determination means 115 determines whether or not the processing from step S105 to step S108 has been performed for all target pixels (step S109). If there is an unprocessed target pixel, the end determination unit 115 repeatedly executes the processing from step S105 to step S108 described above. On the other hand, if the end determination unit 115 determines that the processing has been completed for all target pixels, the process proceeds to step S110.

全対象画素について処理が終了すると、推定画像出力部104から、推定画像作成手段115において作成された近赤外線顔画像の推定画像を出力する。出力先は、推定画像を使用するシステムであればどのようなものでも良く、例えば、後述する第2の実施形態のように、本人認証に近赤外線顔画像を使用する装置において好適に利用できる。   When the processing is completed for all target pixels, the estimated image output unit 104 outputs an estimated image of the near-infrared face image created by the estimated image creating unit 115. The output destination may be any system as long as it uses an estimated image. For example, it can be suitably used in an apparatus that uses a near-infrared face image for personal authentication as in a second embodiment described later.

なお、ステップS104において領域特定されている場合は、取得したカラー顔画像のうち指定された領域のみの近赤外線顔画像の推定画像が作成され、特段に領域を指定しない場合は、取得したカラー顔画像の全体に対して近赤外線顔画像の推定画像が作成される。   If the area is specified in step S104, an estimated image of the near-infrared face image of only the specified area is created among the acquired color face images. If the area is not specified, the acquired color face is created. An estimated image of a near-infrared face image is created for the entire image.

次に、ステップS102において、取得されたカラー顔画像ファイルのヘッダにある表色系の識別情報からRGB表色系でないと判断された場合、カラー顔画像は、表色系変換手段110において、RGB表色系に変換される(ステップS103)。例えば、取得された顔画像がYUV表色系であった場合は、Y(輝度成分)、U(輝度成分と青色成分の差)、V(輝度成分と赤色成分の差)の画素値をそれぞれ小文字でy、u、vと表記すると、以下の式でR、G、Bの画素値Ir、Ig、Ibを算出し、RGB表色系に変換する。 Next, when it is determined in step S102 that the color face image is not the RGB color system from the color system identification information in the header of the acquired color face image file, the color face image is converted to RGB by the color system conversion means 110. The color system is converted (step S103). For example, when the acquired face image is a YUV color system, pixel values of Y (luminance component), U (difference between luminance component and blue component), and V (difference between luminance component and red component) are respectively set. When y, u, and v are written in lowercase letters, R, G, and B pixel values I r , I g , and I b are calculated by the following formulas and converted to the RGB color system.

r=1.000y +1.402v
g=1.000y+0.344u−0.714v
b=1.000y+1.772u
RGB表色系への変換後、ステップS104へ進み、前述したステップS104〜S110の処理を実行する。
I r = 1.000y + 1.402v
I g = 1.000y + 0.344u−0.714v
I b = 1.000y + 1.772u
After conversion to the RGB color system, the process proceeds to step S104, and the processes of steps S104 to S110 described above are executed.

なお、ステップS103における表色系の変換処理は、本実施の形態ではRGB表色系への変換として説明したが、基本とする表色系が異なれば、それに応じて適宜変更することになる。   The color system conversion processing in step S103 has been described as conversion to the RGB color system in the present embodiment, but if the basic color system is different, it is appropriately changed accordingly.

次に、第2の実施形態として、本発明の近赤外画像作成装置を用いた、顔画像の照合装置について説明する。
本発明の照合装置の一例に係る顔画像照合装置10は、事前に取得されたカラー顔画像から近赤外線顔画像の推定画像を作成し、近赤外光を照明光として被照合者を撮影した近赤外線顔画像との照合を行って、被照合者がカラー顔画像に写っている人物と同一人物か否かの判定を行う装置である。
図4に、本発明の照合装置の一例に係る顔画像照合装置10を使用した顔画像照合システム2の概略構成図を示す。
Next, as a second embodiment, a face image matching device using the near-infrared image creating device of the present invention will be described.
The face image matching device 10 according to an example of the matching device of the present invention creates an estimated image of a near-infrared face image from a color face image acquired in advance, and images the person to be verified using near-infrared light as illumination light. It is a device that performs collation with a near-infrared face image and determines whether or not the person to be collated is the same person as the person shown in the color face image.
FIG. 4 shows a schematic configuration diagram of a face image matching system 2 using the face image matching device 10 according to an example of the matching device of the present invention.

顔画像照合システム2は、顔画像照合装置10と、予め登録された人物のカラー顔画像を登録顔画像42として記憶する登録管理装置20などで構成され、顔画像照合装置10と登録管理装置20は通信ネットワーク30で接続されている。そして、被照合者が顔画像照合装置10において、自分のID番号などを入力すると、顔画像照合装置10は、そのID番号に相当する登録顔画像42を登録管理装置20から取得し、一方、被照合者の顔を近赤外光で照明して撮影し、入力顔画像41を取得する。そして、入力顔画像41と、登録管理装置20から取得した登録顔画像42から擬似的に作成した近赤外線顔画像である推定画像43に基づいて照合を行い、被照合者が登録された人物と同一か否かを判定する。   The face image matching system 2 includes a face image matching device 10, a registration management device 20 that stores a color face image of a person registered in advance as a registered face image 42, and the like, and the face image matching device 10 and the registration management device 20. Are connected by a communication network 30. When the person to be collated inputs his / her ID number or the like in the face image collation apparatus 10, the face image collation apparatus 10 acquires a registered face image 42 corresponding to the ID number from the registration management apparatus 20, The face of the person to be verified is illuminated and photographed with near-infrared light, and an input face image 41 is acquired. Then, collation is performed based on the input face image 41 and the estimated image 43 that is a near-infrared face image created in a pseudo manner from the registered face image 42 acquired from the registration management device 20, and Determine whether they are the same.

図5に、本発明の照合装置の一例に係る顔画像照合装置10の機能ブロック図を示す。顔画像照合装置10は、登録顔画像42を入力するためのデジタルデータ入力部201と、ID番号の入力などの操作を行う操作・表示部202と、近赤外光で照明して撮影した入力顔画像41を取得する顔画像入力部203と、登録顔画像42であるカラー顔画像から擬似的な近赤外線顔画像である推定画像43を作成する近赤外線顔画像推定部204と、入力顔画像41及び推定画像43からそれぞれ特徴量を抽出する特徴抽出部205と、それら顔画像から取得した特徴量などを記憶する記憶部206と、得られた特徴量に基づいて、入力顔画像41と推定画像43との照合を行う照合部207と、照合結果を出力する出力部208と、各部の制御を行う制御部209などで構成される。   FIG. 5 shows a functional block diagram of the face image matching device 10 according to an example of the matching device of the present invention. The face image matching device 10 includes a digital data input unit 201 for inputting a registered face image 42, an operation / display unit 202 for performing operations such as input of an ID number, and an input photographed by illumination with near infrared light. A face image input unit 203 that acquires a face image 41; a near-infrared face image estimation unit 204 that creates an estimated image 43 that is a pseudo near-infrared face image from a color face image that is a registered face image 42; and an input face image 41 and the estimated image 43, respectively, a feature extraction unit 205 that extracts feature amounts, a storage unit 206 that stores feature amounts obtained from the face images, and the input face image 41 based on the obtained feature amounts A collation unit 207 that collates with the image 43, an output unit 208 that outputs a collation result, a control unit 209 that controls each unit, and the like.

なお、顔画像照合装置10において、デジタルデータ入力部201は、上述した第1の実施形態における近赤外線顔画像作成装置1のカラー顔画像取得部101に相当する。同様に、顔画像照合装置10の近赤外線顔画像推定部204は、近赤外線顔画像作成装置1の背景テンプレート記憶部102、画像推定部103、及び推定画像出力部104を併せたものに相当し、表色系変換手段110、対象領域特定手段111、RGB画素値抽出手段112、画素値推定手段113、推定画像作成手段114、終了判定手段115の各機能を有するものである。   In the face image matching device 10, the digital data input unit 201 corresponds to the color face image acquisition unit 101 of the near-infrared face image creation device 1 in the first embodiment described above. Similarly, the near infrared face image estimation unit 204 of the face image matching device 10 corresponds to a combination of the background template storage unit 102, the image estimation unit 103, and the estimated image output unit 104 of the near infrared face image creation device 1. The color system conversion means 110, the target area specifying means 111, the RGB pixel value extracting means 112, the pixel value estimating means 113, the estimated image creating means 114, and the end determining means 115 are provided.

以下、顔画像照合装置10の各部について詳細に説明する。
デジタルデータ入力部201は、管理者が管理している登録顔画像42、すなわち可視光で撮影されたカラー顔画像を本装置に入力するためのインターフェースであり、イーサネット(登録商標)などの通信ネットワーク30の通信インターフェース及びそのドライバで構成される。なお、登録顔画像42は、ネットワーク30上で互い通信可能な登録管理装置20から取得する。また、デジタルデータ入力部201は、メモリカードの読取装置、USB、SCSIなどのPCインターフェース及びそのドライバなどで構成してもよく、その場合、登録顔画像42は、メモリカードなどから取得する。取得した登録顔画像42は、近赤外線顔画像推定部204のRAMや記憶部206に一時的に記憶され、推定画像43の作成に使用される。
Hereinafter, each part of the face image matching device 10 will be described in detail.
The digital data input unit 201 is an interface for inputting a registered face image 42 managed by an administrator, that is, a color face image taken with visible light, to the apparatus, and a communication network such as Ethernet (registered trademark). It consists of 30 communication interfaces and their drivers. The registered face image 42 is acquired from the registration management device 20 that can communicate with each other on the network 30. Further, the digital data input unit 201 may be configured by a memory card reader, a PC interface such as USB or SCSI, and its driver, and in this case, the registered face image 42 is acquired from a memory card or the like. The acquired registered face image 42 is temporarily stored in the RAM or the storage unit 206 of the near-infrared face image estimating unit 204 and used for creating the estimated image 43.

操作・表示部202は、顔画像照合装置10の利用者、すなわち被照合者が、ID番号の入力、行いたい動作の選択(例えば、特定の部屋への入室)などの操作を行うものである。また、操作のガイダンスを表示又は音声指示するものであり、タッチパネルディスプレイとスピーカで構成される。また、タッチパネルの代わりに、キーボード又はマウスのような入力デバイスと液晶ディスプレイのような単純な表示デバイスで構成してもよい。なお、ガイダンスの音声指示を行わない場合には、スピーカを省略してもよい。   The operation / display unit 202 is used by the user of the face image matching device 10, that is, the person to be collated, to input an ID number and select an operation to be performed (for example, entering a specific room). . Further, it displays an operation guidance or gives a voice instruction, and includes a touch panel display and a speaker. Further, instead of the touch panel, an input device such as a keyboard or a mouse and a simple display device such as a liquid crystal display may be used. Note that the speaker may be omitted when the guidance voice instruction is not performed.

操作・表示部202で入力されたID番号などのデータは、制御部209で呼び出す登録顔画像42の特定などに使用される。   Data such as an ID number input by the operation / display unit 202 is used for specifying the registered face image 42 to be called by the control unit 209.

顔画像入力部203は、被照合者の顔を近赤外光で照明して撮影し、モノクロの近赤外線顔画像を入力顔画像41として取得するものであり、CCD素子又はC−MOS素子などを受光素子として備えたデジタルカメラと、近赤外光を発する近赤外LEDなどの照明光源などで構成される。受光素子には、近赤外領域に感度を有するものが用いられる。また、デジタルカメラの前面若しくは受光素子の前面には、近赤外光以外の光を遮断するために、近赤外領域に十分な透過特性を有し、可視光を遮断する可視光カットフィルタを配置する。   The face image input unit 203 illuminates and captures the face of the person to be verified with near-infrared light, and acquires a monochrome near-infrared face image as the input face image 41, such as a CCD element or a C-MOS element. And a light source such as a near-infrared LED that emits near-infrared light. As the light receiving element, one having sensitivity in the near infrared region is used. Also, on the front surface of the digital camera or the front surface of the light receiving element, a visible light cut filter that has sufficient transmission characteristics in the near infrared region and blocks visible light in order to block light other than near infrared light. Deploy.

近赤外線顔画像推定部204は、中央演算装置(CPU)、数値演算プロセッサ、ROM又はRAMなどの半導体メモリ及びプログラムで構成され、デジタルデータ入力部201で取得した、登録顔画像42であるカラー顔画像から、擬似的に作成された近赤外顔画像である推定画像43を作成する。推定画像43は、上述した第1の実施形態における近赤外顔画像作成装置1における近赤外線顔画像の作成手順を使用して作成し、その際、顔画像入力部203の照明光源の波長とほぼ同じ波長で照明されたものとして、各画素の画素値を推定する。
作成された推定画像43は、特徴抽出部205へ渡される。
The near-infrared face image estimation unit 204 includes a central processing unit (CPU), a numerical processor, a semiconductor memory such as a ROM or a RAM, and a program, and is a color face that is a registered face image 42 acquired by the digital data input unit 201. An estimated image 43, which is a near-infrared face image created in a pseudo manner, is created from the image. The estimated image 43 is created by using the near-infrared face image creation procedure in the near-infrared face image creation apparatus 1 in the first embodiment described above, and at that time, the wavelength of the illumination light source of the face image input unit 203 is determined. The pixel value of each pixel is estimated on the assumption that illumination is performed at substantially the same wavelength.
The created estimated image 43 is transferred to the feature extraction unit 205.

特徴抽出部205も、中央演算装置(CPU)、数値演算プロセッサ、ROM又はRAMなどの半導体メモリ及びプログラムで構成され、顔画像入力部203で取得された入力顔画像41及び近赤外線顔画像推定部204で作成された推定画像43から、画像照合用にそれぞれ特徴量を抽出する。抽出する特徴量は、例えば目尻、目頭、唇端点の位置、又は目、鼻、口それぞれの外接矩形領域、顔領域そのものなどである。   The feature extraction unit 205 is also composed of a central processing unit (CPU), a numerical operation processor, a semiconductor memory such as a ROM or a RAM, and a program, and the input face image 41 and the near infrared face image estimation unit acquired by the face image input unit 203. Feature amounts are extracted from the estimated image 43 created in 204 for image matching. The feature quantity to be extracted is, for example, the positions of the corners of the eyes, the eyes, the lips, or the circumscribed rectangular areas of the eyes, nose, and mouth, the face area itself, and the like.

これらの特徴量を抽出するために、まず画像中から顔の位置を検出する。顔の位置の検出は、例えば顔全体のテンプレートを予め複数用意し、それらテンプレートを用いて画像中を走査させながらテンプレートマッチングを行い、最も一致度が高い場所を検出することにより、行うことができる。テンプレートは複数の顔サイズ、画像に対する傾き、及び肌部分のコントラスト又は画素値についてバリエーションを持たせたものを準備する。またテンプレートとして、顔全体のものを用意する代わりに、目、鼻、口などの特定部位のテンプレートを複数用意しておき、それら特定部位のテンプレート同士の位置関係を保持したまま対象となる画像を走査してもよい。   In order to extract these feature amounts, the position of the face is first detected from the image. For example, the face position can be detected by preparing a plurality of templates for the entire face in advance, performing template matching while scanning the image using these templates, and detecting a place with the highest degree of matching. . Templates are prepared with variations with respect to a plurality of face sizes, inclinations with respect to the image, and contrast or pixel values of the skin portion. Also, instead of preparing the entire face as a template, prepare multiple templates for specific parts such as eyes, nose, mouth, etc., and select the target image while maintaining the positional relationship between the templates of these specific parts. You may scan.

画像に占める顔の位置を検出すると、1乃至複数の特徴量を抽出する。その際、例えば特徴量の一つとして目尻の位置を検出するために、目尻のテンプレートを用いて顔の範囲内を走査してテンプレートマッチングを行い、最も一致度の高い位置を求め、目尻の位置とすることができる。   When the position of the face in the image is detected, one or more feature amounts are extracted. At that time, for example, in order to detect the position of the corner of the eye as one of the feature amounts, template matching is performed by scanning the inside of the face using the template of the corner of the eye to obtain the position with the highest degree of matching, and the position of the corner of the eye It can be.

また、別の方法として、水平方向又は垂直方向の隣接画素間で画素値の差分を行い、又はソーベルフィルタ、プレウィットフィルタなどの一次微分フィルタ若しくはラプラシアンフィルタなどの2次微分フィルタを用いてフィルタ処理を行うことにより、エッジ画像を求め、所定の閾値以上のエッジ画素値を有する連続したエッジ線の曲率の高い部分の位置を特徴量として検出してもよい。目尻や目頭、唇端点などでは、エッジ線の曲率が高くなる傾向を有するためである。   As another method, a pixel value difference is performed between adjacent pixels in the horizontal direction or the vertical direction, or a first-order differential filter such as a Sobel filter or a pre-witt filter or a second-order differential filter such as a Laplacian filter is used. By performing processing, an edge image may be obtained, and the position of a portion with a high curvature of a continuous edge line having an edge pixel value equal to or greater than a predetermined threshold may be detected as a feature amount. This is because the curvature of the edge line tends to be high at the corners of the eyes, the corners of the eyes, and the lips.

また、目、鼻、口などの特定部位毎に予め準備された複数のテンプレートのうち、テンプレートマッチングを行って最も一致度が高いテンプレートを選択し、そのテンプレートから、目、鼻、口それぞれの領域の外接矩形領域を特徴量として抽出してもよい。   In addition, from among a plurality of templates prepared in advance for each specific part such as eyes, nose, mouth, etc., template matching is performed to select the template having the highest degree of matching, and each region of eyes, nose, mouth is selected from the template. May be extracted as a feature amount.

記憶部206は、フラッシュメモリのような不揮発性半導体メモリ、ハードディスク、又はCD−RWやDVD−RWのような光記録媒体で構成され、近赤外線顔画像推定部204で求めた推定画像43から算出した特徴量を、操作・表示部202で得たID番号など、個人を特定できる識別情報と関連付けて記憶する。また、それら特徴量とともに、特徴量の算出に用いた推定画像43又は登録顔画像42を関連付けて記憶してもよい。これら関連付けは、例えば、識別情報と特徴量を記録したファイルの名称、画像の名称を一つの配列の各要素に格納することで実現できる。   The storage unit 206 includes a nonvolatile semiconductor memory such as a flash memory, a hard disk, or an optical recording medium such as a CD-RW or a DVD-RW, and is calculated from the estimated image 43 obtained by the near-infrared face image estimating unit 204. The feature amount is stored in association with identification information that can identify an individual, such as an ID number obtained by the operation / display unit 202. In addition to the feature amounts, the estimated image 43 or the registered face image 42 used for calculating the feature amounts may be stored in association with each other. These associations can be realized, for example, by storing the name of the file in which the identification information and the feature quantity are recorded and the name of the image in each element of one array.

さらに記憶部206は、近赤外線顔画像推定部204、特徴抽出部205、又は照合部207で実行される各種のプログラム及び照合部207で使用される照合閾値を記憶する。   Furthermore, the storage unit 206 stores various programs executed by the near-infrared face image estimation unit 204, the feature extraction unit 205, or the collation unit 207 and the collation threshold value used by the collation unit 207.

照合部207もまた、中央演算装置(CPU)、数値演算プロセッサ、ROM又はRAMなどの半導体メモリ及びプログラムで構成され、特徴抽出部205で抽出されたそれぞれの画像の特徴量に基づいて、それぞれの画像は、同一人物を撮影したものか否かを判定する。   The collation unit 207 is also configured by a central processing unit (CPU), a numerical operation processor, a semiconductor memory such as a ROM or a RAM, and a program, and based on the feature amount of each image extracted by the feature extraction unit 205, It is determined whether the image is a photograph of the same person.

この判定は、被照合者を撮影した入力顔画像41である近赤外線顔画像と、被照合者が入力した個人情報に基づいて選択された登録顔画像42から作成された推定画像43から特徴抽出部205でそれぞれ抽出された特徴量に基づいて類似度を計算し、その類似度が所定の閾値以上であれば、認証に成功、すなわち、それぞれの画像に写っている人物は同一人物と判定する。   This determination is based on the feature extraction from the near-infrared face image that is the input face image 41 obtained by photographing the person to be verified and the estimated image 43 created from the registered face image 42 selected based on the personal information input by the person to be verified. If the similarity is calculated based on the feature amounts extracted by the unit 205 and the similarity is equal to or greater than a predetermined threshold, the authentication is successful, that is, the person shown in each image is determined to be the same person. .

類似度の算出は、以下のように行う。
特徴量が目尻、目頭、唇端点などの位置の場合、それぞれの位置から重心の位置を求める。そして、入力顔画像41である近赤外線顔画像と推定画像43との間で、求めた重心の位置が一致するように、何れか一方の画像の各特徴量の位置を平行移動する。そして、入力顔画像41と推定画像43との間で、各特徴量の位置を比較し、それぞれの位置ずれ量を求める。各特徴量についての位置ずれ量の平均値を類似度として算出する。
The similarity is calculated as follows.
When the feature amount is a position such as the corner of the eye, the head of the eye, or the lip end point, the position of the center of gravity is obtained from each position. And the position of each feature-value of any one image is translated so that the position of the calculated | required gravity center may correspond between the near-infrared face image which is the input face image 41, and the estimated image 43. FIG. And the position of each feature-value is compared between the input face image 41 and the estimated image 43, and each position shift amount is calculated | required. An average value of positional deviation amounts for each feature amount is calculated as a similarity.

また、求めた位置ずれ量に、目、口などの部位によって重み付けを行って加重平均した値を類似度としてもよい。   Further, the obtained degree of displacement may be weighted by a part such as an eye or a mouth and a weighted average may be used as the similarity.

さらに、目、鼻、口など特定部位の外接矩形領域を特徴量として使用する場合は、それぞれの特定部位ごとに相関値を計算し、その相関値の平均値又は加重平均値を類似度とすることができる。また顔全体の画像を特徴量とする場合は、入力顔画像41の顔領域部分と推定画像43の顔領域部分との相関値を計算し、その相関値を類似度とすることができる。また、顔領域部分同士の相関値と、顔の特定部位に基づいて求めた相関値と、上記位置ずれ量との何れかを二つ以上組み合わせて類似度を算出してもよい。   Furthermore, when the circumscribed rectangular region of a specific part such as the eyes, nose, or mouth is used as a feature amount, a correlation value is calculated for each specific part, and the average value or the weighted average value of the correlation values is used as the similarity. be able to. When the entire face image is used as the feature amount, a correlation value between the face area portion of the input face image 41 and the face area portion of the estimated image 43 can be calculated, and the correlation value can be used as the similarity. Also, the similarity may be calculated by combining two or more of correlation values between face area portions, correlation values obtained based on specific parts of the face, and the above-described positional deviation amount.

ここで、顔領域部分の相関値を類似度の算出に使用する場合、その相関値は肌部分のコントラストの違いに大きく依存するため、照明光の差異による影響は無視できない。そのために、カラー顔画像である登録顔画像42から作成した擬似的な近赤外線顔画像である推定画像43を照合に用いることにより、照明光の差異による影響を無視することが可能となり、良好な照合精度を得ることが可能となる。   Here, when the correlation value of the face area part is used for calculating the similarity, the correlation value largely depends on the difference in contrast of the skin part, and therefore the influence of the difference in illumination light cannot be ignored. Therefore, by using the estimated image 43, which is a pseudo near-infrared face image created from the registered face image 42, which is a color face image, for collation, it becomes possible to ignore the influence due to the difference in illumination light. Verification accuracy can be obtained.

出力部208は、通信ネットワーク用インターフェース及びそのドライバなどで構成され、顔画像照合装置10と他の機器とを接続するためのインターフェースの役割を果たす。例えば、ドアや門に設けられた電気錠を制御するコントローラと顔照合装置10を接続し、顔照合装置10で認証に成功した場合にのみ出力部208から電気錠コントローラに認証成功を示す信号を出力し、電気錠を解錠するようにすることができる。   The output unit 208 includes a communication network interface and its driver, and serves as an interface for connecting the face image matching device 10 to another device. For example, when a controller for controlling an electric lock provided at a door or a gate is connected to the face verification device 10, a signal indicating successful authentication is output from the output unit 208 to the electric lock controller only when the face verification device 10 succeeds in authentication. It is possible to output and unlock the electric lock.

制御部209は、中央演算装置(CPU)、ROM又はRAMなどの半導体メモリ及びプログラムで構成され、上記各部を制御する。   The control unit 209 includes a central processing unit (CPU), a semiconductor memory such as a ROM or a RAM, and a program, and controls each of the above units.

次に、本発明の照合装置の一例に係る顔画像照合装置10における動作を、フローチャートを用いて説明する。
図6に、本発明の照合装置の一例に係る顔画像照合装置10の動作フローチャートを示す。
Next, the operation of the face image matching device 10 according to an example of the matching device of the present invention will be described using a flowchart.
FIG. 6 shows an operation flowchart of the face image matching device 10 according to an example of the matching device of the present invention.

事前に、顔画像照合装置10で照合を行う人物のカラー顔画像を登録管理装置20などに登録顔画像42として登録する。そのような顔画像は、例えば社員証の作成用に撮影されたカラー画像であってよく、デジタルカメラで撮影され、デジタルデータとなっているものを使用する。また登録顔画像42は、その画像の被撮影者のID番号と関連付けて登録される。   In advance, a color face image of a person to be collated by the face image collation apparatus 10 is registered as a registered face image 42 in the registration management apparatus 20 or the like. Such a face image may be, for example, a color image taken for creating an employee ID card, and uses an image taken with a digital camera and converted into digital data. Further, the registered face image 42 is registered in association with the ID number of the subject of the image.

顔画像照合装置10では、まず被照合者が、操作・表示部202により自分のID番号を入力する(ステップS201)。   In the face image collation device 10, the person to be collated first inputs his / her ID number through the operation / display unit 202 (step S201).

ID番号が入力されると、そのID番号に対応する特徴量が記憶部206に記憶されていないかどうか検索する(ステップS202)。ID番号に対応する特徴量が記憶されていない場合、顔画像照合装置10は、登録管理装置20などからそのID番号に対応する登録顔画像42であるカラー顔画像を取得する(ステップS203)。そして、近赤外線顔画像推定部204で、登録顔画像42から推定画像43を作成し、特徴量を抽出する(ステップS204)。抽出された特徴量は、照合部207に送られるとともに、記憶部206にID番号と関連付けて記憶される。
一方、記憶部206に入力されたID番号に対応する特徴量が記憶されている場合は、その特徴量を読み出して照合部207に送る(ステップS205)。
When the ID number is input, a search is performed as to whether or not a feature amount corresponding to the ID number is stored in the storage unit 206 (step S202). When the feature amount corresponding to the ID number is not stored, the face image matching device 10 acquires a color face image that is the registered face image 42 corresponding to the ID number from the registration management device 20 or the like (step S203). Then, the near-infrared face image estimation unit 204 creates an estimated image 43 from the registered face image 42 and extracts a feature amount (step S204). The extracted feature quantity is sent to the matching unit 207 and stored in the storage unit 206 in association with the ID number.
On the other hand, if a feature amount corresponding to the ID number input in the storage unit 206 is stored, the feature amount is read and sent to the collation unit 207 (step S205).

また、顔画像照合装置10は、顔画像入力部203で、被照合者を近赤外光で照明して撮影し、入力顔画像41である近赤外線顔画像を取得する(ステップS206)。そして、入力顔画像41は特徴抽出部205へ送られ、特徴量が抽出される(ステップS207)。   Further, the face image matching device 10 uses the face image input unit 203 to illuminate and shoot the person to be verified with near infrared light, and obtains a near infrared face image as the input face image 41 (step S206). Then, the input face image 41 is sent to the feature extraction unit 205, and feature amounts are extracted (step S207).

入力顔画像41から抽出された特徴量、及び推定画像43から抽出された特徴量は、照合部207に送られ、照合部207は、それら特徴量に基づいて類似度を算出し、その類似度が所定の閾値以上か否かを調べて、被照合者がそのID番号で登録されている人物と同一人物か否か判定する(ステップS208)。   The feature amount extracted from the input face image 41 and the feature amount extracted from the estimated image 43 are sent to the collation unit 207, and the collation unit 207 calculates similarity based on the feature amount, and the similarity degree Is determined to be equal to or greater than a predetermined threshold, and it is determined whether or not the person to be verified is the same person as the person registered with the ID number (step S208).

類似度が所定の閾値以上の場合、被照合者はそのID番号で登録されている人物と同一人物と判定され、解錠指示などの照合成功信号を出力部208を通じて出力する(ステップS209)。また、照合に成功した旨のメッセージ(例えば、「認証に成功しました。お入りください」など)を操作・表示部202に表示出力する(ステップS210)。   When the degree of similarity is equal to or greater than a predetermined threshold, the person to be verified is determined to be the same person as the person registered with the ID number, and a verification success signal such as an unlocking instruction is output through the output unit 208 (step S209). In addition, a message indicating that the verification is successful (for example, “authentication was successful. Please enter”) is displayed on the operation / display unit 202 (step S210).

一方、類似度が閾値を下回り、同一人物でないと判定された場合には、照合に失敗した旨のメッセージ(例えば、「認証できません。再度操作してください」など)を操作・表示部202に表示する(ステップS210)。   On the other hand, if the similarity is below the threshold and it is determined that they are not the same person, a message indicating that the verification has failed (for example, “Unable to authenticate. Please operate again”) is displayed on the operation / display unit 202. (Step S210).

以上説明してきたように、本発明の照合装置の一例に係る顔画像照合装置10では、登録顔画像42であるカラー顔画像から、入力顔画像41と同じ波長で撮影された場合を想定して推定画像43を作成し、その推定画像43から特徴量を抽出して照合に用いるため、肌部分のコントラストについて照明光による差異を無視することが可能であり、高精度で照合を行うことができる。
また、登録顔画像42として、社員証用の画像などを流用することが可能であり、顔画像登録時の工数を大幅に削減することができる。
As described above, in the face image matching device 10 according to an example of the matching device of the present invention, it is assumed that a color face image that is the registered face image 42 is taken at the same wavelength as the input face image 41. Since the estimated image 43 is created and the feature amount is extracted from the estimated image 43 and used for matching, it is possible to ignore the difference due to the illumination light with respect to the contrast of the skin part, and matching can be performed with high accuracy. .
In addition, an employee ID image or the like can be used as the registered face image 42, and the number of man-hours for registering the face image can be greatly reduced.

なお、本発明は上記の実施形態に限られるものではない。
本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
The present invention is not limited to the above embodiment.
Within the scope of the present invention, various modifications can be made according to the embodiment to be implemented.

本発明の第1の実施形態に係る近赤外顔画像作成装置の機能ブロック図である。It is a functional block diagram of the near-infrared face image creation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る近赤外顔画像作成装置の動作フローチャートである。It is an operation | movement flowchart of the near-infrared face image creation apparatus which concerns on the 1st Embodiment of this invention. 人の肌の反射特性を示すグラフである。It is a graph which shows the reflective characteristic of a human skin. 本発明の第2の実施形態に係る顔画像照合装置を使用した顔画像照合システムの概略構成図である。It is a schematic block diagram of the face image collation system using the face image collation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る顔画像照合装置の機能ブロック図である。It is a functional block diagram of the face image collation device concerning a 2nd embodiment of the present invention. 本発明の第2の実施形態に係る顔画像照合装置の動作フローチャートである。It is an operation | movement flowchart of the face image collation apparatus which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 近赤外線顔画像作成装置
101 カラー顔画像取得部
102 背景テンプレート記憶部
103 画像推定部
104 推定画像出力部
110 表色系変換手段
111 対象領域特定手段
112 RGB画素値抽出手段
113 画素値推定手段
114 推定画像作成手段
115 終了判定手段
2 顔画像照合システム
10 顔画像照合装置
20 登録管理装置
30 通信ネットワーク
41 入力顔画像
42 登録顔画像
43 推定画像
201 デジタルデータ入力部
202 操作・表示部
203 顔画像入力部
204 近赤外線顔画像推定部
205 特徴抽出部
206 記憶部
207 照合部
208 出力部
209 制御部
DESCRIPTION OF SYMBOLS 1 Near-infrared face image creation apparatus 101 Color face image acquisition part 102 Background template memory | storage part 103 Image estimation part 104 Estimated image output part 110 Color system conversion means 111 Target area specification means 112 RGB pixel value extraction means 113 Pixel value estimation means 114 Estimated image creation means 115 End determination means 2 Face image matching system 10 Face image matching device 20 Registration management device 30 Communication network 41 Input face image 42 Registered face image 43 Estimated image 201 Digital data input section 202 Operation / display section 203 Face image input Unit 204 near infrared face image estimation unit 205 feature extraction unit 206 storage unit 207 collation unit 208 output unit 209 control unit

Claims (6)

複数の色階調情報を画素ごとに有するカラーの顔画像から近赤外線の顔画像を作成する近赤外線顔画像作成装置であって、
前記カラーの顔画像を取得するカラー顔画像取得手段と、
前記取得したカラー顔画像の画素の画素値が有する色階調情報を画素ごとに抽出する画素値抽出手段と、
前記画素ごとに、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、前記画素値抽出手段において抽出した色階調情報に基づき、近赤外線領域の波長における推定画素値を算出する画素値推定手段と、
前記画素値推定手段にて算出された推定画素値を有する画素から近赤外線顔画像を構成する推定画像作成手段を具備することを特徴とする近赤外線顔画像作成装置。
A near-infrared face image creation device that creates a near-infrared face image from a color face image having a plurality of color gradation information for each pixel,
Color face image acquisition means for acquiring the color face image;
Pixel value extraction means for extracting, for each pixel, color gradation information possessed by pixel values of pixels of the acquired color face image;
For each pixel, an estimated pixel at a wavelength in the near infrared region based on the correlation between the color gradation information based on the flesh color reflection characteristic and the pixel value in the near infrared region, and the color gradation information extracted by the pixel value extracting means. Pixel value estimating means for calculating a value;
A near-infrared face image creating apparatus comprising estimated image creating means for constructing a near-infrared face image from pixels having estimated pixel values calculated by the pixel value estimating means.
前記画素値抽出手段は、色階調情報のうち少なくとも第一波長及び該第一波長より長い波長の第二波長における色階調情報を抽出し、
前記画素値推定手段における相関関係は、近赤外線領域の波長における画素値が前記第一波長及び第二波長の波長変化における色階調情報からの直線近似となる関係である請求項1に記載の近赤外線顔画像作成装置。
The pixel value extraction unit extracts color gradation information at least at the first wavelength and the second wavelength longer than the first wavelength from the color gradation information,
2. The correlation according to claim 1, wherein the correlation in the pixel value estimating means is a relationship in which a pixel value at a wavelength in a near-infrared region is a linear approximation from color gradation information in a wavelength change of the first wavelength and the second wavelength. Near infrared face image creation device.
前記画素値抽出手段は、異なる3波長の色階調情報を抽出し、
前記画素値推定手段における相関関係は、前記3波長の色階調情報から最小二乗法により求められた関係である請求項1に記載の近赤外線顔画像作成装置。
The pixel value extracting means extracts color gradation information of three different wavelengths,
The near-infrared face image creation apparatus according to claim 1, wherein the correlation in the pixel value estimation unit is a relation obtained by least square method from the color gradation information of the three wavelengths.
さらに、前記カラー顔画像取得手段にて取得したカラー顔画像から所定領域を特定する領域特定手段を有し、
前記画素値抽出手段は、前記対象領域特定手段にて特定された所定領域の画素の画素値を抽出する請求項1〜3の何れか一項に記載の近赤外線顔画像作成装置。
Furthermore, it has an area specifying means for specifying a predetermined area from the color face image acquired by the color face image acquiring means,
The near-infrared face image creation device according to any one of claims 1 to 3, wherein the pixel value extraction unit extracts a pixel value of a pixel in a predetermined region specified by the target region specification unit.
近赤外光照明にて照明して被照合者の近赤外線顔画像を取得する撮影部と、予め取得した被照合者のカラー顔画像を記憶している登録顔画像記憶部と、該カラー顔画像から擬似近赤外線顔画像を推定する近赤外線顔画像推定部と、前記撮影部において取得した近赤外線顔画像と前記擬似近赤外線顔画像とを照合する照合部を具備する顔画像照合装置であって、
前記近赤外線顔画像推定部は、
前記登録顔画像記憶部に記憶されているカラー顔画像の画素の画素値が有する色階調情報を画素ごとに抽出する画素値抽出手段と、
前記画素ごとに、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、前記画素値抽出手段において抽出した色階調情報に基づき、近赤外線領域の波長における推定画素値を算出する画素値推定手段と、
前記画素値推定手段において算出された推定画素値を有する画素から前記擬似近赤外線顔画像を構成する推定画像作成手段を有することを特徴とする顔画像照合装置。
An imaging unit that illuminates with near-infrared light illumination to acquire a near-infrared face image of the person to be verified, a registered face image storage unit that stores a color face image of the person to be verified previously acquired, and the color face A face image collating device comprising a near infrared face image estimating unit that estimates a pseudo near infrared face image from an image, and a collating unit that collates the near infrared face image acquired by the photographing unit and the pseudo near infrared face image. And
The near-infrared face image estimation unit
Pixel value extracting means for extracting, for each pixel, color gradation information of pixel values of the pixels of the color face image stored in the registered face image storage unit;
For each pixel, an estimated pixel at a wavelength in the near infrared region based on the correlation between the color gradation information based on the flesh color reflection characteristic and the pixel value in the near infrared region, and the color gradation information extracted by the pixel value extracting means. Pixel value estimating means for calculating a value;
A face image collating apparatus comprising: an estimated image creating means for constructing the pseudo near infrared face image from pixels having estimated pixel values calculated by the pixel value estimating means.
カラー顔画像から近赤外線の顔画像を作成する方法であって、
前記カラー顔画像の画素の画素値が有する色階調情報を画素ごとに抽出する画素値抽出工程と、
前記画素ごとに、肌色反射特性に基づく色階調情報と近赤外線領域の画素値との相関関係と、前記画素値抽出工程において抽出した色階調情報に基づき、近赤外線領域の波長における推定画素値を算出する推定工程と、
推定された推定画素値を有する画素から近赤外線顔画像を構成する推定画像構成工程を有することを特徴とする近赤外線顔画像作成方法。
A method for creating a near-infrared face image from a color face image,
A pixel value extraction step of extracting color gradation information of pixel values of pixels of the color face image for each pixel;
For each pixel, an estimated pixel at a wavelength in the near infrared region based on the correlation between the color gradation information based on the skin color reflection characteristic and the pixel value in the near infrared region, and the color gradation information extracted in the pixel value extracting step. An estimation step for calculating a value;
A near-infrared face image creation method comprising an estimated image construction step of constructing a near-infrared face image from pixels having estimated pixel values.
JP2005324761A 2005-11-09 2005-11-09 Near-infrared face image creation device, near-infrared face image creation method, and face image collation device Expired - Fee Related JP4606304B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005324761A JP4606304B2 (en) 2005-11-09 2005-11-09 Near-infrared face image creation device, near-infrared face image creation method, and face image collation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005324761A JP4606304B2 (en) 2005-11-09 2005-11-09 Near-infrared face image creation device, near-infrared face image creation method, and face image collation device

Publications (2)

Publication Number Publication Date
JP2007133560A true JP2007133560A (en) 2007-05-31
JP4606304B2 JP4606304B2 (en) 2011-01-05

Family

ID=38155181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005324761A Expired - Fee Related JP4606304B2 (en) 2005-11-09 2005-11-09 Near-infrared face image creation device, near-infrared face image creation method, and face image collation device

Country Status (1)

Country Link
JP (1) JP4606304B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140946A (en) * 2005-11-18 2007-06-07 Secom Co Ltd Face image collation device and face image registration method for collation
JP2012068762A (en) * 2010-09-21 2012-04-05 Sony Corp Detection device, detection method, program, and electronic apparatus
JP2013092884A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method, and program
JP2018530737A (en) * 2015-07-13 2018-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for determining a depth map for an image
JP2021114296A (en) * 2020-01-20 2021-08-05 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Generation method of near infrared image, generation device of near infrared image, generation network training method, generation network training device, electronic device, storage medium and computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331167A (en) * 1999-05-25 2000-11-30 Medeikku Engineering:Kk Method and device for collating facial image
JP2002026075A (en) * 2000-07-05 2002-01-25 Matsushita Electric Ind Co Ltd Method and device for recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331167A (en) * 1999-05-25 2000-11-30 Medeikku Engineering:Kk Method and device for collating facial image
JP2002026075A (en) * 2000-07-05 2002-01-25 Matsushita Electric Ind Co Ltd Method and device for recognition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140946A (en) * 2005-11-18 2007-06-07 Secom Co Ltd Face image collation device and face image registration method for collation
JP2012068762A (en) * 2010-09-21 2012-04-05 Sony Corp Detection device, detection method, program, and electronic apparatus
JP2013092884A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method, and program
JP2018530737A (en) * 2015-07-13 2018-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for determining a depth map for an image
JP2021114296A (en) * 2020-01-20 2021-08-05 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Generation method of near infrared image, generation device of near infrared image, generation network training method, generation network training device, electronic device, storage medium and computer program
JP7135125B2 (en) 2020-01-20 2022-09-12 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Near-infrared image generation method, near-infrared image generation device, generation network training method, generation network training device, electronic device, storage medium, and computer program
US11854118B2 (en) 2020-01-20 2023-12-26 Beijing Baidu Netcom Science And Technology Co., Ltd. Method for training generative network, method for generating near-infrared image and device

Also Published As

Publication number Publication date
JP4606304B2 (en) 2011-01-05

Similar Documents

Publication Publication Date Title
EP3477931A1 (en) Image processing method and device, readable storage medium and electronic device
US8055067B2 (en) Color segmentation
JP4709147B2 (en) System and method for removing red eye phenomenon from digital images
JP4718952B2 (en) Image correction method and image correction system
JP4505362B2 (en) Red-eye detection apparatus and method, and program
JP4574249B2 (en) Image processing apparatus and method, program, and imaging apparatus
JP4218348B2 (en) Imaging device
US7885477B2 (en) Image processing method, apparatus, and computer readable recording medium including program therefor
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP4078334B2 (en) Image processing apparatus and image processing method
US7460705B2 (en) Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
JP2004094491A (en) Face orientation estimation device and method and its program
JP4606304B2 (en) Near-infrared face image creation device, near-infrared face image creation method, and face image collation device
JP2005222152A (en) Image correcting device
JP2007094535A (en) Authentication system and authentication method
JP2007312206A (en) Imaging apparatus and image reproducing apparatus
JP2007102517A (en) Face recognition device and method, coefficient generation device and method, program and recording medium
JP4148903B2 (en) Image processing apparatus, image processing method, and digital camera
CN111989554A (en) Method and system for evaluating tooth tone in uncontrolled environment
JP4883987B2 (en) Face image collation device and collation face image registration method
JP2009038737A (en) Image processing apparatus
JP2010237976A (en) Light source information obtaining device, shading detection device, shading removal device, and those methods and programs
JPH11306348A (en) Method and device for object detection
JPH11306325A (en) Method and device for object detection
JP2005316958A (en) Red eye detection device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101005

R150 Certificate of patent or registration of utility model

Ref document number: 4606304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees