JP2000331167A - Method and device for collating facial image - Google Patents

Method and device for collating facial image

Info

Publication number
JP2000331167A
JP2000331167A JP11144343A JP14434399A JP2000331167A JP 2000331167 A JP2000331167 A JP 2000331167A JP 11144343 A JP11144343 A JP 11144343A JP 14434399 A JP14434399 A JP 14434399A JP 2000331167 A JP2000331167 A JP 2000331167A
Authority
JP
Japan
Prior art keywords
image
face
dimensional
data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11144343A
Other languages
Japanese (ja)
Inventor
Toyohisa Tanijiri
豊寿 谷尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MEDEIKKU ENGINEERING KK
Original Assignee
MEDEIKKU ENGINEERING KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MEDEIKKU ENGINEERING KK filed Critical MEDEIKKU ENGINEERING KK
Priority to JP11144343A priority Critical patent/JP2000331167A/en
Publication of JP2000331167A publication Critical patent/JP2000331167A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the reliability of person identification of a facial image collating method which is applied to data processing at the time of performing the authentication, retrieval, etc., of persons by using facial image. SOLUTION: In the facial image collating method, unnecessary image data outside a face area are deleted by performing masking for extracting the facial area from two two-dimensional facial image (a collated image and a collating image) to be collated with each other based on prescribed mask data (S16) and erroneous assumption of a person caused by a difference in color information is prevented by performing monochromatization (S18). Then the fine structure (for example, wrinkles) of the face of the person is made to be inconspicuous by performing histogram smoothing processing (S20).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、与えられた2次元
画像に現れている対象物(例えば人間の顔)と、それと
は別に用意された画像に現れている対象物との異同識別
のために行われる画像照合の方法及びそのための装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the identification of an object (for example, a human face) appearing in a given two-dimensional image and an object appearing in a separately prepared image. The present invention relates to a method of image collation performed on a computer and a device therefor.

【0002】[0002]

【従来の技術】同種の物(人間を含む)が現れている2
枚の画像を照合してそれらの物が同一のものであるかど
うかを判定する画像照合装置は、セキュリティ確保のた
めの人物認証や、防犯カメラで撮影された犯人像を用い
た犯人捜査等、様々な技術分野に応用されている。例え
ば、画像照合装置を人物の認証に利用する場合、ある人
物の照合対象部分(例えば、顔全体、目の虹彩、耳、指
紋)の画像(照合元画像)を、撮像手段等を用いて取得
し、その照合元画像を予めデータベースに保存しておい
た多数の画像(登録画像)とそれぞれ照合しつつ、所定
の評価関数を用いて算出される画像の一致度を示す値
(評価値)を登録画像毎に算出し、その値が所定値より
も高い登録画像が見つかれば、その人物は登録済みであ
ると判定する、という手順で人物の認証が行われる。ま
た、画像照合装置を犯人捜査に利用する場合、一般に、
防犯カメラで撮影された犯人の画像や犯行現場から採取
された指紋の画像を照合元画像として登録画像と照合
し、登録画像毎に評価値を算出し、評価値の高い登録画
像に対応する人物を被疑者とする、という手順で被疑者
の画像が検索される。
2. Description of the Related Art Objects of the same kind (including humans) appear.
An image matching device that compares images and determines whether those objects are the same is a person authentication for ensuring security, a criminal investigation using a criminal image taken with a security camera, etc. It is applied to various technical fields. For example, when the image matching apparatus is used to authenticate a person, an image (matching source image) of a matching target portion (for example, the entire face, iris, ears, and fingerprint of a face) of a certain person is obtained using an imaging unit or the like. Then, while comparing the collation source image with a large number of images (registered images) previously stored in a database, a value (evaluation value) indicating the degree of coincidence of images calculated using a predetermined evaluation function is determined. The calculation of each registered image is performed, and if a registered image whose value is higher than a predetermined value is found, the person is determined to be registered, and the person is authenticated. In addition, when using the image matching device for criminal investigation, generally,
A person who corresponds to a registered image with a high evaluation value by comparing an image of a criminal taken by a security camera or a fingerprint image collected from a crime scene with a registered image as a reference image and calculating an evaluation value for each registered image The image of the suspicious person is searched for in the procedure of setting as the suspect.

【0003】例えば、画像照合装置を人物認証に応用す
る場合、顔の照合対象部分をどう選ぶかが重要になる。
例えば、目の虹彩の画像を照合対象とする方法では、認
証対象者に撮像カメラのレンズを覗き込んでもらうこと
により虹彩の画像を取得するのが一般的であるが、この
ような方法には心理的に抵抗を感じる人もいる。これに
対し、顔全体が現れている画像(以下、顔画像とする)
を照合対象とする方法では、認証対象者に所定の場所に
立ってもらうといった簡単な動作をしてもらうだけで顔
画像を取得できる。
For example, when an image matching apparatus is applied to person authentication, it is important how to select a face matching target portion.
For example, in a method in which an iris image of an eye is to be compared, it is common to obtain an iris image by having a person to be authenticated look into a lens of an imaging camera. Some people feel psychologically resistant. On the other hand, an image showing the entire face (hereinafter referred to as a face image)
In the method in which is a collation target, a face image can be acquired only by having the person to be authenticated perform a simple operation such as standing in a predetermined place.

【0004】[0004]

【発明が解決しようとする課題】一般に撮像カメラによ
り取り込まれた顔画像には顔だけでなくそのまわりの背
景も含まれる。このため、その画像をそのまま利用する
と、背景画像まで照合対象に含まれてしまい、顔識別の
信頼性が低下する。また、取り込まれた顔画像に現れて
いる人物が実際には既にデータベースに登録済みの人物
であっても、例えばその人物の髪型や日焼け具合が登録
時とは違ったり、認証時の照明の状態が登録時とは異な
ると、その人物は未登録であると誤認することがある。
また、データベースに保存された登録画像が、人物の顔
を1又は複数の所定方向(正面、左右側面等)から見た
ところを写した1又は複数の2次元画像から成る場合、
照合しようとする顔画像に現れている顔の向きが前記所
定方向のいずれかと一致していなければ正しい判定結果
が得られない。
Generally, a face image captured by an imaging camera includes not only a face but also a background around the face. Therefore, if the image is used as it is, even the background image is included in the comparison target, and the reliability of face identification is reduced. Also, even if the person appearing in the captured face image is actually a person already registered in the database, for example, the person's hairstyle or tanning condition is different from that at the time of registration, or the lighting condition at the time of authentication Is different from the time of registration, the person may be mistaken for being unregistered.
Further, when the registered image stored in the database is composed of one or a plurality of two-dimensional images in which a person's face is viewed from one or a plurality of predetermined directions (front, left and right sides, etc.),
If the direction of the face appearing in the face image to be collated does not match any of the predetermined directions, a correct determination result cannot be obtained.

【0005】本発明はこのような課題を解決するために
成されたものであり、その目的とするところは、顔画像
を用いて人物の認証や検索等を行う際にデータ処理に応
用される顔画像照合方法において、人物識別の信頼性を
高めることにある。
The present invention has been made to solve such a problem, and an object thereof is to be applied to data processing when performing authentication or search of a person using a face image. An object of the face image matching method is to enhance the reliability of person identification.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に成された本発明に係る顔画像照合方法は、2つの2次
元顔画像である照合元画像及び照合先画像を照合して該
2つの顔画像に現れている2つの顔の一致度を評価する
顔画像照合方法であって、前記2つの顔画像に現れてい
る顔の大きさ及び各顔画像内における顔の位置を一致さ
せるための正規化処理、所定のマスクデータに基づいて
前記2つの顔画像の所定領域をマスクすることにより顔
領域を抽出するためのマスク処理、各顔画像を必要に応
じてモノクロ画像に変換するモノクロ化処理、及び前記
正規化処理、マスク処理及びモノクロ化処理を施した各
顔画像の階調を落とすための低階調化処理、を含むこと
を特徴とする。
A face image collating method according to the present invention, which has been made to solve the above problem, collates two two-dimensional face images, ie, a collation source image and a collation destination image. A face image matching method for evaluating the degree of coincidence of two faces appearing in one face image, the method including matching the size of the face appearing in the two face images and the position of the face in each face image. Normalization processing, mask processing for extracting a face area by masking a predetermined area of the two face images based on predetermined mask data, and converting each face image to a monochrome image as necessary And a tone reduction process for reducing the tone of each face image that has been subjected to the normalization process, the mask process, and the monochrome process.

【0007】[0007]

【発明の実施の形態】本発明に係る顔画像照合方法にお
いて、照合元画像とは、例えば認証用又は防犯用の撮像
カメラの出力信号を処理して得られる2次元顔画像で、
照合先画像とは、例えばデータベースに予め登録された
顔画像データから再現される2次元顔画像である。ここ
で、データベースに登録された顔画像データそのものは
必ずしも2次元画像データである必要はなく、例えば、
顔の3次元形状を表す3次元画像データであってもよ
い。この場合、3次元画像データを所定の方法で処理し
て得られる2次元顔画像(所定の2次元平面への顔の投
影像)を照合先画像とする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the face image collating method according to the present invention, the collation source image is a two-dimensional face image obtained by processing an output signal of an imaging camera for authentication or security, for example.
The collation destination image is, for example, a two-dimensional face image reproduced from face image data registered in advance in a database. Here, the face image data itself registered in the database does not necessarily have to be two-dimensional image data.
It may be three-dimensional image data representing the three-dimensional shape of the face. In this case, a two-dimensional face image (projection image of the face onto a predetermined two-dimensional plane) obtained by processing the three-dimensional image data by a predetermined method is used as a verification target image.

【0008】照合元画像及び照合先画像の画像データに
対して実行される各処理について以下に説明する。
[0008] Each process executed on the image data of the collation source image and the collation destination image will be described below.

【0009】正規化処理は、2つの2次元顔画像に現れ
ている顔の大きさ及び各画像内における位置を一致させ
る処理である。この処理は、例えば、顔に含まれる複数
の特徴点(例えば、目、鼻、口、耳といった顔の各構成
部位の中心や端点)を予め指定しておき、2つの顔画像
の対応する指定特徴点の位置(各画像内における座標の
値)ができるだけ近くなるように、一方又は両方の画像
の拡大/縮小、回転、一部切り出し、移動等を行う、と
いう手順で行われる。なお、照合先画像が3次元画像デ
ータを所定の方法で処理して得られた2次元顔画像であ
る場合は、この正規化処理の前に、照合元画像に現れて
いる顔の向きを照合先画像に現れている顔の向きと一致
させる方向補正処理を行うことが望ましい。
The normalization process is a process for matching the size of a face appearing in two two-dimensional face images and the position in each image. In this process, for example, a plurality of feature points included in the face (for example, the center and end points of each component of the face such as eyes, nose, mouth, and ears) are specified in advance, and the corresponding specification of two face images is specified. Enlargement / reduction, rotation, partial cutout, movement, and the like of one or both images are performed in such a manner that the positions of the feature points (coordinate values in each image) are as close as possible. If the verification target image is a two-dimensional face image obtained by processing the three-dimensional image data by a predetermined method, the face direction appearing in the verification source image is verified before this normalization processing. It is desirable to perform a direction correction process that matches the direction of the face appearing in the previous image.

【0010】上記方向補正処理には、例えば、本出願人
により先に成された特許出願である特願平11−358
33号に記載の3次元有向体の定位方法が好適に応用で
きる。ここで、3次元有向体とは、3次元空間において
向き及び回転位置を定義することができる物体のこと
で、人間の顔もその一例である。上記特許出願に記載の
発明による方法は、3次元有向体(顔)の特徴点のうち
3次元空間内で同一平面上にない4つの特徴点を含む複
数の特徴点を指定特徴点として予め定め、第一の3次元
有向体(顔)を写した2次元画像である照合元画像にお
いて前記指定特徴点の2次元座標データを取得し、第二
の3次元有向体(顔)の3次元形状データを処理するこ
とにより3次元仮想空間においてある方向に向いた前記
第二の3次元有向体(顔)の3次元像を生成し、該3次
元像の所定平面への投影像を生成してこれを照合先画像
とし、該照合先画像において前記指定特徴点の2次元座
標データを取得し、前記3次元形状データと前記照合元
画像及び前記照合先画像において取得された前記指定特
徴点の2次元座標データとを所定の方法で処理すること
により、前記照合元画像における前記指定特徴点の位置
関係と前記照合先画像における前記指定特徴点の位置関
係との一致の度合を示すチェック値が最適化されるよう
な、前記3次元像の前記3次元仮想空間における向きを
求めること、を特徴とするものである。この方法によれ
ば、例えば、パーソナルコンピュータの画像表示装置の
画面に表示された画像内の指定特徴点を入力装置(マウ
ス等)の操作により指定するというような簡単な作業を
行うだけで、照合元画像に現れている第一の顔を撮影し
た方向と同じ方向から見た第二の顔の2次元画像が表示
される。このように2つの2次元顔画像に現れている顔
の向きを一致させれば、人物認識の信頼性が大幅に高ま
る。
The above-mentioned direction correction processing is performed, for example, in Japanese Patent Application No. 11-358, which is a patent application previously filed by the present applicant.
The localization method for a three-dimensional directed object described in No. 33 can be suitably applied. Here, the three-dimensional directional object is an object whose direction and rotation position can be defined in a three-dimensional space, and a human face is one example. In the method according to the invention described in the above-mentioned patent application, a plurality of feature points including four feature points that are not on the same plane in a three-dimensional space among feature points of a three-dimensional directed body (face) are designated as designated feature points in advance. And obtaining the two-dimensional coordinate data of the specified feature point in the collation source image which is a two-dimensional image of the first three-dimensional directed object (face), By processing the three-dimensional shape data, a three-dimensional image of the second three-dimensional oriented body (face) facing a certain direction in the three-dimensional virtual space is generated, and a projection image of the three-dimensional image on a predetermined plane is generated. Is generated as a reference image, the two-dimensional coordinate data of the specified feature point is acquired in the reference image, and the three-dimensional shape data and the designated image acquired in the reference image and the reference image are acquired. Process the two-dimensional coordinate data of the feature points with a predetermined method By this, a check value indicating the degree of matching between the positional relationship of the designated feature point in the collation source image and the positional relationship of the designated feature point in the collation destination image is optimized, Determining an orientation in the three-dimensional virtual space. According to this method, for example, the collation can be performed only by performing a simple operation such as designating a designated feature point in an image displayed on a screen of an image display device of a personal computer by operating an input device (such as a mouse). A two-dimensional image of the second face viewed from the same direction as the direction in which the first face appearing in the original image was captured is displayed. If the directions of the faces appearing in the two two-dimensional face images are matched in this way, the reliability of the person recognition is greatly increased.

【0011】マスク処理は、所定のマスクデータに基づ
いて2つの顔画像の所定領域をマスクすることにより顔
領域を抽出する処理である。この処理は、例えば、照合
元画像の画像データを所定の方法で処理することにより
照合元画像における顔領域を認識し、その顔領域を抽出
するようなマスクデータを生成し、それに基づいて両方
の顔画像にマスクを施す、という手順で行われる。もち
ろん、照合先画像を同様の方法で処理することによりマ
スクデータを生成するようにしてもよい。更にまた、各
顔画像からそれぞれ得られる2つの顔領域の論理和又は
論理積を求め、それに基づいてマスクデータを生成して
もよい。このようなマスク処理により、人物識別にとっ
て不要な背景画像の情報が削除され、識別の信頼性が高
められる。
The mask process is a process of extracting a face region by masking a predetermined region of two face images based on predetermined mask data. In this processing, for example, by processing image data of the collation source image by a predetermined method, a face area in the collation source image is recognized, and mask data for extracting the face area is generated. The mask is applied to the face image. Of course, mask data may be generated by processing the collation destination image in a similar manner. Furthermore, a logical sum or a logical product of two face regions obtained from each face image may be obtained, and mask data may be generated based on the logical sum or the logical product. By such a mask process, information of the background image unnecessary for the person identification is deleted, and the reliability of the identification is improved.

【0012】顔画像における顔領域の認識は、従来より
知られている画像データ処理(例えば、人間の肌色に相
当する色の画素を検出する処理)により行うようにすれ
ばよい。なお、データベースに顔画像データを登録する
際に予め顔領域の画像データのみを抽出するマスク処理
を施して登録することが好ましい。照合先画像からマス
クデータを生成する処理は極めて簡単なものとなるた
め、好ましい。
Recognition of a face area in a face image may be performed by conventionally known image data processing (for example, processing for detecting a pixel having a color corresponding to human flesh color). In addition, when registering the face image data in the database, it is preferable to perform a mask process for extracting only the image data of the face area in advance and register the same. The process of generating mask data from a collation destination image is extremely simple, and is therefore preferable.

【0013】モノクロ化処理は、各顔画像を所定の階調
のモノクロ画像に変換する処理である。このような処理
は、人物認識の信頼性を損なわないばかりか、むしろ信
頼性を高めるものである。すなわち、顔画像を用いた人
物認識に色情報が利用されると、例えば化粧や照明の変
化に応じて顔領域の色情報が変化することにより人物誤
認の確率が高まるという問題が生じる。そこで、上記の
ようなモノクロ化処理を施すことにより、色情報の変化
の影響がなくなり、認識の信頼性が高まるのである。な
お、モノクロ化の階調は、元の画像データから得られる
できるだけ高い階調とすることが望ましい。なお、原画
像が既にモノクロ画像である場合は、この処理を行う必
要はない。
The monochrome conversion process is a process for converting each face image into a monochrome image having a predetermined gradation. Such a process not only does not impair the reliability of person recognition but also enhances the reliability. That is, when color information is used for person recognition using a face image, a problem arises in that, for example, the color information of the face area changes according to a change in makeup or lighting, and the probability of a person being erroneously recognized increases. Therefore, by performing the above-described monochrome processing, the influence of a change in color information is eliminated, and the reliability of recognition is improved. Note that it is desirable that the gradation for monochrome conversion be as high as possible from the original image data. If the original image is already a monochrome image, there is no need to perform this processing.

【0014】低階調化処理は、正規化処理、マスク処理
及びモノクロ化処理を施した各顔画像の階調を低くする
処理である。この処理を行うことにより、例えば、照明
の影響による顔画像の明るさの差がなくなるという効果
や、顔の微細構造(例えば、しわ)が目立たなくなると
いう効果が得られる。なお、低階調化処理の一例として
は、ヒストグラム平滑処理が挙げられる。
The gradation reduction processing is processing for lowering the gradation of each face image which has been subjected to the normalization processing, the mask processing, and the monochrome processing. By performing this processing, for example, an effect that the difference in brightness of the face image due to the influence of the illumination disappears and an effect that the fine structure (for example, wrinkles) of the face becomes inconspicuous can be obtained. As an example of the gradation lowering processing, there is a histogram smoothing processing.

【0015】[0015]

【発明の効果】以上のように、本発明に係る顔画像照合
方法では、マスク処理、モノクロ化処理及び低階調化処
理という3つの処理を組み合わせることにより、画像デ
ータから人物識別にとって重要な情報のみを抽出してい
るため、人物識別において高い信頼性が達成される。
As described above, in the face image collating method according to the present invention, by combining the three processes of the mask process, the monochrome process, and the gradation lowering process, the important information for the person identification is obtained from the image data. Since only those are extracted, high reliability is achieved in the person identification.

【0016】[0016]

【実施例】本発明に係る画像照合方法に従って画像処理
を行う顔画像照合装置について図面を参照しながら説明
する。図2は本実施例の顔画像照合装置の概略的構成を
示す図である。図2の装置1は、所定のプログラムに従
ってデータ処理を行う中央制御装置11、使用者が中央
制御装置(CPU)11へ命令やデータを入力するため
の入力装置(マウス、キーボード等)12、画像を表示
するための表示装置(CRT、LCD等)13、及び、
各種データやプログラムが保存された外部記憶装置(ハ
ードディスクドライブ等)14を備えるパーソナルコン
ピュータ10を用いて構成されている。外部記憶装置1
4には、予め採取された多数の人物の顔の3次元画像デ
ータ及び個人情報データ(氏名、住所等)等から成るデ
ータベース15が構築されている。また、CPU11に
は、ビデオ再生装置16やスキャナ17が接続されてい
る。なお、パーソナルコンピュータ10にはオペレーテ
ィングシステムとしてWindows(米国マイクロソ
フト社の登録商標)がインストールされているものとす
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A face image collating apparatus for performing image processing according to an image collating method according to the present invention will be described with reference to the drawings. FIG. 2 is a diagram showing a schematic configuration of the face image matching device of the present embodiment. The device 1 shown in FIG. 2 includes a central control device 11 that performs data processing according to a predetermined program, an input device (mouse, keyboard, etc.) 12 for a user to input commands and data to the central control device (CPU) 12, an image, Display device (CRT, LCD, etc.) 13 for displaying
The personal computer 10 includes an external storage device (such as a hard disk drive) 14 in which various data and programs are stored. External storage device 1
4, a database 15 including three-dimensional image data and personal information data (name, address, etc.) of a large number of human faces collected in advance is constructed. Further, the CPU 11 is connected with a video reproducing device 16 and a scanner 17. It is assumed that Windows (registered trademark of Microsoft Corporation, USA) is installed on the personal computer 10 as an operating system.

【0017】この顔画像照合装置1を用いた画像照合の
手順について以下に説明する。まず、使用者が入力装置
12を操作して画像照合プログラムを起動すると、CP
U11が表示装置13に図4のようなウィンドウ20を
表示する。このウィンドウ20には、照合元画像が表示
される領域(以下、2D画像表示領域21とよぶ)及び
照合先画像が表示される領域(以下、3D投影領域22
とよぶ)という2つの画像表示領域、8つのコマンドボ
タン23〜30及びマッチング度が表示されるテキスト
ボックス31が備えられている。なお、各画像表示領域
において、横方向にX軸(図面で右方向が正)をとり、
縦方向にY軸(図面で下方向が正)をとるものとする。
The procedure of image collation using the face image collation apparatus 1 will be described below. First, when the user starts the image collation program by operating the input device 12, the CP
U11 displays a window 20 as shown in FIG. In this window 20, an area in which a collation source image is displayed (hereinafter, referred to as a 2D image display area 21) and an area in which a collation destination image is displayed (hereinafter, a 3D projection area 22)
), Eight command buttons 23 to 30, and a text box 31 for displaying the matching degree. In each image display area, the X axis is taken in the horizontal direction (the right direction in the drawing is positive),
It is assumed that the Y axis is taken in the vertical direction (the downward direction is positive in the drawing).

【0018】次に、使用者はCPU11に照合元画像の
取り込み命令を出す。例えば、既に照合元画像のデータ
が外部記憶装置14に保存済みである場合、使用者は2
D画像表示領域21の上に配置された選択ボタン23を
クリックする。また、写真から画像を取り込む場合、使
用者は、その写真をスキャナ17にセットしてから、ス
キャンボタン24をクリックする。また、ビデオテープ
に録画された映像から画像を取り込む場合、使用者はそ
のビデオテープをビデオ再生装置16にセットして録画
映像を再生し、取り込みたい場面でキャプチャボタン2
5をクリックする。上記いずれかの操作を行うと、2D
画像表示領域21に顔画像が表示される。この顔画像が
照合元画像となる。
Next, the user issues a command to the CPU 11 to capture the reference source image. For example, if the data of the collation source image has already been stored in the external storage device 14,
A selection button 23 arranged on the D image display area 21 is clicked. When taking in an image from a photograph, the user sets the photograph on the scanner 17 and then clicks the scan button 24. When capturing an image from a video recorded on a videotape, the user sets the videotape on the video reproducing device 16 to reproduce the recorded video, and presses a capture button 2 at a scene to be captured.
5 Click By performing any of the above operations, 2D
The face image is displayed in the image display area 21. This face image becomes the collation source image.

【0019】次に、使用者が3D投影領域22の上に配
置されたDB選択ボタン26をクリックすると、CPU
11はファイル選択ウィンドウ(図示せず)を表示装置
13の画面に表示する。このウィンドウで、使用者は、
照合したい人物の顔画像のデータファイルを選択する。
なお、ファイル選択ウィンドウに、選択されたファイル
の顔画像及び個人情報を表示するデータベース閲覧機能
を設けると、顔画像の選択が容易となり、好ましい。フ
ァイル選択ウィンドウで、ある人物のファイルが選択さ
れると、CPU11はその人物に対応する3次元画像デ
ータを読み出し、3次元仮想空間内にその人物の顔の3
次元像(以下、3D原像と呼ぶ)を生成するとともに、
その人物の顔を正面から見た像(顔の前に配置された2
次元平面への投影像)を表す2次元画像データを生成
し、その画像を3D投影領域22に表示する。以下、こ
の画像を3D投影像と呼ぶ。
Next, when the user clicks a DB selection button 26 arranged above the 3D projection area 22, the CPU
11 displays a file selection window (not shown) on the screen of the display device 13. In this window, the user
Select the data file of the face image of the person you want to match.
It is preferable that the file selection window be provided with a database browsing function for displaying the face image and the personal information of the selected file, because the face image can be easily selected. When a file of a certain person is selected in the file selection window, the CPU 11 reads out the three-dimensional image data corresponding to the certain person and places the three-dimensional image of the person's face in the three-dimensional virtual space.
A three-dimensional image (hereinafter referred to as a 3D original image) is generated,
Image of the person's face viewed from the front (2 placed in front of the face)
Two-dimensional image data representing a two-dimensional image projected on a two-dimensional plane is generated, and the image is displayed in the 3D projection area 22. Hereinafter, this image is referred to as a 3D projection image.

【0020】次に、先に言及した特願平11−3583
3号に記載の方法による照合先画像の方向補正処理を行
うための準備作業を行う。まず、使用者が点指定ボタン
29をクリックすると、処理は点指定モードに入る。こ
のモードでは、使用者が、2D画像表示領域21に表示
された照合元画像の中で、予め顔において定められた複
数の特徴点を順にクリックする。本実施例では、左瞼先
端点P1、右瞼先端点P2、鼻根点P3、鼻尖点P4、
口裂正中点P5、左耳朶点P6及び右耳朶点P7をクリ
ックするものとする。なお、図4の2D画像表示領域2
1に表示された照合元画像では、右耳朶点が顔に隠れて
いてクリックできない。このため、点P7は、方向補正
処理に利用されない捨て点として、顔領域の外にダミー
設定されている。更に、使用者は、3D投影像について
も同様に7つの特徴点をクリックする。なお、予め7つ
の特徴点の座標情報をデータベースに保存しておくこと
により、3D投影像については特徴点をクリックする作
業を不要とするようにしてもよい。
Next, the above-mentioned Japanese Patent Application No. 11-3583 is disclosed.
A preparatory work for performing the direction correction processing of the collation destination image by the method described in No. 3 is performed. First, when the user clicks the point designation button 29, the process enters a point designation mode. In this mode, the user sequentially clicks a plurality of feature points predetermined on the face in the collation source image displayed in the 2D image display area 21. In the present embodiment, the left eyelid tip point P1, the right eyelid tip point P2, the nose root point P3, the nose tip point P4,
It is assumed that the cleft median point P5, the left earlobe point P6, and the right earlobe point P7 are clicked. The 2D image display area 2 shown in FIG.
In the collation source image displayed in No. 1, the right earlobe point is hidden by the face and cannot be clicked. Therefore, the point P7 is dummy set outside the face area as a discard point not used in the direction correction processing. Further, the user similarly clicks seven feature points for the 3D projection image. Note that the coordinate information of the seven feature points may be stored in the database in advance, so that the operation of clicking the feature points may not be necessary for the 3D projection image.

【0021】特徴点の指定が完了した後、使用者が実行
ボタン30をクリックすると、CPU11が画像照合処
理を実行する。CPU11が実行する画像照合処理の手
順について図1のフローチャートを参照しながら説明す
る。なお、以下の説明において、照合元画像は24ビッ
ト(16777216色)のカラー画像であり、その大
きさは縦512×横512(画素)であるものとする。
When the user clicks the execution button 30 after the designation of the feature points is completed, the CPU 11 executes the image collation processing. The procedure of the image matching process executed by the CPU 11 will be described with reference to the flowchart of FIG. In the following description, it is assumed that the collation source image is a 24-bit (16777216 color) color image and has a size of 512 × 512 (pixels).

【0022】ステップS10では、3D投影領域22に
現れている顔が照合元画像に現れている顔と同じ方向を
向くように、3次元仮想空間内で3D原像を回転させる
処理(方向補正処理)を行う。この処理は、特願平11
−35833号に記載されたような手順で実行される。
In step S10, a process of rotating the 3D original image in the three-dimensional virtual space (direction correction process) so that the face appearing in the 3D projection area 22 faces in the same direction as the face appearing in the reference original image. )I do. This processing is based on Japanese Patent Application Hei 11
It is performed according to the procedure described in US Pat.

【0023】ステップS12では、各画像表示領域内に
おける顔の位置及び大きさを一致させる処理(正規化処
理)を行う。具体的には、例えば、画像表示領域内にお
ける鼻尖点P4の座標を両画像で一致させるための平行
移動処理と、予め指定された2つの特徴点の距離(例え
ば、2つの瞼先端点P1及びP2の距離)を両画像で一
致させるための拡大/縮小処理を行う。
In step S12, processing (normalization processing) for matching the position and size of the face in each image display area is performed. Specifically, for example, a parallel movement process for matching the coordinates of the nose cusp P4 in the image display area in both images, and a distance between two pre-designated feature points (for example, two eyelid tip points P1 and P2) Enlargement / reduction processing for matching (P2 distance) in both images is performed.

【0024】ステップS14では、照合の信頼性を損な
わない範囲でデータ処理量を減らすために画像の解像度
を落とす処理を行う。本実施例では、解像度を1/4に
落とすものとする。この結果、画像の大きさ(画素換
算)は縦128×横128(画素)となり、各画像の画
素数は1/16(n=16384画素)となる。解像度
を落とした後の画像について、2D画像表示領域21を
構成するn個の画素データをP(i,j,bp)とし、
3D投影領域22を構成するn個の画素データをQ
(i,j,bq)とする。ここで、i及びjはX座標及
びY座標を示す変数で、いずれも0から127までの整
数である。画素データP及びQに含まれる変数bp及び
bqは画素の明るさを示す値を格納するための変数であ
る。
In step S14, a process of reducing the resolution of the image is performed to reduce the amount of data processing within a range that does not impair the reliability of the collation. In this embodiment, the resolution is reduced to 1/4. As a result, the size (pixel conversion) of the image is 128 × 128 (pixels), and the number of pixels of each image is 1/16 (n = 16384 pixels). Regarding the image after the resolution has been reduced, n pixel data constituting the 2D image display area 21 is P (i, j, bp),
The n pieces of pixel data constituting the 3D projection area 22 are represented by Q
(I, j, bq). Here, i and j are variables indicating the X coordinate and the Y coordinate, both of which are integers from 0 to 127. The variables bp and bq included in the pixel data P and Q are variables for storing a value indicating the brightness of the pixel.

【0025】ステップS16では、3D投影領域22の
中で顔領域に相当する座標群を抽出する。これは、3D
原像の3次元座標データから計算により求められる。次
に、この顔領域(顔の輪郭上及びその内側に存在する画
素群)を抽出するためのn個のマスクデータM(i,
j,m)を生成する。マスクデータM(i,j,m)
は、対応する座標(i,j)と、その座標(i,j)の
画素をマスクするかどうかを示す値を格納するための変
数mを含む。マスクデータM(i,j,m)のmの値
は、座標(i,j)が顔領域に含まれる場合は0とし、
そうでない場合は1とする。このようにして生成された
マスクデータM(i,j,m)に基づいて、2D画像表
示領域21に表示された照合元画像にマスク処理を施
す。すると、図5にて斜線で示したように照合元画像が
マスクされ、顔領域のみが浮かび上がる。
In step S16, a coordinate group corresponding to the face area is extracted from the 3D projection area 22. This is 3D
It is obtained by calculation from the three-dimensional coordinate data of the original image. Next, n mask data M (i, i, n) for extracting this face region (pixel groups existing on and inside the contour of the face)
j, m). Mask data M (i, j, m)
Contains a corresponding coordinate (i, j) and a variable m for storing a value indicating whether to mask the pixel at the coordinate (i, j). The value of m of the mask data M (i, j, m) is set to 0 when the coordinates (i, j) are included in the face area,
Otherwise, it is set to 1. Based on the mask data M (i, j, m) generated in this way, a mask process is performed on the comparison source image displayed in the 2D image display area 21. Then, the matching source image is masked as indicated by hatching in FIG. 5, and only the face region emerges.

【0026】ステップS18では、両画像をモノクロ化
する。モノクロ化の階調はできるだけ高い階調とする。
ただし、データベースに保存された3次元画像データが
所定階調のモノクロ画像データである場合、照合元画像
の階調が前記所定階調と同一となるように、照合元画像
にのみモノクロ化処理を施す。ここでは、例として、両
画像を256階調のモノクロ画像にするものとする。
In step S18, both images are converted to monochrome. The gradation for monochrome conversion is as high as possible.
However, if the three-dimensional image data stored in the database is monochrome image data of a predetermined gradation, the monochrome conversion processing is performed only on the reference original image so that the gradation of the reference original image is the same as the predetermined gradation. Apply. Here, as an example, both images are assumed to be 256-tone monochrome images.

【0027】ステップS20では、ヒストグラム平滑処
理により両画像の階調を落とす。本実施例の場合、例え
ば256階調から64階調へ落とす。処理後の照合元画
像及び3D投影像の各画素毎に、その明るさを示す値
(例えば、0から63までの整数)を画素データP、Q
の変数bp、bqに格納する。
In step S20, the gradation of both images is reduced by histogram smoothing. In the case of this embodiment, for example, the gradation is reduced from 256 gradations to 64 gradations. For each pixel of the collation source image and the 3D projection image after the processing, a value indicating the brightness (for example, an integer from 0 to 63) is set to pixel data P and Q.
In the variables bp and bq.

【0028】ステップS22では、顔領域を構成する座
標群(m=0である座標群)を対象として、座標(i,
j)を媒介変数とした両画像の明るさ変数bpと変数b
qとの間の相関係数R1を求める。
In step S22, the coordinates (i, i) are set for the coordinates (m = 0) constituting the face area.
The brightness variable bp and the variable b of both images with j) as a parameter
A correlation coefficient R1 with q is obtained.

【0029】ステップS24では、顔画像のX軸への投
影像の明るさ分布を示すヒストグラムを各画像毎に生成
し、両ヒストグラムの相関係数R2を求める。また、ス
テップS26では、顔画像のY軸への投影像の明るさ分
布を示すヒストグラムを各画像毎に生成し、両ヒストグ
ラムの相関係数R3を求める。例として、3D投影領域
22に表示された3D投影像のX軸及びY軸への投影像
の明るさ分布を示す2つのヒストグラムを図3に示す。
In step S24, a histogram indicating the brightness distribution of the projected image of the face image on the X axis is generated for each image, and a correlation coefficient R2 between the two histograms is obtained. In step S26, a histogram indicating the brightness distribution of the projected image of the face image on the Y axis is generated for each image, and the correlation coefficient R3 between the two histograms is obtained. As an example, FIG. 3 shows two histograms showing the brightness distribution of the projected image on the X axis and the Y axis of the 3D projected image displayed in the 3D projected area 22.

【0030】ステップS28では、上記3つの相関係数
R1、R2及びR3を引数とする評価関数によりマッチ
ング度を算出する。マッチング度の算出方法は適宜決定
すればよい。マッチング度の一例としては、上記3つの
相関係数の積(R1×R2×R3)が挙げられる。算出
されたマッチング度の値はテキストボックス31に表示
される。
In step S28, a matching degree is calculated by an evaluation function using the above three correlation coefficients R1, R2 and R3 as arguments. The method of calculating the matching degree may be determined as appropriate. An example of the matching degree is a product of the above three correlation coefficients (R1 × R2 × R3). The value of the calculated matching degree is displayed in the text box 31.

【0031】上記のように算出されたマッチング度の値
に基づいて、使用者は2つの顔画像が同一人物のもので
あるかどうかを判定する。もしそれらの顔画像が同一人
物のものでないと判定された場合は、DB選択ボタン2
6をクリックしてファイルを選択し直す。既に照合処理
済みの人物の顔画像及び照合結果を再度確認したい場合
は、前データボタン27及び次データボタン28を適宜
クリックすることにより、所望の人物の顔画像及び照合
結果を画面に再表示することができる。
Based on the value of the degree of matching calculated as described above, the user determines whether the two face images belong to the same person. If it is determined that the face images do not belong to the same person, the DB selection button 2
6 Click and select the file again. If the user wants to confirm the face image of the person who has already undergone the collation processing and the collation result again, he or she clicks the previous data button 27 and the next data button 28 as appropriate to redisplay the face image of the desired person and the collation result on the screen. be able to.

【0032】以上、本発明の一実施例について説明した
が、上記実施例の記載は何ら本発明を限定するものでは
ない。例えば、上記説明では、ヒストグラム平滑処理に
よりモノクロ画像の階調を64階調に落とすものとした
が、この階調値は64階調に限られるものではない。ま
た、上記説明では、3D投影像(照合先画像)の顔領域
を抽出するマスクにより照合元画像をマスクするように
したが、照合元画像そものをイメージ分析することによ
りそれ自体用のマスクを作成してもよい。また、上記説
明では、画像の解像度を落とすようにしたが、この処理
はデータ処理量を減らすために行うもので、本発明にと
って必須ではない。また、上記実施例の顔画像照合装置
は、顔画像を用いた人物認証装置や人物検索装置に利用
可能であることは当業者にとって自明である。
Although the embodiment of the present invention has been described above, the description of the above embodiment does not limit the present invention in any way. For example, in the above description, the gradation of the monochrome image is reduced to 64 gradations by the histogram smoothing process, but this gradation value is not limited to 64 gradations. In the above description, the reference source image is masked by the mask for extracting the face area of the 3D projection image (reference destination image). However, the image of the reference source image itself is subjected to image analysis to form a mask for itself. May be created. In the above description, the resolution of the image is reduced. However, this processing is performed to reduce the amount of data processing, and is not essential to the present invention. It is obvious to those skilled in the art that the face image matching device of the above embodiment can be used for a person authentication device and a person search device using a face image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例である顔画像照合装置によ
り実行される照合処理の手順を示すフローチャート。
FIG. 1 is a flowchart illustrating a procedure of a matching process performed by a face image matching device according to an embodiment of the present invention.

【図2】 上記顔画像照合装置の概略的構成を示す図。FIG. 2 is a diagram showing a schematic configuration of the face image matching device.

【図3】 3D投影領域に表示された顔画像(3D投影
像)のX軸及びY軸への投影像の明るさ分布を示す2つ
のヒストグラム。
FIG. 3 is two histograms showing the brightness distribution of the projected image on the X axis and the Y axis of the face image (3D projected image) displayed in the 3D projection area.

【図4】 表示装置に表示されるウィンドウを示す図。FIG. 4 is a view showing a window displayed on the display device.

【図5】 上記ウィンドウにおいて画像にマスクをかけ
たところを示す図。
FIG. 5 is a view showing a state where an image is masked in the window.

【符号の説明】[Explanation of symbols]

1…顔画像照合装置 10…パーソナルコンピュータ 11…中央制御装置(CPU) 12…入力装置 13…表示装置 14…外部記憶装置 15…データベース DESCRIPTION OF SYMBOLS 1 ... Face image collation device 10 ... Personal computer 11 ... Central control device (CPU) 12 ... Input device 13 ... Display device 14 ... External storage device 15 ... Database

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B043 AA09 BA04 CA03 EA03 EA04 EA08 EA09 EA13 EA15 FA09 GA04 GA10 HA02 HA06 HA07 HA08 5L096 AA02 AA06 BA08 BA18 CA02 DA01 DA02 EA06 EA13 EA14 EA37 EA45 FA34 FA36 HA08 JA03 JA09 JA11  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B043 AA09 BA04 CA03 EA03 EA04 EA08 EA09 EA13 EA15 FA09 GA04 GA10 HA02 HA06 HA07 HA08 5L096 AA02 AA06 BA08 BA18 CA02 DA01 DA02 EA06 EA13 EA14 EA37 JA11 JA03

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 2つの2次元顔画像である照合元画像及
び照合先画像を照合して該2つの顔画像に現れている2
つの顔の一致度を評価する顔画像照合方法であって、 前記2つの顔画像に現れている顔の大きさ及び各顔画像
内における顔の位置を一致させるための正規化処理、 所定のマスクデータに基づいて前記2つの顔画像の所定
領域をマスクすることにより顔領域を抽出するためのマ
スク処理、 各顔画像を必要に応じてモノクロ画像に変換するモノク
ロ化処理、及び前記正規化処理、マスク処理及びモノク
ロ化処理を施した各顔画像の階調を落とすための低階調
化処理、を含むことを特徴とする顔画像照合方法。
1. A collation source image and a collation destination image, which are two two-dimensional face images, are collated and appear in the two face images.
A face image matching method for evaluating the degree of coincidence of two faces, a normalization process for matching the size of the face appearing in the two face images and the position of the face in each face image, a predetermined mask Mask processing for extracting a face area by masking a predetermined area of the two face images based on the data, monochrome processing for converting each face image to a monochrome image as needed, and the normalization processing, A face image matching method, comprising: a tone reduction process for reducing the tone of each face image that has been subjected to a mask process and a monochrome process.
【請求項2】 上記照合先画像は、予め顔領域の画像デ
ータのみを抽出するマスク処理を施した後にデータベー
スに保存された画像データから生成された2次元顔画像
であり、上記マスクデータは前記画像データに基づいて
生成されることを特徴とする請求項1に記載の顔画像照
合方法。
2. The collation destination image is a two-dimensional face image generated from image data stored in a database after performing a mask process for extracting only image data of a face area in advance, and the mask data is The face image matching method according to claim 1, wherein the face image matching method is generated based on image data.
【請求項3】 顔の特徴点のうち3次元空間内で同一平
面上にない4つの特徴点を含む複数の特徴点を指定特徴
点として予め定め、 第一の顔を写した2次元画像である上記照合元画像にお
いて前記指定特徴点の2次元座標データを取得し、 第二の顔の3次元形状データを処理することにより3次
元仮想空間においてある方向に向いた前記第二の顔の3
次元像を生成し、該3次元像の所定平面への投影像を生
成してこれを上記照合先画像とし、該照合先画像におい
て前記指定特徴点の2次元座標データを取得し、 前記3次元形状データと前記照合元画像及び前記照合先
画像において取得された前記指定特徴点の2次元座標デ
ータとを所定の方法で処理することにより、前記照合元
画像における前記指定特徴点の位置関係と前記照合先画
像における前記指定特徴点の位置関係との一致の度合を
示すチェック値が最適化されるような、前記3次元像の
前記3次元仮想空間における向きを求めること、を特徴
とする請求項1又は2に記載の顔画像照合方法。
3. A plurality of feature points including four feature points that are not on the same plane in a three-dimensional space among feature points of a face are determined in advance as designated feature points, and a two-dimensional image of the first face is defined. The two-dimensional coordinate data of the designated feature point is obtained from the certain collation source image, and the three-dimensional shape data of the second face is processed to obtain the three-dimensional shape of the second face in a certain direction in the three-dimensional virtual space.
Generating a three-dimensional image, generating a projection image of the three-dimensional image on a predetermined plane, and using the generated three-dimensional image as the reference image, obtaining two-dimensional coordinate data of the designated feature point in the reference image, By processing the shape data and the two-dimensional coordinate data of the designated feature point acquired in the comparison source image and the comparison destination image by a predetermined method, the positional relationship between the designated feature point in the comparison source image and the The orientation of the three-dimensional image in the three-dimensional virtual space is determined so that a check value indicating a degree of coincidence with the positional relationship of the designated feature point in a collation destination image is optimized. 3. The face image matching method according to 1 or 2.
【請求項4】 2つの2次元顔画像である照合元画像及
び照合先画像を照合して該2つの顔画像に現れている2
つの顔の一致度を評価するための顔画像照合装置であっ
て、 前記2つの顔画像に現れている顔の大きさ及び各顔画像
内における顔の位置を一致させるための正規化手段、 所定のマスクデータに基づいて前記2つの顔画像の所定
領域をマスクすることにより顔領域を抽出するためのマ
スク手段、 各顔画像を必要に応じてモノクロ画像に変換するモノク
ロ化手段、及び前記正規化処理、マスク処理及びモノク
ロ化処理を施した各顔画像の階調を落とすための低階調
化手段、を備えることを特徴とする顔画像照合装置。
4. A collation source image and a collation destination image, which are two two-dimensional face images, are collated and appear in the two face images.
A face image collating device for evaluating the degree of coincidence of two faces, a normalizing means for matching the size of the face appearing in the two face images and the position of the face in each face image; Masking means for extracting a face area by masking a predetermined area of the two face images based on the mask data of the above, monochrome converting means for converting each face image into a monochrome image as required, and the normalization A face image matching apparatus, comprising: a tone reduction unit for reducing the tone of each face image that has been subjected to the processing, the mask processing, and the monochrome processing.
JP11144343A 1999-05-25 1999-05-25 Method and device for collating facial image Pending JP2000331167A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11144343A JP2000331167A (en) 1999-05-25 1999-05-25 Method and device for collating facial image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11144343A JP2000331167A (en) 1999-05-25 1999-05-25 Method and device for collating facial image

Publications (1)

Publication Number Publication Date
JP2000331167A true JP2000331167A (en) 2000-11-30

Family

ID=15359911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11144343A Pending JP2000331167A (en) 1999-05-25 1999-05-25 Method and device for collating facial image

Country Status (1)

Country Link
JP (1) JP2000331167A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062868A (en) * 2002-07-10 2004-02-26 Hewlett-Packard Development Co Lp Digital camera and method for identifying figure in image
JP2004239742A (en) * 2003-02-05 2004-08-26 Toyota Motor Corp Surface determining apparatus and method
JP2006053853A (en) * 2004-08-16 2006-02-23 Fuji Photo Film Co Ltd Authentication system
JP2007133560A (en) * 2005-11-09 2007-05-31 Secom Co Ltd Near infrared face image preparation device, near infrared face image preparation method, and face image collation device
JP2007140946A (en) * 2005-11-18 2007-06-07 Secom Co Ltd Face image collation device and face image registration method for collation
JP2008009617A (en) * 2006-06-28 2008-01-17 Glory Ltd System, program, and method for individual biological information collation
WO2008102473A1 (en) * 2007-02-20 2008-08-28 Kabushiki Kaisha Toshiba Face authenticating device and face authenticating method
JP2009284084A (en) * 2008-05-20 2009-12-03 Sharp Corp Image collating method, image collating apparatus, image data output apparatus, program, and storage medium
US8007062B2 (en) 2005-08-12 2011-08-30 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
US8184901B2 (en) 2007-02-12 2012-05-22 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a person's appearance based on a digital image
US8942775B2 (en) 2006-08-14 2015-01-27 Tcms Transparent Beauty Llc Handheld apparatus and method for the automated application of cosmetics and other substances
CN104471589A (en) * 2012-07-11 2015-03-25 皇家飞利浦有限公司 Patient interface identification system
US10092082B2 (en) 2007-05-29 2018-10-09 Tcms Transparent Beauty Llc Apparatus and method for the precision application of cosmetics
US10486174B2 (en) 2007-02-12 2019-11-26 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent electrostatically to improve the visual attractiveness of human skin
CN112001268A (en) * 2020-07-31 2020-11-27 中科智云科技有限公司 Face calibration method and device

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062868A (en) * 2002-07-10 2004-02-26 Hewlett-Packard Development Co Lp Digital camera and method for identifying figure in image
US7843495B2 (en) 2002-07-10 2010-11-30 Hewlett-Packard Development Company, L.P. Face recognition in a digital imaging system accessing a database of people
JP2004239742A (en) * 2003-02-05 2004-08-26 Toyota Motor Corp Surface determining apparatus and method
JP4585254B2 (en) * 2004-08-16 2010-11-24 富士フイルム株式会社 Authentication system
JP2006053853A (en) * 2004-08-16 2006-02-23 Fuji Photo Film Co Ltd Authentication system
US11445802B2 (en) 2005-08-12 2022-09-20 Tcms Transparent Beauty, Llc System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
US9247802B2 (en) 2005-08-12 2016-02-02 Tcms Transparent Beauty Llc System and method for medical monitoring and treatment through cosmetic monitoring and treatment
US11147357B2 (en) 2005-08-12 2021-10-19 Tcms Transparent Beauty, Llc System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
US8007062B2 (en) 2005-08-12 2011-08-30 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
US10016046B2 (en) 2005-08-12 2018-07-10 Tcms Transparent Beauty, Llc System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
US8915562B2 (en) 2005-08-12 2014-12-23 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to improve the visual attractiveness of human skin
JP4606304B2 (en) * 2005-11-09 2011-01-05 セコム株式会社 Near-infrared face image creation device, near-infrared face image creation method, and face image collation device
JP2007133560A (en) * 2005-11-09 2007-05-31 Secom Co Ltd Near infrared face image preparation device, near infrared face image preparation method, and face image collation device
JP2007140946A (en) * 2005-11-18 2007-06-07 Secom Co Ltd Face image collation device and face image registration method for collation
JP2008009617A (en) * 2006-06-28 2008-01-17 Glory Ltd System, program, and method for individual biological information collation
US10043292B2 (en) 2006-08-14 2018-08-07 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a person's appearance based on a digital image
US8942775B2 (en) 2006-08-14 2015-01-27 Tcms Transparent Beauty Llc Handheld apparatus and method for the automated application of cosmetics and other substances
US9449382B2 (en) 2006-08-14 2016-09-20 Tcms Transparent Beauty, Llc System and method for applying a reflectance modifying agent to change a persons appearance based on a digital image
US10486174B2 (en) 2007-02-12 2019-11-26 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent electrostatically to improve the visual attractiveness of human skin
US8582830B2 (en) 2007-02-12 2013-11-12 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a persons appearance based on a digital image
US8184901B2 (en) 2007-02-12 2012-05-22 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a person's appearance based on a digital image
US10163230B2 (en) 2007-02-12 2018-12-25 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a person's appearance based on a digital image
US10467779B2 (en) 2007-02-12 2019-11-05 Tcms Transparent Beauty Llc System and method for applying a reflectance modifying agent to change a person's appearance based on a digital image
WO2008102473A1 (en) * 2007-02-20 2008-08-28 Kabushiki Kaisha Toshiba Face authenticating device and face authenticating method
US10092082B2 (en) 2007-05-29 2018-10-09 Tcms Transparent Beauty Llc Apparatus and method for the precision application of cosmetics
JP2009284084A (en) * 2008-05-20 2009-12-03 Sharp Corp Image collating method, image collating apparatus, image data output apparatus, program, and storage medium
JP2015533519A (en) * 2012-07-11 2015-11-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Patient interface identification system
CN104471589A (en) * 2012-07-11 2015-03-25 皇家飞利浦有限公司 Patient interface identification system
CN112001268A (en) * 2020-07-31 2020-11-27 中科智云科技有限公司 Face calibration method and device
CN112001268B (en) * 2020-07-31 2024-01-12 中科智云科技有限公司 Face calibration method and equipment

Similar Documents

Publication Publication Date Title
JP3753722B2 (en) Extraction method of tooth region from tooth image and identification method and apparatus using tooth image
Steiner et al. Reliable face anti-spoofing using multispectral swir imaging
US8649575B2 (en) Method and apparatus of a gesture based biometric system
US7003135B2 (en) System and method for rapidly tracking multiple faces
JP3337988B2 (en) Individual identification device
JP2000331167A (en) Method and device for collating facial image
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
KR20170002308A (en) Apparatus for and method of processing image based on object region
JP2005293061A (en) User interface device and user interface program
KR102316165B1 (en) Apparatus and method for generating attack image of deep learning based face recognition system
JP2012185769A (en) Authentication device, authentication method, authentication program, and storage medium
US9501710B2 (en) Systems, methods, and media for identifying object characteristics based on fixation points
JP5748421B2 (en) Authentication device, authentication method, authentication program, and recording medium
JPH10222678A (en) Device for detecting object and method therefor
JP2007026308A (en) Image processing method and image processor
CN112287909B (en) Double-random in-vivo detection method for randomly generating detection points and interactive elements
CN114202677A (en) Method and system for authenticating an occupant in a vehicle interior
JPH10340342A (en) Individual identification device
JP2007025901A (en) Image processor and image processing method
Lin et al. Pose classification of human faces by weighting mask function approach
WO2022180890A1 (en) Biometric authentication system, authentication terminal, and authentication method
JP2001331804A (en) Device and method for detecting image area
JP2004013768A (en) Individual identification method
CN113421197B (en) Processing method and processing system of beautifying image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060613