JP2012128792A - Personal authentication device and computer program - Google Patents

Personal authentication device and computer program Download PDF

Info

Publication number
JP2012128792A
JP2012128792A JP2010281768A JP2010281768A JP2012128792A JP 2012128792 A JP2012128792 A JP 2012128792A JP 2010281768 A JP2010281768 A JP 2010281768A JP 2010281768 A JP2010281768 A JP 2010281768A JP 2012128792 A JP2012128792 A JP 2012128792A
Authority
JP
Japan
Prior art keywords
face image
feature point
point data
collation
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010281768A
Other languages
Japanese (ja)
Inventor
Fumiyoshi Mochizuki
史吉 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010281768A priority Critical patent/JP2012128792A/en
Publication of JP2012128792A publication Critical patent/JP2012128792A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a personal authentication device and a computer program which can properly perform personal authentication even when the authentication is performed with data including an area in which feature point data is not extracted.SOLUTION: A personal authentication device comprises: division means 3 for dividing a face image into a plurality of areas; second extraction means 4 for extracting pieces of feature point data from all areas in which feature point data can be extracted; registration means 6 for registering pieces of registration feature point data of a registration face image; and collation means 7 for, for each corresponding area, collating collation feature point data of a collation face image with the registration feature point data, and based on collation results, performing collation of the entire collation face image and the entire registration face image. Based on only collation results of areas in which both the collation feature data and the corresponding registration feature point data are extracted, the collation means 7 performs the collation of the collation face image and the registration face image.

Description

本発明は、画像を利用した人物認証装置およびコンピュータプログラムに関する。特に、人物を認証対象とし、当該人物から取得した顔画像を、予め登録された顔画像と照合することにより、当該人物が予め登録された人物であるかを判定する人物認証装置およびコンピュータプログラムに関する。   The present invention relates to a person authentication device and a computer program using an image. In particular, the present invention relates to a person authentication apparatus and a computer program for determining whether a person is a pre-registered person by comparing a face image acquired from the person with a face image registered in advance by using the person as an authentication target. .

人物認証装置を用いて人物認証をする場合、まず、人物(例えば歩行者)から顔画像を取得するために、人物の動線に向けて撮像カメラを設置する。   When performing person authentication using a person authentication device, first, in order to acquire a face image from a person (for example, a pedestrian), an imaging camera is installed toward the flow line of the person.

次に、撮像カメラの撮影領域に侵入してきた人物の顔画像を単位時間あたり数コマで撮影して、画像中にある人物の顔画像を検出する。   Next, the face image of a person who has entered the shooting area of the imaging camera is shot at several frames per unit time, and the face image of the person in the image is detected.

検出した顔画像と、予め登録された顔画像とを照合することにより、その顔画像が、予め登録した人物と同一人物の顔画像であるかを判断する。このような動作をもって、人物の認証を行う。   By comparing the detected face image with a pre-registered face image, it is determined whether the face image is a face image of the same person as the pre-registered person. With this operation, the person is authenticated.

ここで、検出した顔画像の顔幅が所定の大きさ以上である場合には、顔画像を同一人物あたり複数枚取得して、その後の顔照合処理に供給することができる。   Here, when the face width of the detected face image is greater than or equal to a predetermined size, a plurality of face images can be acquired for the same person and supplied to the subsequent face matching process.

また、取得した顔画像での認証精度の向上、認証スピードの向上のため、顔画像を任意のサイズに分割して、各々の分割単位ごとに照合させるものも開示されている(例えば、特許文献1参照)。   In addition, in order to improve the authentication accuracy and the authentication speed of an acquired face image, a face image is divided into arbitrary sizes and collated for each division unit (for example, patent document) 1).

さらに、同様の目的で、顔画像を9つのエリアに分割して、各々のエリア毎に特徴抽出を行い、照合させるものも開示されている(例えば、特許文献2参照)。   Furthermore, for the same purpose, there is also disclosed a technique in which a face image is divided into nine areas, feature extraction is performed for each area, and collation is performed (for example, see Patent Document 2).

また、顔の特徴点の定め方について、例えば特許文献3に開示されている。   Further, for example, Patent Document 3 discloses a method for determining facial feature points.

特開2006−85249号公報JP 2006-85249 A 特開2009−211425号公報JP 2009-2111425 A 特開昭61−175509号公報JP-A-61-175509

しかし、特許文献1に示す場合では、顔画像を任意のサイズに分割する点で、顔画像には、眉毛・眼・鼻・口・ほおなどの部位があるにもかかわらず、任意に分割するために、眼や鼻等の部位が分割されるケースもあり、認証精度に影響を及ぼすケースができてしまうという問題があった。   However, in the case shown in Patent Document 1, the face image is divided into arbitrary sizes, and the face image is arbitrarily divided even though there are parts such as eyebrows, eyes, nose, mouth, and cheeks. For this reason, there are cases where parts such as the eyes and the nose are divided, and there is a problem that the case where the authentication accuracy is affected can be created.

また、特許文献2に示す場合では、顔画像を9つのエリアに分割して、各々のエリア毎に特徴点を抽出して、照合しようとしているが、各々のエリアでも、歩行者の顔が髪の毛で眉毛が見えなかったり、眼をふさいでいたり、照合用顔画像として利用できない場合、当該エリアは不整合扱いとなり、その他のエリアが合致しても認証されないケースが発生してしまうという問題があった。   Further, in the case shown in Patent Document 2, the face image is divided into nine areas, and feature points are extracted for each area to be collated. If you cannot see your eyebrows, cover your eyes, or use it as a face image for verification, the area will be treated as inconsistent, and even if other areas match, there will be a case where you are not authenticated. It was.

本発明は、上記のような問題を解決すべくなされたものであり、特徴点が抽出されないエリアがある場合でも、適切に人物認証が可能な人物認証装置およびコンピュータプログラムの提供を目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a person authentication device and a computer program capable of appropriately performing person authentication even when there is an area where feature points are not extracted.

本発明にかかる人物認証装置は、顔画像のデータに対し、前記顔画像を複数のエリアに分割する処理を行う、分割手段と、前記複数のエリア毎に特徴点データを抽出する処理を、当該抽出が可能な全エリアに対して行う、抽出手段と、照合の基準とすべき登録顔画像について前記抽出した前記特徴点データを、登録顔画像の登録特徴点データとして予め登録する登録手段と、照合の対象とすべき照合対象顔画像について前記抽出した前記特徴点データである、照合対象顔画像の照合対象特徴点データと、前記登録特徴点データとを、対応する各エリア毎に照合し、当該照合結果に基づいて、前記照合対象顔画像と前記登録顔画像との照合を行う照合手段とを備え、前記照合手段は、前記照合対象特徴点データと、対応する前記登録特徴点データとの双方が抽出されたエリアにおける照合結果のみに基づいて、前記照合対象顔画像と前記登録顔画像との照合を行う。   The person authentication device according to the present invention includes a dividing unit that performs a process of dividing the face image into a plurality of areas, and a process of extracting feature point data for each of the plurality of areas. Extraction means for performing all extraction possible areas; registration means for previously registering the extracted feature point data as registered feature point data of a registered face image with respect to a registered face image to be used as a reference for collation; The matching feature point data of the matching target face image, which is the extracted feature point data of the matching target face image to be a matching target, and the registered feature point data are matched for each corresponding area, A collation unit configured to collate the face image to be collated with the registered face image based on the collation result, wherein the collation unit includes the matching target feature point data and the corresponding registered feature point data; Based collation result only in both is extracted areas and performs collation with the registered face image and the collation target face image.

本発明にかかる第1の人物認証装置によれば、顔画像を複数のエリアに分割する処理を行う、分割手段と、前記複数のエリア毎に特徴点データを抽出する処理を、当該抽出が可能な全エリアに対して行う、抽出手段と、照合の基準とすべき登録顔画像について前記抽出した前記特徴点データを、登録顔画像の登録特徴点データとして予め登録する登録手段と、照合対象顔画像の照合対象特徴点データと、前記登録特徴点データとを、対応する各エリア毎に照合し、当該照合結果に基づいて、前記照合対象顔画像と前記登録顔画像との照合を行う照合手段とを備え、前記照合手段は、前記照合対象特徴点データと、対応する前記登録特徴点データとの双方が抽出されたエリアにおける照合結果のみに基づいて、前記照合対象顔画像と前記登録顔画像との照合を行うことにより、特徴点データを抽出できないエリアを除いて顔画像の登録、照合を行うことができ、無駄な照合を減らし、照合での誤認証を減らすことができる。   According to the first person authentication device of the present invention, it is possible to extract the dividing unit that performs the process of dividing the face image into a plurality of areas and the process of extracting the feature point data for each of the plurality of areas. Extraction means for all areas, registration means for previously registering the extracted feature point data as registered feature point data of a registered face image for a registered face image to be used as a reference for comparison, and a face to be verified Collation means for collating image target feature point data and registered feature point data for each corresponding area, and collating the collation target face image with the registered face image based on the collation result And the collating means includes the collation target face image and the registered face based only on a collation result in an area where both the collation target feature point data and the corresponding registered feature point data are extracted. By performing the matching between the image, the registration face image with the exception of the areas that can not extract the feature point data, verification can be performed, reducing unnecessary verification can reduce the false certificate of the collation.

実施の形態1にかかる人物認証装置の構成ブロック図である。1 is a configuration block diagram of a person authentication device according to a first embodiment; 実施の形態1にかかる人物認証装置の、登録動作を示すフローチャートである。3 is a flowchart showing a registration operation of the person authentication device according to the first exemplary embodiment; 実施の形態1にかかる人物認証装置の、照合動作を示すフローチャートである。3 is a flowchart showing a collation operation of the person authentication device according to the first exemplary embodiment. 顔画像の分割の様子を示す図である。It is a figure which shows the mode of a division | segmentation of a face image. 顔画像の分割と特徴点データのデータ内容リストを示す図である。It is a figure which shows the division | segmentation of a face image, and the data content list of feature point data. 特徴点抽出の具体例を示す図である。It is a figure which shows the specific example of feature point extraction. 顔画像の分割と特徴点データのデータ内容リストを示す図である。It is a figure which shows the division | segmentation of a face image, and the data content list of feature point data. 顔画像の分割と特徴点データのデータ内容リストを示す図である。It is a figure which shows the division | segmentation of a face image, and the data content list of feature point data. 顔画像の分割と特徴点データのデータ内容リストを示す図である。It is a figure which shows the division | segmentation of a face image, and the data content list of feature point data. 顔画像の分割と特徴点データのデータ内容リストを示す図である。It is a figure which shows the division | segmentation of a face image, and the data content list of feature point data. 顔画像の分割の様子を示す図である。It is a figure which shows the mode of a division | segmentation of a face image.

<A.実施の形態1>
<A−1.構成>
図1に、本発明にかかる人物認証装置の構成図を示す。なお、人物認証装置は、ソフトウェアで実現可能であり、当該ソフトウェアは、コンピュータにインストールされて実行されることにより、コンピュータを人物認証装置として機能させることができる。
<A. Embodiment 1>
<A-1. Configuration>
FIG. 1 shows a configuration diagram of a person authentication device according to the present invention. Note that the person authentication device can be realized by software, and the software can be installed in a computer and executed, thereby causing the computer to function as a person authentication device.

図に示すように人物認証装置は、撮像領域内の画像を撮像する撮像手段1と、撮像手段1において取得した人物画像から、人物の顔画像(照合対象顔画像)を抽出する第1抽出手段2と、照合対象顔画像のデータに対し、複数のエリアに分割する処理を行う分割手段3とを備える。本発明では、分割手段3において分割できる顔画像のデータが取得できさえすればよく、人物画像を取得する手段や、人物画像から顔画像を抽出する手段は、必須の構成ではない。すなわち、撮像手段1、第1抽出手段2は、顔画像(照合対象顔画像および後述する登録顔画像)のデータが別途の手段から付与される場合には、必ずしも備えられなくともよい。ここで、分割手段3における分割エリアは、それぞれ任意に設定することができ、例えば、後述する特徴点データを抽出しやすいよう、顔における特徴となる部分(眼、鼻、口等)ごとに対応させて設定するのが望ましい。   As shown in the figure, the person authentication device includes an image pickup unit 1 that picks up an image in an image pickup region, and a first extraction unit that extracts a person face image (a face image to be collated) from the person image acquired by the image pickup unit 1. 2 and a dividing unit 3 that performs processing for dividing the data of the face image to be collated into a plurality of areas. In the present invention, it is only necessary to acquire face image data that can be divided by the dividing means 3, and means for acquiring a person image and means for extracting a face image from a person image are not indispensable configurations. That is, the image pickup unit 1 and the first extraction unit 2 do not necessarily have to be provided when data of face images (a face image to be collated and a registered face image to be described later) is provided from a separate unit. Here, the divided areas in the dividing means 3 can be arbitrarily set, for example, corresponding to each part (eye, nose, mouth, etc.) that is a feature of the face so that feature point data described later can be easily extracted. It is desirable to set it.

さらに、照合対象顔画像の、分割した各エリアごとに特徴点を、特徴点データ(特に、照合対象顔画像について抽出した特徴点データを、照合対象特徴点データとする)として抽出する第2抽出手段4(抽出手段)を備える。当該抽出処理は、抽出が可能なエリア全てに行われるものである。ここで特徴点とは、顔の外形、眉毛、眼、鼻、耳、口等の位置、大きさ、太さ、角度等と、それらの相対関係を指す(例えば、特許文献3参照)。各々のエリア毎での特徴点データの抽出とは、顔のパーツ(顔の外形、眉毛、眼、鼻、耳、口等)の位置、大きさ、太さ、角度等を計測し、抽出することである。   Further, a second extraction is performed for extracting feature points for each divided area of the face image to be collated as feature point data (particularly, feature point data extracted for the face image to be collated is used as collation target feature point data). Means 4 (extraction means) is provided. The extraction process is performed on all areas where extraction is possible. Here, the feature points refer to positions, sizes, thicknesses, angles, and the like of the outer shape of the face, eyebrows, eyes, nose, ears, mouth, and the like, and their relative relationships (see, for example, Patent Document 3). Extraction of feature point data for each area is to measure and extract the position, size, thickness, angle, etc. of facial parts (face outline, eyebrows, eyes, nose, ears, mouth, etc.). That is.

第2抽出手段4において抽出された特徴点データは、チェック手段5において、画像(または撮像された人物)の状態によって特徴点データを抽出できなかったエリアがないかどうかがチェックされる。   The feature point data extracted by the second extraction unit 4 is checked by the check unit 5 to determine whether there is an area in which the feature point data could not be extracted depending on the state of the image (or the imaged person).

照合動作の場合、照合手段7において、得られた照合対象顔画像の照合対象特徴点データと、登録手段6に予め登録されている登録顔画像の登録特徴点データとが、対応するエリアごとに照合される。このとき、チェック手段5において、特徴点データが抽出できなかったと判断されたエリアについては、照合対象から除外する。   In the case of the collation operation, the collation unit 7 obtains the collation target feature point data of the obtained collation target face image and the registered feature point data of the registered face image registered in advance in the registration unit 6 for each corresponding area. Matched. At this time, the area for which it is determined by the check means 5 that feature point data could not be extracted is excluded from collation targets.

ここで、登録手段6における登録顔画像とは、照合の基準とすべき顔画像であり、照合対象顔画像と同様に、取得された人物画像から顔画像が抽出されたものであり、登録手段6における登録特徴点データは、分割されたエリア毎に特徴点データが抽出されたものである。分割エリアは、照合対象特徴点データと登録特徴点データとで、対応するように設定されている。   Here, the registered face image in the registration means 6 is a face image to be used as a reference for collation, and is similar to the face image to be collated and is obtained by extracting a face image from the acquired person image. The registered feature point data in 6 is obtained by extracting feature point data for each divided area. The divided areas are set so as to correspond to the matching target feature point data and the registered feature point data.

照合結果に基づいて、照合対象顔画像と登録顔画像との照合を行い、照合対象顔画像に表示された顔の人物が予め登録しておいた人物と一致すると判断される場合には、通知手段8によって通知することができる。   Based on the result of the verification, the verification target face image and the registered face image are verified, and if it is determined that the face person displayed in the verification target face image matches the person registered in advance, a notification is sent. Notification can be made by means 8.

<A−2.登録動作>
図2は、登録顔画像および登録特徴点データの登録動作を示すフローチャートである。
<A-2. Registration operation>
FIG. 2 is a flowchart showing a registration operation of a registered face image and registered feature point data.

まず、撮像手段1を用いて人物画像を取得、さらに第1抽出手段2において顔画像を抽出して、分割手段3に入力する(ステップS11)。   First, a person image is acquired using the imaging unit 1, and a face image is extracted by the first extracting unit 2 and input to the dividing unit 3 (step S11).

分割手段3において、入力された顔画像の処理対象領域を終端構造・正規化を行う(ステップS12)。さらに顔画像を5つのエリアに分割し(ステップS13)、第2抽出手段4において、各エリア毎に特徴点データを抽出する(ステップS14)。抽出の具体的内容としては、各エリアにおいて、顔のパーツ(例えば、顔の外形、眉毛、眼、鼻、耳、口等)の位置、大きさ、太さ、角度等を計測する。   In the dividing unit 3, the processing target area of the input face image is subjected to termination structure / normalization (step S12). Further, the face image is divided into five areas (step S13), and the second extraction means 4 extracts feature point data for each area (step S14). As specific contents of extraction, the position, size, thickness, angle, and the like of facial parts (for example, the outer shape of the face, eyebrows, eyes, nose, ears, mouth, etc.) are measured in each area.

図4に、顔画像の処理対象領域5つのエリア分割を示す。図4(a)は、顔画像入力後、処理対象領域を終端構造・正規化した画像である。これを、向かって左眉毛・右眉毛・左眼・右眼・眼の下の鼻/口/頬エリアに分割したものが図4(b)である。さらに、それぞれのエリアに対して、A領域(左眉毛)・B領域(右眉毛)・C領域(左眼)・D領域(右眼)・E領域(鼻/口/頬)と設定する(図4(c))。   FIG. 4 shows five area divisions of the face image processing target area. FIG. 4A shows an image obtained by terminating and normalizing the processing target area after inputting the face image. FIG. 4B shows the result of dividing this into the left eyebrow, right eyebrow, left eye, right eye, and nose / mouth / cheek area under the eye. Further, for each area, A area (left eyebrows), B area (right eyebrows), C area (left eye), D area (right eye), and E area (nose / mouth / cheek) are set ( FIG. 4 (c)).

取得した顔画像には、髪の毛が眉毛に掛かっているものや、髪の毛が眼に掛かっているもの等がある。このようなケースでは、例えば、眉毛の位置・大きさ・太さ・角度等を計測する場合に、眉毛形状を把握できないために、眉毛の位置・大きさ・太さ・角度等の測定が不能となる。このため、各々のエリアに分割された顔画像にて、特徴点データを抽出できない場合がある。このように特徴点データが抽出できなかったエリアが存在するか否かを、チェック手段5においてチェックする(図2のステップS15)。   Acquired face images include those in which the hair is applied to the eyebrows and those in which the hair is applied to the eyes. In such a case, for example, when measuring the position, size, thickness, angle, etc. of the eyebrows, it is impossible to measure the position, size, thickness, angle, etc. of the eyebrows because the shape of the eyebrows cannot be grasped. It becomes. For this reason, the feature point data may not be extracted from the face image divided into each area. Thus, the check means 5 checks whether or not there is an area where feature point data could not be extracted (step S15 in FIG. 2).

図5に、特徴点データのデータ内容リストを示す。図5(a)は、図4(b)(c)に対応する、顔画像のエリアを示したものであり、図5(b)は、顔画像に対応する特徴点データの、抽出されたパターンを示したものである。   FIG. 5 shows a data content list of feature point data. FIG. 5A shows the area of the face image corresponding to FIGS. 4B and 4C, and FIG. 5B shows the extracted feature point data corresponding to the face image. It shows a pattern.

図5(b)に示すような、抽出されない特徴点データが存在するようなケースの具体例を、図6に示す。例えば、向かって左眉毛が髪の毛で掛かってしまった場合、図6(a)に示すように、眉毛の上の境目が見えなくなってしまい、特徴点データを抽出できないと判断される。   A specific example of a case where there is feature point data that is not extracted as shown in FIG. 5B is shown in FIG. For example, when the left eyebrow is covered with hair, as shown in FIG. 6 (a), the boundary above the eyebrows becomes invisible and it is determined that feature point data cannot be extracted.

又、左眼に髪の毛が掛かってしまった場合、図6(b)に示すように、眼の眼球部分が覆い隠されてしまい、まぶたや瞳・眼の輪郭を取得できず、特徴点データを抽出できないと判断される。   If the left eye is covered with hair, as shown in FIG. 6 (b), the eyeball portion of the eye is obscured, and the eyelid, the pupil / eye contour cannot be obtained, and the feature point data is obtained. It is determined that it cannot be extracted.

第2抽出手段4においては、このようなエリアを除外して、特徴点データが抽出可能なエリアで構成される顔画像全体の特徴点データを抽出する(ステップS16)。顔画像全体に対して特徴点データを抽出するのは、エリア毎の特徴点データのみでは、顔の各パーツの計測ができるが、眼と眼との間や眼と鼻との間等の、各パーツ間の相対関係を計測できないからである。顔画像全体に対して特徴点データを抽出することで、顔の各パーツの計測とともに、パーツ内およびパーツ間の相対関係を計測することとしている。   The second extraction means 4 excludes such areas and extracts feature point data of the entire face image composed of areas from which feature point data can be extracted (step S16). The feature point data for the entire face image is extracted only by the feature point data for each area, but each part of the face can be measured, but between the eyes and between the eyes and the nose, This is because the relative relationship between the parts cannot be measured. By extracting feature point data from the entire face image, the relative relationship within and between parts is measured along with the measurement of each part of the face.

図6(c)は、例えば、向かって左眉毛が特徴点データを取れなかったケースのイメージ図となる。図6(d)は、例えば、向かって右眉毛が特徴点データを取れなかったケースのイメージ図となる。   FIG. 6C is an image diagram of a case where, for example, the left eyebrow cannot capture feature point data. FIG. 6D is an image diagram of a case in which the right eyebrow fails to obtain feature point data, for example.

ここで、特徴点データが抽出されたエリアについての登録動作を示す。   Here, the registration operation for the area from which the feature point data is extracted is shown.

登録顔画像の登録特徴点データが全エリアについて抽出されている場合に、対応する照合対象顔画像の照合対象特徴点データが、髪の毛が伸びていたり、眼に掛かってしまったりして、全エリアについては抽出されない場合がある。   When the registered feature point data of the registered face image has been extracted for all areas, the matching target feature point data of the corresponding face image to be matched may be extended to the eye or applied to the entire area. May not be extracted.

このような場合に、照合に用いる特徴点データとしては、双方の顔画像で抽出がされたエリアのみ、すなわち、一方の顔画像でも、特徴点データが抽出されていないエリアについては、照合対象から除外する。   In such a case, as the feature point data used for collation, only the area extracted from both face images, that is, the area from which no feature point data is extracted from one face image, is identified from the collation target. exclude.

よって、登録顔画像の特徴点データとしては、様々な抽出パターンの照合対象顔画像に対応するため、予め特徴点データの除外パターンを作成しておく(ステップS17)。すなわち、まず、抽出できた全てのエリアで特徴点データを登録(全エリアについて抽出できた場合は、全エリアについて登録)し、順次、各エリアの特徴点データが仮に抽出できなかったとして登録していく。登録は、登録手段6において行う(ステップS18)。   Therefore, as the feature point data of the registered face image, an exclusion pattern of the feature point data is created in advance in order to correspond to the face image to be collated with various extraction patterns (step S17). That is, first, feature point data is registered in all extracted areas (if all areas are extracted, they are registered for all areas), and sequentially registered as feature point data for each area could not be extracted. To go. Registration is performed in the registration means 6 (step S18).

登録時に、左眉毛エリアが髪の毛で隠れていた歩行者が、照合時にも、必ず左眉毛エリアが髪の毛で隠れた状態で歩行するとは限らない。風吹いていたり、髪の毛を短くしていたりすれば、特徴点データを抽出できなくなるエリアは変わってくる。   A pedestrian whose left eyebrow area is hidden by hair at the time of registration does not always walk with the left eyebrow area hidden by hair even at the time of verification. If the wind blows or the hair is shortened, the area where feature point data cannot be extracted changes.

このような場合であっても対応できるようにするため、様々なエリアの特徴点データが抽出できなかった除外パターンを作成しておく。   In order to cope with such a case, an exclusion pattern in which feature point data of various areas could not be extracted is created.

このように登録しておくことで、図5(b)に示すように、照合対象特徴点データの抽出パターンに応じて、登録特徴点データの抽出パターンを使い分けることができる。   By registering in this way, as shown in FIG. 5B, the extraction pattern of registered feature point data can be used properly according to the extraction pattern of matching target feature point data.

<A−3.照合動作>
図3は、照合対象顔画像および照合対象特徴点データの照合動作を示すフローチャートである。
<A-3. Verification operation>
FIG. 3 is a flowchart showing the collation operation of the collation target face image and the collation target feature point data.

まず、撮像手段1を用いて人物画像を取得、さらに第1抽出手段2において顔画像を抽出して、分割手段3に入力する(ステップS21)。   First, a person image is acquired using the imaging unit 1, and a face image is extracted by the first extracting unit 2 and input to the dividing unit 3 (step S21).

分割手段3において、入力された照合対象顔画像の処理対象領域を終端構造・正規化を行う(ステップS22)。さらに顔画像を5つのエリアに分割し(ステップS23)、第2抽出手段4において、各エリア毎に特徴点データを抽出する(ステップS24)。顔登録時と同様に、各エリアにおいて、顔のパーツ(例えば、顔の外形、眉毛、眼、鼻、耳、口等)の位置、大きさ、太さ、角度等を計測する。   In the dividing unit 3, the processing target area of the input collation target face image is subjected to termination structure / normalization (step S22). Further, the face image is divided into five areas (step S23), and the second extraction means 4 extracts feature point data for each area (step S24). As in the face registration, the position, size, thickness, angle, and the like of face parts (for example, face outline, eyebrows, eyes, nose, ears, mouth, etc.) are measured in each area.

特徴点データが抽出できなかったエリアが存在するか否かを、チェック手段5においてチェックする(ステップS25)。第2抽出手段4において、このようなエリアを除外して、特徴点データが抽出可能なエリアで構成される顔画像全体の特徴点データを抽出する(ステップS26)。   The check means 5 checks whether there is an area where feature point data could not be extracted (step S25). The second extraction unit 4 excludes such areas and extracts feature point data of the entire face image composed of areas from which feature point data can be extracted (step S26).

ここで、特徴点データが抽出されたエリアについての照合動作を示す。   Here, the collation operation for the area from which the feature point data is extracted is shown.

登録時に特徴点データが抽出されていないエリアが、照合時には特徴点データが抽出できる場合も生じる。例えば、登録時は長髪(眉毛が眼に掛かっている)にしていたが、照合時は髪を切って丸刈り(眉毛が眼に掛からない)にしているような場合である。   In some cases, an area from which feature point data is not extracted at the time of registration can be extracted at the time of matching. For example, long hair (the eyebrows are on the eyes) was registered at the time of registration, but the hair was cut and rounded (the eyebrows were not on the eyes) at the time of verification.

このため、照合対象顔画像の照合対象特徴点データについても、様々な抽出パターンの登録顔画像に対応するため、特徴点データの除外パターンを作成する(ステップS27)。すなわち、まず、抽出できた全エリアの特徴点データのうち、登録顔画像において特徴点データが抽出されたエリアの特徴点データを照合対象特徴点データとして抽出し、登録顔画像において特徴点データが抽出されなかったエリアの特徴点データは、仮に抽出できなかったとして照合から除外する。   For this reason, the feature point data exclusion pattern is created in order to correspond to the registered face images of various extraction patterns for the matching target feature point data of the matching target face image (step S27). That is, first, among the feature point data of all the areas that have been extracted, the feature point data of the area from which the feature point data has been extracted in the registered face image is extracted as the matching target feature point data. The feature point data of the area that has not been extracted is excluded from collation because it could not be extracted.

照合対象となる特徴点データが定まったら、照合対象特徴点データと登録特徴点データとを照合手段7において照合する(ステップS28)。   When the feature point data to be collated is determined, the collation target feature point data and the registered feature point data are collated by the collating means 7 (step S28).

照合の結果、照合対象特徴点データと登録特徴点データとが一致し、すなわち、照合対象顔画像と登録顔画像とが一致すると判断できる場合には、一致の通知をする(ステップS30)。また、不一致の場合には、非通知(ステップS31)とすることができるが、不一致の通知をしてもよい。   As a result of the collation, if it is determined that the collation target feature point data and the registered feature point data match, that is, it can be determined that the collation target face image and the registered face image match, notification of matching is given (step S30). In the case of a mismatch, non-notification (step S31) can be made, but a mismatch notification may be made.

登録特徴点データと照合対象特徴点データとの照合の例は、図7、8に示す。図7(a)は登録顔画像を正規化したものであり、登録特徴点データを抽出できないエリアがないケースである。図7(b)は、顔画像に対応する特徴点データの、抽出されたパターンを示したものである。特徴点データが各エリアで全て抽出できた場合(NO.1)から、向かって左眉毛なしの場合(NO.2)、その他各種の抽出パターンを備えている。   Examples of matching between registered feature point data and matching target feature point data are shown in FIGS. FIG. 7A shows a case where the registered face image is normalized, and there is no area where the registered feature point data cannot be extracted. FIG. 7B shows an extracted pattern of feature point data corresponding to a face image. There are various other extraction patterns from when all the feature point data can be extracted in each area (NO.1) to when there is no left eyebrow (NO.2).

図8(a)は照合対象顔画像を正規化したものであり、向かって左眉毛なしのパターン(NO.2)に相当する(図8(b))。ただ前述の通り、照合対象特徴点データが抽出できていないエリアが、登録特徴点データ抽出できているパターンだけとは限らないため、それ以外のパターンについても、特徴点データを抽出し備えている(図8(b))。   FIG. 8A is a normalized face image to be collated, and corresponds to a pattern without left eyebrows (NO. 2) (FIG. 8B). However, as described above, the area from which the feature point data to be collated cannot be extracted is not limited to the pattern from which the registered feature point data can be extracted. Therefore, the feature point data is also extracted for other patterns. (FIG. 8B).

照合対象顔画像が左眉毛なしのパターン(NO.2)なので、図8(b)のNO.2と、図7(b)のNO.2(登録顔画像の特徴点データリスト)とを照合することになる。当該照合は、照合手段7において行われる(図3のステップS28)。   Since the face image to be collated is a pattern without the left eyebrow (NO. 2), the NO. 2 and NO. 2 (feature point data list of registered face image). The collation is performed in the collation means 7 (step S28 in FIG. 3).

このように、特徴点データが抽出できなかったエリアの特徴点データを除外することで、無駄な照合動作を減らすことができる。更に、特徴点データが抽出されておらず、照合に使用できないエリアを用いて照合することに伴って生じる、誤認証を減らすことができる。その結果、人物認証スピードの向上にも寄与することができる。   Thus, by eliminating the feature point data of the area where the feature point data could not be extracted, it is possible to reduce useless collation operations. Furthermore, it is possible to reduce erroneous authentication that occurs when collation is performed using an area where feature point data is not extracted and cannot be used for collation. As a result, it is possible to contribute to the improvement of the person authentication speed.

さらに、登録特徴点データと照合対象特徴点データとの照合の例は、図9、10に示す。図9(a)は登録顔画像を正規化したものであり、左眉毛が髪の毛で隠れている。図9(b)は、顔画像に対応する特徴点データの、抽出されたパターンを示したものである。左眉毛が髪の毛で隠れているため、特徴点データが各エリアで全て抽出できた場合(NO.1)が作成されない。   Further, examples of matching between registered feature point data and matching target feature point data are shown in FIGS. FIG. 9A shows a normalized registered face image in which the left eyebrows are hidden by the hair. FIG. 9B shows an extracted pattern of feature point data corresponding to a face image. Since the left eyebrow is hidden by the hair, the case where all the feature point data can be extracted in each area (NO. 1) is not created.

図10(a)は照合対象顔画像を正規化したものであり、特徴点データを抽出できなかったエリアがないケースである。それ各種のパターンについても、特徴点データを抽出し備えている(図10(b))。   FIG. 10A shows a case where the face image to be collated is normalized and there is no area where feature point data could not be extracted. The feature point data is also extracted for various patterns (FIG. 10B).

登録顔画像が左眉毛なしのパターン(NO.2)なので、図9(b)のNO.2と、図10(b)のNO.2(照合対象顔画像の特徴点データリスト)とを照合することになる。当該照合は、照合手段7において行われる(図3のステップS28)。   Since the registered face image is the pattern without the left eyebrow (NO. 2), the NO. 2 and NO. 2 (the feature point data list of the face image to be collated) is collated. The collation is performed in the collation means 7 (step S28 in FIG. 3).

ここで、その他の顔画像(照合対象顔画像、登録顔画像)の分割パターンを図11に示す。図11(a)(b)は、鼻/口/頬部分を3つに分割するパターンである。A領域(左眉毛)・B領域(右眉毛)・C領域(左眼)・D領域(右眼)・E領域(左頬)・F領域(鼻/口)・G領域(右頬)と設定する(図11(b))。   Here, FIG. 11 shows division patterns of other face images (collation target face image, registered face image). FIGS. 11A and 11B are patterns in which the nose / mouth / cheek portion is divided into three. A region (left eyebrows), B region (right eyebrows), C region (left eye), D region (right eye), E region (left cheek), F region (nose / mouth), G region (right cheek) Setting is made (FIG. 11B).

図11(c)(d)は、鼻/口/頬部分を4つに分割するパターンである。A領域(左眉毛)・B領域(右眉毛)・C領域(左眼)・D領域(右眼)・E領域(左頬)・F領域(鼻)・G領域(口)・H領域(右頬)と設定する(図11(d))。   FIGS. 11C and 11D show patterns in which the nose / mouth / cheek portion is divided into four parts. A region (left eyebrows), B region (right eyebrows), C region (left eye), D region (right eye), E region (left cheek), F region (nose), G region (mouth), H region ( (Right cheek) is set (FIG. 11 (d)).

分割数が多くなる程、特徴点データを抽出できないエリアが増大することとなり、登録時・照合時の特徴点データリスト作成の負荷は増大する一方、照合の対象から除外するエリアを局所化できるため、認証精度向上につながる。   As the number of divisions increases, the area where feature point data cannot be extracted increases, and the load for creating feature point data lists during registration and verification increases, while the area excluded from verification can be localized , Leading to improved authentication accuracy.

<A−4.効果>
本発明にかかる実施の形態1によれば、人物認証装置において、顔画像を複数のエリアに分割する処理を行う、分割手段3と、抽出が可能な全エリアに対して特徴点データを抽出する、抽出手段としての第2抽出手段4と、登録顔画像の登録特徴点データを登録する登録手段6と、照合対象顔画像の照合対象特徴点データと、登録特徴点データとを、対応する各エリア毎に照合し、当該照合結果に基づいて、照合対象顔画像と登録顔画像との照合を行う照合手段7とを備え、照合手段7は、照合対象特徴点データと、対応する登録特徴点データとの双方が抽出されたエリアにおける照合結果のみに基づいて、照合対象顔画像と登録顔画像との照合を行うことで、特徴点データを抽出できないエリアを除いて顔画像の登録、照合を行うことができ、無駄な照合を減らし、照合での誤認証を減らすことができる。また、認証スピードの向上を図ることができる。
<A-4. Effect>
According to the first embodiment of the present invention, in the person authentication device, the dividing unit 3 that performs the process of dividing the face image into a plurality of areas, and the feature point data are extracted for all the areas that can be extracted. , Second extraction means 4 as extraction means, registration means 6 for registering registered feature point data of the registered face image, matching target feature point data of the matching target face image, and registered feature point data. A collating unit 7 that collates each area and collates the collation target face image with the registered face image based on the collation result. The collating unit 7 includes collation target feature point data and corresponding registered feature points. By collating the face image to be matched with the registered face image based only on the matching result in the area where both the data was extracted, registration and matching of the face image is performed except for areas where feature point data cannot be extracted. Can do , Reduce the wasteful verification, it is possible to reduce the false positives card in the match. In addition, the authentication speed can be improved.

さらに、照合不可能なエリアを照合対象から取り除くこととしているため、顔認証対象の歩行者等の、髪の毛の影響や表情の変化に、即時、臨機応変で対応することができるようになる。   Furthermore, since the area that cannot be collated is removed from the collation target, it is possible to immediately and flexibly cope with the influence of the hair and the change in facial expression of the face authentication target pedestrian or the like.

また、分割数が多くなる程、対象除外するエリアを局所化できるため、認証精度向上につながる。   Further, as the number of divisions increases, the area to be excluded can be localized, leading to an improvement in authentication accuracy.

また、本発明にかかる実施の形態1によれば、人物認証装置において、照合手段7における照合の結果、照合対象顔画像と登録顔画像とが一致する場合にのみ通知する通知手段8をさらに備えることで、効率的に通知することができる。   In addition, according to the first embodiment of the present invention, the person authentication apparatus further includes the notification unit 8 that notifies only when the collation target face image matches the registered face image as a result of the collation by the collation unit 7. Thus, notification can be made efficiently.

本発明の実施の形態では、各構成要素の材質、材料、実施の条件等についても記載しているが、これらは例示であって記載したものに限られるものではない。   In the embodiment of the present invention, the material, material, conditions for implementation, etc. of each component are also described, but these are examples and are not limited to those described.

1 撮像手段、2 第1抽出手段、3 分割手段、4 第2抽出手段、5 チェック手段、6 登録手段、7 照合手段、8 通知手段。   DESCRIPTION OF SYMBOLS 1 Image pickup means, 1st extraction means, 3 Division means, 2nd extraction means, 5 Check means, 6 Registration means, 7 Verification means, 8 Notification means

Claims (7)

顔画像のデータに対し、前記顔画像を複数のエリアに分割する処理を行う、分割手段と、
前記複数のエリア毎に特徴点データを抽出する処理を、当該抽出が可能な全エリアに対して行う、抽出手段と、
照合の基準とすべき登録顔画像について前記抽出した前記特徴点データを、登録顔画像の登録特徴点データとして予め登録する登録手段と、
照合の対象とすべき照合対象顔画像について前記抽出した前記特徴点データである、照合対象顔画像の照合対象特徴点データと、前記登録特徴点データとを、対応する各エリア毎に照合し、当該照合結果に基づいて、前記照合対象顔画像と前記登録顔画像との照合を行う照合手段とを備え、
前記照合手段は、前記照合対象特徴点データと、対応する前記登録特徴点データとの双方が抽出されたエリアにおける照合結果のみに基づいて、前記照合対象顔画像と前記登録顔画像との照合を行う、
人物認証装置。
Dividing means for performing processing for dividing the face image into a plurality of areas for the face image data;
Extraction means for performing the process of extracting the feature point data for each of the plurality of areas for all the areas that can be extracted;
Registration means for previously registering the extracted feature point data as registered feature point data of a registered face image with respect to a registered face image to be used as a reference for matching;
The matching feature point data of the matching target face image, which is the extracted feature point data of the matching target face image to be a matching target, and the registered feature point data are matched for each corresponding area, Based on the matching result, comprising a matching means for matching the matching target face image and the registered face image;
The collation means performs collation between the collation target face image and the registered face image based only on a collation result in an area where both the collation target feature point data and the corresponding registered feature point data are extracted. Do,
Person authentication device.
前記分割手段は、前記照合対象顔画像を正規化し、複数のエリアに分割する処理を行う、
請求項1に記載の人物認証装置。
The dividing unit performs processing for normalizing the matching target face image and dividing the face image into a plurality of areas.
The person authentication device according to claim 1.
前記分割手段は、前記照合対象顔画像を、左眉毛、右眉毛、左眼、右眼、および鼻/口/頬の5つのエリアに分割する処理を行う、
請求項1または2記載の人物認証装置。
The dividing means performs processing for dividing the collation target face image into five areas of left eyebrow, right eyebrow, left eye, right eye, and nose / mouth / cheek.
The person authentication device according to claim 1 or 2.
前記分割手段は、前記照合対象顔画像を、左眉毛、右眉毛、左眼、右眼、左頬、右頬、鼻/口の7つのエリアに分割する処理を行う、
請求項1または2記載の人物認証装置。
The dividing unit performs a process of dividing the collation target face image into seven areas of left eyebrow, right eyebrow, left eye, right eye, left cheek, right cheek, and nose / mouth.
The person authentication device according to claim 1 or 2.
前記分割手段は、前記照合対象顔画像を、左眉毛、右眉毛、左眼、右眼、左頬、右頬、鼻、口の8つのエリアに分割する処理を行う、
請求項1または2記載の人物認証装置。
The dividing means performs a process of dividing the verification target face image into eight areas of a left eyebrow, a right eyebrow, a left eye, a right eye, a left cheek, a right cheek, a nose, and a mouth.
The person authentication device according to claim 1 or 2.
前記照合手段における照合の結果、前記照合対象顔画像と前記登録顔画像とが一致する場合にのみ通知する通知手段をさらに備える、
請求項1〜5のいずれかに記載の人物認証装置。
As a result of the collation in the collating means, further comprising a notifying means for notifying only when the collation target face image and the registered face image match.
The person authentication device according to claim 1.
コンピュータにインストールされて実行されることにより、前記コンピュータを請求項1〜6のいずれかに記載の人物認証装置として機能させる、
コンピュータプログラム。
By being installed and executed on a computer, the computer is caused to function as the person authentication device according to any one of claims 1 to 6.
Computer program.
JP2010281768A 2010-12-17 2010-12-17 Personal authentication device and computer program Pending JP2012128792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010281768A JP2012128792A (en) 2010-12-17 2010-12-17 Personal authentication device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010281768A JP2012128792A (en) 2010-12-17 2010-12-17 Personal authentication device and computer program

Publications (1)

Publication Number Publication Date
JP2012128792A true JP2012128792A (en) 2012-07-05

Family

ID=46645711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010281768A Pending JP2012128792A (en) 2010-12-17 2010-12-17 Personal authentication device and computer program

Country Status (1)

Country Link
JP (1) JP2012128792A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075765A (en) * 2012-10-05 2014-04-24 Mitsubishi Heavy Ind Ltd Monitoring device and monitoring method
CN107408298A (en) * 2015-03-13 2017-11-28 日本电气株式会社 Life entity detection device, life body detecting method and recording medium
WO2018116560A1 (en) * 2016-12-21 2018-06-28 パナソニックIpマネジメント株式会社 Comparison device and comparison method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085249A (en) * 2004-09-14 2006-03-30 Toppan Printing Co Ltd Authentication device and method
JP2007013800A (en) * 2005-07-01 2007-01-18 Omron Entertainment Kk Image provision device, image provision system, image provision method, image provision device control program, and recording medium with program recorded thereon
JP2009211425A (en) * 2008-03-04 2009-09-17 Global Security Design Inc Feature extraction method for facial image and creating method for identification signal
JP2010224681A (en) * 2009-03-19 2010-10-07 Glory Ltd Image detection device, image detection method, and image detection program
WO2010122721A1 (en) * 2009-04-22 2010-10-28 日本電気株式会社 Matching device, matching method, and matching program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085249A (en) * 2004-09-14 2006-03-30 Toppan Printing Co Ltd Authentication device and method
JP2007013800A (en) * 2005-07-01 2007-01-18 Omron Entertainment Kk Image provision device, image provision system, image provision method, image provision device control program, and recording medium with program recorded thereon
JP2009211425A (en) * 2008-03-04 2009-09-17 Global Security Design Inc Feature extraction method for facial image and creating method for identification signal
JP2010224681A (en) * 2009-03-19 2010-10-07 Glory Ltd Image detection device, image detection method, and image detection program
WO2010122721A1 (en) * 2009-04-22 2010-10-28 日本電気株式会社 Matching device, matching method, and matching program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075765A (en) * 2012-10-05 2014-04-24 Mitsubishi Heavy Ind Ltd Monitoring device and monitoring method
CN107408298A (en) * 2015-03-13 2017-11-28 日本电气株式会社 Life entity detection device, life body detecting method and recording medium
JPWO2016147272A1 (en) * 2015-03-13 2017-11-30 日本電気株式会社 Biological detection device, biological detection method, and program
US10509955B2 (en) 2015-03-13 2019-12-17 Nec Corporation Living body detection device, living body detection method, and recording medium
US10528803B2 (en) 2015-03-13 2020-01-07 Nec Corporation Living body detection device, living body detection method, and recording medium
US10546189B2 (en) 2015-03-13 2020-01-28 Nec Corporation Living body detection device, living body detection method, and recording medium
US10546190B2 (en) 2015-03-13 2020-01-28 Nec Corporation Living body detection device, living body detection method, and recording medium
CN107408298B (en) * 2015-03-13 2021-05-28 日本电气株式会社 Living body detection device, living body detection method, and recording medium
US11132536B2 (en) 2015-03-13 2021-09-28 Nec Corporation Living body detection device, living body detection method, and recording medium
WO2018116560A1 (en) * 2016-12-21 2018-06-28 パナソニックIpマネジメント株式会社 Comparison device and comparison method
JPWO2018116560A1 (en) * 2016-12-21 2019-10-24 パナソニックIpマネジメント株式会社 Verification device and verification method

Similar Documents

Publication Publication Date Title
KR102299847B1 (en) Face verifying method and apparatus
KR102455633B1 (en) Liveness test method and apparatus
Steiner et al. Reliable face anti-spoofing using multispectral swir imaging
CN107438854B (en) System and method for performing fingerprint-based user authentication using images captured by a mobile device
US20140241593A1 (en) Authentication apparatus, authentication method, and non-transitory computer readable medium
CN108804884A (en) Identity authentication method, device and computer storage media
KR102429865B1 (en) Apparatus for user verification
EP2763102A1 (en) Face recognition method, apparatus, and computer-readable recording medium for executing the method
CN109766785A (en) A kind of biopsy method and device of face
US8983207B1 (en) Mitigating replay attacks using multiple-image authentication
CN110647955A (en) Identity authentication method
US11756338B2 (en) Authentication device, authentication method, and recording medium
US11682236B2 (en) Iris authentication device, iris authentication method and recording medium
EP3642756A1 (en) Detecting artificial facial images using facial landmarks
JP2010262392A (en) Image processor, image processing method and program for making computer execute the method
JP2012128792A (en) Personal authentication device and computer program
Tukur Fingerprint recognition and matching using Matlab
CN111178233A (en) Identity authentication method and device based on living body authentication
EP3617993B1 (en) Collation device, collation method and collation program
CN109858355B (en) Image processing method and related product
JP4937639B2 (en) Authentication method, authentication device, authentication program, and recording medium on which the program is recorded
JP6798285B2 (en) Biometric device, biometric method and program
Khokher et al. Palmprint recognition using geometrical and texture properties
KR102530141B1 (en) Method and apparatus for face authentication using face matching rate calculation based on artificial intelligence
JPWO2018116560A1 (en) Verification device and verification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141014