JP2012003686A - Authentication device, authentication method, authentication program, and recording medium - Google Patents

Authentication device, authentication method, authentication program, and recording medium Download PDF

Info

Publication number
JP2012003686A
JP2012003686A JP2010140529A JP2010140529A JP2012003686A JP 2012003686 A JP2012003686 A JP 2012003686A JP 2010140529 A JP2010140529 A JP 2010140529A JP 2010140529 A JP2010140529 A JP 2010140529A JP 2012003686 A JP2012003686 A JP 2012003686A
Authority
JP
Japan
Prior art keywords
authentication
feature data
unit
registered
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010140529A
Other languages
Japanese (ja)
Other versions
JP5748421B2 (en
Inventor
Ichiro Matsuyama
一郎 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010140529A priority Critical patent/JP5748421B2/en
Priority to US13/162,250 priority patent/US8705813B2/en
Publication of JP2012003686A publication Critical patent/JP2012003686A/en
Application granted granted Critical
Publication of JP5748421B2 publication Critical patent/JP5748421B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy of personal authentication with a small processing load for any change of the state of a face region.SOLUTION: When performing authentication according to a face region included in image data, feature data extraction units 102, 103, and 104 receive image data including a plurality of frames, detect a face region in each of the frames, and extract, from the face region, feature data of the face region as extraction feature data. Feature data used in the authentication is registered in a personal database unit 108 as registration feature data, and an authentication unit 106 performs the authentication by comparing the registration feature data and the extraction feature data. A tracking unit 105 identifies the same face region in successive frames. If the authentication is not performed in spite of the identification of the same face region in different frames by the tracking unit, the authentication unit and a registration unit 109 register extraction feature data corresponding to the face region in the different frames in the personal database unit as additional feature data.

Description

本発明は、認証装置、認証方法、及び認証プログラム、並びに記録媒体に関し、特に、画像データから顔領域を検出して個人や個体の認証を行う技術に関する。   The present invention relates to an authentication device, an authentication method, an authentication program, and a recording medium, and more particularly to a technique for detecting a face area from image data and authenticating an individual or an individual.

一般に、顔検出機能を用いて個人認証を行う技術が知られている。この技術では、顔画像データから個人毎に異なる顔領域の特徴データを抽出して、予め登録した特徴データと抽出した特徴データとを比較する。そして、この比較結果によって顔画像データが登録されている人物であるか否かを識別する。   In general, a technique for performing personal authentication using a face detection function is known. In this technique, feature data of different face regions is extracted from face image data for each individual, and feature data registered in advance is compared with the extracted feature data. Then, based on the comparison result, it is identified whether or not the face image data is a registered person.

ところで、特徴データは顔領域の表情、向き、及び照明条件等の状態によって影響を受ける。このため、特徴データの登録時と顔画像データから特徴データを抽出する時の状態が異なると、個人認証の精度が低下してしまうことがある。   By the way, the feature data is influenced by the facial expression, orientation, lighting conditions, and other conditions. For this reason, if the state when the feature data is registered and the state when the feature data is extracted from the face image data are different, the accuracy of the personal authentication may be lowered.

このような個人認証の精度低下を回避するため、例えば、顔領域の表情を検知して、当該表情に応じた特徴データが登録されている個人データベースを用いて認証を行うことがある。そして、未登録の表情であれば、当該特徴データを追加登録するようにしている(特許文献1参照)。   In order to avoid such a decrease in the accuracy of personal authentication, for example, a facial expression is detected and authentication may be performed using a personal database in which feature data corresponding to the facial expression is registered. If it is an unregistered facial expression, the feature data is additionally registered (see Patent Document 1).

さらに、人物を連続的に撮影した複数枚の顔画像と予め個人データベースに登録されている同一人物の複数枚の顔画像とを、これら顔画像の中から選んだ基準画像と比較する。そして、比較結果から複数枚の顔画像を選択して、個人データベースの顔画像を更新するようにしたものがある(特許文献2参照)。   Further, a plurality of face images obtained by continuously photographing a person and a plurality of face images of the same person registered in advance in the personal database are compared with a reference image selected from these face images. Then, there is one that selects a plurality of face images from the comparison result and updates the face image in the personal database (see Patent Document 2).

特開2010−27035号公報JP 2010-27035 A 特開2007−179224号公報JP 2007-179224 A

ところが、特許文献1に開示された構成においては、人物の認証がすでにできている上で、その人物から、その人物の特徴データが未登録である表情が検出できた場合のみ追加登録が行われる。その結果、検知できない表情の変化及び顔の向き、そして、照明条件等の他の条件の変化に関しては認証精度を上げることができないという課題がある。   However, in the configuration disclosed in Patent Document 1, additional registration is performed only when a person is already authenticated and a facial expression whose feature data is not registered can be detected from the person. . As a result, there is a problem that the authentication accuracy cannot be increased with respect to changes in facial expressions and face orientations that cannot be detected, and changes in other conditions such as lighting conditions.

一方、特許文献2に開示された構成においては、基準画像の選び方によって選択される顔画像が変わってしまう。このため、認証精度が安定しない。また、人物(つまり、顔)を撮影する都度、個人データベースの更新処理が行われる結果、処理負荷が大きくなってしまうという課題がある。   On the other hand, in the configuration disclosed in Patent Document 2, the face image selected changes depending on how the reference image is selected. For this reason, the authentication accuracy is not stable. In addition, each time a person (that is, a face) is photographed, there is a problem that the processing load increases as a result of the personal database update process being performed.

従って、本発明の目的は、顔領域の状態のいかなる変化に対しても、小さな処理負荷で認証の精度を向上させることができる認証装置、認証方法、及び認証プログラム、並びに記録媒体を提供することにある。   Accordingly, an object of the present invention is to provide an authentication device, an authentication method, an authentication program, and a recording medium that can improve the accuracy of authentication with a small processing load for any change in the state of the face area. It is in.

上記課題を解決するために、本発明による認証装置は、画像データに含まれる顔領域に応じて認証を行う認証装置において、複数のフレームを有する画像データを受け、前記フレームの各々において顔領域を検出して、当該顔領域からその特徴データを抽出特徴データとして抽出する特徴データ抽出手段と、前記認証の際に用いられる前記特徴データが登録された記憶手段と、前記記憶手段に登録された特徴データと前記抽出特徴データとを比較して認証を行う認証手段と、連続する前記フレームにおいて同一の前記顔領域を特定する追尾手段と、前記追尾手段によって異なるフレームにおいて同一の前記顔領域である特定されているにも拘わらず前記認証手段によって認証が行われないと前記異なるフレームにおける顔領域に対応する前記抽出特徴データを追加特徴データとして前記記憶手段に登録する登録手段とを有することを特徴とする。   In order to solve the above-described problem, an authentication apparatus according to the present invention receives an image data having a plurality of frames in an authentication apparatus that performs authentication according to a face area included in image data, and detects a face area in each of the frames. Feature data extraction means for detecting and extracting the feature data from the face area as extracted feature data, storage means for registering the feature data used in the authentication, and features registered in the storage means Authentication means for performing authentication by comparing data with the extracted feature data, tracking means for specifying the same face area in the successive frames, and specifying the same face area in different frames by the tracking means If authentication is not performed by the authentication unit despite being performed, the face corresponding to the face area in the different frame And having a registration means for registering in the storage means the characteristic data as additional feature data out.

本発明による認証方法は、画像データに含まれる顔領域に応じて認証を行うための認証装置で用いられる認証方法において、前記認証装置には、前記認証の際に用いられる前記顔領域の特徴データが登録された記憶装置が備えられており、複数のフレームを有する画像データを受け、前記フレームの各々において顔領域を検出して、当該顔領域からその特徴データを抽出特徴データとして抽出する特徴データ抽出ステップと、前記記憶装置に登録された特徴データと前記抽出特徴データとを比較して認証を行う認証ステップと、連続する前記フレームにおいて同一の前記顔領域を特定する追尾ステップと、前記追尾ステップによって異なるフレームにおいて同一の前記顔領域である特定されているにも拘わらず前記認証ステップによって認証が行われないと前記異なるフレームにおける顔領域に対応する前記抽出特徴データを追加特徴データとして前記記憶装置に登録する登録ステップとを有することを特徴とする。   An authentication method according to the present invention is an authentication method used in an authentication apparatus for performing authentication in accordance with a face area included in image data. The authentication apparatus includes the feature data of the face area used in the authentication. Is stored in the storage device, receives image data having a plurality of frames, detects a face area in each of the frames, and extracts feature data from the face area as extracted feature data An extraction step; an authentication step for performing authentication by comparing the feature data registered in the storage device with the extracted feature data; a tracking step for identifying the same face region in successive frames; and the tracking step Although the same face area is specified in different frames depending on the authentication step, And having a registration step of registering in the storage device the extracted feature data corresponding to the face region as additional characteristic data in not to take the different frames.

本発明による認証プログラムは、画像データに含まれる顔領域に応じて認証を行うための認証装置で用いられる認証プログラムにおいて、前記認証装置には、前記認証の際に用いられる前記顔領域の特徴データが登録された記憶装置が備えられており、前記認証装置が備えるコンピュータに、複数のフレームを有する画像データを受け、前記フレームの各々において顔領域を検出して、当該顔領域からその特徴データを抽出特徴データとして抽出する特徴データ抽出ステップと、前記記憶装置に登録された特徴データと前記抽出特徴データとを比較して認証を行う認証ステップと、連続する前記フレームにおいて同一の前記顔領域を特定する追尾ステップと、前記追尾ステップによって異なるフレームにおいて同一の前記顔領域である特定されているにも拘わらず前記認証ステップによって認証が行われないと前記異なるフレームにおける顔領域に対応する前記抽出特徴データを追加特徴データとして前記記憶装置に登録する登録ステップとを実行させることを特徴とする。   An authentication program according to the present invention is an authentication program used in an authentication apparatus for performing authentication in accordance with a face area included in image data. The authentication apparatus includes the facial area feature data used in the authentication. Is stored in the storage device, and the computer included in the authentication device receives image data having a plurality of frames, detects a face area in each of the frames, and extracts feature data from the face area. A feature data extraction step for extracting as extracted feature data; an authentication step for performing authentication by comparing the feature data registered in the storage device with the extracted feature data; and identifying the same face region in the successive frames The tracking step and the identification of the same face region in different frames depending on the tracking step. However, if authentication is not performed in the authentication step, a registration step of registering the extracted feature data corresponding to the face area in the different frame as additional feature data in the storage device is executed. To do.

本発明による記録媒体は、上記の認証プログラムが記録されたコンピュータに読み取り可能な記録媒体である。   A recording medium according to the present invention is a computer-readable recording medium in which the authentication program is recorded.

本発明によれば、複数のフレームを有する画像データを受けて認証を行う場合であっても、認証対象となる被写体の撮影条件が変化する場合に対する認証の精度を向上させることができるという効果がある。   According to the present invention, even when image data having a plurality of frames is received and authentication is performed, it is possible to improve the accuracy of authentication when the photographing condition of the subject to be authenticated changes. is there.

本発明の第1の実施形態による個人認証装置の一例を示すブロック図である。It is a block diagram which shows an example of the personal authentication apparatus by the 1st Embodiment of this invention. 図1に示す個人認証装置で用いられる特徴データの一例を示す図であり、(a)は正面を向いた際の特徴データを構成する特徴点の座標を示す図、(b)は人物の表情が変化した際の特徴データを構成する特徴点の座標を示す図、(c)は人物の向きが変化した際の特徴データを構成する特徴点の座標を示す図である。It is a figure which shows an example of the feature data used with the personal authentication apparatus shown in FIG. 1, (a) is a figure which shows the coordinate of the feature point which comprises the feature data at the time of facing the front, (b) is a facial expression of a person FIG. 4C is a diagram showing the coordinates of feature points constituting the feature data when the angle changes, and FIG. 5C is a diagram showing the coordinates of feature points constituting the feature data when the orientation of the person is changed. 図1に示す個人データベース部に登録される個人認証用の特徴データの一例を示す図である。It is a figure which shows an example of the characteristic data for personal authentication registered into the personal database part shown in FIG. 図1に示す個人認証装置の動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of the personal authentication apparatus shown in FIG. 図1に示す個人認証装置で処理される動画像データの一例を示す図であり、(a)は動画像データにおける1フレームを示す図、(b)は(a)に連続するフレームの一例を示す図、(c)は(a)に連続するフレームの他の例を示す図である。It is a figure which shows an example of the moving image data processed with the personal authentication apparatus shown in FIG. 1, (a) is a figure which shows 1 frame in moving image data, (b) is an example of the flame | frame continuous to (a). The figure shown, (c) is a figure which shows the other example of the flame | frame continuous to (a). 図4で説明した個人認証における処理を詳細に説明するためのフローチャートである。It is a flowchart for demonstrating in detail the process in the personal authentication demonstrated in FIG. 本発明の第2の実施形態による個人認証装置における個人認証結果の変化を示す図である。It is a figure which shows the change of the personal authentication result in the personal authentication apparatus by the 2nd Embodiment of this invention.

以下、本発明の実施の形態による個人認証装置について図面を参照して説明する。   Hereinafter, a personal authentication device according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による個人認証装置の一例を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing an example of a personal authentication device according to the first embodiment of the present invention.

図1を参照して、図示の個人認証装置は、画像入力部101を有している。画像入力部101から、少なくとも人物の顔を撮影した結果得られた画像データが入力される。そして、この画像データは画像入力部101から顔検出部102及び正規化部103に与えられる。   With reference to FIG. 1, the illustrated personal authentication apparatus has an image input unit 101. Image data obtained as a result of photographing at least a person's face is input from the image input unit 101. The image data is given from the image input unit 101 to the face detection unit 102 and the normalization unit 103.

顔検出部102は画像データから人物の顔領域の位置及びサイズを検出する。例えば、顔検出部102は、入力された画像データから、鼻、口、及び目等の顔領域の構成要素に相当する形状を抽出する。そして、顔検出部102は両目の中間を通過する延長線上に鼻及び口が存在する領域を検出する。そして、顔検出部102は両目の大きさと両目間の距離から顔の大きさを推定して、鼻の中心に相当する位置を基準として、推定した大きさの領域で囲んだ領域を顔領域として検出する。この顔領域は顔領域検出データとして顔検出部102から正規化部103及び追尾部105に与えられる。   The face detection unit 102 detects the position and size of the person's face area from the image data. For example, the face detection unit 102 extracts shapes corresponding to components of the face area such as the nose, mouth, and eyes from the input image data. Then, the face detection unit 102 detects a region where the nose and the mouth exist on an extension line passing through the middle of both eyes. Then, the face detection unit 102 estimates the size of the face from the size of both eyes and the distance between the eyes, and uses the position corresponding to the center of the nose as a reference and the area surrounded by the estimated size area as the face area. To detect. This face area is given as face area detection data from the face detection unit 102 to the normalization unit 103 and the tracking unit 105.

正規化部103は、顔領域検出データに応じて画像データから顔領域を切り出し、当該顔領域が、例えば、傾いていると、この傾きをなくすように顔領域を回転する。さらに、正規化部103は、例えば、両目間が所定の距離となる所定のサイズに顔領域を拡大縮小して、顔領域を所定の角度・大きさの顔画像データとして正規化する(以下正規化顔画像データと呼ぶ)。そして、正規化部103はこの正規化顔画像データを特徴データ生成部104及び登録部109に与える。   The normalizing unit 103 cuts out the face area from the image data in accordance with the face area detection data, and when the face area is inclined, for example, rotates the face area so as to eliminate this inclination. Further, the normalization unit 103 normalizes the face area as face image data having a predetermined angle and size by scaling the face area to a predetermined size with a predetermined distance between both eyes (hereinafter referred to as normal image). This is called converted face image data). Then, the normalization unit 103 provides the normalized face image data to the feature data generation unit 104 and the registration unit 109.

特徴データ生成部104は、正規化顔画像データから特徴データを抽出する。この特徴データは、例えば、特開2005−266981号公報に記載されているように、口、目、眉毛、及び鼻等の顔の構成要素の具体的な形状及びこれらの構成要素の位置に関する情報を含む。そして、特徴データは特徴データ生成部104から認証部106に与えられる。   The feature data generation unit 104 extracts feature data from the normalized face image data. For example, as described in Japanese Patent Application Laid-Open No. 2005-266981, the feature data includes information regarding specific shapes of facial components such as mouth, eyes, eyebrows, and nose, and positions of these components. including. The feature data is given from the feature data generation unit 104 to the authentication unit 106.

ここで、特徴データは、正規化顔画像データから、例えば、ニューラルネットワーク又は空間フィルタを用いたエッジ検出等の手法を用いて抽出することができる。なお、形状及び位置に関する情報だけでなく、彩度及び色相に関する情報も特徴データに含めるようにしてもよい。1つの顔における特徴データが多いほど、その顔の様子を詳細に解析することが可能となり、この特徴データを用いた個人認証の精度が向上する。   Here, the feature data can be extracted from the normalized face image data by using a technique such as edge detection using a neural network or a spatial filter, for example. Note that not only information regarding the shape and position but also information regarding saturation and hue may be included in the feature data. The more feature data in a face, the more detailed the state of the face can be analyzed, and the accuracy of personal authentication using this feature data is improved.

ところで、動画像のように複数のフレームを有する画像データにおいては、所定の周期でフレーム毎に顔領域が検出されることになる。つまり、顔検出部102は所定の周期のフレーム毎に顔領域を検出することになる。追尾部105は1つのフレームで検出された顔領域と別のフレームのいずれかの領域が同一人物の顔領域であるかを判定する。   By the way, in image data having a plurality of frames such as a moving image, a face area is detected for each frame at a predetermined cycle. That is, the face detection unit 102 detects a face area for each frame of a predetermined cycle. The tracking unit 105 determines whether the face area detected in one frame and the area in another frame are the face area of the same person.

追尾部(追尾手段)105は、例えば、1つのフレームの画像データから複数の顔が検出され、別のフレームの画像データからも1つ又は複数の顔が検出された場合に、それぞれの顔のサイズと位置が類似するものを同一人物であるとみなす。さらに、追尾部105は、1つのフレームで検出された顔領域と類似する顔領域が別のフレームで検出できない場合には、前者の顔領域と輝度及び色差のパターンが類似している周辺領域を検索して追尾を行う。そして、追尾部105における判定結果は認証部106及び結果出力部107に与えられる。   For example, when a plurality of faces are detected from image data of one frame and one or more faces are detected from image data of another frame, the tracking unit (tracking unit) 105 detects each face. Those with similar size and position are considered to be the same person. Furthermore, when a face area similar to the face area detected in one frame cannot be detected in another frame, the tracking unit 105 selects a peripheral area similar in brightness and color difference pattern to the former face area. Search and track. Then, the determination result in the tracking unit 105 is given to the authentication unit 106 and the result output unit 107.

個人データベース部(記憶手段又は記憶装置)108には個人認証用の複数の特徴データが正規化顔画像データとともに登録特徴データとして登録されている。認証部(認証手段)106は、個人データベース部108をアクセスして個人認証用の特徴データ(登録特徴データ)を読み出す。そして、認証部106は登録特徴データと特徴データ生成部104によって抽出された顔領域の特徴データ(以下抽出特徴データと呼ぶ)とを比較・照合して個人認証を行う。この照合結果は認証部106から結果出力部107に与えられる。結果出力部107は照合結果に応じて認証結果を出力する。   In the personal database unit (storage means or storage device) 108, a plurality of feature data for personal authentication is registered as registered feature data together with normalized face image data. The authentication unit (authentication unit) 106 accesses the personal database unit 108 to read out feature data for personal authentication (registered feature data). Then, the authentication unit 106 performs personal authentication by comparing and collating the registered feature data with the feature data of the face area extracted by the feature data generation unit 104 (hereinafter referred to as extracted feature data). This collation result is given from the authentication unit 106 to the result output unit 107. The result output unit 107 outputs an authentication result according to the collation result.

認証部106は比較・照合の際、追加登録を行うか否かを判定して、追加登録を行うべきであると判定すると、登録部109に当該抽出特徴データを与える。そして、登録部109は認証部106が追加登録すべきと判断した特徴データを、正規化顔画像データとともに個人データベース部108に追加登録する。   When the authentication unit 106 determines whether or not to perform additional registration at the time of comparison / collation, and determines that additional registration should be performed, the authentication unit 106 gives the extracted feature data to the registration unit 109. Then, the registration unit 109 additionally registers the feature data determined to be additionally registered by the authentication unit 106 in the personal database unit 108 together with the normalized face image data.

なお、認証部106は追尾部105から与えられる判定結果に応じて認証を行い、結果出力部107は追尾部105から与えられる判定結果に応じて認証結果を出力する。   The authentication unit 106 performs authentication according to the determination result given from the tracking unit 105, and the result output unit 107 outputs the authentication result according to the determination result given from the tracking unit 105.

ところで、図示の個人認証装置は単体の装置で構成されても、複数の装置からなるシステムで構成されていてもよい。例えば、デジタルカメラ又はデジタルビデオカメラ単体の内部に図示の個人認証装置の全て構成要素を備えるようにしてもよい。   By the way, the illustrated personal authentication device may be configured as a single device or may be configured as a system including a plurality of devices. For example, all the constituent elements of the illustrated personal authentication apparatus may be provided inside a single digital camera or digital video camera.

一方、画像入力部101のみをデジタルカメラ又はデジタルビデオカメラ内部に配置して、個人認証装置の他の構成要素をデジタルカメラ又はデジタルビデオカメラと通信可能な外部のコンピュータに備えるようにしてもよい。   On the other hand, only the image input unit 101 may be disposed inside the digital camera or digital video camera, and other components of the personal authentication device may be provided in an external computer that can communicate with the digital camera or digital video camera.

さらには、図示の個人認証装置の構成要素について、ネットワーク上の複数のコンピュータに分担して配置し、画像入力部101を備えたコンピュータが別の外部機器又は記録メディアから画像データを受け取るように構成してもよい。   Further, the constituent elements of the illustrated personal authentication apparatus are allocated to a plurality of computers on the network, and the computer including the image input unit 101 is configured to receive image data from another external device or a recording medium. May be.

図2は、図1に示す個人認証装置で用いられる特徴データの一例を示す図である。そして、図2(a)は正面を向いた際の特徴データを構成する特徴点の座標を示す図であり、図2(b)は人物の表情が変化した際の特徴データを構成する特徴点の座標を示す図である。また、図2(c)は人物の向きが変化した際の特徴データを構成する特徴点の座標を示す図である。   FIG. 2 is a diagram showing an example of feature data used in the personal authentication device shown in FIG. FIG. 2A is a diagram showing the coordinates of feature points constituting the feature data when facing the front, and FIG. 2B is a feature point constituting the feature data when the facial expression of the person changes. FIG. FIG. 2C is a diagram showing the coordinates of feature points constituting the feature data when the orientation of the person changes.

図2を参照して、ここでは、個人認証用の特徴データとして、図2(a)に示すように、合計23点の特徴点の座標が用いられる。実際に個人認証を行うためには多数の特徴点が必要とされるが、ここでは説明を簡略化するため、合計23点の特徴点を用いるものとして説明を行う。   Referring to FIG. 2, here, as feature data for personal authentication, coordinates of a total of 23 feature points are used as shown in FIG. In order to actually perform personal authentication, a large number of feature points are required, but here, in order to simplify the description, description will be made assuming that a total of 23 feature points are used.

これら23点の特徴点の座標は、抽出された目、鼻、口、及び眉等の位置について、両目間の距離で正規化された顔画像データを用いて算出される。これらの座標は、例えば、鼻の端点の位置を基準とする。認証部106は、入力された画像データから算出された各特徴点の座標をPi(i=1,2,・・・,23)とする。そして、認証部106は、予め個人データベース部108に登録された顔領域の特徴点である座標P’iと座標Piとの差分の絶対値和S=Σ|Pi−P’i|を求める。   The coordinates of these 23 feature points are calculated using the face image data normalized with the distance between the eyes for the extracted positions of the eyes, nose, mouth, and eyebrows. These coordinates are based on the position of the end point of the nose, for example. The authentication unit 106 sets Pi (i = 1, 2,..., 23) as the coordinates of each feature point calculated from the input image data. Then, the authentication unit 106 obtains an absolute value sum S = Σ | Pi−P′i | of the difference between the coordinates P′i and the coordinates Pi, which are feature points of the face area registered in the personal database unit 108 in advance.

この絶対値和Sが小さい程、認証部106は検出対象となった人物(つまり、顔領域)と予め登録された人物とが同一人物の可能性が高いと判断する。認証部106は特徴データの比較・照合において、最も可能性が高いと判定された人物に関する絶対値和Sが、予め設定された閾値以下であると当該人物であると判定する。一方、絶対値和Sが閾値より大きい場合には、認証部106は該当者なしと判定する。   As the absolute value sum S is smaller, the authentication unit 106 determines that the person who is the detection target (that is, the face area) and the person registered in advance are more likely to be the same person. The authentication unit 106 determines that the person is the person when the absolute value sum S regarding the person who is determined to be most likely in the comparison / matching of the feature data is equal to or less than a preset threshold value. On the other hand, when the absolute value sum S is larger than the threshold value, the authentication unit 106 determines that there is no corresponding person.

なお、上述の絶対値和Sを用いる手法は、個人認証を行う手法の1つの例であって、別の手法を用いて個人認証を行うようにしてもよい。例えば、表情が変化する際の目及び口の位置、そして、形状の変化のパターンから個人を識別するようにしてもよい。   Note that the above-described method using the sum of absolute values S is one example of a method for performing personal authentication, and personal authentication may be performed using another method. For example, the individual may be identified from the positions of the eyes and mouth when the facial expression changes and the pattern of the shape change.

また、複数の特徴データに対する比較・照合結果に応じて、総合的に最終的な個人認証結果を求めるようにしてもよい。つまり、予め個人データベース部108に登録された特徴データを用いて照合を行い、最も可能性の高い人物であると判定する構成であれば、他の手法であっても、上述の例と同様の効果を得ることができる。   Further, a final personal authentication result may be obtained comprehensively in accordance with the comparison / collation results for a plurality of feature data. In other words, as long as the configuration is such that the matching is performed using feature data registered in the personal database unit 108 in advance and it is determined that the person is the most likely person, the same method as in the above example can be used with other methods. An effect can be obtained.

ところで、上述の個人認証では画像データから抽出した特徴点を用いて個人認証を行っているため、図2(b)又は図2(c)に示すように、人物(つまり、顔)の表情又は向きが変化した場合には、特徴点の座標が変化してしまうことになる。この結果、前述の絶対値和Sの値が大きく変動してしまい、個人認証の精度が低下してしまう。   By the way, since the personal authentication is performed using the feature points extracted from the image data in the above-described personal authentication, as shown in FIG. 2 (b) or FIG. 2 (c), as shown in FIG. If the orientation changes, the coordinates of the feature points will change. As a result, the value of the absolute value sum S greatly fluctuates, and the accuracy of personal authentication decreases.

また、照明条件及び背景等様々な撮影条件の変化が個人認証の精度に影響を与える。そこで、同一の人物を様々な条件で撮影した複数の特徴データを、予め個人データベース部108に登録しておき、これら複数の特徴データについてそれぞれ絶対値和Sを求めるようにすれば、撮影条件が変わっても人物の認証をより高い精度で行うことができる。   In addition, changes in various shooting conditions such as lighting conditions and background affect the accuracy of personal authentication. Therefore, if a plurality of feature data obtained by photographing the same person under various conditions is registered in the personal database unit 108 in advance, and the absolute value sum S is obtained for each of the plurality of feature data, the photographing condition is satisfied. Even if it changes, the person can be authenticated with higher accuracy.

しかしながら、予め様々な条件下で人物を撮影しておくことは時間及び手間がかかる上に、場合によっては照明等の設備も必要となる。これに対して、図示の例では、1つの条件下で撮影した人物の特徴データを個人データベースに登録しておけば、次のようにして個人認証と特徴データの追加登録とを自動的に行い、認証精度を向上することができる。   However, taking a picture of a person under various conditions in advance takes time and effort, and in some cases, equipment such as lighting is also required. On the other hand, in the example shown in the figure, if the feature data of a person photographed under one condition is registered in the personal database, personal authentication and additional registration of feature data are automatically performed as follows. Authentication accuracy can be improved.

図3は、図1に示す個人データベース部108に登録される個人認証用の特徴データの一例を示す図である。   FIG. 3 is a diagram showing an example of feature data for personal authentication registered in the personal database unit 108 shown in FIG.

図3において、個人データベース部108には個人に対して複数の特徴データが登録される。個人データベース部108に登録された個人毎に個人IDを割り当る。そして、個人IDに対して複数の特徴データを登録して、特徴データ毎に登録IDを割り当てる。   In FIG. 3, a plurality of feature data is registered for an individual in the personal database unit 108. A personal ID is assigned to each individual registered in the personal database unit 108. Then, a plurality of feature data is registered for the personal ID, and a registration ID is assigned to each feature data.

図示の例において、登録ID=1については、ユーザーが予め登録した特徴データであって、登録ID=0は特徴データが未登録であることを示している。それ以外の登録IDについては、図1に示す個人認証装置が自動的に追加登録した特徴データを示している。   In the illustrated example, the registration ID = 1 is feature data registered in advance by the user, and the registration ID = 0 indicates that the feature data is not registered. The other registration IDs indicate feature data automatically added and registered by the personal authentication device shown in FIG.

前述したように、ここでは、個人データベース部108には特徴データ毎に正規化部103で正規化された顔画像データも登録されており、ユーザーは顔画像データを確認して不要な特徴データを消去することができる。例えば、個人ID=1の「こうたろう」の登録ID=1における正規化された顔画像データはA11であり、この顔画像データA11から抽出された特徴データがC11である。   As described above, here, the facial image data normalized by the normalizing unit 103 is also registered in the personal database unit 108 for each feature data, and the user confirms the facial image data and stores unnecessary feature data. Can be erased. For example, the normalized face image data in the registration ID = 1 of “Kotarou” with the personal ID = 1 is A11, and the feature data extracted from the face image data A11 is C11.

なお、顔画像データと特徴データとは、そのいずれかが登録されていれば個人認証は可能であって、顔画像データから特徴データを生成しつつ個人認証を行うことができる。また、図示の例では、個人ID毎に登録IDの上限数を「3」としているが、この上限数は「2」以上であればよい。さらに、上限数を個人ID毎でなく、個人データベース部108全体で設定するようにしてもよい。   Note that personal authentication is possible if any one of the face image data and the feature data is registered, and the personal authentication can be performed while generating the feature data from the face image data. In the illustrated example, the upper limit number of registration IDs is “3” for each personal ID, but this upper limit number may be “2” or more. Furthermore, the upper limit number may be set not for each individual ID but for the entire individual database unit 108.

図4は、図1に示す個人認証装置の動作の一例を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining an example of the operation of the personal authentication device shown in FIG.

図1及び図4を参照して、個人認証装置において、画像入力部101に画像データが入力されると図4に示す動作が開始される。画像入力部101がカメラであれば、カメラにおける撮影の結果得られた画像データ又はカメラに装着された記録メディアから読み出した画像データが個人認証装置に入力されることになる。また、画像入力部101がパーソナルコンピュータであれば、記録メディアから読み出した画像又はネットワークを介して受け取った画像データが個人認証装置に入力されることになる。   Referring to FIGS. 1 and 4, in the personal authentication apparatus, when image data is input to image input unit 101, the operation shown in FIG. 4 is started. If the image input unit 101 is a camera, image data obtained as a result of shooting by the camera or image data read from a recording medium attached to the camera is input to the personal authentication device. If the image input unit 101 is a personal computer, an image read from a recording medium or image data received via a network is input to the personal authentication device.

以下の説明では、画像入力部101に動画像データが入力され、個人認証に要する時間に応じたフレーム間隔で連続的に個人認証を行うものとする。   In the following description, it is assumed that moving image data is input to the image input unit 101 and personal authentication is continuously performed at frame intervals corresponding to the time required for personal authentication.

まず、顔検出部102は、画像入力部101から動画像データの1フレーム分の画像データを受け取って、人物の顔領域の検出を行う(ステップS201)。そして、顔検出部102は顔領域の検出ができたか否かについて判定する(ステップS202)。少なくとも1つの顔領域が検出できると(ステップS202において、YES)、正規化部103は顔検出部102における検出結果に基づいて、画像データから切り出した顔領域の各々を正規化する(ステップS203)。   First, the face detection unit 102 receives image data for one frame of moving image data from the image input unit 101, and detects a human face area (step S201). Then, the face detection unit 102 determines whether or not the face area has been detected (step S202). When at least one face area can be detected (YES in step S202), normalization unit 103 normalizes each of the face areas cut out from the image data based on the detection result in face detection unit 102 (step S203). .

続いて、特徴データ生成部104は、正規化顔画像データに応じて図5で説明した特徴点の座標を含む特徴データを算出する(ステップS204)。追尾部105は、顔検出部102から顔領域の検出結果を受け取り、異なるフレームにおいて検出あるいは判定された顔領域のうち、顔の中心位置及びサイズに基づいて同一人物と見なせる顔があるか否かについて判定する(顔の追尾:ステップS205)。   Subsequently, the feature data generation unit 104 calculates feature data including the coordinates of the feature points described with reference to FIG. 5 according to the normalized face image data (step S204). The tracking unit 105 receives the detection result of the face area from the face detection unit 102, and whether there is a face that can be regarded as the same person based on the center position and size of the face among the face areas detected or determined in different frames. (Face tracking: Step S205).

このために、追尾部105は、各フレームで検出された各顔領域の中心位置及びサイズを比較して、連続するフレーム間で顔領域の中心位置の距離及びサイズの変化の総和が最も小さいものを同一人物の顔領域であると推定する。例えば、追尾部105は第1のフレームとこの第1のフレームと異なる第2のフレームとにおいて検出された顔領域を比較して同一人物(個人)の顔領域を特定することになる。   For this reason, the tracking unit 105 compares the center position and size of each face area detected in each frame and has the smallest sum of changes in the distance and size of the center position of the face area between consecutive frames. Are estimated to be face areas of the same person. For example, the tracking unit 105 compares the face areas detected in the first frame and a second frame different from the first frame to specify the face area of the same person (individual).

但し、上記の総和が最も小さくともその値が予め設定した閾値の範囲に入っていないのであれば、追尾部105は同一人物ではないと判定する。   However, even if the total sum is the smallest, if the value does not fall within the preset threshold range, it is determined that the tracking unit 105 is not the same person.

なお、ステップS202において、顔領域の検出ができないと(ステップS202において、NO)、処理はステップS202からステップS205に進む。   If the face area cannot be detected in step S202 (NO in step S202), the process proceeds from step S202 to step S205.

この場合、追尾部105は、処理対象としているフレームから、それよりも前のフレームで顔検出部102によって検出された顔領域及び前のフレームで追尾部105によって顔領域と判定された領域のいずれかと類似する領域を検出し、同一人物の顔領域として判定する。具体的には、輝度及び色差のパターンの類似度が最も高く、かつ、その値が予め設定した閾値の範囲に入っている領域を、その前のフレームにおける顔領域と同一人物の顔領域であると判定する。   In this case, the tracking unit 105 selects either the face area detected by the face detection unit 102 in the previous frame or the area determined as the face area by the tracking unit 105 in the previous frame from the frame to be processed. A similar area is detected and determined as the face area of the same person. Specifically, an area in which the similarity between the luminance and color difference patterns is the highest and the value falls within a preset threshold range is the face area of the same person as the face area in the previous frame. Is determined.

図5は、図1に示す個人認証装置で処理される動画像データの一例を示す図である。そして、図5(a)は動画像データにおける1フレームを示す図であり、図5(b)は図5(a)に連続するフレームの一例を示す図である。また、図5(c)は図5(a)に連続するフレームの他の例を示す図である。   FIG. 5 is a diagram showing an example of moving image data processed by the personal authentication device shown in FIG. FIG. 5A is a diagram showing one frame in the moving image data, and FIG. 5B is a diagram showing an example of a frame continuous to FIG. 5A. FIG. 5C is a diagram showing another example of the continuous frames in FIG.

いま、図5(a)においては人物501の顔領域が検出され、図5(b)においては人物501及び502の顔領域がそれぞれ検出されているものとする。追尾部105は図5(b)において検出された人物501及び人物502の顔領域を、図5(a)において検出された人物501の顔領域と比べる。その結果、追尾部105は、顔領域の中心位置及びサイズの変化がほとんど無く、予め設定した閾値の範囲に入っている図5(b)に示す人物501の顔領域と図5(a)に示す人物501の顔領域とが同一人物であると判定する。   Now, assume that the face area of the person 501 is detected in FIG. 5A, and the face areas of the persons 501 and 502 are detected in FIG. 5B, respectively. The tracking unit 105 compares the face area of the person 501 and the person 502 detected in FIG. 5B with the face area of the person 501 detected in FIG. As a result, the tracking unit 105 has almost no change in the center position and size of the face area, and the face area of the person 501 shown in FIG. It is determined that the face area of the person 501 shown is the same person.

一方、顔領域が検出されてないか又は同一人物と判定される顔領域が見つからない場合には、追尾部105は異なるフレームにおいて顔検出部102が検出した顔領域と輝度及び色差のパターンが類似している周辺領域を検索する。   On the other hand, when the face area is not detected or the face area determined to be the same person is not found, the tracking unit 105 has similar patterns of brightness and color difference to the face area detected by the face detection unit 102 in different frames. Search the surrounding area.

いま、図5(a)においては、人物501の顔領域のみが検出され、図5(c)においては人物502の顔領域のみが検出されているものとする。追尾部105は、図5(c)に示す人物502の顔領域を、図5(a)に示す人物501の顔領域と比べる。その結果、両者は顔の中心位置及びサイズの変化が大きく、予め設定した閾値の範囲に入らないため、追尾部105は別人物であると判定する。   Now, assume that only the face area of the person 501 is detected in FIG. 5A and only the face area of the person 502 is detected in FIG. 5C. The tracking unit 105 compares the face area of the person 502 shown in FIG. 5C with the face area of the person 501 shown in FIG. As a result, both the face center position and size change greatly, and both do not fall within the preset threshold range, and therefore the tracking unit 105 is determined to be a different person.

そこで、追尾部105は、図5(a)において検出した人物501の顔領域と輝度及び色差のパターンが類似している周辺領域を図5(c)のフレームから検索する。そして、検索の結果、追尾部105は類似度が最も高い領域に同一人物の顔領域があるものと推定する。但し、類似度が予め設定した閾値の範囲に入っていないと、追尾部105は、同一人物は存在しないと判定することになる。なお、図5(c)における人物501は後ろを向いており、図5(a)における人物501との類似度が閾値の範囲から外れてしまうため、図5(c)では人物501は存在しないと判定されることになる。   Therefore, the tracking unit 105 searches the frame in FIG. 5C for a peripheral region similar in brightness and color difference pattern to the face region of the person 501 detected in FIG. As a result of the search, the tracking unit 105 estimates that the face area of the same person is in the area having the highest similarity. However, if the similarity is not within the preset threshold range, the tracking unit 105 determines that the same person does not exist. Note that the person 501 in FIG. 5C is facing backward, and the similarity with the person 501 in FIG. 5A is out of the threshold range, so the person 501 does not exist in FIG. 5C. It will be determined.

さらに、追尾部105は、連続した複数のフレームを通じて同一人物と判定した人物毎にユニークな人物IDを割り当てる。この人物IDは新しい人物が検出される毎に新しく割り当てられ、存在しなくなった人物の人物IDついては削除される。   Furthermore, the tracking unit 105 assigns a unique person ID to each person determined to be the same person through a plurality of consecutive frames. This person ID is newly assigned every time a new person is detected, and the person ID of a person that no longer exists is deleted.

例えば、図5(a)及び(b)に示す連続フレームにおいて、図5(a)に示す人物501については既に人物IDが割り当てられており、図5(b)において検出された人物502の顔領域は新しい人物として、人物1とは異なる新しい人物IDが割り当てられることになる。   For example, in the continuous frames shown in FIGS. 5A and 5B, a person ID is already assigned to the person 501 shown in FIG. 5A, and the face of the person 502 detected in FIG. A new person ID different from the person 1 is assigned to the area as a new person.

再び図1及び図4を参照して、認証部106は顔領域の検出結果及び追尾結果に基づいて人物が存在するか否かについては判定する(ステップS206)。画像データに人物がひとりでも存在すると判定すると(ステップS206において、YES)、認証部106は、追尾部105が割り当てた人物ID毎に、顔領域の特徴データと個人データベース部108に登録された特徴データとの比較・照合を行う。そして、認証部106は各顔領域が誰であるか個人の認証を行う(ステップS207)。   Referring to FIGS. 1 and 4 again, authentication unit 106 determines whether or not a person exists based on the detection result and tracking result of the face area (step S206). If it is determined that there is at least one person in the image data (YES in step S206), the authentication unit 106 uses the facial region feature data and the feature registered in the personal database unit 108 for each person ID assigned by the tracking unit 105. Compare and collate with data. Then, the authentication unit 106 authenticates the person who is each face area (step S207).

後述するように、認証部106は人物IDと個人IDとの対応関係を保持している。認証部106は、各人物IDに対して個人データベース部108に登録されている個人ID毎及び登録ID毎に照合を行い、該当する個人が特定された場合には人物IDに対する個人IDを更新する。   As will be described later, the authentication unit 106 holds a correspondence relationship between a person ID and a personal ID. The authentication unit 106 checks each person ID for each personal ID registered in the personal database unit 108 and for each registered ID, and updates the personal ID for the person ID when the corresponding individual is specified. .

また、認証部106は、人物IDの特徴データを個人データベース部108に追加登録すべきか否かについて判定する。なお、ステップS207における個人認証処理については後述する。   Further, the authentication unit 106 determines whether or not the feature data of the person ID should be additionally registered in the personal database unit 108. The personal authentication process in step S207 will be described later.

続いて、結果出力部107は、認証部106から個人認証の結果を受け、当該認証結果を、認証の対象となった画像データから生成された画像に重畳して表示する(ステップS208)。   Subsequently, the result output unit 107 receives the result of personal authentication from the authentication unit 106, and displays the authentication result superimposed on the image generated from the image data to be authenticated (step S208).

なお、認証結果の表示については、上記の表示手法に限られるものでなく、様々な手法を用いることができる。また、複数の顔領域について個人認証を同時に実行した場合には、各認証結果がいずれの顔領域に対応するものであるのかを明確にすることが望ましい。   In addition, about the display of an authentication result, it is not restricted to said display method, Various methods can be used. Further, when personal authentication is simultaneously performed for a plurality of face areas, it is desirable to clarify which face area each authentication result corresponds to.

さらに、認証部106は個人データベース部108に追加登録すべき特徴データを有する人物IDがあるか否かについて判定する(ステップS209)。追加登録すべき特徴データを有する人物IDがあると(ステップS209において、YES)、登録部109は、追加登録すべきと判定された特徴データを追加特徴データとして個人データベース部108に追加登録する(ステップS210)。   Further, the authentication unit 106 determines whether there is a person ID having feature data to be additionally registered in the personal database unit 108 (step S209). If there is a person ID having feature data to be additionally registered (YES in step S209), the registration unit 109 additionally registers the feature data determined to be additionally registered in the personal database unit 108 as additional feature data ( Step S210).

続いて、画像入力部101は画像データに別フレームが存在するか否かについて判定する(ステップS211)。別フレームの画像データが存在すると(ステップS211において、YES)、画像入力部101は別フレームに画像データを更新する(ステップS212)。そして、処理はステップS201に戻り、顔検出部102が更新した画像データに対して顔検出を行う。一方、別フレームの画像データが存在しなければ、処理は終了する。   Subsequently, the image input unit 101 determines whether another frame exists in the image data (step S211). If image data of another frame exists (YES in step S211), the image input unit 101 updates the image data to another frame (step S212). Then, the process returns to step S201, and face detection is performed on the image data updated by the face detection unit 102. On the other hand, if there is no image data of another frame, the process ends.

なお、ステップS206において、画像データに人物が存在しないと判定されると(ステップS206において、NO)、処理はステップS211に移行する。また、ステップS209において、追加登録すべき特徴データを有する人物IDがないと(ステップS209において、NO)、処理はステップS211に移行する。   If it is determined in step S206 that there is no person in the image data (NO in step S206), the process proceeds to step S211. If there is no person ID having feature data to be additionally registered in step S209 (NO in step S209), the process proceeds to step S211.

図6は、図4で説明した個人認証における処理を詳細に説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining in detail the processing in the personal authentication described in FIG.

図1及び図6を参照して、認証部106は、追尾部105で割り当てられた人物IDと個人データベース部108に登録された個人IDとを対応付け、その対応関係を連続するフレームに亘って管理する。また、認証部106は、個人データベース部108に人物IDに対応する特徴データを追加登録すべきか否かについて判定する。   Referring to FIGS. 1 and 6, authentication unit 106 associates the person ID assigned by tracking unit 105 with the personal ID registered in personal database unit 108, and associates the correspondence relationship over successive frames. to manage. Further, the authentication unit 106 determines whether or not feature data corresponding to the person ID should be additionally registered in the personal database unit 108.

まず、認証部106は、処理中のフレームにおいて、人物IDに対する特徴データが検出されているか否かについて判定する(ステップS301)。ここで、特徴データが検出されていない場合とは、顔検出部102において顔領域の検出ができず、追尾部105による追尾によって顔のある領域を判定した場合をいう。   First, the authentication unit 106 determines whether or not feature data for the person ID is detected in the frame being processed (step S301). Here, the case where the feature data is not detected refers to a case where the face detection unit 102 cannot detect the face area and the tracking unit 105 determines the area with the face.

特徴データが検出されている場合には(ステップS301において、YES)、認証部106は、顔領域の特徴データ(抽出特徴データ)と個人データベース部108に登録された特徴データ(登録特徴データ)とを比較・照合して、個人の認証を行う(ステップS302)。そして、認証部106は個人認証が行えたか(不可か否か)、つまり、個人の特定ができたか否かについて判定する(ステップS303)。   When the feature data is detected (YES in step S301), the authentication unit 106 includes the feature data (extracted feature data) of the face area and the feature data (registered feature data) registered in the personal database unit 108. Are compared and verified to authenticate the individual (step S302). Then, the authentication unit 106 determines whether personal authentication has been performed (whether or not possible), that is, whether or not an individual has been identified (step S303).

個人の特定ができると(ステップS303において、YES)、認証部106は個人の認証結果に基づいて人物IDと個人IDの対応関係を更新する(ステップS304)。そして、認証部106は、処理中のフレームに対して追尾部105によって割り当てられた人物IDのうちで、認証処理を行っていないものが残っているか否かについて判定する(ステップS305)。   If the individual can be specified (YES in step S303), authentication unit 106 updates the correspondence between the person ID and the personal ID based on the personal authentication result (step S304). Then, the authentication unit 106 determines whether there is any person ID that has not been subjected to authentication processing among the person IDs assigned by the tracking unit 105 to the frame being processed (step S305).

認証処理を行っていない人物IDが存在すると(ステップS305において、YES)、認証部106は処理対象である人物IDを更新して(ステップS306)、ステップS301に戻り、人物IDに対する特徴データの有無の判定を行う。一方、全ての人物IDに対する認証処理が終わっていると(ステップS305において、NO)、認証部106は処理を終了する。そして、処理は図4で説明したステップS208に移行することになる。   If there is a person ID that has not been subjected to the authentication process (YES in step S305), the authentication unit 106 updates the person ID to be processed (step S306), returns to step S301, and whether there is feature data for the person ID. Judgment is made. On the other hand, when the authentication process for all the person IDs is completed (NO in step S305), authentication unit 106 ends the process. Then, the process proceeds to step S208 described in FIG.

ステップS303において、個人の特定ができないと(ステップS303において、NO)、認証部106は、人物IDに対応付けられた個人IDが存在するか否かについて判定する(ステップS307)。人物IDに対応付けられた個人IDが存在すれば(ステップS307において、YES)、認証部106は、処理中のフレームにおける人物IDに係る特徴データを、個人データベース部108に追加登録すべきと判定する(ステップS308)。つまり、認証部106は特徴データを登録対象と判定することになる。そして、認証部106はステップS305に進む。   If the individual cannot be identified in step S303 (NO in step S303), the authentication unit 106 determines whether there is a personal ID associated with the person ID (step S307). If there is a personal ID associated with the person ID (YES in step S307), authentication unit 106 determines that feature data relating to the person ID in the frame being processed should be additionally registered in personal database unit 108. (Step S308). That is, the authentication unit 106 determines that the feature data is a registration target. Then, the authentication unit 106 proceeds to step S305.

人物IDに対応付けられた個人IDが存在するということは、その人物IDは、処理中のフレームよりも前のフレームにおいて、すでに個人認証に成功しているということである。それにも関わらず、処理中のフレームにおいて、認証部106がその人物IDに対する個人認証に失敗したということは、処理中のフレームにおける抽出特徴データが、その人物の登録特徴データではカバーできないものであることを示す。従って、この処理中のフレームにおける抽出特徴データを、その個人IDに対応する新たな登録特徴データとして個人データベース部108に追加登録することで、個人認証の精度を高めることができる。   The presence of a personal ID associated with a person ID means that the personal ID has already been successfully authenticated in a frame before the frame being processed. Nevertheless, in the frame being processed, the fact that the authentication unit 106 has failed in personal authentication for the person ID means that the extracted feature data in the frame being processed cannot be covered by the registered feature data of the person. It shows that. Therefore, the accuracy of personal authentication can be improved by additionally registering the extracted feature data in the frame being processed in the personal database unit 108 as new registered feature data corresponding to the personal ID.

よって、照明条件や顔の向きが変化することによって、すでに前のフレームで個人認証に成功している人物IDに対して認証部106が個人認証に失敗するたびに、個人データベース部108に新たな特徴データが追加登録されることになる。そのため、様々な照明条件や顔の向きに対応した特徴データが個人データベース部108に追加登録されることになり、撮影条件が変化しても、容易に個人認証の精度を向上させることができるようになる。   Therefore, every time the authentication unit 106 fails in personal authentication for a person ID that has already been successfully authenticated in the previous frame due to changes in lighting conditions and face orientation, a new data is stored in the personal database unit 108. Feature data is additionally registered. Therefore, feature data corresponding to various lighting conditions and face orientations are additionally registered in the personal database unit 108, so that the accuracy of personal authentication can be easily improved even if the photographing conditions change. become.

ステップS308において、例えば、図3で説明した個人データベース部108に対して、個人ID=2が対応づけられた人物IDの特徴データを追加登録する場合、登録部109は個人ID=2に係る登録ID=0の要素の1つを、登録ID=2と上書きして正規化された画像データととともに人物IDの特徴データを登録する。   In step S308, for example, when additionally registering the feature data of the person ID associated with the personal ID = 2 in the personal database unit 108 described in FIG. 3, the registration unit 109 registers the personal ID = 2. The feature data of the person ID is registered together with the image data normalized by overwriting the registration ID = 2 with one of the elements of ID = 0.

人物IDに対応付けられた個人IDが存在しないと(ステップS307において、NO)、認証部106は、ステップS305に進む。人物IDに対応付けられた個人IDが存在しない場合とは、当該人物IDに関して個人データベース部108によって該当する個人が一度も認証できていない場合をいう。なお、ステップS301において、特徴データが検出されていない場合には(ステップS301において、NO)、認証部106はステップS305に進む。   If there is no personal ID associated with the person ID (NO in step S307), authentication unit 106 proceeds to step S305. The case where the personal ID associated with the person ID does not exist refers to the case where the corresponding individual has not been authenticated by the personal database unit 108 with respect to the person ID. If no feature data is detected in step S301 (NO in step S301), authentication unit 106 proceeds to step S305.

以上ように、第1の実施形態によれば、撮影条件が変化しても、容易に個人認証の精度を向上させることができる。   As described above, according to the first embodiment, it is possible to easily improve the accuracy of personal authentication even if the shooting condition changes.

[第2の実施形態]
次に、第2の実施形態として、個人認証の信頼度が高い人物の特徴データのみを追加登録する場合について説明する。ここでは、個人認証装置は、個人に対して誤った人物の特徴データを登録しないように、個人認証の信頼度がより高い人物の特徴データのみ追加登録する。なお、個人認証装置自体の構成は図1に示す個人認証装置と同様である。
[Second Embodiment]
Next, as a second embodiment, a case where only the feature data of a person with high personal authentication reliability is additionally registered will be described. Here, the personal authentication device additionally registers only the feature data of a person with higher reliability of personal authentication so as not to register wrong person feature data for the individual. The configuration of the personal authentication device itself is the same as that of the personal authentication device shown in FIG.

第2の実施形態における個人認証装置においては、認証部106は、互いに異なる2つの閾値を用いて、認証結果の信頼度を異ならせている。つまり、認証部106は2つの閾値を用いて特徴データの比較・照合を行って、認証結果の信頼度が高い特徴データのみを追加登録の対象とする。   In the personal authentication device according to the second embodiment, the authentication unit 106 uses two different thresholds to change the reliability of the authentication result. That is, the authentication unit 106 performs comparison / matching of feature data using two threshold values, and sets only feature data with a high reliability of the authentication result as an additional registration target.

具体的には、図6で説明した個人認証処理のステップS302において、認証部106は、顔領域の特徴データと個人データベース部108に登録された特徴データとの比較・照合を行う際に、認証結果の信頼度が異なる2つの閾値A及びBを用いる。ここでは、閾値A(第2の閾値)<閾値B(第1の閾値)である。   Specifically, in step S302 of the personal authentication process described with reference to FIG. 6, the authentication unit 106 performs authentication when comparing / collating the feature data of the face area with the feature data registered in the personal database unit 108. Two thresholds A and B having different reliability of the result are used. Here, threshold A (second threshold) <threshold B (first threshold).

第2の実施形態における個人認証装置において、認証部106は、第1の実施形態と同様にして、個人認証の際、特徴点の座標の差分の絶対値和Sを算出する。そして、認証部106は、最も可能性が高いと判定された人物に係る絶対値和Sが閾値Bよりも小さければ、当該人物であると判定する。   In the personal authentication apparatus according to the second embodiment, the authentication unit 106 calculates the absolute value sum S of the feature point coordinate differences during personal authentication in the same manner as in the first embodiment. Then, if the absolute value sum S related to the person who is determined to be most likely is smaller than the threshold value B, the authentication unit 106 determines that the person is the person.

さらに、認証部106は絶対値和Sが閾値A(<閾値B)よりも小さければ、より高い信頼度で当該人物であると判定する。一度でも高い信頼度で個人が認証された人物IDについては、認証部106は、その対応する個人IDが変化しない限り、高い信頼度を保持する。   Furthermore, if the absolute value sum S is smaller than the threshold value A (<threshold value B), the authentication unit 106 determines that the person is the person with higher reliability. For a person ID whose person has been authenticated with high reliability even once, the authentication unit 106 maintains high reliability unless the corresponding personal ID changes.

また、図6で説明した個人認証処理のステップS308において、認証部106は、人物IDに係る特徴データを、個人データベース部108に追加登録すべきであると判定する際に、当該人物IDが高い信頼度で個人認証されていることを条件とする。当該人物IDが高い信頼度で個人認証されていない場合には、認証部106は個人データベース部108への追加登録を登録部109に指示しない。   In step S308 of the personal authentication process described with reference to FIG. 6, the authentication unit 106 has a high person ID when determining that the feature data related to the person ID should be additionally registered in the personal database unit 108. Subject to personal authentication with confidence. If the person ID is not highly personally authenticated, the authentication unit 106 does not instruct the registration unit 109 to perform additional registration in the personal database unit 108.

図7は、本発明の第2の実施形態による個人認証装置における個人認証結果の変化を示す図である。   FIG. 7 is a diagram showing a change in the personal authentication result in the personal authentication device according to the second embodiment of the present invention.

図1、図3、及び図7を参照して、図7では、連続する7枚のフレームにおいて、追尾部105が同一人物と判定した人物IDの顔領域の特徴データと個人データベース部108に登録された特徴データとの差分の絶対値和Sの変化が示されている。   Referring to FIG. 1, FIG. 3, and FIG. 7, in FIG. 7, the feature data of the face area of the person ID determined by the tracking unit 105 as the same person and registered in the personal database unit 108 in seven consecutive frames. The change of the absolute value sum S of the difference with the feature data is shown.

黒四角701〜707は、連続する7枚のフレームにおいて人物IDの顔領域の特徴データと特徴データC21(図3)との差分の絶対値和Sを示している。つまり、黒四角701〜707は、特徴点の座標の差分の絶対値和Sを示している。ここで、黒四角701〜706については、個人データベース部108に登録された特徴データの中で特徴データC21との絶対値和Sが最小であるものとする。   Black squares 701 to 707 indicate the absolute value sum S of differences between the feature data of the face area of the person ID and the feature data C21 (FIG. 3) in seven consecutive frames. That is, the black squares 701 to 707 indicate the absolute value sum S of the difference in the coordinates of the feature points. Here, regarding the black squares 701 to 706, the absolute value sum S with the feature data C21 among the feature data registered in the personal database unit 108 is the smallest.

黒四角701に注目すると、黒四角701は、その絶対値和Sが閾値Bよりも小さい。従って、黒四角701に対応するフレームではその人物は個人ID=2と認証される。さらに、黒四角702においては、その絶対値和Sが閾値Aより小さい。このため、黒四角702に対応するフレーム以降のフレームにおいては追尾部105によって当該人物が追尾されている限り、個人認証の信頼度が高い人物として扱われることになる。   When attention is paid to the black square 701, the absolute value sum S of the black square 701 is smaller than the threshold value B. Therefore, the person is authenticated as personal ID = 2 in the frame corresponding to the black square 701. Further, in the black square 702, the absolute value sum S is smaller than the threshold value A. For this reason, in the frames after the frame corresponding to the black square 702, as long as the person is tracked by the tracking unit 105, the person is treated as a person with high reliability of personal authentication.

一方、黒四角706においては、その絶対値和Sが閾値Bより大きくなったため、認証部106は、黒四角706に対応するフレームにおいて検出した人物に係る顔領域の特徴データを、個人データベース部108に追加登録すべきであると判定する。この特徴データをC22、正規化顔画像データをA22とすると、登録部109は特徴データC22を、個人ID=2の登録ID=2として、正規化顔画像データA22とともに個人データベース部108に追加登録することになる。   On the other hand, since the absolute value sum S of the black square 706 is larger than the threshold value B, the authentication unit 106 uses the personal database unit 108 to store the facial region feature data related to the person detected in the frame corresponding to the black square 706. It is determined that additional registration should be performed. Assuming that the feature data is C22 and the normalized face image data is A22, the registration unit 109 additionally registers the feature data C22 in the personal database unit 108 together with the normalized face image data A22 as the registration ID = 2 of the personal ID = 2. Will do.

図7において黒丸706’及び707’は、人物IDに係る顔領域の特徴データと黒四角706に対応するフレームにおいて追加登録された特徴データC22との差分の絶対値和Sを示している。黒丸707’に対応するフレームにおいては、特徴データC21に代わって、追加登録された特徴データC22に係る絶対値和Sが個人データベース部108に登録されている特徴データの中で最小となる。   In FIG. 7, black circles 706 ′ and 707 ′ indicate the absolute value sum S of the difference between the feature data of the face area related to the person ID and the feature data C22 additionally registered in the frame corresponding to the black square 706. In the frame corresponding to the black circle 707 ′, instead of the feature data C 21, the absolute value sum S related to the additionally registered feature data C 22 is the smallest among the feature data registered in the personal database unit 108.

第2の実施形態においては、個人認証の信頼度が異なる2つの閾値A及びBを絶対値和Sに対する閾値として用いているが、個人認証の信頼度が測れるものであれば、他の指標に関する閾値であってもよい。   In the second embodiment, two threshold values A and B having different degrees of reliability of personal authentication are used as thresholds for the sum of absolute values S. However, as long as the reliability of personal authentication can be measured, It may be a threshold value.

また、絶対値和Sが閾値Bを下回った段階で、その人物であると判定しているが、誤った人物として判定結果が出力されることを避けるため、閾値Aを下回った段階で初めて、その人物として判定結果が結果出力部107から出力されるようにしてもよい。   In addition, it is determined that the person is the person when the sum of absolute values S is below the threshold B, but in order to avoid the determination result being output as an incorrect person, for the first time when the sum is below the threshold A, The determination result may be output from the result output unit 107 as the person.

さらに、第2の実施形態においては、ユーザーの指示によって登録された特徴データと追加登録された特徴データとを同等に扱っているが、誤った人物として追加登録されることを避けるため、前者の特徴データに対して高い信頼度で個人認証が行われた場合のみ追加登録を行うようにしてもよい。   Furthermore, in the second embodiment, the feature data registered by the user's instruction and the additionally registered feature data are treated equally, but in order to avoid being additionally registered as an incorrect person, the former Additional registration may be performed only when personal authentication is performed with high reliability on the feature data.

以上のように、第2の実施形態によれば、信頼性の高い特徴データのみを追加登録して、より個人認証の精度を向上させることができることになる。   As described above, according to the second embodiment, only highly reliable feature data is additionally registered, and the accuracy of personal authentication can be further improved.

[第3の実施形態]
続いて、第3の実施形態として、個人データベース部108にユーザーの指示によって予め登録された特徴データと個人データベース部108に追加登録された特徴データとを区別して個人認証を行う場合について説明する。ここでは、個人認証装置はユーザーの指示によって予め登録された特徴データ(指示登録データ)のみを用いて個人認証を行い、一致する人物が見つからなかった場合に、追加登録された特徴データ(追加登録データ)を用いて個人認証を行う。なお、個人認証装置自体の構成は図1に示す個人認証装置と同様である。
[Third Embodiment]
Next, as a third embodiment, a case will be described in which individual authentication is performed by distinguishing feature data registered in advance in the personal database unit 108 by a user's instruction and feature data additionally registered in the personal database unit 108. Here, the personal authentication device performs personal authentication using only feature data (instruction registration data) registered in advance according to the user's instruction, and if no matching person is found, the additionally registered feature data (additional registration) Data) is used for personal authentication. The configuration of the personal authentication device itself is the same as that of the personal authentication device shown in FIG.

具体的には、第3の実施形態における個人認証装置は、ユーザーから特徴データの登録を指示する指示部(図1には示されていない)を備えている。指示部からの指示に応じて、認証部106は指示されたフレームにおいて顔検出部102が検出した顔領域の中から指示された顔領域を選択する。そして、登録部109はその特徴データを個人の名前及び正規化顔画像データとともに個人データベース部108に登録する。ここで登録された特徴データは登録ID=1となる。   Specifically, the personal authentication device according to the third embodiment includes an instruction unit (not shown in FIG. 1) that instructs the user to register feature data. In response to an instruction from the instruction unit, the authentication unit 106 selects the designated face area from the face areas detected by the face detection unit 102 in the designated frame. Then, the registration unit 109 registers the feature data in the personal database unit 108 together with the personal name and normalized face image data. The registered feature data is registered ID = 1.

また、図6で説明した個人認証処理のステップS302において、認証部106は、まず、顔領域の特徴データ(抽出特徴データ)と個人データベース部108に登録された登録ID=1の特徴データとの比較・照合を行う。ここで、一致する特徴データが見つからなかった場合にのみ、認証部106は個人データベース部108に追加登録された登録ID>1の特徴データと抽出特徴データとの比較・照合を行う。   In step S302 of the personal authentication process described with reference to FIG. 6, the authentication unit 106 first calculates the facial area feature data (extracted feature data) and the feature data of registration ID = 1 registered in the personal database unit 108. Compare and collate. Here, only when no matching feature data is found, the authentication unit 106 performs comparison / collation between the feature data of registration ID> 1 additionally registered in the personal database unit 108 and the extracted feature data.

以上のように、第3の実施形態によれば、一致する特徴データが見つからなかった場合に、再度追加登録された特徴データを用いて比較・照合を行うようにしたので、誤った人物として認証してしまう頻度を低く抑えることができる。   As described above, according to the third embodiment, when matching feature data is not found, comparison / collation is performed again using feature data that is additionally registered, so that it is authenticated as an incorrect person. It is possible to keep down the frequency of doing so.

[第4の実施形態]
次に、第4の実施形態として個人データベース部108に登録できる特徴データの数が既に上限に達している場合について説明する。ここでは、個人データベース部108に登録された特徴データ毎に利用頻度が合わせて登録されている。そして、登録部109は新しく追加登録する特徴データを利用頻度の低い特徴データに上書きする。なお、個人認証装置自体の構成は図1に示す個人認証装置と同様である。
[Fourth Embodiment]
Next, a case where the number of feature data that can be registered in the personal database unit 108 has already reached the upper limit will be described as a fourth embodiment. Here, the usage frequency is registered for each feature data registered in the personal database unit 108. Then, the registration unit 109 overwrites the feature data to be newly registered with the feature data with low usage frequency. The configuration of the personal authentication device itself is the same as that of the personal authentication device shown in FIG.

具体的には、図3で説明した個人データベース部108に登録された個人認証用の特徴データに関して、顔検出部102によって検出された顔領域の特徴データと一致した回数(一致回数)と最後に一致した日時(最終一致日時)とが特徴データ毎に登録される。   Specifically, with respect to the feature data for personal authentication registered in the personal database unit 108 described with reference to FIG. 3, the number of times of coincidence with the feature data of the face area detected by the face detection unit 102 (the number of matches) and finally The matching date and time (final matching date and time) is registered for each feature data.

また、図6で説明した個人認証処理のステップS304において、認証部106は人物IDに対応する個人IDを更新する際に、個人データベース部108の特徴データの利用頻度を更新する。   In step S304 of the personal authentication process described with reference to FIG. 6, the authentication unit 106 updates the usage frequency of the feature data in the personal database unit 108 when updating the personal ID corresponding to the person ID.

利用頻度の更新は、人物IDに対して新たな個人ID又は前回と異なる個人IDが割り当てられる場合に行われる。この場合に、認証部106は人物IDの特徴データと一致した個人データベース部108の特徴データについて、一致回数をインクリメントして、さらに、最終一致日時を現在日時に更新する。   The usage frequency is updated when a new personal ID or a personal ID different from the previous one is assigned to the person ID. In this case, the authentication unit 106 increments the number of matches for the feature data of the personal database unit 108 that matches the feature data of the person ID, and further updates the last match date and time to the current date and time.

さらに、図4で説明した全体処理のステップS212において、登録部109は、特徴データを個人データベース部108に追加登録する際に、登録できる特徴データの数が既に上限に達していると、利用頻度が低い特徴データに上書きして追加登録を行う。つまり、登録部109は、追加特徴データを新たに登録する際、個人データベース部108に登録可能な特徴データの数が予め規定された上限に達していると、利用頻度の低い登録特徴データを抹消して追加特徴データを登録することになる。   Furthermore, in step S212 of the overall processing described with reference to FIG. 4, when the registration unit 109 additionally registers feature data in the personal database unit 108, if the number of feature data that can be registered has already reached the upper limit, the usage frequency Overwrite the low feature data and perform additional registration. That is, when newly registering additional feature data, the registration unit 109 deletes registered feature data that is less frequently used if the number of feature data that can be registered in the personal database unit 108 has reached a predetermined upper limit. Thus, additional feature data is registered.

ここでは、一致回数が予め定められた閾値以下の特徴データの中で最終一致日時が最も古い特徴データを利用頻度が低い特徴データとする。なお、利用頻度の重み付けは、最終一致日時を一致回数よりも優先して判断するようにしてもよく、検出された顔領域の特徴データと一致した際の認証の信頼度の履歴等を用いるようにしてもよい。   Here, the feature data with the oldest last match date among the feature data whose number of matches is equal to or less than a predetermined threshold is assumed to be feature data with low usage frequency. Note that the weighting of the usage frequency may be determined by giving priority to the last match date over the number of matches, and a history of authentication reliability when matching with the feature data of the detected face area is used. It may be.

但し、ユーザーが登録した登録ID=1の特徴データは上書きの対象としないものとする。このため、利用頻度の更新と利用頻度の低い特徴データの検索とは、登録ID>1の追加登録された特徴データに対してのみ行えばよいことになる。   However, the feature data with registration ID = 1 registered by the user is not to be overwritten. For this reason, the update of the usage frequency and the search for the feature data with the low usage frequency need only be performed for the additionally registered feature data with the registration ID> 1.

以上のように、第4の実施形態によれば、個人データベース部108に登録できる特徴データの数が限られている場合においても、登録されている個人を認証できる頻度を高くすることができる。   As described above, according to the fourth embodiment, even when the number of feature data that can be registered in the personal database unit 108 is limited, the frequency with which a registered individual can be authenticated can be increased.

なお、上述の説明から明らかなように、画像入力部101、顔検出部102、正規化部103及び特徴データ生成部104が集合的に特徴データ抽出手段として機能する。また、認証部106及び登録部109が集合的に登録手段として機能することになる。   As is clear from the above description, the image input unit 101, face detection unit 102, normalization unit 103, and feature data generation unit 104 collectively function as feature data extraction means. Further, the authentication unit 106 and the registration unit 109 collectively function as a registration unit.

また、人物の顔領域を用いた個人認証を例にあげて説明を行ったが、これに限られるものではない。一部のデジタルカメラに搭載されてきたペットである動物の顔領域を検出する機能を利用すれば、上述した説明と同様の処理を、動物の個体認証において実行することも可能である。   Further, although the description has been made taking personal authentication using a human face area as an example, the present invention is not limited to this. If the function of detecting the face area of an animal that is a pet that has been mounted on some digital cameras is used, the same processing as described above can be executed in the individual authentication of the animal.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を個人認証方法として、この個人認証方法を、コンピュータ等に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを個人認証プログラムとして、この個人認証プログラムを個人認証装置が備えるコンピュータに実行させるようにしてもよい。   For example, the function of the above embodiment may be used as a personal authentication method, and this personal authentication method may be executed by a computer or the like. Further, a program having the functions of the above-described embodiments may be used as a personal authentication program, and this personal authentication program may be executed by a computer included in the personal authentication device.

この際、個人認証方法及び個人認証プログラムは、少なくとも特徴データ抽出ステップ、認証ステップ、追尾ステップ、及び登録ステップを有することになる。   At this time, the personal authentication method and the personal authentication program have at least a feature data extraction step, an authentication step, a tracking step, and a registration step.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

101 画像入力部
102 顔検出部
103 正規化部
104 特徴データ生成部
105 追尾部
106 認証部
107 結果出力部
108 個人データベース部
109 登録部
DESCRIPTION OF SYMBOLS 101 Image input part 102 Face detection part 103 Normalization part 104 Feature data generation part 105 Tracking part 106 Authentication part 107 Result output part 108 Personal database part 109 Registration part

Claims (10)

画像データに含まれる顔領域に応じて認証を行う認証装置において、
複数のフレームを有する画像データを受け、前記フレームの各々において顔領域を検出して、当該顔領域からその特徴データを抽出特徴データとして抽出する特徴データ抽出手段と、
前記認証の際に用いられる前記特徴データが登録された記憶手段と、
前記記憶手段に登録された特徴データと前記抽出特徴データとを比較して認証を行う認証手段と、
連続する前記フレームにおいて同一の前記顔領域を特定する追尾手段と、
前記追尾手段によって異なるフレームにおいて同一の前記顔領域である特定されているにも拘わらず前記認証手段によって認証が行われないと前記異なるフレームにおける顔領域に対応する前記抽出特徴データを追加特徴データとして前記記憶手段に登録する登録手段とを有することを特徴とする認証装置。
In an authentication device that performs authentication according to a face area included in image data,
Feature data extraction means for receiving image data having a plurality of frames, detecting a face area in each of the frames, and extracting the feature data from the face area as extracted feature data;
Storage means in which the feature data used in the authentication is registered;
Authentication means for performing authentication by comparing the feature data registered in the storage means with the extracted feature data;
Tracking means for identifying the same face region in the successive frames;
The extracted feature data corresponding to the face area in the different frame is used as additional feature data if authentication is not performed by the authentication means in spite of the fact that the same face area is specified in different frames by the tracking means. An authentication apparatus comprising registration means for registering in the storage means.
前記フレームの1つを第1のフレームとして該第1のフレームとは異なるフレームを第2のフレームとした場合に、前記登録手段は、前記第1のフレームにおける前記顔領域と前記第2のフレームにおける前記顔領域とが同一であると前記追尾手段によって特定されている際、前記第2のフレームにおける顔領域に対応する前記抽出特徴データに応じた前記認証が不可とされると前記第2のフレームにおける前記抽出特徴データを前記追加特徴データとして前記記憶手段に登録することを特徴とする請求項1記載の認証装置。   In a case where one of the frames is a first frame and a frame different from the first frame is a second frame, the registration unit may include the face area and the second frame in the first frame. When the tracking means specifies that the face area in the second frame is the same as the face area in the second frame, if the authentication according to the extracted feature data corresponding to the face area in the second frame is disabled, the second area The authentication apparatus according to claim 1, wherein the extracted feature data in a frame is registered in the storage unit as the additional feature data. 前記認証手段は、前記抽出特徴データと前記記憶手段に登録された特徴データとの差分が予め定められた閾値よりも小さいと、前記抽出特徴データと前記記憶手段に登録された特徴データとは同一の個人又は個体であると認証することを特徴とする請求項1又は2記載の認証装置。   If the difference between the extracted feature data and the feature data registered in the storage unit is smaller than a predetermined threshold, the authentication unit and the feature data registered in the storage unit are the same The authentication apparatus according to claim 1, wherein the authentication apparatus authenticates the person or individual. 前記追尾手段は、互いに異なるフレームにおいて前記顔領域のうち顔の中心位置及びサイズに基づいて当該顔領域が同一であるか否かを判定することを特徴とする請求項1〜3いずれか1項記載の認証装置。   4. The tracking unit according to claim 1, wherein the tracking unit determines whether or not the face regions are the same based on a center position and a size of the face region in different frames. The authentication device described. 前記認証手段は、前記抽出特徴データと前記記憶手段に登録された特徴データとの差分が予め定められた閾値よりも小さいと、前記抽出特徴データと前記記憶手段に登録された特徴データとは同一の個人又は個体であると認証し、
前記予め定められた閾値として第1の閾値と該第1の閾値よりも小さい第2の閾値とが設定されており、
前記認証手段によって前記第1のフレームにおいて前記差分が第2の閾値よりも小さいとされた際、前記追尾手段によって前記第1のフレーム及び前記第2のフレームにおける前記顔領域が同一であると特定された場合に前記認証手段によって前記第2のフレームにおいて前記差分が前記第1の閾値を越えると判定されると、前記登録手段は前記第2のフレームにおける前記抽出特徴データを前記追加特徴データとして前記記憶手段に登録することを特徴とする請求項2記載の認証装置。
If the difference between the extracted feature data and the feature data registered in the storage unit is smaller than a predetermined threshold, the authentication unit and the feature data registered in the storage unit are the same Authenticate that it is an individual or individual,
A first threshold value and a second threshold value smaller than the first threshold value are set as the predetermined threshold values;
When the difference is smaller than the second threshold value in the first frame by the authentication unit, the tracking unit specifies that the face areas in the first frame and the second frame are the same If the authentication means determines that the difference exceeds the first threshold in the second frame, the registration means uses the extracted feature data in the second frame as the additional feature data. The authentication apparatus according to claim 2, wherein the authentication apparatus is registered in the storage unit.
前記認証手段は、前記認証に当たって予め前記記憶手段に登録された前記特徴データを用いて前記認証を実行し、前記記憶手段に予め登録された特徴データによる認証ができないと、前記追加特徴データを用いて前記認証をさらに実行することを特徴とする請求項2記載の認証装置。   The authentication unit executes the authentication using the feature data registered in the storage unit in advance for the authentication, and uses the additional feature data when the authentication cannot be performed using the feature data registered in the storage unit. The authentication apparatus according to claim 2, further performing the authentication. 前記認証手段による前記認証の際、前記登録手段は前記記憶手段に登録された特徴データの利用頻度を前記記憶手段に登録しており、
前記登録手段は、前記追加特徴データを新たに登録する際、前記記憶手段に登録可能な特徴データの数が予め規定された上限に達していると、前記利用頻度の低い特徴データを抹消して前記追加特徴データを登録することを特徴とする請求項1〜6いずれか1項記載の認証装置。
At the time of the authentication by the authentication means, the registration means registers the use frequency of the feature data registered in the storage means in the storage means,
When the registration means newly registers the additional feature data, if the number of feature data that can be registered in the storage means has reached a predetermined upper limit, the registration means deletes the less frequently used feature data. The authentication apparatus according to claim 1, wherein the additional feature data is registered.
画像データに含まれる顔領域に応じて認証を行うための認証装置で用いられる認証方法において、
前記認証装置には、前記認証の際に用いられる前記顔領域の特徴データが登録特徴データとして登録された記憶装置が備えられており、
複数のフレームを有する画像データを受け、前記フレームの各々において顔領域を検出して、当該顔領域からその特徴データを抽出特徴データとして抽出する特徴データ抽出ステップと、
前記記憶装置に登録された特徴データと前記抽出特徴データとを比較して認証を行う認証ステップと、
連続する前記フレームにおいて同一の前記顔領域を特定する追尾ステップと、
前記追尾ステップによって異なるフレームにおいて同一の前記顔領域である特定されているにも拘わらず前記認証ステップによって認証が行われないと前記異なるフレームにおける顔領域に対応する前記抽出特徴データを追加特徴データとして前記記憶装置に登録する登録ステップとを有することを特徴とする認証方法。
In an authentication method used in an authentication device for performing authentication according to a face area included in image data,
The authentication device includes a storage device in which feature data of the face area used for the authentication is registered as registered feature data.
A feature data extraction step of receiving image data having a plurality of frames, detecting a face area in each of the frames, and extracting the feature data from the face area as extracted feature data;
An authentication step of performing authentication by comparing the feature data registered in the storage device with the extracted feature data;
A tracking step of identifying the same face region in the successive frames;
Although the same face area is specified in different frames by the tracking step, the extracted feature data corresponding to the face area in the different frame is used as additional feature data if authentication is not performed by the authentication step. And a registration step of registering in the storage device.
画像データに含まれる顔領域に応じて認証を行うための認証装置で用いられる認証プログラムにおいて、
前記認証装置には、前記認証の際に用いられる前記顔領域の特徴データが登録特徴データとして登録された記憶装置が備えられており、
前記認証装置が備えるコンピュータに、
複数のフレームを有する画像データを受け、前記フレームの各々において顔領域を検出して、当該顔領域からその特徴データを抽出特徴データとして抽出する特徴データ抽出ステップと、
前記記憶装置に登録された特徴データと前記抽出特徴データとを比較して認証を行う認証ステップと、
連続する前記フレームにおいて同一の前記顔領域を特定する追尾ステップと、
前記追尾ステップによって異なるフレームにおいて同一の前記顔領域である特定されているにも拘わらず前記認証ステップによって認証が行われないと前記異なるフレームにおける顔領域に対応する前記抽出特徴データを追加特徴データとして前記記憶装置に登録する登録ステップとを実行させることを特徴とする認証プログラム。
In an authentication program used in an authentication apparatus for performing authentication according to a face area included in image data,
The authentication device includes a storage device in which feature data of the face area used for the authentication is registered as registered feature data.
In the computer provided in the authentication device,
A feature data extraction step of receiving image data having a plurality of frames, detecting a face area in each of the frames, and extracting the feature data from the face area as extracted feature data;
An authentication step of performing authentication by comparing the feature data registered in the storage device with the extracted feature data;
A tracking step of identifying the same face region in the successive frames;
Although the same face area is specified in different frames by the tracking step, the extracted feature data corresponding to the face area in the different frame is used as additional feature data if authentication is not performed by the authentication step. An authentication program for executing a registration step of registering in the storage device.
請求項9に記載の認証プログラムが記録されたコンピュータに読み取り可能な記録媒体。   A computer-readable recording medium on which the authentication program according to claim 9 is recorded.
JP2010140529A 2010-06-21 2010-06-21 Authentication device, authentication method, authentication program, and recording medium Expired - Fee Related JP5748421B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010140529A JP5748421B2 (en) 2010-06-21 2010-06-21 Authentication device, authentication method, authentication program, and recording medium
US13/162,250 US8705813B2 (en) 2010-06-21 2011-06-16 Identification device, identification method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140529A JP5748421B2 (en) 2010-06-21 2010-06-21 Authentication device, authentication method, authentication program, and recording medium

Publications (2)

Publication Number Publication Date
JP2012003686A true JP2012003686A (en) 2012-01-05
JP5748421B2 JP5748421B2 (en) 2015-07-15

Family

ID=45535549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140529A Expired - Fee Related JP5748421B2 (en) 2010-06-21 2010-06-21 Authentication device, authentication method, authentication program, and recording medium

Country Status (1)

Country Link
JP (1) JP5748421B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014568A (en) * 2010-07-02 2012-01-19 Omron Corp Monitoring apparatus and method, and program
JP2016051204A (en) * 2014-08-28 2016-04-11 Idec株式会社 Optical information reading system and information code imaging device
WO2021125432A1 (en) * 2019-12-18 2021-06-24 주식회사 노타 Method and device for continuous face authentication
KR20210078377A (en) * 2019-12-18 2021-06-28 주식회사 노타 Method and appauatus for face continuous authentication

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118592A (en) * 2002-09-26 2004-04-15 Aisin Seiki Co Ltd User recognizing device
JP2007310480A (en) * 2006-05-16 2007-11-29 Toyota Motor Corp Recognition device and recognition means
JP2008257425A (en) * 2007-04-04 2008-10-23 Sony Corp Face recognition device, face recognition method and computer program
JP2010027035A (en) * 2008-06-16 2010-02-04 Canon Inc Personal authentication equipment and personal authentication method
JP2010092442A (en) * 2008-10-13 2010-04-22 Kodo Joho Gijutsu Kenkyusho:Kk Method, system for personal identification, determination device, terminal, server, program and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004118592A (en) * 2002-09-26 2004-04-15 Aisin Seiki Co Ltd User recognizing device
JP2007310480A (en) * 2006-05-16 2007-11-29 Toyota Motor Corp Recognition device and recognition means
JP2008257425A (en) * 2007-04-04 2008-10-23 Sony Corp Face recognition device, face recognition method and computer program
JP2010027035A (en) * 2008-06-16 2010-02-04 Canon Inc Personal authentication equipment and personal authentication method
JP2010092442A (en) * 2008-10-13 2010-04-22 Kodo Joho Gijutsu Kenkyusho:Kk Method, system for personal identification, determination device, terminal, server, program and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014568A (en) * 2010-07-02 2012-01-19 Omron Corp Monitoring apparatus and method, and program
JP2016051204A (en) * 2014-08-28 2016-04-11 Idec株式会社 Optical information reading system and information code imaging device
WO2021125432A1 (en) * 2019-12-18 2021-06-24 주식회사 노타 Method and device for continuous face authentication
KR20210078377A (en) * 2019-12-18 2021-06-28 주식회사 노타 Method and appauatus for face continuous authentication
KR102301785B1 (en) * 2019-12-18 2021-09-15 주식회사 노타 Method and appauatus for face continuous authentication

Also Published As

Publication number Publication date
JP5748421B2 (en) 2015-07-15

Similar Documents

Publication Publication Date Title
JP5567853B2 (en) Image recognition apparatus and method
US8705813B2 (en) Identification device, identification method, and storage medium
US8912885B2 (en) Personal authentication apparatus and personal authentication method
JP5783759B2 (en) Authentication device, authentication method, authentication program, and recording medium
KR101241625B1 (en) Method, apparatus for informing a user of various circumstances of face recognition, and computer-readable recording medium for executing the method
CA3152812A1 (en) Facial recognition method and apparatus
JP6941966B2 (en) Person authentication device
US20150205995A1 (en) Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium
JP5730095B2 (en) Face image authentication device
JP5480532B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
JP6265592B2 (en) Facial feature extraction apparatus and face authentication system
US9292752B2 (en) Image processing device and image processing method
JP5937823B2 (en) Image collation processing apparatus, image collation processing method, and image collation processing program
JP5748421B2 (en) Authentication device, authentication method, authentication program, and recording medium
JP4899552B2 (en) Authentication device, authentication method, authentication program, and computer-readable recording medium recording the same
JP5648452B2 (en) Image processing program and image processing apparatus
JP6432634B2 (en) Authentication device, authentication method, and program
WO2020115910A1 (en) Information processing system, information processing device, information processing method, and program
JP2014116033A (en) Personal authentication device, personal authentication method, camera, program, and storage medium
JP5871765B2 (en) Face image authentication device
JP5975828B2 (en) Facial feature extraction apparatus and face authentication system
JP6103706B2 (en) Authentication processing apparatus and authentication processing method
JPWO2008081527A1 (en) Authentication device, portable terminal device, and authentication method
JP5131131B2 (en) Display system and display control method
JP2022175957A (en) Person authentication device, person authentication method, person authentication program and person authentication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150512

R151 Written notification of patent or utility model registration

Ref document number: 5748421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees