JP2023025914A - Face authentication device, face authentication method, and computer program - Google Patents

Face authentication device, face authentication method, and computer program Download PDF

Info

Publication number
JP2023025914A
JP2023025914A JP2021131366A JP2021131366A JP2023025914A JP 2023025914 A JP2023025914 A JP 2023025914A JP 2021131366 A JP2021131366 A JP 2021131366A JP 2021131366 A JP2021131366 A JP 2021131366A JP 2023025914 A JP2023025914 A JP 2023025914A
Authority
JP
Japan
Prior art keywords
face
face image
image
registered
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021131366A
Other languages
Japanese (ja)
Inventor
日出来 空門
Hideki Sorakado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021131366A priority Critical patent/JP2023025914A/en
Publication of JP2023025914A publication Critical patent/JP2023025914A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

To reduce authentication errors when wearing a mask or the like on which another person's face is printed.SOLUTION: A face authentication device includes: face image input means for acquiring an input face image; registered face image holding means for holding a plurality of registered face images in advance; face coexistence determination means for determining whether face areas of different persons coexist in the input face image; and control means for performing a predetermined notification when the face coexistence determination means determines that the face areas of different persons coexist in the input face image.SELECTED DRAWING: Figure 4

Description

本発明は顔認証装置、顔認証方法、及びコンピュータプログラム等に関する The present invention relates to a face authentication device, a face authentication method, a computer program, and the like.

従来、マスク等の顔を遮蔽するものを装着した人物の顔認証技術がある。例えば、特許文献1では、マスク等の顔を遮蔽するものを、標準的な顔を表す画像と比較することにより、顔を遮蔽するものが存在する領域を推定し、遮蔽物のある領域を除外した顔画像により顔認証を行う。又、非特許文献1には、顔領域の特定をするための一般的な顔検出技術が記載されている。 Conventionally, there is a technology for face recognition of a person who wears a face shield such as a mask. For example, in Japanese Patent Laid-Open No. 2004-100000, an object that shields the face, such as a mask, is compared with a standard image representing the face to estimate the area where the object that shields the face exists, and the area with the object is excluded. Face authentication is performed using the face image obtained. Also, Non-Patent Document 1 describes a general face detection technique for identifying a face area.

特許第6630999号公報Japanese Patent No. 6630999

J.Deng,J.Guo,E.Ververas,I.Kotsia,andS.Zafeiriou,”Retina Face:Single-Shot Multi-Level Face Localisation in the Wild,”in Conference on Computer Visionand Pattern Recognition(CVPR)2020,pp.5203ー5212.J. Deng, J. Guo, E. Ververas, I. Kotsia, and S. Zafeiriou, "Retina Face: Single-Shot Multi-Level Face Localization in the Wild," in Conference on Computer Vision and Pattern Recognition (CVPR) 2020, pp. 5203-5212.

しかしながら、特許文献1では標準的な顔を表す画像との比較により、マスク等の存在する領域を推定している。そのため、マスクに他人の顔がプリントされている場合に、マスク領域を推定できない。又、異なる人物の顔領域があるために、誤った認証をしてしまう場合があった。
本発明は、上記のような問題を解消し、別の人物の顔等がプリントされたマスク等を装着している場合などにおける認証エラーを減少できる顔認証装置を提供することを目的としている。
However, in Japanese Patent Application Laid-Open No. 2002-200010, the area where the mask or the like exists is estimated by comparison with an image representing a standard face. Therefore, when the face of another person is printed on the mask, the mask area cannot be estimated. Also, since there are face areas of different persons, there are cases where erroneous authentication is performed.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a face authentication device that solves the problems described above and can reduce authentication errors when a person wears a mask or the like printed with another person's face or the like.

本発明の1つの側面の顔認証装置は、
入力顔画像を取得する顔画像入力手段と、
複数の登録顔画像を予め保持する登録顔画像保持手段と、
前記入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定手段と、
前記顔混在判定手段により、前記入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、所定の通知を行わせる制御手段と、を有することを特徴とする。
A face authentication device according to one aspect of the present invention includes:
face image input means for acquiring an input face image;
registered face image holding means for pre-holding a plurality of registered face images;
face mixture determination means for determining whether face regions of different persons are mixed in the input face image;
and control means for performing a predetermined notification when the face mixture determination means determines that face areas of different persons are mixed in the input face image.

本発明によれば、別の人物の顔等がプリントされたマスク等を装着している場合などにおける認証エラーを減少できる顔認証装置を実現できる。 According to the present invention, it is possible to realize a face authentication device capable of reducing authentication errors when a person wears a mask or the like printed with another person's face or the like.

(A)は、本発明の実施例における顔認証装置のシステム構成図、(B)は、スマートフォンのロック解除に応用した例を示す図、(C)は、ゲート認証に応用した例を示す図である。(A) is a system configuration diagram of a face authentication device according to an embodiment of the present invention, (B) is a diagram showing an example of application to smartphone unlocking, and (C) is a diagram showing an example of application to gate authentication. is. 実施例1の顔認証装置の機能ブロック図である。2 is a functional block diagram of the face authentication device of Example 1. FIG. 実施例1におけるロック解除処理のフローチャートである。5 is a flow chart of unlock processing in the first embodiment. 図3のステップS301の顔認証処理のフローチャートである。FIG. 4 is a flowchart of face authentication processing in step S301 of FIG. 3. FIG. 図4のステップS401の顔画像の取得処理のフローチャートである。FIG. 5 is a flowchart of face image acquisition processing in step S401 of FIG. 4 ; FIG. 図4のステップS402の顔混在判定処理のフローチャートである。FIG. 5 is a flowchart of mixed face determination processing in step S402 of FIG. 4; FIG. 顔混在判定処理の処理結果を例示した表である。FIG. 11 is a table exemplifying processing results of mixed face determination processing; FIG. (A)は複数の人物と、複数のマスクパターンの例を示す図、(B)は図7のNo1のケースを説明する図である。(A) is a diagram showing an example of a plurality of persons and a plurality of mask patterns, and (B) is a diagram for explaining case No. 1 in FIG. 7 . (A)は図7のNo2のケースを説明する図、(B)は図7のNo3のケースを説明する図、(C)は図7のNo4のケースを説明する図、(D)は図7のNo5のケースを説明する図、(E)は図7のNo6のケースを説明する図である。(A) is a diagram for explaining the No. 2 case in FIG. 7, (B) is a diagram for explaining the No. 3 case in FIG. 7, (C) is a diagram for explaining the No. 4 case in FIG. 7, and (D) is a diagram. 7 is a diagram for explaining the case of No. 7 in No. 7, and (E) is a diagram for explaining the case of No. 6 in FIG. 7. FIG. 実施例2の顔認証装置の機能ブロック図である。FIG. 11 is a functional block diagram of a face authentication device of Example 2; 実施例2の顔認証処理のフローチャートである。10 is a flowchart of face authentication processing of Example 2. FIG. 図11のステップS110の詳細を示すフローチャートである。FIG. 12 is a flowchart showing details of step S110 in FIG. 11; FIG. 実施例3の顔認証装置の機能ブロック図である。FIG. 11 is a functional block diagram of a face authentication device of Example 3; 実施例3の顔画像の取得処理を示すフローチャートである。14 is a flow chart showing face image acquisition processing according to the third embodiment. 図14のステップS142の不審者記録処理のフローチャートである。FIG. 15 is a flowchart of a suspicious person recording process in step S142 of FIG. 14; FIG.

以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
又、実施例においては、顔認証装置としてカメラとコンピュータを組み合わせた例について説明する。しかし、顔認証装置は、デジタルスチルカメラ、デジタルムービーカメラ、スマートフォン、タブレットコンピュータ、汎用コンピュータ、車載カメラ、ドローンカメラ、ロボット、ゲート認証システムなどを含む。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below using examples with reference to the accompanying drawings. In each drawing, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.
Also, in the embodiment, an example in which a camera and a computer are combined as a face authentication device will be described. However, face authentication devices include digital still cameras, digital movie cameras, smart phones, tablet computers, general-purpose computers, vehicle-mounted cameras, drone cameras, robots, gate authentication systems, and the like.

[コンピュータ装置の構成]
図1(A)は、本発明の実施例における顔認証装置のシステム構成図である。
図1(A)において、101はコンピュータ装置100全体を制御するCPU(Central Processing Unit)、102は書き換えが不要なプログラムやパラメータを格納するROM(Read Only Memory)である。103は外部装置などから供給されるプログラムやデータを一時記憶するRAM(Random Access Memory)である。
[Computer configuration]
FIG. 1A is a system configuration diagram of a face authentication device according to an embodiment of the present invention.
In FIG. 1A, 101 is a CPU (Central Processing Unit) that controls the entire computer device 100, and 102 is a ROM (Read Only Memory) that stores programs and parameters that do not need to be rewritten. A RAM (Random Access Memory) 103 temporarily stores programs and data supplied from an external device or the like.

外部記憶装置104はコンピュータ装置100に接続されたハードディスクやSSDやメモリカードなどの記憶装置である。尚、外部記憶装置104は、コンピュータ装置100に対して着脱可能なDVDやCD等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでも良い。
入力デバイスインターフェイス105は、ユーザの操作によりデータを入力するためのポインティングデバイスやキーボードなどの入力デバイス109や、カメラ110とのインターフェイスである。
The external storage device 104 is a storage device such as a hard disk, SSD, or memory card connected to the computer device 100 . The external storage device 104 may include optical discs such as DVDs and CDs that are detachable from the computer device 100, magnetic or optical cards, IC cards, memory cards, and the like.
An input device interface 105 is an interface with an input device 109 such as a pointing device or a keyboard for inputting data by user's operation, and with the camera 110 .

出力デバイスインターフェイス106は、コンピュータ装置100の保持するデータや供給されたデータを表示するためのモニタディスプレイ111や音声を発するスピーカ112とのインターフェイスである。通信インターフェイス107はインターネットなどのネットワーク回線113に接続して信号を送受信するための通信インターフェイスである。システムバス108は101~107の各ユニットを通信可能に接続する伝送路である。尚、後述するフローチャートにおける各処理は、ROM102等のコンピュータ読み取り可能な記憶媒体に格納されたプログラムをCPU101が実行することにより各処理が行われるように構成されている。 The output device interface 106 is an interface with a monitor display 111 for displaying data held by the computer device 100 and supplied data, and a speaker 112 for producing sound. A communication interface 107 is a communication interface for connecting to a network line 113 such as the Internet to transmit and receive signals. A system bus 108 is a transmission line that communicably connects the units 101 to 107 . Each process in the flowcharts described later is configured to be performed by the CPU 101 executing a program stored in a computer-readable storage medium such as the ROM 102 .

本実施例の顔認証装置の応用例を図1(B)、図1(C)を用いて説明する。
図1(B)は、スマートフォンのロック解除に応用した例を示す図である。図1(B)のスマートフォンのユーザが電源ボタン116を押下すると、カメラ114によりユーザの顔を撮影する。その後、後述の図3に示すロック解除処理が実行され、正しく認証された場合にロックが解除されてモニタ表示部115にホーム画面が表示される。一方、認証に失敗した場合には、認証失敗等の表示がされる。
An application example of the face authentication device of this embodiment will be described with reference to FIGS. 1(B) and 1(C).
FIG. 1B is a diagram showing an example of application to smartphone unlocking. When the user of the smartphone in FIG. 1B presses the power button 116, the camera 114 captures an image of the user's face. After that, the unlocking process shown in FIG. 3, which will be described later, is executed, and if the authentication is correct, the lock is unlocked and the home screen is displayed on the monitor display unit 115 . On the other hand, if the authentication fails, a message such as authentication failure is displayed.

図1(C)は、ゲート認証システムに応用した例を示す図である。図1(C)では、ユーザ119がドアの前に訪れたときに、カメラ117によりユーザを撮影する。その後、後述の図3に示すロック解除処理が実行され、正しく認証された場合にドア120のロックが解除されて、ユーザがドアをあけることができるようになる。一方、認証に失敗した場合には、モニタ表示部118に認証失敗等の表示がされる。 FIG. 1C is a diagram showing an example applied to a gate authentication system. In FIG. 1C, when user 119 comes to the front of the door, camera 117 takes an image of the user. After that, the unlocking process shown in FIG. 3, which will be described later, is executed, and if the authentication is correct, the door 120 is unlocked and the user can open the door. On the other hand, when the authentication fails, a display such as authentication failure is displayed on the monitor display unit 118 .

[顔認証装置の構成]
図2は、実施例1の顔認証装置の機能ブロック図である。尚、図2に示される機能ブロックの一部又は全部は、コンピュータとしてのCPU101に、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
[Configuration of face authentication device]
FIG. 2 is a functional block diagram of the face authentication device of Example 1. FIG. Some or all of the functional blocks shown in FIG. 2 are implemented by causing the CPU 101 as a computer to execute a computer program stored in the ROM 102 as a storage medium. However, some or all of them may be realized by hardware. As hardware, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like can be used.

又、図2に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置の組み合わせにより構成しても良い。例えば図2の機能ブロックの一部は外部のサーバー等に配置しても良い。
撮影処理部200は撮像部201と顔検出部202を用いて顔画像の生成を行う。
撮像部201は、CMOSイメージセンサ等を含むカメラ110から映像の取得を行う。
顔検出部202は、撮像部201が得た映像のフレームごとに顔領域を特定する。顔領域の特定は、公知の顔検出技術を用いれば良く、例えば非特許文献1に記載された方法を用いる。或いは他の公知の方法を用いても良い。
Moreover, each functional block shown in FIG. 2 may not be built in the same housing, and may be configured by a combination of separate devices connected to each other via signal paths. For example, some of the functional blocks in FIG. 2 may be arranged in an external server or the like.
A photographing processing unit 200 generates a face image using an imaging unit 201 and a face detection unit 202 .
The imaging unit 201 acquires an image from a camera 110 including a CMOS image sensor or the like.
The face detection unit 202 identifies a face area for each frame of the image obtained by the imaging unit 201 . A known face detection technique, such as the method described in Non-Patent Document 1, may be used to identify the face area. Alternatively, other known methods may be used.

顔認証部210は、撮影処理部200により得た顔画像を用いて認証を行う。本実施例では、他人の顔がプリントされたマスクなどを着用していないと判断されるときのみ登録人物との照合による顔認証を行う。それ以外の場合は認証エラーとする。顔認証部210は更に211~217に示す機能ブロックを含む。尚、以下の説明において、マスクとは顔の少なくとも一部を遮蔽する遮蔽物であれば何でもよく、シールや眼帯やメガネや帽子等を含む。 The face authentication unit 210 performs authentication using the face image obtained by the imaging processing unit 200 . In this embodiment, face authentication is performed by matching with a registered person only when it is determined that the person is not wearing a mask on which another person's face is printed. Otherwise, an authentication error occurs. The face authentication unit 210 further includes functional blocks indicated at 211-217. In the following description, the mask may be any shield that shields at least part of the face, including stickers, eye patches, glasses, hats, and the like.

顔画像入力部211は、撮影処理部200で得た顔画像の入力を受け付ける。例えば、撮影処理部200が顔画像をRAM103上に一時保存する場合、顔画像入力部211はRAM103の画像の保存先のメモリアドレス及びサイズ等の情報を受け取る。或いは、撮影処理部200が外部記憶装置104に保存する場合には、外部記憶装置104の画像の保存先のファイルアドレスを受け取る。その後、顔画像入力部211は上記のメモリアドレスやサイズやファイルアドレス等の情報に基づき画像を読み出して取得する。ここで、顔画像入力部211は、入力顔画像を取得する顔画像入力手段として機能している。 A face image input unit 211 receives an input of a face image obtained by the imaging processing unit 200 . For example, when the photographing processing unit 200 temporarily stores a face image in the RAM 103, the face image input unit 211 receives information such as the memory address of the image storage destination in the RAM 103 and the size. Alternatively, when the imaging processing unit 200 saves the image in the external storage device 104 , it receives the file address of the save destination of the image in the external storage device 104 . After that, the face image input unit 211 reads and acquires the image based on the information such as the memory address, size, file address, and the like. Here, the face image input unit 211 functions as face image input means for acquiring an input face image.

登録顔画像保持部212は、登録人物の顔画像を予め保持する登録顔画像保持工程を行う。例えば、図1(B)に示すスマートフォンの例ではスマートフォンのユーザの顔画像が予め登録されている。又、例えば、図1(C)に示すゲート認証の例では、入室が許可されている人物の顔画像が予め登録されている。これら登録顔画像はRAM103や外部記憶装置104に保持される。その際、人物を識別するためのID等と関連付けて記憶しても良い。ここで、登録顔画像保持部212は、複数の登録顔画像を予め保持する登録顔画像保持手段として機能している。 The registered face image holding unit 212 performs a registered face image holding step of holding the face image of the registered person in advance. For example, in the example of the smartphone shown in FIG. 1B, the face image of the smartphone user is registered in advance. Further, for example, in the example of gate authentication shown in FIG. 1C, face images of persons permitted to enter the room are registered in advance. These registered face images are held in the RAM 103 and the external storage device 104 . At that time, it may be stored in association with an ID or the like for identifying a person. Here, the registered face image holding unit 212 functions as a registered face image holding unit that holds a plurality of registered face images in advance.

顔照合部213は、2つの顔画像が一致するか否かを判定する。即ち、顔照合部213は、入力顔画像と登録顔画像を照合して一致を判定する顔照合手段として機能している。
そして顔照合部213は、例えば、顔画像から個人を識別できる情報を抽出して、特徴量ベクトル(或いは特徴量とも呼ぶ)に変換する。2つの顔画像の類似度は、夫々から得た特徴量ベクトルの類似度を計算して、類似度が所定値以上であれば、2つの顔画像が一致すると判断する。類似度が所定値未満であれば、2つの顔画像は不一致と判断する。特徴量ベクトルの類似度はコサイン類似度やベクトル間距離の逆数などを用いても良い。
The face matching unit 213 determines whether or not the two face images match. That is, the face matching unit 213 functions as face matching means for matching the input face image with the registered face image and determining a match.
Then, the face matching unit 213 extracts, for example, information that can identify an individual from the face image, and converts it into a feature amount vector (also called a feature amount). The degree of similarity between two face images is determined by calculating the degree of similarity of the feature vector obtained from each, and determining that the two face images match if the degree of similarity is equal to or greater than a predetermined value. If the degree of similarity is less than a predetermined value, it is determined that the two face images do not match. Cosine similarity, the reciprocal of the distance between vectors, or the like may be used as the similarity of the feature vectors.

又、顔画像からの特徴量の抽出では、ニューラルネットワークの一種であるConvolutional Neural Networks(CNN)を用いても良い。CNNは予め顔画像から個人を識別するための情報が抽出できるように学習が行われている。学習とは、CNNの処理に必要な大量のパラメータを調整することを意味する。学習は公知の手法を用いればよく、例えばsoftmaxを用いたロス関数を定義して、そのロス関数の値が小さくなるように、バックプロパゲーションによりCNNのパラメータを調整するものでも良い。 In addition, Convolutional Neural Networks (CNN), which is a type of neural network, may be used in extracting the feature amount from the face image. CNN is trained in advance so that information for identifying individuals can be extracted from face images. Learning means tuning a large number of parameters required for CNN processing. For learning, a known method may be used. For example, a loss function using softmax may be defined, and parameters of the CNN may be adjusted by back propagation so that the value of the loss function becomes small.

又、CNNの学習では顔画像の一部の領域が遮蔽されていても同一人物であると判定できるように、予め一部分を遮蔽した画像等を用いて学習しておいても良く、顔照合の方法はこれらに限定されない。
登録顔検索部214は、顔画像入力部211や遮蔽顔生成部215等から得た顔画像と一致する顔画像を登録顔画像保持部212から検索する。具体的には、顔照合部213を用いて、各顔画像の特徴量を抽出して、登録顔画像保持部212のすべての顔画像と与えられた顔画像を照合して、一致する人物を取得する。
Also, in the learning of the CNN, it is possible to learn in advance using partially masked images so that it can be determined that the person is the same person even if a part of the face image is masked. The methods are not limited to these.
The registered face search unit 214 searches the registered face image storage unit 212 for a face image that matches the face image obtained from the face image input unit 211, the masked face generation unit 215, or the like. Specifically, the face collation unit 213 is used to extract the feature amount of each face image, and all the face images in the registered face image holding unit 212 are collated with the given face image to identify a matching person. get.

処理の効率化のために、登録顔画像保持部212で保持する顔画像からは予め特徴量を抽出して登録顔画像保持部212に保存しておいても良い。その際は、与えられた顔画像から特徴量を抽出して、登録顔画像保持部212の特徴量との類似度を計算して、所定値以上の類似度を有する人物を一致する人物として取得しても良い。尚、登録顔検索の方法はこれらに限定されない。 For efficient processing, a feature amount may be extracted in advance from the face image held by the registered face image holding unit 212 and stored in the registered face image holding unit 212 . In this case, the feature amount is extracted from the given face image, the degree of similarity with the feature amount of the registered face image holding unit 212 is calculated, and a person having a degree of similarity equal to or higher than a predetermined value is acquired as a matching person. You can Note that the registered face search method is not limited to these.

遮蔽顔生成部215は、顔画像入力部211等から得た顔画像に対して、顔の一部を遮蔽した画像を生成する。遮蔽する領域は、口元・目元・頭部・片目・鼻等のいくつかの顔領域の遮蔽パターンを予め定めておき、その遮蔽パターンを適用して顔の一部を遮蔽した画像である遮蔽顔画像を生成する。ここで、遮蔽顔生成部215は、入力顔画像の顔の一部を遮蔽した複数種類の遮蔽顔画像を生成する遮蔽顔生成手段として機能している。 The masked face generation unit 215 generates an image in which a part of the face is masked from the face image obtained from the face image input unit 211 or the like. The area to be shielded is a shielded face, which is an image in which a part of the face is shielded by applying a predetermined shielding pattern for several face areas such as the mouth, eyes, head, one eye, nose, etc. Generate an image. Here, the masked face generation unit 215 functions as a masked face generation unit that generates a plurality of types of masked face images in which part of the face of the input face image is masked.

具体的には、目・目尻・鼻・口角などの器官点の座標を得て、器官点の座標をもとに遮蔽画像を生成する。例えば、口元を隠す遮蔽画像の場合は、予め左右の口角と鼻頂点の3点の座標と、重畳する黒塗りの画像等を遮蔽テンプレートとして用意しておく。器官検出で求めた3点の座標と、予め保持している遮蔽テンプレートの3座標からアフィン変換行列を求めて、テンプレート画像をアフィン変換して、顔画像に重畳する。或いは、テンプレートを用いずに、顔の輪郭など多数の器官点を求めて、それらの器官点をつなぎ合わせて口元等を隠すようにしても良い。 Specifically, the coordinates of organ points such as the eyes, the corners of the eyes, the nose, and the corners of the mouth are obtained, and a masking image is generated based on the coordinates of the organ points. For example, in the case of a shielding image that hides the mouth, the coordinates of the three points of the right and left corners of the mouth and the tip of the nose, and a black-painted image to be superimposed are prepared in advance as a shielding template. An affine transformation matrix is obtained from the coordinates of the three points obtained by the organ detection and the three coordinates of the shielding template held in advance, and the template image is affine-transformed and superimposed on the face image. Alternatively, without using a template, a large number of organ points such as the outline of the face may be obtained, and these organ points may be connected to hide the mouth and the like.

尚、遮蔽する部分は黒・白等の単色で塗りつぶしても良いし、予め用意しておいたテクスチャを適用するなどしても良い。
又、顔画像上のエッジなどを検出して、エッジを境界として遮蔽領域を決定するようにしても良い。これによりマスク・眼帯・メガネ・帽子等の輪郭線をとらえて、輪郭線に沿って遮蔽領域を決定でき、効果的に装飾品のある領域だけを遮蔽した画像を生成できる。
The portion to be shielded may be painted with a single color such as black or white, or a texture prepared in advance may be applied.
Alternatively, an edge or the like on the face image may be detected, and the masked area may be determined using the edge as a boundary. This makes it possible to capture the contours of masks, eyepatches, glasses, hats, etc., determine shielding regions along the contours, and effectively generate an image in which only the regions with ornaments are shielded.

尚、上述の器官検出には、顔画像から器官点の存在確率をピクセル単位で推定するCNNを用いて、最も存在確率の高いピクセル位置に器官点があると推定する方法などの公知の方法を用いても良い。尚、遮蔽画像により一部が遮蔽された遮蔽顔画像を生成するための方法はこれらに限定されない。
顔混在判定部216は、顔画像入力部211等から得た認証対象となる顔画像に、複数の人物の顔領域が混在しているか否かを判定する。ここで、顔混在判定部216は、入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定手段として機能している。顔混在判定処理の詳細は、図6を用いて後述する。
For the organ detection described above, a known method such as a method of estimating that an organ point exists at a pixel position with the highest probability of existence using a CNN for estimating the existence probability of an organ point from a face image on a pixel-by-pixel basis is used. You can use it. Note that the method for generating a masked face image partly masked by a masked image is not limited to these.
The face mixture determination unit 216 determines whether or not the face image to be authenticated obtained from the face image input unit 211 or the like includes face areas of a plurality of persons. Here, the mixed-face determining unit 216 functions as mixed-face determination means for determining whether face regions of different persons are mixed in the input face image. Details of the mixed face determination process will be described later with reference to FIG.

尚、図6に示すようなフローチャート以外の方法で顔混在判定処理を実現しても良い。例えば、予めプリントマスク等の、他人の顔がプリントされたマスクを装着して撮影した顔画像と、素顔の顔画像を分類できるように学習したCNN等を用意する。
そして、顔画像入力部211等から得た顔画像をCNNに入力して、複数人物の顔領域が混在しているか否かの判定結果を得るようにしても良い。尚、顔混在判定の方法はこれらに限定されない。
Note that the mixed face determination process may be realized by a method other than the flowchart shown in FIG. For example, a CNN or the like that has been learned so as to be able to classify a face image photographed while wearing a mask on which another person's face is printed, such as a print mask, and a face image of a real face, is prepared in advance.
Then, a face image obtained from the face image input unit 211 or the like may be input to the CNN to obtain a determination result as to whether or not face areas of a plurality of persons are mixed. It should be noted that the face mixture determination method is not limited to these.

顔認証制御部217は、顔混在判定部216の判定結果に応じて、顔認証を実行するか否かを決定する。具体的には、顔混在判定部216が、異なる人物の顔が混在していると判定した場合には顔認証を実行しない。反対に、顔混在判定部216が異なる人物の顔が混在していないと判断した場合には、顔認証を実行する。詳細は、後述する図4のフローチャートを用いて説明する。 The face authentication control unit 217 determines whether or not to perform face authentication according to the determination result of the mixed face determination unit 216 . Specifically, face authentication is not performed when the face mixture determination unit 216 determines that faces of different persons are mixed. Conversely, when the face mixture determination unit 216 determines that faces of different persons are not mixed, face authentication is performed. Details will be described with reference to the flowchart of FIG. 4, which will be described later.

エラー顔処理部220は、顔認証部210の顔認証制御部217により顔認証が実行されないとき、エラー処理を行う。
エラー通知部221は、モニタディスプレイ111やスピーカ112を介してユーザや周囲に対して、認証エラーであることなどを通知する。尚、エラー通知部221は、顔認識装置内の所定回路に対して通知をするものであっても良い。そして、顔認識装置内の所定回路は、エラー通知部221からの上記通知を受け取った場合に例えば顔認識装置の一部の動作をロックしたり、外部の警備システムに通知を送信したりする所定の動作を行うようにしても良い。あるいは、ログファイルにエラーを書き出すなどしても良い。なお、通知により動作を行うことは必須ではなく、何の動作も行わないようにしても良い。
[ロック解除処理]
The error face processing unit 220 performs error processing when face authentication is not executed by the face authentication control unit 217 of the face authentication unit 210 .
The error notification unit 221 notifies the user and surroundings of an authentication error via the monitor display 111 and the speaker 112 . Note that the error notification unit 221 may notify a predetermined circuit in the face recognition device. A predetermined circuit in the face recognition device locks part of the operation of the face recognition device or transmits a notification to an external security system when receiving the notification from the error notification unit 221. may be performed. Alternatively, the error may be written to a log file. It should be noted that it is not essential to perform an action upon notification, and no action may be performed.
[Unlock process]

図3は、実施例1におけるロック解除処理のフローチャートである。
コンピュータとしてのCPU101がROM102等に記憶されたコンピュータプログラムを実行することによって図3~図6、図11、図12、図14、図15のフローチャートの各ステップの動作が行われる。ここで、CPU101はプログラムに基づき顔認証装置全体を制御する制御手段として機能している。
FIG. 3 is a flowchart of unlocking processing according to the first embodiment.
3 to 6, 11, 12, 14 and 15 are executed by the CPU 101 as a computer executing a computer program stored in the ROM 102 or the like. Here, the CPU 101 functions as control means for controlling the entire face authentication apparatus based on a program.

ロック解除処理は、ロック解除の要求が顔認証装置にユーザから入力されたときに起動する。例えば、図1(B)に示すスマートフォンであれば電源ボタン116が押されると、図3の処理が起動される。図1(C)に示すゲート認証であれば、ユーザがゲート前に来たことをカメラで検出したことをトリガーとして図3の処理が起動される。或いはユーザが不図示のボタン等を押すことを検出して本処理を起動しても良い。 The unlocking process is started when the user inputs an unlocking request to the face authentication device. For example, in the case of the smart phone shown in FIG. 1B, when the power button 116 is pressed, the processing in FIG. 3 is activated. In the case of the gate authentication shown in FIG. 1C, the process of FIG. 3 is activated when the camera detects that the user has come to the gate. Alternatively, this process may be started by detecting that the user presses a button or the like (not shown).

ステップS301では、カメラで撮影された人物が登録人物であるか否かを判断する顔認証処理が実行される。ステップS301の顔認証処理の詳細は、図4のフローチャートを用いて後述する。
ステップS302では、ステップS301の顔認証処理の結果が認証成功であった場合は、ステップS303に移り、それ以外の時はステップS301に移る。
In step S301, face authentication processing is executed to determine whether the person photographed by the camera is a registered person. The details of the face authentication processing in step S301 will be described later using the flowchart of FIG.
In step S302, when the result of the face authentication processing in step S301 is authentication success, the process proceeds to step S303, otherwise the process proceeds to step S301.

ステップS303では、ロックの解除処理を行う。例えば、図1(B)に示すスマートフォンであればロック状態が解除されてホーム画面がモニタ表示部115表示される。図1(C)に示すゲート認証であればドア120のロックが所定時間だけ解除されて、ユーザが入室できるようになる。
[顔認証処理]
In step S303, unlock processing is performed. For example, the smartphone shown in FIG. 1B is unlocked and the home screen is displayed on the monitor display unit 115 . In the case of the gate authentication shown in FIG. 1C, the door 120 is unlocked for a predetermined period of time, allowing the user to enter the room.
[Face authentication processing]

図4は、図3のステップS301の顔認証処理のフローチャートである。
ステップS401(顔画像入力工程)では、カメラから顔画像を取得する処理を行う。詳細は、図5のフローチャートを用いて後述する。
ステップS402では、ステップS401で取得した顔画像に、異なる人物の顔が混在しているか否かを判定する(顔混在判定工程)。詳細は図6のフローチャートを用いて後述する。
FIG. 4 is a flow chart of face authentication processing in step S301 of FIG.
In step S401 (face image input step), a process of acquiring a face image from the camera is performed. Details will be described later with reference to the flowchart of FIG.
In step S402, it is determined whether or not the face image acquired in step S401 includes faces of different persons (face mixture determination step). Details will be described later with reference to the flowchart of FIG.

ステップS403では、顔認証制御部217により処理され、ステップS402の判定により異なる人物の顔が混在していると判定されたとき、ステップS405に移る。それ以外の時はステップS404に移る。
ステップS404では、登録顔検索部214を用いて、ステップS401で取得した顔画像に一致する顔画像を検索する。
In step S403, processing is performed by the face authentication control unit 217, and when it is determined in step S402 that faces of different persons are mixed, the process proceeds to step S405. Otherwise, the process moves to step S404.
In step S404, the registered face search unit 214 is used to search for a face image that matches the face image acquired in step S401.

即ち、制御手段としてのCPU101は、顔混在判定手段により、入力顔画像の中に異なる人物の顔領域が混在しないと判断された場合に、入力顔画像に一致する登録顔画像を登録顔画像保持手段から検索する。そして、ただ一人の人物のみが検索されたときは、認証成功と判断する。それ以外のときは認証失敗と判断する。
ステップS405では、エラー通知部221によりユーザにエラーを通知する。
That is, the CPU 101 as a control means retains a registered face image that matches the input face image when the face mixture determination means determines that face areas of different persons are not mixed in the input face image. Search by means. Then, when only one person is retrieved, it is determined that the authentication is successful. Otherwise, it is determined that authentication has failed.
In step S405, the error notification unit 221 notifies the user of the error.

このように、制御手段としての、CPU101は、顔混在判定手段により、入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、認証が失敗したことを示す所定の通知を行わせるように制御を行う。ここでステップS403~ステップS405において、異なる人物の顔領域が混在しないと判断された場合に、入力顔画像に一致する登録顔画像を検索し、異なる人物の顔領域が混在すると判断された場合に、所定の通知を行う制御工程が行われている。
[顔画像の取得処理]
In this manner, the CPU 101 as a control unit issues a predetermined notification indicating that the authentication has failed when the mixed face determination unit determines that the input face image includes face areas of different persons. control so that Here, in steps S403 to S405, if it is determined that the face areas of different persons do not coexist, a registered face image that matches the input face image is searched, and if it is determined that the face areas of different persons coexist, , a control process is performed to provide a predetermined notification.
[Face Image Acquisition Processing]

図5は、図4のステップS401の顔画像の取得処理のフローチャートである。
図5の処理は主に撮影処理部200において処理される。
ステップS501では、撮像部201がカメラ110から現在のフレーム画像を得る。
ステップS502では、顔検出部202が、ステップS501で得たフレーム画像から顔領域を取得する。複数の顔領域が取得されたときは、フレームの中央に近い顔領域を採用する。或いは、顔領域の取得個数をゼロとして、顔の取得に失敗したと判断するように処理しても良い。
FIG. 5 is a flow chart of the facial image acquisition processing in step S401 of FIG.
The processing in FIG. 5 is mainly processed in the photographing processing section 200 .
In step S<b>501 , the imaging unit 201 obtains the current frame image from the camera 110 .
In step S502, the face detection unit 202 acquires a face area from the frame image obtained in step S501. When multiple face regions are acquired, the face region near the center of the frame is adopted. Alternatively, the number of acquired face regions may be set to zero, and processing may be performed to determine that face acquisition has failed.

ステップS503では、顔の取得に成功したか否かを判定する。ステップS502でフレーム画像から1つの顔領域が取得されたとき、ステップS504に移る。それ以外のときは、ステップS505に移る。
ステップS504では、フレーム画像から顔領域の画像を切り出して顔画像を生成する。
In step S503, it is determined whether or not the face has been successfully acquired. When one face area is acquired from the frame image in step S502, the process moves to step S504. Otherwise, the process moves to step S505.
In step S504, the image of the face area is cut out from the frame image to generate the face image.

ステップS505では、ステップS503での判定に連続して失敗しているか否かを判定する。具体的には、ステップS503の顔取得の失敗が所定回数を上回った場合に、連続して失敗していると判断する。或いは、連続失敗の継続時間が予め定めた時間を上回るとき、連続失敗していると判断する。連続失敗していると判断される場合、ステップS506へ移る。それ以外の時、ステップS501に戻る。 In step S505, it is determined whether or not the determination in step S503 has failed continuously. Specifically, when the number of failures in face acquisition in step S503 exceeds a predetermined number, it is determined that failures have occurred consecutively. Alternatively, when the duration of consecutive failures exceeds a predetermined time, it is determined that consecutive failures have occurred. If it is determined that there have been consecutive failures, the process moves to step S506. Otherwise, return to step S501.

ステップS506では、認証処理を中断する。具体的には図3のフローチャートのロック解除処理を中断する。そしてユーザに「顔が正しく検出できません」などのメッセージをモニタディスプレイ111に表示する。或いはスピーカ112を用いて音声で伝える。
[顔混在判定処理]
At step S506, the authentication process is interrupted. Specifically, the unlocking process in the flowchart of FIG. 3 is interrupted. Then, a message such as "face cannot be detected correctly" is displayed on the monitor display 111 to the user. Alternatively, the speaker 112 is used to transmit by voice.
[Face Mixing Judgment Processing]

図6は、図4のステップS402の顔混在判定処理のフローチャートである。
本処理においては、図4のフローチャートのステップS402から呼び出され、ステップS401で得た顔画像に異なる人物の顔が混在しているか否かの判定が顔混在判定部216により実行される。
ステップS601では、遮蔽顔生成部215を用いて遮蔽顔画像の生成が行われる。具体的には、与えられた顔画像に対して器官検出処理を行い、予め定めたいくつかの遮蔽パターンを適用する。例えば、口元を隠すパターン、両目を隠すパターン等を適用して、複数種類の遮蔽顔画像を生成する。
FIG. 6 is a flow chart of the mixed face determination process in step S402 of FIG.
This process is called from step S402 in the flowchart of FIG. 4, and the face mixture determination unit 216 determines whether or not the face image obtained in step S401 includes faces of different persons.
In step S<b>601 , a masked face image is generated using the masked face generation unit 215 . Specifically, organ detection processing is performed on a given face image, and several predetermined shielding patterns are applied. For example, a pattern that hides the mouth, a pattern that hides both eyes, and the like are applied to generate a plurality of types of masked face images.

ステップS602では、ステップS601で得た遮蔽顔画像ごとに、登録顔検索部214から一致する登録人物の登録顔画像を検索する。取得した登録画像に重複するものがあるときは、重複した登録画像は無視する。例えば、異なる3つの遮蔽顔画像から同じ登録顔画像3つが得られていたときは、登録顔画像は1つだけを採用して、他の2つを不採用とする。 In step S602, the registered face search unit 214 is searched for a registered face image of a matching registered person for each shielded face image obtained in step S601. If there are duplicate registered images acquired, the duplicate registered images are ignored. For example, when the same three registered face images are obtained from three different masked face images, only one registered face image is adopted and the other two are not adopted.

ステップS603では、後述の処理で使用する照合結果リストを空に初期化する。
ステップS604は、ステップS602で得た登録顔画像を順に処理するためのループであり、登録顔画像には0から順に番号が割り当てられているものとする。これを、変数としてのiを用いて参照するため、初めにiを0に初期化する。更に、iが登録顔画像数未満であるときステップS605へ移り、iが登録顔画像数以上のときループを抜けてステップS609へ移る。
In step S603, a collation result list used in later-described processing is initialized to be empty.
Step S604 is a loop for sequentially processing the registered face images obtained in step S602, and the registered face images are assigned numbers starting from 0 in order. In order to refer to this using i as a variable, i is initialized to 0 first. Further, when i is less than the number of registered face images, the process proceeds to step S605, and when i is equal to or greater than the number of registered face images, the loop is exited and the process proceeds to step S609.

ステップS605では、ステップS601で得た遮蔽顔画像を順に処理するためのループであり、遮蔽顔画像には0から順に番号が割り当てられているものとする。これを、変数としてのjを用いて参照するため、初めにjを0に初期化する。更に、jが遮蔽顔画像数未満であるときステップS606へ移り、jが遮蔽顔画像数以上のときループを抜けてステップS608へ移る。 Step S605 is a loop for sequentially processing the masked face images obtained in step S601, and the masked face images are assigned numbers starting from 0 in order. In order to refer to this using j as a variable, j is initialized to 0 first. Further, when j is less than the number of masked face images, the process proceeds to step S606, and when j is equal to or greater than the number of masked face images, the loop is exited and the process proceeds to step S608.

ステップS606では、顔照合部213を用いて登録顔画像iと遮蔽顔画像jを照合する。そして「登録顔画像iと遮蔽顔画像jと照合結果」の組を照合結果リストに記録する。尚、ステップS602での遮蔽顔画像ごとに登録顔画像を検索するときに、登録顔画像iと遮蔽顔画像jの照合も実施されている。従ってステップS602での照合結果をキャッシュしておき、キャッシュから登録顔画像iと遮蔽顔画像jの照合結果を得るようにしても良い。 In step S606, the face matching unit 213 is used to match the registered face image i with the masked face image j. Then, a set of "registered face image i, masked face image j, and matching result" is recorded in the matching result list. It should be noted that when the registered face image is searched for each masked face image in step S602, the registered face image i and the masked face image j are also collated. Therefore, the result of matching in step S602 may be cached, and the result of matching between the registered face image i and the masked face image j may be obtained from the cache.

ステップS607は、遮蔽顔画像のループの終端であり、jに1を加算してステップS605へ戻る。
ステップS608は、登録顔画像のループの終端であり、iに1を加算してステップS604へ戻る。
ステップS609では、照合結果リストが空であるか否かを判定する。照合結果リストが空となるのは、ステップS602で登録顔画像が得られない場合等である。照合結果リストが空であるとき、ステップS612へ移る。それ以外の場合はステップS610へ移る。
Step S607 is the end of the masked face image loop, adds 1 to j, and returns to step S605.
Step S608 is the end of the registered face image loop, increments i by 1, and returns to step S604.
In step S609, it is determined whether or not the collation result list is empty. The collation result list becomes empty when, for example, no registered face image is obtained in step S602. When the matching result list is empty, the process moves to step S612. Otherwise, the process moves to step S610.

ステップS610では、照合結果リスト内のすべての照合結果が一致するか否かを判定する。照合結果がすべて一致するとき、ステップS612へ移る。それ以外のとき、ステップS611へ移る。
ステップS611では、本フローチャートの処理結果を「顔混在」とする。
ステップS612では、本フローチャートの処理結果を「顔混在なし」とする。
[顔混在判定処理の例]
In step S610, it is determined whether or not all matching results in the matching result list match. If all the collation results match, the process moves to step S612. Otherwise, the process moves to step S611.
In step S611, the processing result of this flowchart is set to "face mixed".
In step S612, the processing result of this flowchart is set to "no mixed face".
[Example of mixed face determination processing]

顔混在判定処理の例について図7~図9を用いて説明する。
図7は顔混在判定処理の処理結果を例示した表である。
列701は、入力顔画像の人物がプリントマスクを装着しているか否かを示す。装着とあるときマスクを装着していることを示し、非装着はマスクを着けていないことを示す。
An example of mixed face determination processing will be described with reference to FIGS. 7 to 9. FIG.
FIG. 7 is a table exemplifying the processing result of the mixed face determination processing.
Column 701 indicates whether the person in the input face image is wearing a print mask. Wearing indicates wearing a mask, and non-wearing indicates not wearing a mask.

列702は、プリントマスクに表示されている人物の顔画像が、登録顔画像保持部212に登録されているか否かを示す。「有」は登録顔画像保持部212にプリントマスクに表示されている人物の顔画像が登録されていることを示し、「無」は登録顔画像保持部212に登録されていないことを示す。 A column 702 indicates whether or not the face image of the person displayed on the print mask is registered in the registered face image holding unit 212 . “Yes” indicates that the face image of the person displayed on the print mask is registered in the registered face image holding unit 212 , and “No” indicates that it is not registered in the registered face image holding unit 212 .

列703は、入力画像に映る人物の顔画像が、登録顔画像保持部212に登録されているか否かを示す。「有」は登録顔画像保持部212に入力画像に映る人物の顔画像が登録されていることを示し、「無」は登録顔画像保持部212に登録されていないことを示す。
列704は、列701~列703に示す条件の下で、顔混在判定処理のステップS609の判定で得られる照合結果リストの状態を示している。「一致、不一致が存在」は照合結果リストに一致と不一致の双方の照合結果が存在していることを示す。「全て一致」は照合結果リストに一致の照合結果しか存在しないことを示す。「空」は照合結果リストが空であることを示す。
A column 703 indicates whether or not the face image of the person appearing in the input image is registered in the registered face image holding unit 212 . “Yes” indicates that the face image of the person appearing in the input image is registered in the registered face image holding unit 212 , and “No” indicates that it is not registered in the registered face image holding unit 212 .
A column 704 indicates the state of the matching result list obtained in step S609 of the mixed face determination process under the conditions shown in columns 701 to 703. FIG. "Match and non-match exist" indicates that both matching and non-matching matching results are present in the matching result list. "Match all" indicates that there are only matching matching results in the matching result list. "Empty" indicates that the matching result list is empty.

列705は、顔混在判定処理の最終結果を示している。「顔混在」は顔混在処理の結果としてステップS611に至ったことを示し、「顔混在なし」はステップS612で「顔混在なし」と判定されたことを示す。
図7に示す各ケースに関して、以下詳細に説明する。
A column 705 indicates the final result of the mixed face determination process. "Mixed face" indicates that step S611 was reached as a result of the mixed face process, and "no mixed face" indicates that "no mixed face" was determined in step S612.
Each case shown in FIG. 7 will be described in detail below.

図8(A)は複数の人物と、複数のマスクパターンの例を示す図である。即ち、図8(A)は以下の説明で登場する人物801と人物802とプリントマスク803とプリントマスク804を示している。プリントマスク803は人物802の口元をプリントしたマスクである。プリントマスク804は人物801でも、人物802でもない人物の口元をプリントしたマスクである。 FIG. 8A is a diagram showing an example of multiple people and multiple mask patterns. That is, FIG. 8A shows a person 801, a person 802, a print mask 803, and a print mask 804 that appear in the following description. A print mask 803 is a mask on which the mouth of the person 802 is printed. A print mask 804 is a mask printed with the mouth of a person who is neither the person 801 nor the person 802 .

図7のNo1のケースに関して詳細に説明する。No1のケースは、登録顔画像保持部212に登録されていない未登録者が、登録顔画像保持部212に登録されている人物の口元をプリントしたプリントマスクを装着している場合である。即ち、登録されている人物になりすましているケースであると言える。 The case No. 1 in FIG. 7 will be described in detail. Case No. 1 is a case in which an unregistered person who is not registered in the registered face image holding unit 212 wears a print mask printed with the mouth of a person registered in the registered face image holding unit 212 . In other words, it can be said that this is a case of impersonating a registered person.

図8(B)は図7のNo1のケースを説明する図である。
図8(B)において、入力顔画像805は、人物801がプリントマスク803を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。
入力顔画像805に対して遮蔽顔画像の生成(ステップS601)が行われ、例えば遮蔽顔画像806と807が得られる。ここでは説明のために遮蔽のパターンは2つであるとしている。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。
FIG. 8B is a diagram for explaining the case No. 1 in FIG.
In FIG. 8B, an input face image 805 is a face image of a person 801 wearing a print mask 803, and it is assumed that this is input to the mixed face determination processing flow of FIG.
A masked face image is generated (step S601) for the input face image 805, and masked face images 806 and 807, for example, are obtained. Here, for the sake of explanation, it is assumed that there are two shielding patterns. Then, registered face images are searched using these shielded face images (step S602).

この例では、人物801は登録されておらず、人物802だけが登録顔画像保持部212に登録されている。そのため、遮蔽顔画像807により、プリントマスクの絵柄に基づき、登録顔検索部214により登録顔画像808が得られる。一方で、遮蔽顔画像806はプリントマスク部分の絵柄が遮蔽されているため、該当する人物が検索できず登録顔画像は得られない。次に、登録顔画像808と遮蔽顔画像806と遮蔽顔画像807が照合され、一致・不一致の判定結果が得られる(ステップS604~ステップS608)。 In this example, the person 801 is not registered, and only the person 802 is registered in the registered face image holding unit 212 . Therefore, a registered face image 808 is obtained by the registered face search unit 214 based on the pattern of the print mask from the masked face image 807 . On the other hand, in the masked face image 806, since the design of the print mask portion is masked, the corresponding person cannot be retrieved and the registered face image cannot be obtained. Next, the registered face image 808, the masked face image 806, and the masked face image 807 are collated to obtain a match/mismatch determination result (steps S604 to S608).

ここでは図8(B)に示すように、遮蔽顔画像806に対しては「顔照合不一致」と判定され、遮蔽顔画像807に対しては「顔照合一致」と判定される。そして、これら判定結果がすべて同じであるか否かが判定され(ステップS610)、この場合は判定結果が異なるため「顔混在」という判定結果が得られることになる(ステップS611)。即ち、顔混在判定手段は、複数種類の遮蔽顔画像に夫々一致する登録顔画像が登録顔画像保持手段に保持された複数の登録顔画像に存在するかを夫々検索し、夫々の検索結果が異なる場合に、異なる人物の顔領域が混在すると判定する。 Here, as shown in FIG. 8B, the masked face image 806 is determined to be "mismatched by face matching", and the masked face image 807 is determined to be "matched by face matching". Then, it is determined whether or not these determination results are the same (step S610). In this case, the determination results are different, so the determination result of "face mixed" is obtained (step S611). That is, the mixed face determination means searches for registered face images that match the plurality of types of masked face images, respectively, in the plurality of registered face images held in the registered face image holding means. If different, it is determined that the face areas of different persons are mixed.

次に、図9(A)は図7のNo2のケースを説明する図である。
No2のケースは、登録顔画像保持部212に登録されている登録人物が、登録顔画像保持部212に登録されていない人物の口元をプリントしたプリントマスク804を装着しているケースである。
図9(A)において、入力顔画像901aは、人物801がプリントマスク804を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。
Next, FIG. 9A is a diagram for explaining the case of No. 2 in FIG.
Case No. 2 is a case in which a registered person registered in the registered face image holding unit 212 wears a print mask 804 printed with the mouth of a person not registered in the registered face image holding unit 212 .
In FIG. 9A, an input face image 901a is a face image of a person 801 wearing a print mask 804, and it is assumed that this is input to the mixed face determination processing flow of FIG.

入力顔画像901aに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902aと903aが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。この例では、人物801は登録されているため、遮蔽顔画像902aにより、本人の目元の特徴から、登録顔検索部214により登録顔画像904aが得られる。そして、登録顔画像904aと遮蔽顔画像902aと遮蔽顔画像903aが照合され、一致・不一致の判定結果が得られる(ステップS604~ステップS608)。 A masked face image is generated (step S601) for the input face image 901a, and masked face images 902a and 903a are obtained. Then, registered face images are searched using these shielded face images (step S602). In this example, since the person 801 is registered, a registered face image 904a is obtained by the registered face search unit 214 from the features of the person's eyes using the masked face image 902a. Then, the registered face image 904a, the masked face image 902a, and the masked face image 903a are collated to obtain a match/mismatch determination result (steps S604 to S608).

ここでは図9(A)に示すように、遮蔽顔画像902aに対しては「顔照合一致」と判定され、遮蔽顔画像903aに対しては「顔照合不一致」と判定される。そして、これら判定結果がすべて同じであるか否かが判定され(ステップS610)、この場合は判定結果が異なるため「顔混在」という処理結果が得られることになる(ステップS611)。 Here, as shown in FIG. 9A, it is determined that "face matching matches" for the masked face image 902a, and "face matching does not match" for the masked face image 903a. Then, it is determined whether or not these determination results are the same (step S610). In this case, the determination results are different, so that the processing result of "face mixed" is obtained (step S611).

次に、図9(B)は図7のNo3のケースを説明する図である。
No3のケースは、登録顔画像保持部212に登録されている登録人物が、登録顔画像保持部212に登録されている人物の口元をプリントしたプリントマスク803を装着しているケースである。
図9(B)において、入力顔画像901bは、人物801がプリントマスク803を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。
Next, FIG. 9B is a diagram for explaining case No. 3 in FIG.
Case No. 3 is a case in which a registered person registered in the registered face image holding unit 212 wears a print mask 803 printed with the mouth of the person registered in the registered face image holding unit 212 .
In FIG. 9B, an input face image 901b is a face image of a person 801 wearing a print mask 803, and it is assumed that this is input to the mixed face determination processing flow of FIG.

入力顔画像901bに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902bと遮蔽顔画像903bが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。この例では、人物801と人物802は登録されているため、遮蔽顔画像902bにより、本人の目元の特徴から、登録顔画像904bが得られる。 A masked face image is generated (step S601) for the input face image 901b, and a masked face image 902b and a masked face image 903b are obtained. Then, registered face images are searched using these shielded face images (step S602). In this example, since the person 801 and the person 802 are registered, a registered face image 904b can be obtained from the features of the person's eyes using the masked face image 902b.

加えて、遮蔽顔画像903bにより、口元のマスクの特徴から、登録顔画像905bが得られる。そして、登録顔画像と遮蔽顔画像が照合され、図9(B)に示すように顔照合一致・顔照合不一致の判定結果が得られる(ステップS604~ステップS608)。これら判定結果が同じではないことから、「顔混在」という処理結果が得られることになる(ステップS611)。 In addition, a registered face image 905b is obtained from the mask features of the mouth with the masked face image 903b. Then, the registered face image and the masked face image are collated, and the judgment result of face collation matching/face collation non-coincidence is obtained as shown in FIG. 9B (steps S604 to S608). Since these determination results are not the same, a processing result of "face mixed" is obtained (step S611).

次に、図9(C)は図7のNo4のケースを説明する図である。
No4のケースは、登録顔画像保持部212に登録されていない人物が、登録顔画像保持部212に登録されていない人物の口元をプリントしたプリントマスクを装着しているケースである。
図9(C)において、入力顔画像901cは、人物801がプリントマスク804を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。入力顔画像901cに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902cと903cが得られる。
Next, FIG. 9(C) is a diagram for explaining the case of No. 4 in FIG.
Case No. 4 is a case in which a person who is not registered in the registered face image holding unit 212 wears a print mask printed with the mouth of the person who is not registered in the registered face image holding unit 212 .
In FIG. 9C, an input face image 901c is a face image of a person 801 wearing a print mask 804, and it is assumed that this is input to the mixed face determination processing flow of FIG. A masked face image is generated (step S601) for the input face image 901c, and masked face images 902c and 903c are obtained.

そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。この例では、人物801は登録されていないため、登録顔画像は得られない。結果、登録顔画像と遮蔽顔画像の照合結果は1つも得られない(ステップS604~ステップS608)。そのため照合結果リストが空であることから(ステップS609)、「顔混在なし」として処理結果が得られることになる(ステップS612) Then, registered face images are searched using these shielded face images (step S602). In this example, since the person 801 is not registered, no registered face image is obtained. As a result, no matching result between the registered face image and the masked face image is obtained (steps S604 to S608). Therefore, since the collation result list is empty (step S609), the processing result is obtained as "no mixed face" (step S612).

次に、図9(D)は図7のNo5のケースを説明する図である。
No5のケースは、登録顔画像保持部212に登録されている登録人物がマスクを着用していない素顔のケースである。
図9(D)において、入力顔画像901dは、人物801の素顔の顔画像であり、これが顔混在判定処理に入力されたことを想定する。入力顔画像901dに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902dと遮蔽顔画像903dが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。
Next, FIG. 9(D) is a diagram for explaining the case of No. 5 in FIG.
Case No. 5 is a case where the registered person registered in the registered face image holding unit 212 has a bare face without wearing a mask.
In FIG. 9D, it is assumed that an input face image 901d is a face image of a person 801 with a real face, and that this is input to face mixture determination processing. A masked face image is generated (step S601) for the input face image 901d, and a masked face image 902d and a masked face image 903d are obtained. Then, registered face images are searched using these shielded face images (step S602).

この例では、人物801は登録されているため、遮蔽顔画像902dに基づき本人の目元の特徴から、登録顔画像904dが得られる。又、遮蔽顔画像903dに基づき本人の口元の特徴から、登録顔画像904dが得られる。
そして、登録顔画像と遮蔽顔画像が照合され、図9(C)に示すように顔照合一致の判定結果が得られる(ステップS604~ステップS608)。すべての判定結果が同じであることから「顔混在なし」という処理結果が得られることになる(ステップS612)。
In this example, since the person 801 is registered, a registered face image 904d is obtained from the features of the person's eyes based on the masked face image 902d. Also, a registered face image 904d is obtained from the features of the person's mouth based on the masked face image 903d.
Then, the registered face image and the masked face image are collated, and the face collation matching determination result is obtained as shown in FIG. 9C (steps S604 to S608). Since all determination results are the same, a processing result of "no mixed faces" is obtained (step S612).

次に、図9(E)は図7のNo6のケースを説明する図である。
図7のNo6のケースに関して詳細に説明する。No6のケースは、登録顔画像保持部212に登録されていない人物が、マスクを着用していない素顔のケースである。
入力顔画像901eは、人物801の素顔の顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。入力顔画像901eに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902eと遮蔽顔画像903eが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。
Next, FIG. 9E is a diagram for explaining the case of No. 6 in FIG.
The case No. 6 in FIG. 7 will be described in detail. Case No. 6 is a case in which a person who is not registered in the registered face image holding unit 212 has a bare face without a mask.
It is assumed that the input face image 901e is the real face image of the person 801 and is input to the mixed face determination processing flow of FIG. A masked face image is generated (step S601) for the input face image 901e, and a masked face image 902e and a masked face image 903e are obtained. Then, registered face images are searched using these shielded face images (step S602).

この例では、人物801は登録されていないため、登録顔画像が得られない。結果、登録顔画像と遮蔽顔画像の照合結果は1つも得られない(ステップS604~ステップS608)。そのため照合結果リストが空であるとこから(ステップS609)、「顔混在なし」という処理結果が得られることになる(ステップS612) In this example, the person 801 is not registered, so a registered face image cannot be obtained. As a result, no matching result between the registered face image and the masked face image is obtained (steps S604 to S608). Therefore, since the collation result list is empty (step S609), the processing result "no mixed faces" is obtained (step S612).

以上のように、本実施例では、本人以外の人物の顔画像がプリントされたマスク・眼帯等を装着している人物に対しては、顔認証処理が実行しない。従って、他人の顔の一部がプリントされたマスクの着用による顔認証のエラーを抑制できる。 As described above, in this embodiment, face authentication processing is not executed for a person wearing a mask, eyepatch, or the like printed with a face image of a person other than the person himself/herself. Therefore, it is possible to suppress face authentication errors due to wearing a mask on which a part of another person's face is printed.

実施例1では、顔認証の対象となるユーザがプリントマスク等を装着している場合はエラーとなり、プリントマスクを外す必要があった。本実施例では、マスク等を外すことなく顔認証可能にする。具体的には、顔が混在していると判定されるときは、ユーザに対して表情変化を指示して、表情変化が生じた素顔領域を使用して顔認証を行う。 In the first embodiment, an error occurs when a user whose face is to be authenticated wears a print mask or the like, and it is necessary to remove the print mask. In this embodiment, face authentication is enabled without removing a mask or the like. Specifically, when it is determined that faces are mixed, the user is instructed to change the facial expression, and face authentication is performed using the real face region in which the facial expression has changed.

図10は、実施例2の顔認証装置の機能ブロック図である。図2との違いは、図10においては、エラー顔処理部220に対して、222~224の機能ブロックが追加されている点である。図2と同じ符号の機能ブロックについての説明は省略ないし簡略化する。
尚、図2と同様、図10に示される機能ブロックの一部又は全部は、コンピュータとしてのCPU101に、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いても良い。
FIG. 10 is a functional block diagram of the face authentication device of Example 2. FIG. The difference from FIG. 2 is that functional blocks 222 to 224 are added to the error face processing section 220 in FIG. Descriptions of functional blocks having the same reference numerals as those in FIG. 2 will be omitted or simplified.
As in FIG. 2, part or all of the functional blocks shown in FIG. 10 are realized by causing the CPU 101 as a computer to execute a computer program stored in the ROM 102 as a storage medium. However, some or all of them may be realized by hardware. As hardware, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like may be used.

又、図10に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。又、例えば図10の機能ブロックの一部は外部のサーバー等に配置しても良い。
指示通知部222は、ユーザに対して所定の表情変化を起こすように指示を行うための機能ブロックであり、モニタディスプレイ111やスピーカ112を介してユーザに対して指示をする。指示としては、例えば、笑顔になるように指示したり、まばたきをするように指示したり、口を開けるように指示する。或いはこれらの複数の組み合わせでも良い。
Also, each functional block shown in FIG. 10 may not be built in the same housing, and may be configured by separate devices connected to each other via signal paths. Also, for example, some of the functional blocks in FIG. 10 may be arranged in an external server or the like.
The instruction notification unit 222 is a functional block for instructing the user to make a predetermined facial expression change, and instructs the user via the monitor display 111 and the speaker 112 . Instructions include, for example, instructions to smile, instructions to blink, and instructions to open the mouth. Alternatively, a combination of these may be used.

表情変化計測部223は、予め定めた遮蔽する候補領域ごとに表情変化を計測する。具体的には、連続する複数フレームの顔画像を得て、器官点座標の相対的な位置変化量を計測又は推定する。
例えば、鼻等を基準として各器官点の相対座標をフレームごとに求める。フレーム間での器官点の相対座標の移動変化量を計測する。遮蔽候補領域ごとに遮蔽する器官点の移動変化量を得て、その和をとることで、遮蔽候補領域における変化量を出力する。
The facial expression change measuring unit 223 measures the facial expression change for each of the predetermined masking candidate regions. Specifically, a plurality of consecutive frames of face images are obtained, and relative positional change amounts of organ point coordinates are measured or estimated.
For example, the relative coordinates of each organ point are obtained for each frame with reference to the nose or the like. Measure the amount of change in movement of relative coordinates of organ points between frames. By obtaining the amount of change in movement of the organ point to be shielded for each of the shielding candidate areas and taking the sum of the obtained amounts, the amount of change in the shielding candidate area is output.

或いは、複数フレームの顔画像から表情変化のある領域及び変化量を推定するようにCNN等を学習して、それを用いて表情変化のある領域を特定しても良い。尚、表情変化計測の方法はこれらに限定されない。
低変化遮蔽部224は、表情変化計測部223の遮蔽候補領域と変化量を用いて、変化量が小さい領域を遮蔽した画像を生成する。具体的には、予め定めた閾値未満の変化量を示す遮蔽候補領域を得て、遮蔽候補領域に含まれるピクセルを黒塗り等して、入力顔画像から表情変化が少ない部分を隠した遮蔽顔画像を生成する。
Alternatively, a CNN or the like may be learned so as to estimate an area with facial expression change and the amount of facial expression change from a plurality of frames of face images, and the area with facial expression change may be identified using it. Note that the method of facial expression change measurement is not limited to these.
The low change masking unit 224 uses the masking candidate regions and the amount of change from the facial expression change measuring unit 223 to generate an image in which the region with the small amount of change is masked. Specifically, a masking candidate area showing a change amount less than a predetermined threshold is obtained, and the pixels included in the masking candidate area are blacked out to hide a part of the input face image that has little facial expression change. Generate an image.

図11は実施例2の顔認証処理のフローチャートである。
図11のステップS401~ステップS405は図4における処理と同じ処理なので説明を省略する。
ステップS110では、素顔領域の抽出処理を行う。
FIG. 11 is a flow chart of face authentication processing according to the second embodiment.
Since steps S401 to S405 in FIG. 11 are the same as the processing in FIG. 4, description thereof is omitted.
In step S110, extraction processing of a natural face area is performed.

図12は図11のステップS110の詳細を示すフローチャートである。
ステップS121では、制御手段は、指示通知部222を用いて、ユーザへ表情変化をするように指示する。即ち、顔混在判定手段により、入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、ユーザに対してステップS405で認証エラー通知をすると共に、ステップS121で表情変化を指示する通知を行う。
FIG. 12 is a flow chart showing details of step S110 in FIG.
In step S121, the control unit uses the instruction notification unit 222 to instruct the user to change the facial expression. That is, when the face mixture determination means determines that the input face image includes face areas of different persons, an authentication error notification is sent to the user in step S405, and a change in facial expression is instructed in step S121. give notice.

ステップS122では、複数フレームの顔画像の取得を行う。具体的には、前述の図5に示す顔画像の取得処理を連続する数フレーム分実施することで、複数フレームの顔画像の取得を行う。
ステップS123では、表情変化計測部223を用いて遮蔽候補領域ごとに表情変化を計測する。
In step S122, multiple frames of face images are obtained. Specifically, by performing the face image acquisition process shown in FIG. 5 for several consecutive frames, face images of a plurality of frames are acquired.
In step S123, the facial expression change measuring unit 223 is used to measure the facial expression change for each masking candidate region.

ステップS124では、ステップS121の指示に対して表情変化をユーザが示したか否かを判定する。具体的には、ステップS123のすべての遮蔽候補領域で表情変化が予め定めた閾値を下回るとき、表情変化がないと判断する。表情変化がないときはステップS121に戻り、それ以外のときステップS125に進む。 In step S124, it is determined whether or not the user has indicated a change in facial expression in response to the instruction in step S121. Specifically, it is determined that there is no facial expression change when the facial expression change is less than a predetermined threshold value in all of the masking candidate areas in step S123. If there is no facial expression change, the process returns to step S121; otherwise, the process proceeds to step S125.

ステップS125では、低変化遮蔽部224を用いて、表情変化の少ない領域を遮蔽することで除外した顔画像を生成する。即ち、制御手段は、所定の通知により、ユーザに表情変化を指示した後に、ステップS123で入力顔画像における表情変化を計測し、ステップS124、ステップS125により表情変化の少ない領域を除く顔画像を生成する。尚、表情変化の少ない領域を除く際に、本実施例のように、表情変化の少ない領域を遮蔽しても良いし、顔認識の領域から除外するだけでも良い。 In step S125, the low change shielding unit 224 is used to shield the areas with little facial expression change, thereby generating an excluded face image. That is, after instructing the user to change the facial expression by a predetermined notification, the control means measures the facial expression change in the input facial image in step S123, and generates a facial image excluding areas with little facial expression variation in steps S124 and S125. do. It should be noted that when excluding areas with little change in facial expression, the area with little change in facial expression may be shielded as in the present embodiment, or may be simply excluded from the face recognition area.

以上によって、顔が混在していると判定されるときは、ユーザに対して表情変化を指示して、表情変化が生じた素顔領域を計測することで素顔領域をより精度良く区別する。それによって精度の高い顔認証を行うことができるので、マスク等を外すことなく顔認証可能になる。 As described above, when it is determined that faces are mixed, the user is instructed to change the facial expression, and the bare face area in which the facial expression has changed is measured, thereby distinguishing the bare face area with higher accuracy. As a result, highly accurate face authentication can be performed, so face authentication can be performed without removing a mask or the like.

実施例1等では、なりすまし等の不審者がプリントマスクを装着してきた場合に、顔認証を行わないようにできたが、不審者を記録できなかった。
実施例3では、顔が混在していると判定されてから、顔認証を成功させることなくユーザが顔認証を中止した場合に、当該ユーザを不審者と判断し、不審者を検索できる顔画像を取得して不審者の映像を記録し、更に他の顔認識装置と不審者情報を共有できるようにする。
In Example 1 and the like, when a suspicious person such as an impersonator wears a printed mask, face recognition can be prevented, but the suspicious person cannot be recorded.
In the third embodiment, when it is determined that the face is mixed, and the user cancels the face authentication without succeeding in the face authentication, the user is determined to be a suspicious person, and a face image that can be searched for the suspicious person. to record the image of the suspicious person, and further share the suspicious person information with other face recognition devices.

図13は、実施例3の顔認証装置の機能ブロック図である。図10との違いは、図13においては、不審者記録部230が追加された点であり、図10と同じ符号の機能ブロックについての説明は省略ないし簡略化する。
尚、図2、図10と同様、図13に示される機能ブロックの一部は、コンピュータとしてのCPU101に、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いても良い。
FIG. 13 is a functional block diagram of a face authentication device according to the third embodiment; The difference from FIG. 10 is that a suspicious person recording unit 230 is added in FIG. 13, and description of functional blocks with the same reference numerals as in FIG. 10 will be omitted or simplified.
As in FIGS. 2 and 10, some of the functional blocks shown in FIG. 13 are implemented by causing the CPU 101 as a computer to execute a computer program stored in the ROM 102 as a storage medium. However, some or all of them may be realized by hardware. As hardware, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like may be used.

又、図13に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。又、例えば図13の機能ブロックの一部は外部のサーバー等に配置しても良い。
不審者記録部230は顔認証を要求したユーザが不審者であるとき、不審者の顔画像や映像を記録するためのものであり、231~234に示す機能ブロックを有する。
不審者判定部231は、ステップS402の顔混在判定で顔が混在すると判定された人物が不審者であるか否かを判定する。或いは、ステップS404の顔認証で顔認証に失敗したと判定された人物が不審者であるか否かを判定する。ここで、不審者判定部231は、人物が不審者であるか否かを判定する不審者判定手段として機能している。
Also, each functional block shown in FIG. 13 may not be built in the same housing, and may be configured by separate devices connected to each other via signal paths. Also, for example, some of the functional blocks in FIG. 13 may be arranged in an external server or the like.
A suspicious person recording unit 230 is for recording a face image or video of a suspicious person when the user who requested face authentication is a suspicious person, and has functional blocks 231 to 234 .
The suspicious person determination unit 231 determines whether or not the person determined to have a mixed face in the mixed face determination in step S402 is a suspicious person. Alternatively, it is determined whether or not the person determined to have failed face recognition in step S404 is a suspicious person. Here, the suspicious person determination unit 231 functions as suspicious person determination means for determining whether or not a person is a suspicious person.

具体的には、顔認証を中止(中断)した際に、顔認証失敗が所定回数以上あった場合に、不審者であると判断する。顔認証の中止(中断)は、撮影画像から顔画像が連続して得られないときに自動的に顔認証の中止(中断)と判断する。或いは、顔認証が失敗した後にユーザが電源ボタン116を押して電源をオフにした場合に顔認証の中止(中断)と判断しても良い。 Specifically, when face authentication is stopped (interrupted), if face authentication fails for a predetermined number of times or more, it is determined that the person is a suspicious person. Abort (interrupt) of face authentication is automatically determined to be aborted (interrupted) when face images are not continuously obtained from captured images. Alternatively, when the user presses the power button 116 to turn off the power after the face authentication fails, it may be determined that the face authentication is stopped (suspended).

尚、顔認証の中止(中断)を検出する方法はこれらに限定されない。顔認証失敗の回数は、図4に示す顔認証処理フローにおいて顔混在と判定された場合(ステップS403でYes)や、顔認証(ステップS404)で認証失敗と判断された場合の回数を合計してカウントする。或いは一方だけをカウントしても良い。尚、不審者判定の方法はこれらに限定されない。 It should be noted that the method for detecting cancellation (interruption) of face authentication is not limited to these. The number of face authentication failures is the sum of the number of times when it is determined that the face is mixed in the face authentication processing flow shown in FIG. to count. Alternatively, only one may be counted. Note that the suspicious person determination method is not limited to these.

不審者顔保持部232は、不審者と判断された人物の顔画像を記憶保持する。例えば顔混在判定で顔混在と判断されて顔認証を中断した場合は、顔混在判定で照合不一致となった遮蔽顔画像を保持する。或いは、顔混在判定は通過し顔認証にて認証を失敗した場合は、失敗した顔認証において用いた顔画像を記憶保持する。 The suspicious person face holding unit 232 stores and holds the face image of the person judged to be a suspicious person. For example, when it is determined that a mixed face is present and the face authentication is interrupted, the masked face image for which matching is not matched in the mixed face determination is retained. Alternatively, when the mixed face determination is passed and the face authentication fails, the face image used in the failed face authentication is stored.

更に、不審者顔保持部232に記憶保存された不審者情報は他の顔認識装置からアクセスできるようにする、或いは、所定の共有サーバーにアップロードすることで共有できるようにする。或いは不審者顔保持部232を、所定の共有サーバーに設けられていても良い。尚、同様に、登録画像保持部212も所定の共有サーバーに設けられていても良い。
ここで、不審者顔保持部232は、不審者判定手段により、認証対象の人物が不審者であると判定された場合に、その人物の遮蔽顔画像を登録する不審者顔保持手段として機能している。
Further, the suspicious person information stored in the suspicious person face holding unit 232 can be accessed from other face recognition devices, or can be shared by being uploaded to a predetermined shared server. Alternatively, the suspicious person face holding unit 232 may be provided in a predetermined shared server. Similarly, the registered image holding unit 212 may also be provided in a predetermined shared server.
Here, the suspicious person face retaining unit 232 functions as a suspicious person face retaining means for registering the masked face image of the person when the suspicious person determining means determines that the person to be authenticated is a suspicious person. ing.

不審者映像録画部233(不審者映像録画手段)は、不審者顔保持部232に記憶保持されている不審者が出現する映像を記録する。具体的には、撮像部201から得られる映像を録画しておき、後述する不審者記録処理(図15のフローチャート)により、不審者が登場する区間を特定して、その部分の映像を記録として長期間保存する。不審者が登場しない区間の映像は所定の時間が経過すると削除し、不審者が映っている映像のみ長期間保存する。或いは、不審者が登場する前後の所定期間の映像も一緒に記録として長期間保持するようにしても良い。 The suspicious person image recording unit 233 (suspicious person image recording means) records the image in which the suspicious person appears and is stored in the suspicious person face holding unit 232 . Specifically, an image obtained from the imaging unit 201 is recorded, and a section in which a suspicious person appears is specified by a suspicious person recording process (flowchart in FIG. 15), which will be described later, and the image of that portion is recorded. Store for a long time. The video of the section where the suspicious person does not appear is deleted after a predetermined period of time, and only the video in which the suspicious person appears is stored for a long period of time. Alternatively, the images for a predetermined period before and after the appearance of the suspicious person may be stored together for a long period of time as a record.

又、不審者が登場する区間を後で検索しやすくするために、不審者が登場する区間に対して不審者の映像が記録されていることを示す所定の付加情報等を映像と共に記録保持することが望ましい。付加情報としては、例えば不審者であることを示す情報や、日時、不審者のID等の組み合わせなどを含む。ここで、不審者映像録画部233は、不審者判定手段により認証対象の人物が不審者であると判定された場合に、その人物の遮蔽顔画像を登録する不審者顔保持手段として機能している。尚、不審者映像の録画方法はこれらに限定されない。 In addition, in order to facilitate later retrieval of the section in which the suspicious person appears, predetermined additional information indicating that the video of the suspicious person is recorded in the section in which the suspicious person appears is recorded and retained together with the video. is desirable. The additional information includes, for example, information indicating that the person is suspicious, a combination of date and time, ID of the suspicious person, and the like. Here, the suspicious person video recording section 233 functions as a suspicious person face holding means for registering the masked face image of the person when the suspicious person determination means determines that the person to be authenticated is a suspicious person. there is Note that the method of recording the suspicious person video is not limited to these.

不審者表示制御部234は、不審者顔保持部232で登録保持された不審者の顔画像(例えば遮蔽顔画像)や、不審者映像録画部233で登録保持された不審者が映っている映像や上記の付加情報等をモニタディスプレイ111等の表示手段に表示させる。即ち、不審者表示制御部234は、不審者顔保持手段に登録された遮蔽顔画像又は不審者映像録画部で保存された映像等を表示手段に表示させるための不審者表示制御手段として機能している。
具体的には、図1(B)のスマートフォンの例であれば、ロック解除後に自動で或いは手動で不審者表示用のアプリケーションを起動してモニタディスプレイ111に表示させる。
The suspicious person display control unit 234 displays a suspicious person face image (for example, a masked face image) registered and held by the suspicious person face holding unit 232 and a video showing a suspicious person registered and held by the suspicious person video recording unit 233. and the above-described additional information are displayed on display means such as the monitor display 111 or the like. That is, the suspicious person display control unit 234 functions as a suspicious person display control unit for displaying, on the display unit, the masked face image registered in the suspicious person face holding unit or the image stored in the suspicious person video recording unit. ing.
Specifically, in the case of the example of the smartphone in FIG. 1B, after unlocking, the suspicious person display application is automatically or manually activated and displayed on the monitor display 111 .

図1(B)のゲート認証の例であれば、ネットワーク回線113を介して別のコンピュータ装置から顔認証装置にアクセスがされた場合に、別のコンピュータ装置のモニタディスプレイに表示可能となるように信号を送信する。又、不審者顔保持部232にて、マスクにより遮蔽する前の素顔の顔画像も保持するようにしておき、不審者の顔画像を表示するときは、マスクにより遮蔽する前の素顔の画像も表示できるようにしても良い。尚、不審者表示の方法はこれらに限定されない。 In the example of gate authentication in FIG. 1B, when another computer device accesses the face authentication device via the network line 113, the face authentication device can be displayed on the monitor display of the other computer device. Send a signal. In addition, the suspicious person's face holding unit 232 holds the face image of the unmasked face before being masked, and when the face image of the suspicious person is displayed, the unmasked image of the unmasked face is also stored. You may enable it to display. It should be noted that the suspicious person display method is not limited to these.

図14は実施例3の顔画像の取得処理を示すフローチャートである。
ステップS501~ステップS506は図5と同じ処理なので説明を省略する。
S141では、不審者判定部231を用いて、顔認証の失敗が所定回数以上であるか否かを判定する。具体的には、例えば図4の顔認証処理フローにおいて顔混在と判定された場合(ステップS403でYes)や、顔認証(ステップS404)で認証失敗と判断された場合の合計をカウントする。
FIG. 14 is a flow chart showing face image acquisition processing according to the third embodiment.
Since steps S501 to S506 are the same as those in FIG. 5, the description thereof is omitted.
In S141, the suspicious person determination unit 231 is used to determine whether face authentication has failed a predetermined number of times or more. Specifically, for example, when it is determined that faces are mixed in the face authentication processing flow of FIG.

この回数が予め定めた閾値以上であればステップS142に進む。それ以外のときは、図14の処理フローを終了する。
ステップS142では、不審者記録処理を行う。即ち、不審者判定手段は、入力顔画像の認証が所定回数以上失敗した場合に、その人物が不審者であるか否かを判定する。
If the number of times is equal to or greater than the predetermined threshold value, the process proceeds to step S142. Otherwise, the processing flow of FIG. 14 ends.
In step S142, a suspicious person recording process is performed. That is, the suspicious person determining means determines whether or not the person is a suspicious person when authentication of the input face image fails a predetermined number of times or more.

図15は図14のステップS142の不審者記録処理のフローチャートである。
ステップS151では、直前に、顔混在判定において顔混在により失敗と判定されたか否かを判定する。顔混在により失敗と判定された場合は、ステップS152へ進む。それ以外の場合は、ステップS153へ進む。
FIG. 15 is a flowchart of the suspicious person recording process in step S142 of FIG.
In step S151, it is determined whether or not the mixed face determination was determined to be unsuccessful due to mixed faces immediately before. If it is determined to be a failure due to mixed faces, the process proceeds to step S152. Otherwise, the process proceeds to step S153.

ステップS152では、顔混在判定で照合不一致になった遮蔽顔画像(一部が遮蔽画像により遮蔽された顔画像)を取得する。具体的には、例えば図8(B)のケースでは806に示す遮蔽顔画像が取得される。
ステップS153では、顔認証が行われた被写体の顔画像を取得する。具体的には、ステップS404において顔認証が行われた被写体の顔画像が取得される。但し、ステップS153の前提として、図14のステップS141で認証失敗が所定回数以上と判断されているため、ステップS153においては、認証が失敗したときの被写体の顔画像を得ることになる。
In step S152, a masked face image (a face image partly masked by a masked image) for which matching is not matched in face mixture determination is acquired. Specifically, for example, in the case of FIG. 8B, a masked face image indicated by 806 is acquired.
In step S153, the face image of the subject whose face has been authenticated is obtained. Specifically, the face image of the subject whose face has been authenticated in step S404 is acquired. However, as a premise of step S153, it is determined in step S141 of FIG. 14 that the number of authentication failures is equal to or greater than the predetermined number of times.

ステップS153において取得される顔画像は、実施例1と実施例3を組み合わせた場合には、顔混在判定では顔混在はしていないものの、認証に失敗しているため、未登録の素顔の顔画像が取得されることになる。一方で、前記実施例2と組み合わせた場合には、ステップS153では素顔が取得される場合もあるが、図12の素顔領域の抽出処理のフローにより、遮蔽顔画像が得られることもある。 When the first and third embodiments are combined, the face image acquired in step S153 is an unregistered real face because authentication has failed, although faces are not mixed in face mixture determination. An image will be acquired. On the other hand, when combined with the second embodiment, a bare face may be obtained in step S153, but a masked face image may be obtained by the flow of the extraction processing of the bare face region in FIG.

ステップS154では、ステップS152で得た遮蔽顔画像又はステップS153で得た素顔の顔画像を不審者顔保持部232に記憶保持することで登録する。即ち、ステップS154において、不審者顔保持部232は、不審者判定手段により、認証対象の人物が不審者であると判定された場合に、その人物の遮蔽顔画像を登録する。
ステップS155では、ステップS154で登録した不審者の顔画像に基づいて、不審者映像録画部233が、映像の中から不審者の映る映像を保存する処理を行う。
In step S154, the masked face image obtained in step S152 or the bare face image obtained in step S153 is stored in the suspicious person face holding unit 232 and registered. That is, in step S154, the suspicious person face holding unit 232 registers the masked face image of the person when the suspicious person determining means determines that the person to be authenticated is a suspicious person.
In step S155, based on the face image of the suspicious person registered in step S154, the suspicious person video recording unit 233 performs processing for saving the video in which the suspicious person appears.

尚、実施例3等において、ロック解除処理のステップS301の前に、顔認証を要求したユーザが、不審者顔保持部232に存在する人物であるか否かを判定して、不審者顔保持部232に存在する場合はロック解除処理を中断するようにしても良い。或いは、その場合に、当該不審者の映像を録画するようにしても良い。これによって、不審者が再び現れたときに、不審者に対する防衛措置(例えば警備会社や警察への通報等)をとれる。 In the third embodiment and the like, before step S301 of the unlocking process, it is determined whether or not the user who requested face authentication is a person existing in the suspicious person face holding unit 232, and If it exists in the part 232, the unlocking process may be interrupted. Alternatively, in that case, the image of the suspicious person may be recorded. As a result, when a suspicious person appears again, defensive measures against the suspicious person (for example, reporting to a security company or the police) can be taken.

又、ゲート認証などの場合は、ドア付近のカメラ117以外にも監視カメラが設置されていることがある。そこで他の監視カメラにおいて不審者顔保持部232に存在する人物が検出された場合に、当該不審者の映像を録画するようにしても良い。これによって、広範囲にわたって不審者を追跡監視できるようになる。 Also, in the case of gate authentication, surveillance cameras may be installed in addition to the camera 117 near the door. Therefore, when a person existing in the suspicious person's face holding unit 232 is detected by another surveillance camera, the image of the suspicious person may be recorded. This makes it possible to track and monitor suspicious persons over a wide area.

尚、不審者の映像を表示する際に、プリントマスク等の絵柄を例えば黒で塗りつぶした顔画像を不審者表示制御部234によりユーザに対して表示させれば、絵柄に惑わされることなく、不審者の特徴を分かりやすく表示させることができる。
以上のように、実施例3によれば、プリントマスク等により顔の一部を遮蔽した不審者の遮蔽顔画像や素顔等を不審者顔画像として取得し登録できる。そのため、プリントマスク等の絵柄に影響を受けずに不審者の映像を検索・保存できる。更に他の顔認識装置等と不審者に関する情報を共有することで、不審者の認識精度、認識効率等を高めることができる。
When displaying the video of the suspicious person, if the suspicious person display control unit 234 displays a face image of a print mask or the like painted in black, for example, the image of the suspicious person can be displayed without being confused by the pattern. The characteristics of a person can be displayed in an easy-to-understand manner.
As described above, according to the third embodiment, it is possible to acquire and register a masked face image of a suspicious person whose face is partly masked by a print mask or the like, a real face, or the like as a suspicious person face image. Therefore, the image of the suspicious person can be retrieved and saved without being affected by the pattern of the print mask or the like. Furthermore, by sharing the information about the suspicious person with other face recognition devices, etc., it is possible to improve the recognition accuracy and efficiency of the suspicious person.

以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、又、1つの機器からなる装置に適用しても良い。
The present invention has been described in detail above based on its preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.
The present invention can be embodied as, for example, a system, device, method, program, storage medium, or the like. Specifically, it may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device.

尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して顔認証装置等に供給するようにしてもよい。そしてその顔認証装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 It should be noted that a computer program that implements the functions of the above-described embodiments for part or all of the control in this embodiment may be supplied to a face authentication device or the like via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the face authentication device or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

200撮影処理部
201撮像部
202顔検出部
210顔認証部
211顔画像入力部
212登録顔画像保持部
213顔照合部
214登録顔検索部
215遮蔽顔生成部
216顔混在判定部
217顔認証制御部
220エラー顔処理部
221エラー通知部
200 photographing processing unit 201 imaging unit 202 face detection unit 210 face authentication unit 211 face image input unit 212 registered face image holding unit 213 face collation unit 214 registered face search unit 215 masked face generation unit 216 mixed face determination unit 217 face authentication control unit 220 error face processing unit 221 error notification unit

Claims (13)

入力顔画像を取得する顔画像入力手段と、
複数の登録顔画像を予め保持する登録顔画像保持手段と、
前記入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定手段と、
前記顔混在判定手段により、前記入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、所定の通知を行わせる制御手段と、を有することを特徴とする顔認証装置。
face image input means for acquiring an input face image;
registered face image holding means for pre-holding a plurality of registered face images;
face mixture determination means for determining whether face regions of different persons are mixed in the input face image;
and a control unit for performing a predetermined notification when the mixed face determination unit determines that the input face image includes face areas of different persons.
前記制御手段は、前記顔混在判定手段により、前記入力顔画像の中に異なる人物の顔領域が混在しないと判断された場合に、前記入力顔画像に一致する前記登録顔画像を前記登録顔画像保持手段から検索することを特徴とする請求項1に記載の顔認証装置。 When the face mixture determining means determines that the input face image does not include face regions of different persons, the control means determines the registered face image that matches the input face image as the registered face image. 2. The face authentication device according to claim 1, wherein the search is performed from holding means. 前記入力顔画像と前記登録顔画像を照合して一致を判定する顔照合手段を有することを特徴とする請求項2に記載の顔認証装置。 3. The face authentication device according to claim 2, further comprising face collation means for collating said input face image and said registered face image to determine a match. 前記入力顔画像の顔の一部を遮蔽した複数種類の遮蔽顔画像を生成する遮蔽顔生成手段を有し、前記顔混在判定手段は、前記複数種類の前記遮蔽顔画像に夫々一致する前記登録顔画像が前記登録顔画像保持手段に保持された複数の登録顔画像に存在するかを夫々検索し、夫々の検索結果が異なる場合に、異なる人物の顔領域が混在すると判定することを特徴とする請求項1~3のいずれか1項に記載の顔認証装置。 a masked face generating means for generating a plurality of types of masked face images in which a part of the face of the input face image is masked; It is characterized by searching whether a face image exists in each of the plurality of registered face images held in the registered face image holding means, and judging that face areas of different persons are mixed when each search result is different. The face authentication device according to any one of claims 1 to 3. 前記所定の通知は前記入力顔画像の認証が失敗したことを通知するものであることを特徴とする請求項1~4のいずれか1項に記載の顔認証装置。 5. The face authentication device according to any one of claims 1 to 4, wherein said predetermined notification is to notify that authentication of said input face image has failed. 前記所定の通知は、ユーザに表情変化を指示する通知を含むことを特徴とする請求項1~5のいずれか1項に記載の顔認証装置。 6. The face authentication device according to any one of claims 1 to 5, wherein the predetermined notification includes a notification instructing the user to change the facial expression. 前記所定の通知により、ユーザに表情変化を指示した後に、前記入力顔画像における表情変化を計測し、表情変化の少ない領域を除く顔画像を生成することを特徴とする請求項6に記載の顔認証装置。 7. The face according to claim 6, wherein after instructing the user to change the facial expression by the predetermined notification, the facial expression change in the input facial image is measured, and a facial image is generated excluding an area with little facial expression change. Authenticator. 前記入力顔画像の認証が所定回数以上失敗した場合に、前記人物が不審者であるか否かを判定する不審者判定手段を有することを特徴とする請求項1~7のいずれか1項に記載の顔認識装置。 8. The apparatus according to any one of claims 1 to 7, further comprising suspicious person determination means for determining whether or not said person is a suspicious person when authentication of said input face image fails more than a predetermined number of times. A facial recognition device as described. 前記不審者判定手段により前記人物が前記不審者であると判定された場合に、前記人物の遮蔽顔画像を登録する不審者顔保持手段を有することを特徴とする請求項8に記載の顔認識装置。 9. The face recognition system according to claim 8, further comprising suspicious person face holding means for registering a masked face image of said person when said person is determined to be said suspicious person by said suspicious person determination means. Device. 前記不審者顔保持手段に登録された前記遮蔽顔画像に基づき前記不審者を含む映像を保存する不審者映像録画手段を備える請求項9に記載の顔認証装置。 10. The face authentication device according to claim 9, further comprising suspicious person image recording means for storing an image including the suspicious person based on the masked face image registered in the suspicious person face holding means. 前記不審者顔保持手段に登録された前記遮蔽顔画像又は前記不審者映像録画手段で保存された映像を表示手段に表示させるための不審者表示制御手段を備える請求項10に記載の顔認証装置。 11. The face authentication device according to claim 10, further comprising suspicious person display control means for displaying, on a display means, the masked face image registered in the suspicious person face holding means or the video stored by the suspicious person video recording means. . 入力顔画像を取得する顔画像入力工程と、
複数の登録顔画像を予め保持する登録顔画像保持工程と、
前記入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定工程と、
前記顔混在判定工程により、異なる人物の顔領域が混在しないと判断された場合に、前記入力顔画像に一致する前記登録顔画像を検索し、異なる人物の顔領域が混在すると判断された場合に、所定の通知を行う制御工程と、を有することを特徴とする顔認証方法。
a face image input step of acquiring an input face image;
a registered face image holding step of pre-holding a plurality of registered face images;
a mixed face determination step of determining whether face regions of different persons are mixed in the input face image;
When it is determined that the face regions of different persons are not mixed in the face mixture determination step, the registered face image matching the input face image is searched, and when it is determined that the face regions of different persons are mixed, , and a control step of performing a predetermined notification.
コンピュータを、請求項1~11の何れか1項記載の顔認証装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each means of the face authentication device according to any one of claims 1 to 11.
JP2021131366A 2021-08-11 2021-08-11 Face authentication device, face authentication method, and computer program Pending JP2023025914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021131366A JP2023025914A (en) 2021-08-11 2021-08-11 Face authentication device, face authentication method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021131366A JP2023025914A (en) 2021-08-11 2021-08-11 Face authentication device, face authentication method, and computer program

Publications (1)

Publication Number Publication Date
JP2023025914A true JP2023025914A (en) 2023-02-24

Family

ID=85252464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021131366A Pending JP2023025914A (en) 2021-08-11 2021-08-11 Face authentication device, face authentication method, and computer program

Country Status (1)

Country Link
JP (1) JP2023025914A (en)

Similar Documents

Publication Publication Date Title
CN109446981B (en) Face living body detection and identity authentication method and device
TW201911130A (en) Method and device for remake image recognition
WO2021232985A1 (en) Facial recognition method and apparatus, computer device, and storage medium
CA3152812A1 (en) Facial recognition method and apparatus
CN112364827B (en) Face recognition method, device, computer equipment and storage medium
US10769415B1 (en) Detection of identity changes during facial recognition enrollment process
CN105981046A (en) Fingerprint authentication using stitch and cut
WO2007105768A1 (en) Face-image registration device, face-image registration method, face-image registration program, and recording medium
JPWO2012002047A1 (en) Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system
Smith-Creasey et al. Continuous face authentication scheme for mobile devices with tracking and liveness detection
WO2016172923A1 (en) Video detection method, video detection system, and computer program product
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
CN106471440A (en) Eye tracking based on efficient forest sensing
US20190205589A1 (en) Latent fingerprint ridge flow map improvement
WO2021217899A1 (en) Method, apparatus, and device for encrypting display information, and storage medium
CN111881740A (en) Face recognition method, face recognition device, electronic equipment and medium
KR20220042335A (en) Automatic Sign Language Recognition Method and System
CN110363111B (en) Face living body detection method, device and storage medium based on lens distortion principle
CN113837006A (en) Face recognition method and device, storage medium and electronic equipment
US9286707B1 (en) Removing transient objects to synthesize an unobstructed image
JP6577424B2 (en) Action recognition device and action recognition method
JP2023025914A (en) Face authentication device, face authentication method, and computer program
WO2020115910A1 (en) Information processing system, information processing device, information processing method, and program
JP6988160B2 (en) Information processing equipment and information processing programs
CN107341457A (en) Method for detecting human face and device