JP2023025914A - Face authentication device, face authentication method, and computer program - Google Patents
Face authentication device, face authentication method, and computer program Download PDFInfo
- Publication number
- JP2023025914A JP2023025914A JP2021131366A JP2021131366A JP2023025914A JP 2023025914 A JP2023025914 A JP 2023025914A JP 2021131366 A JP2021131366 A JP 2021131366A JP 2021131366 A JP2021131366 A JP 2021131366A JP 2023025914 A JP2023025914 A JP 2023025914A
- Authority
- JP
- Japan
- Prior art keywords
- face
- face image
- image
- registered
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
Description
本発明は顔認証装置、顔認証方法、及びコンピュータプログラム等に関する The present invention relates to a face authentication device, a face authentication method, a computer program, and the like.
従来、マスク等の顔を遮蔽するものを装着した人物の顔認証技術がある。例えば、特許文献1では、マスク等の顔を遮蔽するものを、標準的な顔を表す画像と比較することにより、顔を遮蔽するものが存在する領域を推定し、遮蔽物のある領域を除外した顔画像により顔認証を行う。又、非特許文献1には、顔領域の特定をするための一般的な顔検出技術が記載されている。 Conventionally, there is a technology for face recognition of a person who wears a face shield such as a mask. For example, in Japanese Patent Laid-Open No. 2004-100000, an object that shields the face, such as a mask, is compared with a standard image representing the face to estimate the area where the object that shields the face exists, and the area with the object is excluded. Face authentication is performed using the face image obtained. Also, Non-Patent Document 1 describes a general face detection technique for identifying a face area.
しかしながら、特許文献1では標準的な顔を表す画像との比較により、マスク等の存在する領域を推定している。そのため、マスクに他人の顔がプリントされている場合に、マスク領域を推定できない。又、異なる人物の顔領域があるために、誤った認証をしてしまう場合があった。
本発明は、上記のような問題を解消し、別の人物の顔等がプリントされたマスク等を装着している場合などにおける認証エラーを減少できる顔認証装置を提供することを目的としている。
However, in Japanese Patent Application Laid-Open No. 2002-200010, the area where the mask or the like exists is estimated by comparison with an image representing a standard face. Therefore, when the face of another person is printed on the mask, the mask area cannot be estimated. Also, since there are face areas of different persons, there are cases where erroneous authentication is performed.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a face authentication device that solves the problems described above and can reduce authentication errors when a person wears a mask or the like printed with another person's face or the like.
本発明の1つの側面の顔認証装置は、
入力顔画像を取得する顔画像入力手段と、
複数の登録顔画像を予め保持する登録顔画像保持手段と、
前記入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定手段と、
前記顔混在判定手段により、前記入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、所定の通知を行わせる制御手段と、を有することを特徴とする。
A face authentication device according to one aspect of the present invention includes:
face image input means for acquiring an input face image;
registered face image holding means for pre-holding a plurality of registered face images;
face mixture determination means for determining whether face regions of different persons are mixed in the input face image;
and control means for performing a predetermined notification when the face mixture determination means determines that face areas of different persons are mixed in the input face image.
本発明によれば、別の人物の顔等がプリントされたマスク等を装着している場合などにおける認証エラーを減少できる顔認証装置を実現できる。 According to the present invention, it is possible to realize a face authentication device capable of reducing authentication errors when a person wears a mask or the like printed with another person's face or the like.
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
又、実施例においては、顔認証装置としてカメラとコンピュータを組み合わせた例について説明する。しかし、顔認証装置は、デジタルスチルカメラ、デジタルムービーカメラ、スマートフォン、タブレットコンピュータ、汎用コンピュータ、車載カメラ、ドローンカメラ、ロボット、ゲート認証システムなどを含む。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below using examples with reference to the accompanying drawings. In each drawing, the same members or elements are denoted by the same reference numerals, and overlapping descriptions are omitted or simplified.
Also, in the embodiment, an example in which a camera and a computer are combined as a face authentication device will be described. However, face authentication devices include digital still cameras, digital movie cameras, smart phones, tablet computers, general-purpose computers, vehicle-mounted cameras, drone cameras, robots, gate authentication systems, and the like.
[コンピュータ装置の構成]
図1(A)は、本発明の実施例における顔認証装置のシステム構成図である。
図1(A)において、101はコンピュータ装置100全体を制御するCPU(Central Processing Unit)、102は書き換えが不要なプログラムやパラメータを格納するROM(Read Only Memory)である。103は外部装置などから供給されるプログラムやデータを一時記憶するRAM(Random Access Memory)である。
[Computer configuration]
FIG. 1A is a system configuration diagram of a face authentication device according to an embodiment of the present invention.
In FIG. 1A, 101 is a CPU (Central Processing Unit) that controls the
外部記憶装置104はコンピュータ装置100に接続されたハードディスクやSSDやメモリカードなどの記憶装置である。尚、外部記憶装置104は、コンピュータ装置100に対して着脱可能なDVDやCD等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでも良い。
入力デバイスインターフェイス105は、ユーザの操作によりデータを入力するためのポインティングデバイスやキーボードなどの入力デバイス109や、カメラ110とのインターフェイスである。
The
An
出力デバイスインターフェイス106は、コンピュータ装置100の保持するデータや供給されたデータを表示するためのモニタディスプレイ111や音声を発するスピーカ112とのインターフェイスである。通信インターフェイス107はインターネットなどのネットワーク回線113に接続して信号を送受信するための通信インターフェイスである。システムバス108は101~107の各ユニットを通信可能に接続する伝送路である。尚、後述するフローチャートにおける各処理は、ROM102等のコンピュータ読み取り可能な記憶媒体に格納されたプログラムをCPU101が実行することにより各処理が行われるように構成されている。
The
本実施例の顔認証装置の応用例を図1(B)、図1(C)を用いて説明する。
図1(B)は、スマートフォンのロック解除に応用した例を示す図である。図1(B)のスマートフォンのユーザが電源ボタン116を押下すると、カメラ114によりユーザの顔を撮影する。その後、後述の図3に示すロック解除処理が実行され、正しく認証された場合にロックが解除されてモニタ表示部115にホーム画面が表示される。一方、認証に失敗した場合には、認証失敗等の表示がされる。
An application example of the face authentication device of this embodiment will be described with reference to FIGS. 1(B) and 1(C).
FIG. 1B is a diagram showing an example of application to smartphone unlocking. When the user of the smartphone in FIG. 1B presses the
図1(C)は、ゲート認証システムに応用した例を示す図である。図1(C)では、ユーザ119がドアの前に訪れたときに、カメラ117によりユーザを撮影する。その後、後述の図3に示すロック解除処理が実行され、正しく認証された場合にドア120のロックが解除されて、ユーザがドアをあけることができるようになる。一方、認証に失敗した場合には、モニタ表示部118に認証失敗等の表示がされる。
FIG. 1C is a diagram showing an example applied to a gate authentication system. In FIG. 1C, when
[顔認証装置の構成]
図2は、実施例1の顔認証装置の機能ブロック図である。尚、図2に示される機能ブロックの一部又は全部は、コンピュータとしてのCPU101に、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
[Configuration of face authentication device]
FIG. 2 is a functional block diagram of the face authentication device of Example 1. FIG. Some or all of the functional blocks shown in FIG. 2 are implemented by causing the
又、図2に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置の組み合わせにより構成しても良い。例えば図2の機能ブロックの一部は外部のサーバー等に配置しても良い。
撮影処理部200は撮像部201と顔検出部202を用いて顔画像の生成を行う。
撮像部201は、CMOSイメージセンサ等を含むカメラ110から映像の取得を行う。
顔検出部202は、撮像部201が得た映像のフレームごとに顔領域を特定する。顔領域の特定は、公知の顔検出技術を用いれば良く、例えば非特許文献1に記載された方法を用いる。或いは他の公知の方法を用いても良い。
Moreover, each functional block shown in FIG. 2 may not be built in the same housing, and may be configured by a combination of separate devices connected to each other via signal paths. For example, some of the functional blocks in FIG. 2 may be arranged in an external server or the like.
A photographing
The
The
顔認証部210は、撮影処理部200により得た顔画像を用いて認証を行う。本実施例では、他人の顔がプリントされたマスクなどを着用していないと判断されるときのみ登録人物との照合による顔認証を行う。それ以外の場合は認証エラーとする。顔認証部210は更に211~217に示す機能ブロックを含む。尚、以下の説明において、マスクとは顔の少なくとも一部を遮蔽する遮蔽物であれば何でもよく、シールや眼帯やメガネや帽子等を含む。
The
顔画像入力部211は、撮影処理部200で得た顔画像の入力を受け付ける。例えば、撮影処理部200が顔画像をRAM103上に一時保存する場合、顔画像入力部211はRAM103の画像の保存先のメモリアドレス及びサイズ等の情報を受け取る。或いは、撮影処理部200が外部記憶装置104に保存する場合には、外部記憶装置104の画像の保存先のファイルアドレスを受け取る。その後、顔画像入力部211は上記のメモリアドレスやサイズやファイルアドレス等の情報に基づき画像を読み出して取得する。ここで、顔画像入力部211は、入力顔画像を取得する顔画像入力手段として機能している。
A face
登録顔画像保持部212は、登録人物の顔画像を予め保持する登録顔画像保持工程を行う。例えば、図1(B)に示すスマートフォンの例ではスマートフォンのユーザの顔画像が予め登録されている。又、例えば、図1(C)に示すゲート認証の例では、入室が許可されている人物の顔画像が予め登録されている。これら登録顔画像はRAM103や外部記憶装置104に保持される。その際、人物を識別するためのID等と関連付けて記憶しても良い。ここで、登録顔画像保持部212は、複数の登録顔画像を予め保持する登録顔画像保持手段として機能している。
The registered face
顔照合部213は、2つの顔画像が一致するか否かを判定する。即ち、顔照合部213は、入力顔画像と登録顔画像を照合して一致を判定する顔照合手段として機能している。
そして顔照合部213は、例えば、顔画像から個人を識別できる情報を抽出して、特徴量ベクトル(或いは特徴量とも呼ぶ)に変換する。2つの顔画像の類似度は、夫々から得た特徴量ベクトルの類似度を計算して、類似度が所定値以上であれば、2つの顔画像が一致すると判断する。類似度が所定値未満であれば、2つの顔画像は不一致と判断する。特徴量ベクトルの類似度はコサイン類似度やベクトル間距離の逆数などを用いても良い。
The
Then, the
又、顔画像からの特徴量の抽出では、ニューラルネットワークの一種であるConvolutional Neural Networks(CNN)を用いても良い。CNNは予め顔画像から個人を識別するための情報が抽出できるように学習が行われている。学習とは、CNNの処理に必要な大量のパラメータを調整することを意味する。学習は公知の手法を用いればよく、例えばsoftmaxを用いたロス関数を定義して、そのロス関数の値が小さくなるように、バックプロパゲーションによりCNNのパラメータを調整するものでも良い。 In addition, Convolutional Neural Networks (CNN), which is a type of neural network, may be used in extracting the feature amount from the face image. CNN is trained in advance so that information for identifying individuals can be extracted from face images. Learning means tuning a large number of parameters required for CNN processing. For learning, a known method may be used. For example, a loss function using softmax may be defined, and parameters of the CNN may be adjusted by back propagation so that the value of the loss function becomes small.
又、CNNの学習では顔画像の一部の領域が遮蔽されていても同一人物であると判定できるように、予め一部分を遮蔽した画像等を用いて学習しておいても良く、顔照合の方法はこれらに限定されない。
登録顔検索部214は、顔画像入力部211や遮蔽顔生成部215等から得た顔画像と一致する顔画像を登録顔画像保持部212から検索する。具体的には、顔照合部213を用いて、各顔画像の特徴量を抽出して、登録顔画像保持部212のすべての顔画像と与えられた顔画像を照合して、一致する人物を取得する。
Also, in the learning of the CNN, it is possible to learn in advance using partially masked images so that it can be determined that the person is the same person even if a part of the face image is masked. The methods are not limited to these.
The registered
処理の効率化のために、登録顔画像保持部212で保持する顔画像からは予め特徴量を抽出して登録顔画像保持部212に保存しておいても良い。その際は、与えられた顔画像から特徴量を抽出して、登録顔画像保持部212の特徴量との類似度を計算して、所定値以上の類似度を有する人物を一致する人物として取得しても良い。尚、登録顔検索の方法はこれらに限定されない。
For efficient processing, a feature amount may be extracted in advance from the face image held by the registered face
遮蔽顔生成部215は、顔画像入力部211等から得た顔画像に対して、顔の一部を遮蔽した画像を生成する。遮蔽する領域は、口元・目元・頭部・片目・鼻等のいくつかの顔領域の遮蔽パターンを予め定めておき、その遮蔽パターンを適用して顔の一部を遮蔽した画像である遮蔽顔画像を生成する。ここで、遮蔽顔生成部215は、入力顔画像の顔の一部を遮蔽した複数種類の遮蔽顔画像を生成する遮蔽顔生成手段として機能している。
The masked
具体的には、目・目尻・鼻・口角などの器官点の座標を得て、器官点の座標をもとに遮蔽画像を生成する。例えば、口元を隠す遮蔽画像の場合は、予め左右の口角と鼻頂点の3点の座標と、重畳する黒塗りの画像等を遮蔽テンプレートとして用意しておく。器官検出で求めた3点の座標と、予め保持している遮蔽テンプレートの3座標からアフィン変換行列を求めて、テンプレート画像をアフィン変換して、顔画像に重畳する。或いは、テンプレートを用いずに、顔の輪郭など多数の器官点を求めて、それらの器官点をつなぎ合わせて口元等を隠すようにしても良い。 Specifically, the coordinates of organ points such as the eyes, the corners of the eyes, the nose, and the corners of the mouth are obtained, and a masking image is generated based on the coordinates of the organ points. For example, in the case of a shielding image that hides the mouth, the coordinates of the three points of the right and left corners of the mouth and the tip of the nose, and a black-painted image to be superimposed are prepared in advance as a shielding template. An affine transformation matrix is obtained from the coordinates of the three points obtained by the organ detection and the three coordinates of the shielding template held in advance, and the template image is affine-transformed and superimposed on the face image. Alternatively, without using a template, a large number of organ points such as the outline of the face may be obtained, and these organ points may be connected to hide the mouth and the like.
尚、遮蔽する部分は黒・白等の単色で塗りつぶしても良いし、予め用意しておいたテクスチャを適用するなどしても良い。
又、顔画像上のエッジなどを検出して、エッジを境界として遮蔽領域を決定するようにしても良い。これによりマスク・眼帯・メガネ・帽子等の輪郭線をとらえて、輪郭線に沿って遮蔽領域を決定でき、効果的に装飾品のある領域だけを遮蔽した画像を生成できる。
The portion to be shielded may be painted with a single color such as black or white, or a texture prepared in advance may be applied.
Alternatively, an edge or the like on the face image may be detected, and the masked area may be determined using the edge as a boundary. This makes it possible to capture the contours of masks, eyepatches, glasses, hats, etc., determine shielding regions along the contours, and effectively generate an image in which only the regions with ornaments are shielded.
尚、上述の器官検出には、顔画像から器官点の存在確率をピクセル単位で推定するCNNを用いて、最も存在確率の高いピクセル位置に器官点があると推定する方法などの公知の方法を用いても良い。尚、遮蔽画像により一部が遮蔽された遮蔽顔画像を生成するための方法はこれらに限定されない。
顔混在判定部216は、顔画像入力部211等から得た認証対象となる顔画像に、複数の人物の顔領域が混在しているか否かを判定する。ここで、顔混在判定部216は、入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定手段として機能している。顔混在判定処理の詳細は、図6を用いて後述する。
For the organ detection described above, a known method such as a method of estimating that an organ point exists at a pixel position with the highest probability of existence using a CNN for estimating the existence probability of an organ point from a face image on a pixel-by-pixel basis is used. You can use it. Note that the method for generating a masked face image partly masked by a masked image is not limited to these.
The face
尚、図6に示すようなフローチャート以外の方法で顔混在判定処理を実現しても良い。例えば、予めプリントマスク等の、他人の顔がプリントされたマスクを装着して撮影した顔画像と、素顔の顔画像を分類できるように学習したCNN等を用意する。
そして、顔画像入力部211等から得た顔画像をCNNに入力して、複数人物の顔領域が混在しているか否かの判定結果を得るようにしても良い。尚、顔混在判定の方法はこれらに限定されない。
Note that the mixed face determination process may be realized by a method other than the flowchart shown in FIG. For example, a CNN or the like that has been learned so as to be able to classify a face image photographed while wearing a mask on which another person's face is printed, such as a print mask, and a face image of a real face, is prepared in advance.
Then, a face image obtained from the face
顔認証制御部217は、顔混在判定部216の判定結果に応じて、顔認証を実行するか否かを決定する。具体的には、顔混在判定部216が、異なる人物の顔が混在していると判定した場合には顔認証を実行しない。反対に、顔混在判定部216が異なる人物の顔が混在していないと判断した場合には、顔認証を実行する。詳細は、後述する図4のフローチャートを用いて説明する。
The face
エラー顔処理部220は、顔認証部210の顔認証制御部217により顔認証が実行されないとき、エラー処理を行う。
エラー通知部221は、モニタディスプレイ111やスピーカ112を介してユーザや周囲に対して、認証エラーであることなどを通知する。尚、エラー通知部221は、顔認識装置内の所定回路に対して通知をするものであっても良い。そして、顔認識装置内の所定回路は、エラー通知部221からの上記通知を受け取った場合に例えば顔認識装置の一部の動作をロックしたり、外部の警備システムに通知を送信したりする所定の動作を行うようにしても良い。あるいは、ログファイルにエラーを書き出すなどしても良い。なお、通知により動作を行うことは必須ではなく、何の動作も行わないようにしても良い。
[ロック解除処理]
The error
The
[Unlock process]
図3は、実施例1におけるロック解除処理のフローチャートである。
コンピュータとしてのCPU101がROM102等に記憶されたコンピュータプログラムを実行することによって図3~図6、図11、図12、図14、図15のフローチャートの各ステップの動作が行われる。ここで、CPU101はプログラムに基づき顔認証装置全体を制御する制御手段として機能している。
FIG. 3 is a flowchart of unlocking processing according to the first embodiment.
3 to 6, 11, 12, 14 and 15 are executed by the
ロック解除処理は、ロック解除の要求が顔認証装置にユーザから入力されたときに起動する。例えば、図1(B)に示すスマートフォンであれば電源ボタン116が押されると、図3の処理が起動される。図1(C)に示すゲート認証であれば、ユーザがゲート前に来たことをカメラで検出したことをトリガーとして図3の処理が起動される。或いはユーザが不図示のボタン等を押すことを検出して本処理を起動しても良い。
The unlocking process is started when the user inputs an unlocking request to the face authentication device. For example, in the case of the smart phone shown in FIG. 1B, when the
ステップS301では、カメラで撮影された人物が登録人物であるか否かを判断する顔認証処理が実行される。ステップS301の顔認証処理の詳細は、図4のフローチャートを用いて後述する。
ステップS302では、ステップS301の顔認証処理の結果が認証成功であった場合は、ステップS303に移り、それ以外の時はステップS301に移る。
In step S301, face authentication processing is executed to determine whether the person photographed by the camera is a registered person. The details of the face authentication processing in step S301 will be described later using the flowchart of FIG.
In step S302, when the result of the face authentication processing in step S301 is authentication success, the process proceeds to step S303, otherwise the process proceeds to step S301.
ステップS303では、ロックの解除処理を行う。例えば、図1(B)に示すスマートフォンであればロック状態が解除されてホーム画面がモニタ表示部115表示される。図1(C)に示すゲート認証であればドア120のロックが所定時間だけ解除されて、ユーザが入室できるようになる。
[顔認証処理]
In step S303, unlock processing is performed. For example, the smartphone shown in FIG. 1B is unlocked and the home screen is displayed on the
[Face authentication processing]
図4は、図3のステップS301の顔認証処理のフローチャートである。
ステップS401(顔画像入力工程)では、カメラから顔画像を取得する処理を行う。詳細は、図5のフローチャートを用いて後述する。
ステップS402では、ステップS401で取得した顔画像に、異なる人物の顔が混在しているか否かを判定する(顔混在判定工程)。詳細は図6のフローチャートを用いて後述する。
FIG. 4 is a flow chart of face authentication processing in step S301 of FIG.
In step S401 (face image input step), a process of acquiring a face image from the camera is performed. Details will be described later with reference to the flowchart of FIG.
In step S402, it is determined whether or not the face image acquired in step S401 includes faces of different persons (face mixture determination step). Details will be described later with reference to the flowchart of FIG.
ステップS403では、顔認証制御部217により処理され、ステップS402の判定により異なる人物の顔が混在していると判定されたとき、ステップS405に移る。それ以外の時はステップS404に移る。
ステップS404では、登録顔検索部214を用いて、ステップS401で取得した顔画像に一致する顔画像を検索する。
In step S403, processing is performed by the face
In step S404, the registered
即ち、制御手段としてのCPU101は、顔混在判定手段により、入力顔画像の中に異なる人物の顔領域が混在しないと判断された場合に、入力顔画像に一致する登録顔画像を登録顔画像保持手段から検索する。そして、ただ一人の人物のみが検索されたときは、認証成功と判断する。それ以外のときは認証失敗と判断する。
ステップS405では、エラー通知部221によりユーザにエラーを通知する。
That is, the
In step S405, the
このように、制御手段としての、CPU101は、顔混在判定手段により、入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、認証が失敗したことを示す所定の通知を行わせるように制御を行う。ここでステップS403~ステップS405において、異なる人物の顔領域が混在しないと判断された場合に、入力顔画像に一致する登録顔画像を検索し、異なる人物の顔領域が混在すると判断された場合に、所定の通知を行う制御工程が行われている。
[顔画像の取得処理]
In this manner, the
[Face Image Acquisition Processing]
図5は、図4のステップS401の顔画像の取得処理のフローチャートである。
図5の処理は主に撮影処理部200において処理される。
ステップS501では、撮像部201がカメラ110から現在のフレーム画像を得る。
ステップS502では、顔検出部202が、ステップS501で得たフレーム画像から顔領域を取得する。複数の顔領域が取得されたときは、フレームの中央に近い顔領域を採用する。或いは、顔領域の取得個数をゼロとして、顔の取得に失敗したと判断するように処理しても良い。
FIG. 5 is a flow chart of the facial image acquisition processing in step S401 of FIG.
The processing in FIG. 5 is mainly processed in the photographing
In step S<b>501 , the
In step S502, the
ステップS503では、顔の取得に成功したか否かを判定する。ステップS502でフレーム画像から1つの顔領域が取得されたとき、ステップS504に移る。それ以外のときは、ステップS505に移る。
ステップS504では、フレーム画像から顔領域の画像を切り出して顔画像を生成する。
In step S503, it is determined whether or not the face has been successfully acquired. When one face area is acquired from the frame image in step S502, the process moves to step S504. Otherwise, the process moves to step S505.
In step S504, the image of the face area is cut out from the frame image to generate the face image.
ステップS505では、ステップS503での判定に連続して失敗しているか否かを判定する。具体的には、ステップS503の顔取得の失敗が所定回数を上回った場合に、連続して失敗していると判断する。或いは、連続失敗の継続時間が予め定めた時間を上回るとき、連続失敗していると判断する。連続失敗していると判断される場合、ステップS506へ移る。それ以外の時、ステップS501に戻る。 In step S505, it is determined whether or not the determination in step S503 has failed continuously. Specifically, when the number of failures in face acquisition in step S503 exceeds a predetermined number, it is determined that failures have occurred consecutively. Alternatively, when the duration of consecutive failures exceeds a predetermined time, it is determined that consecutive failures have occurred. If it is determined that there have been consecutive failures, the process moves to step S506. Otherwise, return to step S501.
ステップS506では、認証処理を中断する。具体的には図3のフローチャートのロック解除処理を中断する。そしてユーザに「顔が正しく検出できません」などのメッセージをモニタディスプレイ111に表示する。或いはスピーカ112を用いて音声で伝える。
[顔混在判定処理]
At step S506, the authentication process is interrupted. Specifically, the unlocking process in the flowchart of FIG. 3 is interrupted. Then, a message such as "face cannot be detected correctly" is displayed on the
[Face Mixing Judgment Processing]
図6は、図4のステップS402の顔混在判定処理のフローチャートである。
本処理においては、図4のフローチャートのステップS402から呼び出され、ステップS401で得た顔画像に異なる人物の顔が混在しているか否かの判定が顔混在判定部216により実行される。
ステップS601では、遮蔽顔生成部215を用いて遮蔽顔画像の生成が行われる。具体的には、与えられた顔画像に対して器官検出処理を行い、予め定めたいくつかの遮蔽パターンを適用する。例えば、口元を隠すパターン、両目を隠すパターン等を適用して、複数種類の遮蔽顔画像を生成する。
FIG. 6 is a flow chart of the mixed face determination process in step S402 of FIG.
This process is called from step S402 in the flowchart of FIG. 4, and the face
In step S<b>601 , a masked face image is generated using the masked
ステップS602では、ステップS601で得た遮蔽顔画像ごとに、登録顔検索部214から一致する登録人物の登録顔画像を検索する。取得した登録画像に重複するものがあるときは、重複した登録画像は無視する。例えば、異なる3つの遮蔽顔画像から同じ登録顔画像3つが得られていたときは、登録顔画像は1つだけを採用して、他の2つを不採用とする。
In step S602, the registered
ステップS603では、後述の処理で使用する照合結果リストを空に初期化する。
ステップS604は、ステップS602で得た登録顔画像を順に処理するためのループであり、登録顔画像には0から順に番号が割り当てられているものとする。これを、変数としてのiを用いて参照するため、初めにiを0に初期化する。更に、iが登録顔画像数未満であるときステップS605へ移り、iが登録顔画像数以上のときループを抜けてステップS609へ移る。
In step S603, a collation result list used in later-described processing is initialized to be empty.
Step S604 is a loop for sequentially processing the registered face images obtained in step S602, and the registered face images are assigned numbers starting from 0 in order. In order to refer to this using i as a variable, i is initialized to 0 first. Further, when i is less than the number of registered face images, the process proceeds to step S605, and when i is equal to or greater than the number of registered face images, the loop is exited and the process proceeds to step S609.
ステップS605では、ステップS601で得た遮蔽顔画像を順に処理するためのループであり、遮蔽顔画像には0から順に番号が割り当てられているものとする。これを、変数としてのjを用いて参照するため、初めにjを0に初期化する。更に、jが遮蔽顔画像数未満であるときステップS606へ移り、jが遮蔽顔画像数以上のときループを抜けてステップS608へ移る。 Step S605 is a loop for sequentially processing the masked face images obtained in step S601, and the masked face images are assigned numbers starting from 0 in order. In order to refer to this using j as a variable, j is initialized to 0 first. Further, when j is less than the number of masked face images, the process proceeds to step S606, and when j is equal to or greater than the number of masked face images, the loop is exited and the process proceeds to step S608.
ステップS606では、顔照合部213を用いて登録顔画像iと遮蔽顔画像jを照合する。そして「登録顔画像iと遮蔽顔画像jと照合結果」の組を照合結果リストに記録する。尚、ステップS602での遮蔽顔画像ごとに登録顔画像を検索するときに、登録顔画像iと遮蔽顔画像jの照合も実施されている。従ってステップS602での照合結果をキャッシュしておき、キャッシュから登録顔画像iと遮蔽顔画像jの照合結果を得るようにしても良い。
In step S606, the
ステップS607は、遮蔽顔画像のループの終端であり、jに1を加算してステップS605へ戻る。
ステップS608は、登録顔画像のループの終端であり、iに1を加算してステップS604へ戻る。
ステップS609では、照合結果リストが空であるか否かを判定する。照合結果リストが空となるのは、ステップS602で登録顔画像が得られない場合等である。照合結果リストが空であるとき、ステップS612へ移る。それ以外の場合はステップS610へ移る。
Step S607 is the end of the masked face image loop, adds 1 to j, and returns to step S605.
Step S608 is the end of the registered face image loop, increments i by 1, and returns to step S604.
In step S609, it is determined whether or not the collation result list is empty. The collation result list becomes empty when, for example, no registered face image is obtained in step S602. When the matching result list is empty, the process moves to step S612. Otherwise, the process moves to step S610.
ステップS610では、照合結果リスト内のすべての照合結果が一致するか否かを判定する。照合結果がすべて一致するとき、ステップS612へ移る。それ以外のとき、ステップS611へ移る。
ステップS611では、本フローチャートの処理結果を「顔混在」とする。
ステップS612では、本フローチャートの処理結果を「顔混在なし」とする。
[顔混在判定処理の例]
In step S610, it is determined whether or not all matching results in the matching result list match. If all the collation results match, the process moves to step S612. Otherwise, the process moves to step S611.
In step S611, the processing result of this flowchart is set to "face mixed".
In step S612, the processing result of this flowchart is set to "no mixed face".
[Example of mixed face determination processing]
顔混在判定処理の例について図7~図9を用いて説明する。
図7は顔混在判定処理の処理結果を例示した表である。
列701は、入力顔画像の人物がプリントマスクを装着しているか否かを示す。装着とあるときマスクを装着していることを示し、非装着はマスクを着けていないことを示す。
An example of mixed face determination processing will be described with reference to FIGS. 7 to 9. FIG.
FIG. 7 is a table exemplifying the processing result of the mixed face determination processing.
列702は、プリントマスクに表示されている人物の顔画像が、登録顔画像保持部212に登録されているか否かを示す。「有」は登録顔画像保持部212にプリントマスクに表示されている人物の顔画像が登録されていることを示し、「無」は登録顔画像保持部212に登録されていないことを示す。
A
列703は、入力画像に映る人物の顔画像が、登録顔画像保持部212に登録されているか否かを示す。「有」は登録顔画像保持部212に入力画像に映る人物の顔画像が登録されていることを示し、「無」は登録顔画像保持部212に登録されていないことを示す。
列704は、列701~列703に示す条件の下で、顔混在判定処理のステップS609の判定で得られる照合結果リストの状態を示している。「一致、不一致が存在」は照合結果リストに一致と不一致の双方の照合結果が存在していることを示す。「全て一致」は照合結果リストに一致の照合結果しか存在しないことを示す。「空」は照合結果リストが空であることを示す。
A
A
列705は、顔混在判定処理の最終結果を示している。「顔混在」は顔混在処理の結果としてステップS611に至ったことを示し、「顔混在なし」はステップS612で「顔混在なし」と判定されたことを示す。
図7に示す各ケースに関して、以下詳細に説明する。
A
Each case shown in FIG. 7 will be described in detail below.
図8(A)は複数の人物と、複数のマスクパターンの例を示す図である。即ち、図8(A)は以下の説明で登場する人物801と人物802とプリントマスク803とプリントマスク804を示している。プリントマスク803は人物802の口元をプリントしたマスクである。プリントマスク804は人物801でも、人物802でもない人物の口元をプリントしたマスクである。
FIG. 8A is a diagram showing an example of multiple people and multiple mask patterns. That is, FIG. 8A shows a
図7のNo1のケースに関して詳細に説明する。No1のケースは、登録顔画像保持部212に登録されていない未登録者が、登録顔画像保持部212に登録されている人物の口元をプリントしたプリントマスクを装着している場合である。即ち、登録されている人物になりすましているケースであると言える。
The case No. 1 in FIG. 7 will be described in detail. Case No. 1 is a case in which an unregistered person who is not registered in the registered face
図8(B)は図7のNo1のケースを説明する図である。
図8(B)において、入力顔画像805は、人物801がプリントマスク803を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。
入力顔画像805に対して遮蔽顔画像の生成(ステップS601)が行われ、例えば遮蔽顔画像806と807が得られる。ここでは説明のために遮蔽のパターンは2つであるとしている。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。
FIG. 8B is a diagram for explaining the case No. 1 in FIG.
In FIG. 8B, an
A masked face image is generated (step S601) for the
この例では、人物801は登録されておらず、人物802だけが登録顔画像保持部212に登録されている。そのため、遮蔽顔画像807により、プリントマスクの絵柄に基づき、登録顔検索部214により登録顔画像808が得られる。一方で、遮蔽顔画像806はプリントマスク部分の絵柄が遮蔽されているため、該当する人物が検索できず登録顔画像は得られない。次に、登録顔画像808と遮蔽顔画像806と遮蔽顔画像807が照合され、一致・不一致の判定結果が得られる(ステップS604~ステップS608)。
In this example, the
ここでは図8(B)に示すように、遮蔽顔画像806に対しては「顔照合不一致」と判定され、遮蔽顔画像807に対しては「顔照合一致」と判定される。そして、これら判定結果がすべて同じであるか否かが判定され(ステップS610)、この場合は判定結果が異なるため「顔混在」という判定結果が得られることになる(ステップS611)。即ち、顔混在判定手段は、複数種類の遮蔽顔画像に夫々一致する登録顔画像が登録顔画像保持手段に保持された複数の登録顔画像に存在するかを夫々検索し、夫々の検索結果が異なる場合に、異なる人物の顔領域が混在すると判定する。
Here, as shown in FIG. 8B, the
次に、図9(A)は図7のNo2のケースを説明する図である。
No2のケースは、登録顔画像保持部212に登録されている登録人物が、登録顔画像保持部212に登録されていない人物の口元をプリントしたプリントマスク804を装着しているケースである。
図9(A)において、入力顔画像901aは、人物801がプリントマスク804を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。
Next, FIG. 9A is a diagram for explaining the case of No. 2 in FIG.
Case No. 2 is a case in which a registered person registered in the registered face
In FIG. 9A, an
入力顔画像901aに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902aと903aが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。この例では、人物801は登録されているため、遮蔽顔画像902aにより、本人の目元の特徴から、登録顔検索部214により登録顔画像904aが得られる。そして、登録顔画像904aと遮蔽顔画像902aと遮蔽顔画像903aが照合され、一致・不一致の判定結果が得られる(ステップS604~ステップS608)。
A masked face image is generated (step S601) for the
ここでは図9(A)に示すように、遮蔽顔画像902aに対しては「顔照合一致」と判定され、遮蔽顔画像903aに対しては「顔照合不一致」と判定される。そして、これら判定結果がすべて同じであるか否かが判定され(ステップS610)、この場合は判定結果が異なるため「顔混在」という処理結果が得られることになる(ステップS611)。
Here, as shown in FIG. 9A, it is determined that "face matching matches" for the
次に、図9(B)は図7のNo3のケースを説明する図である。
No3のケースは、登録顔画像保持部212に登録されている登録人物が、登録顔画像保持部212に登録されている人物の口元をプリントしたプリントマスク803を装着しているケースである。
図9(B)において、入力顔画像901bは、人物801がプリントマスク803を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。
Next, FIG. 9B is a diagram for explaining case No. 3 in FIG.
Case No. 3 is a case in which a registered person registered in the registered face
In FIG. 9B, an input face image 901b is a face image of a
入力顔画像901bに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902bと遮蔽顔画像903bが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。この例では、人物801と人物802は登録されているため、遮蔽顔画像902bにより、本人の目元の特徴から、登録顔画像904bが得られる。
A masked face image is generated (step S601) for the input face image 901b, and a
加えて、遮蔽顔画像903bにより、口元のマスクの特徴から、登録顔画像905bが得られる。そして、登録顔画像と遮蔽顔画像が照合され、図9(B)に示すように顔照合一致・顔照合不一致の判定結果が得られる(ステップS604~ステップS608)。これら判定結果が同じではないことから、「顔混在」という処理結果が得られることになる(ステップS611)。
In addition, a registered
次に、図9(C)は図7のNo4のケースを説明する図である。
No4のケースは、登録顔画像保持部212に登録されていない人物が、登録顔画像保持部212に登録されていない人物の口元をプリントしたプリントマスクを装着しているケースである。
図9(C)において、入力顔画像901cは、人物801がプリントマスク804を装着した顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。入力顔画像901cに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902cと903cが得られる。
Next, FIG. 9(C) is a diagram for explaining the case of No. 4 in FIG.
Case No. 4 is a case in which a person who is not registered in the registered face
In FIG. 9C, an
そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。この例では、人物801は登録されていないため、登録顔画像は得られない。結果、登録顔画像と遮蔽顔画像の照合結果は1つも得られない(ステップS604~ステップS608)。そのため照合結果リストが空であることから(ステップS609)、「顔混在なし」として処理結果が得られることになる(ステップS612)
Then, registered face images are searched using these shielded face images (step S602). In this example, since the
次に、図9(D)は図7のNo5のケースを説明する図である。
No5のケースは、登録顔画像保持部212に登録されている登録人物がマスクを着用していない素顔のケースである。
図9(D)において、入力顔画像901dは、人物801の素顔の顔画像であり、これが顔混在判定処理に入力されたことを想定する。入力顔画像901dに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902dと遮蔽顔画像903dが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。
Next, FIG. 9(D) is a diagram for explaining the case of No. 5 in FIG.
Case No. 5 is a case where the registered person registered in the registered face
In FIG. 9D, it is assumed that an
この例では、人物801は登録されているため、遮蔽顔画像902dに基づき本人の目元の特徴から、登録顔画像904dが得られる。又、遮蔽顔画像903dに基づき本人の口元の特徴から、登録顔画像904dが得られる。
そして、登録顔画像と遮蔽顔画像が照合され、図9(C)に示すように顔照合一致の判定結果が得られる(ステップS604~ステップS608)。すべての判定結果が同じであることから「顔混在なし」という処理結果が得られることになる(ステップS612)。
In this example, since the
Then, the registered face image and the masked face image are collated, and the face collation matching determination result is obtained as shown in FIG. 9C (steps S604 to S608). Since all determination results are the same, a processing result of "no mixed faces" is obtained (step S612).
次に、図9(E)は図7のNo6のケースを説明する図である。
図7のNo6のケースに関して詳細に説明する。No6のケースは、登録顔画像保持部212に登録されていない人物が、マスクを着用していない素顔のケースである。
入力顔画像901eは、人物801の素顔の顔画像であり、これが図6の顔混在判定処理フローに入力された場合を想定する。入力顔画像901eに対して遮蔽顔画像の生成(ステップS601)が行われ、遮蔽顔画像902eと遮蔽顔画像903eが得られる。そして、これら遮蔽顔画像を用いて登録顔画像が検索される(ステップS602)。
Next, FIG. 9E is a diagram for explaining the case of No. 6 in FIG.
The case No. 6 in FIG. 7 will be described in detail. Case No. 6 is a case in which a person who is not registered in the registered face
It is assumed that the
この例では、人物801は登録されていないため、登録顔画像が得られない。結果、登録顔画像と遮蔽顔画像の照合結果は1つも得られない(ステップS604~ステップS608)。そのため照合結果リストが空であるとこから(ステップS609)、「顔混在なし」という処理結果が得られることになる(ステップS612)
In this example, the
以上のように、本実施例では、本人以外の人物の顔画像がプリントされたマスク・眼帯等を装着している人物に対しては、顔認証処理が実行しない。従って、他人の顔の一部がプリントされたマスクの着用による顔認証のエラーを抑制できる。 As described above, in this embodiment, face authentication processing is not executed for a person wearing a mask, eyepatch, or the like printed with a face image of a person other than the person himself/herself. Therefore, it is possible to suppress face authentication errors due to wearing a mask on which a part of another person's face is printed.
実施例1では、顔認証の対象となるユーザがプリントマスク等を装着している場合はエラーとなり、プリントマスクを外す必要があった。本実施例では、マスク等を外すことなく顔認証可能にする。具体的には、顔が混在していると判定されるときは、ユーザに対して表情変化を指示して、表情変化が生じた素顔領域を使用して顔認証を行う。 In the first embodiment, an error occurs when a user whose face is to be authenticated wears a print mask or the like, and it is necessary to remove the print mask. In this embodiment, face authentication is enabled without removing a mask or the like. Specifically, when it is determined that faces are mixed, the user is instructed to change the facial expression, and face authentication is performed using the real face region in which the facial expression has changed.
図10は、実施例2の顔認証装置の機能ブロック図である。図2との違いは、図10においては、エラー顔処理部220に対して、222~224の機能ブロックが追加されている点である。図2と同じ符号の機能ブロックについての説明は省略ないし簡略化する。
尚、図2と同様、図10に示される機能ブロックの一部又は全部は、コンピュータとしてのCPU101に、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いても良い。
FIG. 10 is a functional block diagram of the face authentication device of Example 2. FIG. The difference from FIG. 2 is that
As in FIG. 2, part or all of the functional blocks shown in FIG. 10 are realized by causing the
又、図10に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。又、例えば図10の機能ブロックの一部は外部のサーバー等に配置しても良い。
指示通知部222は、ユーザに対して所定の表情変化を起こすように指示を行うための機能ブロックであり、モニタディスプレイ111やスピーカ112を介してユーザに対して指示をする。指示としては、例えば、笑顔になるように指示したり、まばたきをするように指示したり、口を開けるように指示する。或いはこれらの複数の組み合わせでも良い。
Also, each functional block shown in FIG. 10 may not be built in the same housing, and may be configured by separate devices connected to each other via signal paths. Also, for example, some of the functional blocks in FIG. 10 may be arranged in an external server or the like.
The
表情変化計測部223は、予め定めた遮蔽する候補領域ごとに表情変化を計測する。具体的には、連続する複数フレームの顔画像を得て、器官点座標の相対的な位置変化量を計測又は推定する。
例えば、鼻等を基準として各器官点の相対座標をフレームごとに求める。フレーム間での器官点の相対座標の移動変化量を計測する。遮蔽候補領域ごとに遮蔽する器官点の移動変化量を得て、その和をとることで、遮蔽候補領域における変化量を出力する。
The facial expression
For example, the relative coordinates of each organ point are obtained for each frame with reference to the nose or the like. Measure the amount of change in movement of relative coordinates of organ points between frames. By obtaining the amount of change in movement of the organ point to be shielded for each of the shielding candidate areas and taking the sum of the obtained amounts, the amount of change in the shielding candidate area is output.
或いは、複数フレームの顔画像から表情変化のある領域及び変化量を推定するようにCNN等を学習して、それを用いて表情変化のある領域を特定しても良い。尚、表情変化計測の方法はこれらに限定されない。
低変化遮蔽部224は、表情変化計測部223の遮蔽候補領域と変化量を用いて、変化量が小さい領域を遮蔽した画像を生成する。具体的には、予め定めた閾値未満の変化量を示す遮蔽候補領域を得て、遮蔽候補領域に含まれるピクセルを黒塗り等して、入力顔画像から表情変化が少ない部分を隠した遮蔽顔画像を生成する。
Alternatively, a CNN or the like may be learned so as to estimate an area with facial expression change and the amount of facial expression change from a plurality of frames of face images, and the area with facial expression change may be identified using it. Note that the method of facial expression change measurement is not limited to these.
The low
図11は実施例2の顔認証処理のフローチャートである。
図11のステップS401~ステップS405は図4における処理と同じ処理なので説明を省略する。
ステップS110では、素顔領域の抽出処理を行う。
FIG. 11 is a flow chart of face authentication processing according to the second embodiment.
Since steps S401 to S405 in FIG. 11 are the same as the processing in FIG. 4, description thereof is omitted.
In step S110, extraction processing of a natural face area is performed.
図12は図11のステップS110の詳細を示すフローチャートである。
ステップS121では、制御手段は、指示通知部222を用いて、ユーザへ表情変化をするように指示する。即ち、顔混在判定手段により、入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、ユーザに対してステップS405で認証エラー通知をすると共に、ステップS121で表情変化を指示する通知を行う。
FIG. 12 is a flow chart showing details of step S110 in FIG.
In step S121, the control unit uses the
ステップS122では、複数フレームの顔画像の取得を行う。具体的には、前述の図5に示す顔画像の取得処理を連続する数フレーム分実施することで、複数フレームの顔画像の取得を行う。
ステップS123では、表情変化計測部223を用いて遮蔽候補領域ごとに表情変化を計測する。
In step S122, multiple frames of face images are obtained. Specifically, by performing the face image acquisition process shown in FIG. 5 for several consecutive frames, face images of a plurality of frames are acquired.
In step S123, the facial expression
ステップS124では、ステップS121の指示に対して表情変化をユーザが示したか否かを判定する。具体的には、ステップS123のすべての遮蔽候補領域で表情変化が予め定めた閾値を下回るとき、表情変化がないと判断する。表情変化がないときはステップS121に戻り、それ以外のときステップS125に進む。 In step S124, it is determined whether or not the user has indicated a change in facial expression in response to the instruction in step S121. Specifically, it is determined that there is no facial expression change when the facial expression change is less than a predetermined threshold value in all of the masking candidate areas in step S123. If there is no facial expression change, the process returns to step S121; otherwise, the process proceeds to step S125.
ステップS125では、低変化遮蔽部224を用いて、表情変化の少ない領域を遮蔽することで除外した顔画像を生成する。即ち、制御手段は、所定の通知により、ユーザに表情変化を指示した後に、ステップS123で入力顔画像における表情変化を計測し、ステップS124、ステップS125により表情変化の少ない領域を除く顔画像を生成する。尚、表情変化の少ない領域を除く際に、本実施例のように、表情変化の少ない領域を遮蔽しても良いし、顔認識の領域から除外するだけでも良い。
In step S125, the low
以上によって、顔が混在していると判定されるときは、ユーザに対して表情変化を指示して、表情変化が生じた素顔領域を計測することで素顔領域をより精度良く区別する。それによって精度の高い顔認証を行うことができるので、マスク等を外すことなく顔認証可能になる。 As described above, when it is determined that faces are mixed, the user is instructed to change the facial expression, and the bare face area in which the facial expression has changed is measured, thereby distinguishing the bare face area with higher accuracy. As a result, highly accurate face authentication can be performed, so face authentication can be performed without removing a mask or the like.
実施例1等では、なりすまし等の不審者がプリントマスクを装着してきた場合に、顔認証を行わないようにできたが、不審者を記録できなかった。
実施例3では、顔が混在していると判定されてから、顔認証を成功させることなくユーザが顔認証を中止した場合に、当該ユーザを不審者と判断し、不審者を検索できる顔画像を取得して不審者の映像を記録し、更に他の顔認識装置と不審者情報を共有できるようにする。
In Example 1 and the like, when a suspicious person such as an impersonator wears a printed mask, face recognition can be prevented, but the suspicious person cannot be recorded.
In the third embodiment, when it is determined that the face is mixed, and the user cancels the face authentication without succeeding in the face authentication, the user is determined to be a suspicious person, and a face image that can be searched for the suspicious person. to record the image of the suspicious person, and further share the suspicious person information with other face recognition devices.
図13は、実施例3の顔認証装置の機能ブロック図である。図10との違いは、図13においては、不審者記録部230が追加された点であり、図10と同じ符号の機能ブロックについての説明は省略ないし簡略化する。
尚、図2、図10と同様、図13に示される機能ブロックの一部は、コンピュータとしてのCPU101に、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いても良い。
FIG. 13 is a functional block diagram of a face authentication device according to the third embodiment; The difference from FIG. 10 is that a suspicious
As in FIGS. 2 and 10, some of the functional blocks shown in FIG. 13 are implemented by causing the
又、図13に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。又、例えば図13の機能ブロックの一部は外部のサーバー等に配置しても良い。
不審者記録部230は顔認証を要求したユーザが不審者であるとき、不審者の顔画像や映像を記録するためのものであり、231~234に示す機能ブロックを有する。
不審者判定部231は、ステップS402の顔混在判定で顔が混在すると判定された人物が不審者であるか否かを判定する。或いは、ステップS404の顔認証で顔認証に失敗したと判定された人物が不審者であるか否かを判定する。ここで、不審者判定部231は、人物が不審者であるか否かを判定する不審者判定手段として機能している。
Also, each functional block shown in FIG. 13 may not be built in the same housing, and may be configured by separate devices connected to each other via signal paths. Also, for example, some of the functional blocks in FIG. 13 may be arranged in an external server or the like.
A suspicious
The suspicious
具体的には、顔認証を中止(中断)した際に、顔認証失敗が所定回数以上あった場合に、不審者であると判断する。顔認証の中止(中断)は、撮影画像から顔画像が連続して得られないときに自動的に顔認証の中止(中断)と判断する。或いは、顔認証が失敗した後にユーザが電源ボタン116を押して電源をオフにした場合に顔認証の中止(中断)と判断しても良い。
Specifically, when face authentication is stopped (interrupted), if face authentication fails for a predetermined number of times or more, it is determined that the person is a suspicious person. Abort (interrupt) of face authentication is automatically determined to be aborted (interrupted) when face images are not continuously obtained from captured images. Alternatively, when the user presses the
尚、顔認証の中止(中断)を検出する方法はこれらに限定されない。顔認証失敗の回数は、図4に示す顔認証処理フローにおいて顔混在と判定された場合(ステップS403でYes)や、顔認証(ステップS404)で認証失敗と判断された場合の回数を合計してカウントする。或いは一方だけをカウントしても良い。尚、不審者判定の方法はこれらに限定されない。 It should be noted that the method for detecting cancellation (interruption) of face authentication is not limited to these. The number of face authentication failures is the sum of the number of times when it is determined that the face is mixed in the face authentication processing flow shown in FIG. to count. Alternatively, only one may be counted. Note that the suspicious person determination method is not limited to these.
不審者顔保持部232は、不審者と判断された人物の顔画像を記憶保持する。例えば顔混在判定で顔混在と判断されて顔認証を中断した場合は、顔混在判定で照合不一致となった遮蔽顔画像を保持する。或いは、顔混在判定は通過し顔認証にて認証を失敗した場合は、失敗した顔認証において用いた顔画像を記憶保持する。
The suspicious person face holding
更に、不審者顔保持部232に記憶保存された不審者情報は他の顔認識装置からアクセスできるようにする、或いは、所定の共有サーバーにアップロードすることで共有できるようにする。或いは不審者顔保持部232を、所定の共有サーバーに設けられていても良い。尚、同様に、登録画像保持部212も所定の共有サーバーに設けられていても良い。
ここで、不審者顔保持部232は、不審者判定手段により、認証対象の人物が不審者であると判定された場合に、その人物の遮蔽顔画像を登録する不審者顔保持手段として機能している。
Further, the suspicious person information stored in the suspicious person face holding
Here, the suspicious person face retaining
不審者映像録画部233(不審者映像録画手段)は、不審者顔保持部232に記憶保持されている不審者が出現する映像を記録する。具体的には、撮像部201から得られる映像を録画しておき、後述する不審者記録処理(図15のフローチャート)により、不審者が登場する区間を特定して、その部分の映像を記録として長期間保存する。不審者が登場しない区間の映像は所定の時間が経過すると削除し、不審者が映っている映像のみ長期間保存する。或いは、不審者が登場する前後の所定期間の映像も一緒に記録として長期間保持するようにしても良い。
The suspicious person image recording unit 233 (suspicious person image recording means) records the image in which the suspicious person appears and is stored in the suspicious person face holding
又、不審者が登場する区間を後で検索しやすくするために、不審者が登場する区間に対して不審者の映像が記録されていることを示す所定の付加情報等を映像と共に記録保持することが望ましい。付加情報としては、例えば不審者であることを示す情報や、日時、不審者のID等の組み合わせなどを含む。ここで、不審者映像録画部233は、不審者判定手段により認証対象の人物が不審者であると判定された場合に、その人物の遮蔽顔画像を登録する不審者顔保持手段として機能している。尚、不審者映像の録画方法はこれらに限定されない。
In addition, in order to facilitate later retrieval of the section in which the suspicious person appears, predetermined additional information indicating that the video of the suspicious person is recorded in the section in which the suspicious person appears is recorded and retained together with the video. is desirable. The additional information includes, for example, information indicating that the person is suspicious, a combination of date and time, ID of the suspicious person, and the like. Here, the suspicious person
不審者表示制御部234は、不審者顔保持部232で登録保持された不審者の顔画像(例えば遮蔽顔画像)や、不審者映像録画部233で登録保持された不審者が映っている映像や上記の付加情報等をモニタディスプレイ111等の表示手段に表示させる。即ち、不審者表示制御部234は、不審者顔保持手段に登録された遮蔽顔画像又は不審者映像録画部で保存された映像等を表示手段に表示させるための不審者表示制御手段として機能している。
具体的には、図1(B)のスマートフォンの例であれば、ロック解除後に自動で或いは手動で不審者表示用のアプリケーションを起動してモニタディスプレイ111に表示させる。
The suspicious person
Specifically, in the case of the example of the smartphone in FIG. 1B, after unlocking, the suspicious person display application is automatically or manually activated and displayed on the
図1(B)のゲート認証の例であれば、ネットワーク回線113を介して別のコンピュータ装置から顔認証装置にアクセスがされた場合に、別のコンピュータ装置のモニタディスプレイに表示可能となるように信号を送信する。又、不審者顔保持部232にて、マスクにより遮蔽する前の素顔の顔画像も保持するようにしておき、不審者の顔画像を表示するときは、マスクにより遮蔽する前の素顔の画像も表示できるようにしても良い。尚、不審者表示の方法はこれらに限定されない。
In the example of gate authentication in FIG. 1B, when another computer device accesses the face authentication device via the
図14は実施例3の顔画像の取得処理を示すフローチャートである。
ステップS501~ステップS506は図5と同じ処理なので説明を省略する。
S141では、不審者判定部231を用いて、顔認証の失敗が所定回数以上であるか否かを判定する。具体的には、例えば図4の顔認証処理フローにおいて顔混在と判定された場合(ステップS403でYes)や、顔認証(ステップS404)で認証失敗と判断された場合の合計をカウントする。
FIG. 14 is a flow chart showing face image acquisition processing according to the third embodiment.
Since steps S501 to S506 are the same as those in FIG. 5, the description thereof is omitted.
In S141, the suspicious
この回数が予め定めた閾値以上であればステップS142に進む。それ以外のときは、図14の処理フローを終了する。
ステップS142では、不審者記録処理を行う。即ち、不審者判定手段は、入力顔画像の認証が所定回数以上失敗した場合に、その人物が不審者であるか否かを判定する。
If the number of times is equal to or greater than the predetermined threshold value, the process proceeds to step S142. Otherwise, the processing flow of FIG. 14 ends.
In step S142, a suspicious person recording process is performed. That is, the suspicious person determining means determines whether or not the person is a suspicious person when authentication of the input face image fails a predetermined number of times or more.
図15は図14のステップS142の不審者記録処理のフローチャートである。
ステップS151では、直前に、顔混在判定において顔混在により失敗と判定されたか否かを判定する。顔混在により失敗と判定された場合は、ステップS152へ進む。それ以外の場合は、ステップS153へ進む。
FIG. 15 is a flowchart of the suspicious person recording process in step S142 of FIG.
In step S151, it is determined whether or not the mixed face determination was determined to be unsuccessful due to mixed faces immediately before. If it is determined to be a failure due to mixed faces, the process proceeds to step S152. Otherwise, the process proceeds to step S153.
ステップS152では、顔混在判定で照合不一致になった遮蔽顔画像(一部が遮蔽画像により遮蔽された顔画像)を取得する。具体的には、例えば図8(B)のケースでは806に示す遮蔽顔画像が取得される。
ステップS153では、顔認証が行われた被写体の顔画像を取得する。具体的には、ステップS404において顔認証が行われた被写体の顔画像が取得される。但し、ステップS153の前提として、図14のステップS141で認証失敗が所定回数以上と判断されているため、ステップS153においては、認証が失敗したときの被写体の顔画像を得ることになる。
In step S152, a masked face image (a face image partly masked by a masked image) for which matching is not matched in face mixture determination is acquired. Specifically, for example, in the case of FIG. 8B, a masked face image indicated by 806 is acquired.
In step S153, the face image of the subject whose face has been authenticated is obtained. Specifically, the face image of the subject whose face has been authenticated in step S404 is acquired. However, as a premise of step S153, it is determined in step S141 of FIG. 14 that the number of authentication failures is equal to or greater than the predetermined number of times.
ステップS153において取得される顔画像は、実施例1と実施例3を組み合わせた場合には、顔混在判定では顔混在はしていないものの、認証に失敗しているため、未登録の素顔の顔画像が取得されることになる。一方で、前記実施例2と組み合わせた場合には、ステップS153では素顔が取得される場合もあるが、図12の素顔領域の抽出処理のフローにより、遮蔽顔画像が得られることもある。 When the first and third embodiments are combined, the face image acquired in step S153 is an unregistered real face because authentication has failed, although faces are not mixed in face mixture determination. An image will be acquired. On the other hand, when combined with the second embodiment, a bare face may be obtained in step S153, but a masked face image may be obtained by the flow of the extraction processing of the bare face region in FIG.
ステップS154では、ステップS152で得た遮蔽顔画像又はステップS153で得た素顔の顔画像を不審者顔保持部232に記憶保持することで登録する。即ち、ステップS154において、不審者顔保持部232は、不審者判定手段により、認証対象の人物が不審者であると判定された場合に、その人物の遮蔽顔画像を登録する。
ステップS155では、ステップS154で登録した不審者の顔画像に基づいて、不審者映像録画部233が、映像の中から不審者の映る映像を保存する処理を行う。
In step S154, the masked face image obtained in step S152 or the bare face image obtained in step S153 is stored in the suspicious person face holding
In step S155, based on the face image of the suspicious person registered in step S154, the suspicious person
尚、実施例3等において、ロック解除処理のステップS301の前に、顔認証を要求したユーザが、不審者顔保持部232に存在する人物であるか否かを判定して、不審者顔保持部232に存在する場合はロック解除処理を中断するようにしても良い。或いは、その場合に、当該不審者の映像を録画するようにしても良い。これによって、不審者が再び現れたときに、不審者に対する防衛措置(例えば警備会社や警察への通報等)をとれる。
In the third embodiment and the like, before step S301 of the unlocking process, it is determined whether or not the user who requested face authentication is a person existing in the suspicious person face holding
又、ゲート認証などの場合は、ドア付近のカメラ117以外にも監視カメラが設置されていることがある。そこで他の監視カメラにおいて不審者顔保持部232に存在する人物が検出された場合に、当該不審者の映像を録画するようにしても良い。これによって、広範囲にわたって不審者を追跡監視できるようになる。
Also, in the case of gate authentication, surveillance cameras may be installed in addition to the
尚、不審者の映像を表示する際に、プリントマスク等の絵柄を例えば黒で塗りつぶした顔画像を不審者表示制御部234によりユーザに対して表示させれば、絵柄に惑わされることなく、不審者の特徴を分かりやすく表示させることができる。
以上のように、実施例3によれば、プリントマスク等により顔の一部を遮蔽した不審者の遮蔽顔画像や素顔等を不審者顔画像として取得し登録できる。そのため、プリントマスク等の絵柄に影響を受けずに不審者の映像を検索・保存できる。更に他の顔認識装置等と不審者に関する情報を共有することで、不審者の認識精度、認識効率等を高めることができる。
When displaying the video of the suspicious person, if the suspicious person
As described above, according to the third embodiment, it is possible to acquire and register a masked face image of a suspicious person whose face is partly masked by a print mask or the like, a real face, or the like as a suspicious person face image. Therefore, the image of the suspicious person can be retrieved and saved without being affected by the pattern of the print mask or the like. Furthermore, by sharing the information about the suspicious person with other face recognition devices, etc., it is possible to improve the recognition accuracy and efficiency of the suspicious person.
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、又、1つの機器からなる装置に適用しても良い。
The present invention has been described in detail above based on its preferred embodiments, but the present invention is not limited to the above embodiments, and various modifications are possible based on the gist of the present invention. They are not excluded from the scope of the invention.
The present invention can be embodied as, for example, a system, device, method, program, storage medium, or the like. Specifically, it may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device.
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して顔認証装置等に供給するようにしてもよい。そしてその顔認証装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 It should be noted that a computer program that implements the functions of the above-described embodiments for part or all of the control in this embodiment may be supplied to a face authentication device or the like via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the face authentication device or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.
200撮影処理部
201撮像部
202顔検出部
210顔認証部
211顔画像入力部
212登録顔画像保持部
213顔照合部
214登録顔検索部
215遮蔽顔生成部
216顔混在判定部
217顔認証制御部
220エラー顔処理部
221エラー通知部
200 photographing
Claims (13)
複数の登録顔画像を予め保持する登録顔画像保持手段と、
前記入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定手段と、
前記顔混在判定手段により、前記入力顔画像の中に異なる人物の顔領域が混在すると判断された場合に、所定の通知を行わせる制御手段と、を有することを特徴とする顔認証装置。 face image input means for acquiring an input face image;
registered face image holding means for pre-holding a plurality of registered face images;
face mixture determination means for determining whether face regions of different persons are mixed in the input face image;
and a control unit for performing a predetermined notification when the mixed face determination unit determines that the input face image includes face areas of different persons.
複数の登録顔画像を予め保持する登録顔画像保持工程と、
前記入力顔画像の中に異なる人物の顔領域が混在することを判定する顔混在判定工程と、
前記顔混在判定工程により、異なる人物の顔領域が混在しないと判断された場合に、前記入力顔画像に一致する前記登録顔画像を検索し、異なる人物の顔領域が混在すると判断された場合に、所定の通知を行う制御工程と、を有することを特徴とする顔認証方法。 a face image input step of acquiring an input face image;
a registered face image holding step of pre-holding a plurality of registered face images;
a mixed face determination step of determining whether face regions of different persons are mixed in the input face image;
When it is determined that the face regions of different persons are not mixed in the face mixture determination step, the registered face image matching the input face image is searched, and when it is determined that the face regions of different persons are mixed, , and a control step of performing a predetermined notification.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021131366A JP2023025914A (en) | 2021-08-11 | 2021-08-11 | Face authentication device, face authentication method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021131366A JP2023025914A (en) | 2021-08-11 | 2021-08-11 | Face authentication device, face authentication method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023025914A true JP2023025914A (en) | 2023-02-24 |
Family
ID=85252464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021131366A Pending JP2023025914A (en) | 2021-08-11 | 2021-08-11 | Face authentication device, face authentication method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023025914A (en) |
-
2021
- 2021-08-11 JP JP2021131366A patent/JP2023025914A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446981B (en) | Face living body detection and identity authentication method and device | |
TW201911130A (en) | Method and device for remake image recognition | |
WO2021232985A1 (en) | Facial recognition method and apparatus, computer device, and storage medium | |
CA3152812A1 (en) | Facial recognition method and apparatus | |
CN112364827B (en) | Face recognition method, device, computer equipment and storage medium | |
US10769415B1 (en) | Detection of identity changes during facial recognition enrollment process | |
CN105981046A (en) | Fingerprint authentication using stitch and cut | |
WO2007105768A1 (en) | Face-image registration device, face-image registration method, face-image registration program, and recording medium | |
JPWO2012002047A1 (en) | Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system | |
Smith-Creasey et al. | Continuous face authentication scheme for mobile devices with tracking and liveness detection | |
WO2016172923A1 (en) | Video detection method, video detection system, and computer program product | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
CN106471440A (en) | Eye tracking based on efficient forest sensing | |
US20190205589A1 (en) | Latent fingerprint ridge flow map improvement | |
WO2021217899A1 (en) | Method, apparatus, and device for encrypting display information, and storage medium | |
CN111881740A (en) | Face recognition method, face recognition device, electronic equipment and medium | |
KR20220042335A (en) | Automatic Sign Language Recognition Method and System | |
CN110363111B (en) | Face living body detection method, device and storage medium based on lens distortion principle | |
CN113837006A (en) | Face recognition method and device, storage medium and electronic equipment | |
US9286707B1 (en) | Removing transient objects to synthesize an unobstructed image | |
JP6577424B2 (en) | Action recognition device and action recognition method | |
JP2023025914A (en) | Face authentication device, face authentication method, and computer program | |
WO2020115910A1 (en) | Information processing system, information processing device, information processing method, and program | |
JP6988160B2 (en) | Information processing equipment and information processing programs | |
CN107341457A (en) | Method for detecting human face and device |