JP2018181157A - Person authentication device - Google Patents
Person authentication device Download PDFInfo
- Publication number
- JP2018181157A JP2018181157A JP2017083059A JP2017083059A JP2018181157A JP 2018181157 A JP2018181157 A JP 2018181157A JP 2017083059 A JP2017083059 A JP 2017083059A JP 2017083059 A JP2017083059 A JP 2017083059A JP 2018181157 A JP2018181157 A JP 2018181157A
- Authority
- JP
- Japan
- Prior art keywords
- face
- person
- authentication
- additional learning
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、追加学習機能を備えた人物認証装置に関する。 The present invention relates to a person authentication apparatus provided with an additional learning function.
本技術分野の背景技術として、特許文献1には、追加学習機能を有する人物検索装置が開示され、「検索対象の人物が異なる属性を保持していた(例えば異なる服装をしていた)ことがあった場合に、その属性を検索対象として追加する手段を備える」ことが記載されている。さらに、「検索の際に、検索対象として指定された人物が存在しえない時間や場所等の映像を特定する手段を有することにより、指定された人物が存在しえない時間や場所等の映像を検索対象から外す」ことが記載されている。
As background art of this technical field, the person search device which has an additional learning function is disclosed by
特許文献1に記載される技術は、検索対象として指定する属性を追加することで、人物検索の際に、属性の変化に追随した検索が可能になる。しかしながら、追加するデータの質については十分に配慮されておらず、追加学習の副作用を招く恐れがある。すなわち、追加学習を実施する場合、追加するデータ(顔画像)の質により、学習の偏りを起こす可能性がある。例えば、認証時の類似度が非常に高い顔画像を追加すると、顔認証モデルは追加した画像に偏ることがある。また顔パーツの一部が欠落している顔画像を大量に追加すると、認証判定の閾値が小さくなり、誤検知を起こす可能性がある。このように、追加学習によって認証精度を向上させ、運用時の耐性(ロバスト性)の向上を図るためには、追加学習するデータを好適に選定する必要がある。
In the technique described in
本発明の目的は、追加学習時のデータを好適に選定し、学習の偏りをなくして認証精度を向上させる人物認証装置を提供することである。 An object of the present invention is to provide a person authentication apparatus that suitably selects data at the time of additional learning, eliminates bias in learning, and improves authentication accuracy.
本発明に係る人物認証装置は、その一例を挙げるならば、登録済みの人物の顔認証モデルを用いて、追跡対象である人物を認証する顔認証部と、前記顔認証部にて認証済みの人物の顔画像から追加学習用顔画像を選定して保存する追加学習顔保存部と、前記選定した追加学習用顔画像を用いて、前記顔認証モデルの追加学習を実施する追加学習実施部と、を備え、前記追加学習顔保存部は、前記顔認証部にて認証済みの人物の認証信頼度が上限と下限の2つの閾値の間にある顔画像を前記追加学習用顔画像として選定することを特徴とする。 The person authentication apparatus according to the present invention is, for example, a face authentication unit for authenticating a person who is a tracking target using a registered person's face authentication model, and the face authentication unit. An additional learning face storage unit that selects and stores a face image for additional learning from a face image of a person; and an additional learning performing part that performs additional learning of the face recognition model using the selected additional learning face image And the additional learning face storage unit selects a face image having an authentication reliability of a person who has been authenticated by the face authentication unit between two thresholds of upper limit and lower limit as the additional learning face image. It is characterized by
あるいは前記追加学習顔保存部は、前記顔認証モデルとして追加済の顔画像とどれだけ異なるかを示す差異度が所定の閾値より大きい顔画像を前記追加学習用顔画像として選定することを特徴とする。 Alternatively, the additional learning face storage unit is characterized by selecting, as the additional learning face image, a face image whose degree of difference indicating how different it is from the face image added as the face authentication model is larger than a predetermined threshold. Do.
本発明によれば、人物認証装置において、追加学習による副作用を防ぎながら運用時の耐性を向上させる効果がある。 According to the present invention, the person authentication apparatus has an effect of improving the tolerance at the time of operation while preventing the side effect due to the additional learning.
以下、本発明に係る人物認証装置の実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of a person authentication apparatus according to the present invention will be described with reference to the drawings.
図1は、本発明の人物認証装置を含む人物認証システムの全体の構成例を示す図である。人物認証システム1は、人物7を含む映像を取得する監視カメラなどの映像入力装置2と、LAN(Local Area Network)、WAN(Wide Area Network)、VPN(Virtual Private Network)等を含むネットワーク6と、人物を認証する人物認証装置5と、映像を格納する映像録画装置3と、人物認証装置5を管理する人物認証管理装置4と、を備えて構成される。人物認証装置5は、ネットワーク6を介して映像入力装置2から映像を受信し、写っている人物7の顔画像を登録済み人物の顔画像と比較し、人物7を特定する。受信した映像は映像録画装置3に格納する。人物認証管理装置4は、人物認証装置5の設定や人物認証装置5の認証結果の表示を行う。次に、人物認証装置5の内部構成を説明する。
FIG. 1 is a diagram showing an example of the overall configuration of a person authentication system including a person authentication device according to the present invention. The
図2は、人物認証装置5のハードウェア構成を示す図である。人物認証装置5は、メモリ10、外部記憶装置11、CPU(Central Processing Unit)18、出力装置19、通信装置20と、これらをつなぐバス17を含んで構成される。
FIG. 2 is a diagram showing a hardware configuration of the
外部記憶装置11は、デジタル情報を記憶可能ないわゆるハードディスク(Hard Disk Drive)やSSD(Solid State Drive)、あるいはフラッシュメモリなどの不揮発性記憶装置である。外部記憶装置11には、顔認証プログラム12、顔認証モデルDB(データベース)13、初期学習用顔DB14、追加学習用顔DB15、追加学習設定DB16などのデータを格納する。
The external storage device 11 is a non-volatile storage device such as a so-called hard disk drive (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory capable of storing digital information. The external storage device 11 stores data such as a
顔認証プログラム12は、以下に述べる顔認証処理を実行するためのプログラムである。顔認証モデルDB13は、各人物を他の人物と識別するためのパラメータで構成される。例えば、SVM(Support Vector Machine)識別器を用いて顔認証を実施する場合、本人と他人を区別するサポートベクター(Support Vector)を格納している。初期学習用顔DB14は、顔認証モデルDB13を構築する時に利用する顔画像を格納する。追加学習用顔DB15は、顔認証モデルの追加学習のために運用中に蓄積した顔画像を格納する。追加学習設定DB16は、運用時に、追加学習用顔DB15に蓄積すべき顔画像の選定条件を定めた設定パラメータを格納している。
The
CPU18は、各種演算を実行するユニットであり、外部記憶装置11からメモリ10にロードした所定のプログラムを実行することにより、各種処理を実行する。すなわち、外部記憶装置11内の顔認証プログラム12、顔認証モデルDB13、初期学習用顔DB14、追加学習用顔DB15、追加学習設定DB16は、CPU18によりメモリ10に展開される。メモリ10は、CPU18により実行されるプログラムや、プログラムの実行に必要なデータを格納する。
The
出力装置19は、グラフィックボード・ビデオカードなどの画面生成装置であり、映像入力装置2からの映像や人物認証装置5の認証結果を表示可能な画面に変換する。通信装置20は、ネットワーク6を介して映像入力装置2からの映像を受信し、人物認証管理装置4との間で認証結果、追加学習結果や制御指令を送受信する。
The output device 19 is a screen generation device such as a graphic board or a video card, and converts the video from the
図3は、人物認証装置5の機能システム構成を示す図である。人物認証装置5は、映像入力部21、人追跡部22、顔抽出部23、顔特徴量算出部24、顔認証部25、追加学習顔保存部26、追加学習実施部27、外部連携部28、入力受付部29、出力部30、および外部記憶装置11からロードしたデータ保存する一時データ保存部31とデータ保存部32からなる。各部の機能を説明する。
FIG. 3 is a diagram showing a functional system configuration of the
映像入力部21は、ネットワーク6を介して受信した符号化された映像データの復号化を行い、フレーム単位の画像に変換する。
人追跡部22は、映像入力部21に入力した映像に対して、ブロックマッチング法や勾配法などによりオプティカルフロー(物体の動きベクトル)を計算し、映像の中に人物領域を算出し、人物ごとに、最新の存在場所を算出しながら追跡を行う。
The
The
顔抽出部23は、人追跡部22が追跡中の人物の領域に対して、例えば、顔のパーツの相対位置や大きさ、目や鼻の形を特徴として、顔の領域を抽出する。
顔特徴量算出部24は、本人の顔を他人の顔と区別するための属性、例えば、目、鼻、口などの各パーツのサイズや相対位置などのように、人物ごとに異なる属性を顔特徴量として算出する。
The
The face feature
顔認証部25は、当該顔の顔特徴量を対象に、顔認証モデルDB13を用いて登録済み人物の顔特徴量との類似度を確率値として算出し、当該顔が属する人物を特定する。
The
追加学習顔保存部26は、人物認証装置5の動作中に、認証済みの人物に対してその一部の顔画像を追加学習用画像として選定し、追加学習用顔DB15に保存する。
追加学習実施部27は、初期学習用顔DB14と追加学習用顔DB15に蓄積された顔データを用いて、顔認証モデルの追加学習を実施する。顔認証モデルの追加学習の結果は顔認証モデルDB13に格納される。
During the operation of the
The additional
外部連携部28は、顔認証部25の認証結果を外部システム、例えば入退管理システムに送信する。また、外部システムからのトリガーにより顔認証処理を実施する。
入力受付部29は、キーボードやマウスなどのデバイスであり、ユーザの操作を認識して操作命令に変換する。
出力部30は、顔認証部25の認証結果や追加学習実施部27の学習結果などを、運用者が確認可能な形式に変換して、出力装置19にて表示する。
The
The
The
一時データ保存部31は、追跡結果保存部33、顔画像保存部34、認証結果保存部35からなる。追跡結果保存部33は、追跡対象ごとに人の場所、画面上の領域などの情報を格納する。顔画像保存部34は、追跡対象のフレームごとの顔画像を格納する。認証結果保存部35は、追跡対象のフレームごとの認証結果を格納する。
The temporary
データ保存部32は、顔認証モデル36、初期学習用顔画像37、追加学習用顔画像38、追加学習設定情報39からなる。顔認証モデル36は、顔認証モデルDB13をメモリ上に展開したものである。初期学習用顔画像37は、初期学習用顔DB14をメモリ上に展開したものである。追加学習用顔画像38は、追加学習用顔DB15をメモリ上に展開したものである。追加学習設定情報39は、追加学習設定DB16をメモリ上に展開したものである。
The
図4は、初期学習用顔画像37のデータ構造を示す図である。また図5は、追加学習用顔画像38のデータ構造を示す図である。いずれも、各人物を識別する人物IDに対応してその顔画像データが格納されている。初期学習用顔画像37と追加学習用顔画像38の画像データを用いて、人物IDごとの顔認証モデル36が構築される。
FIG. 4 is a view showing the data structure of the initial
以下、人物認証装置5における人物認証処理の動作を、顔認証処理、追加学習画像蓄積処理、追加学習処理に分けて説明する。
Hereinafter, the operation of the person authentication process in the
図6は、顔認証及び追加学習画像蓄積のシーケンスを示す図である。
映像入力装置2から映像が入力すると、映像入力部21は映像の復号化と前処理を行う(ステップS1)。前処理の内容は、例えば、ホワイトバランス調整や明るさ調整などである。フレームごとの画像は人追跡部22に送られる。人追跡部22は、画像中の人物(追跡対象)の追跡を行い、追跡結果を追跡結果保存部33に格納する(ステップS2)。ステップS2の詳細は図8〜10にて後述する。
FIG. 6 is a diagram showing a sequence of face recognition and additional learning image storage.
When a video is input from the
人物の追跡結果は顔抽出部23に送られ、認証処理が未実施の人物(追跡対象)が存在する場合、以下を行う。顔抽出部23は、追跡中の人物ごとに顔領域の抽出を行い、顔画像を顔画像保存部34に格納する(ステップS3)。顔領域抽出方法には、Haar特徴量に基づくカスケード識別器を用いた顔検出方法などがある。ステップS3の詳細は図11にて後述する。
The tracking result of the person is sent to the
抽出した顔画像は顔特徴量算出部24に送られる。顔特徴量算出部24は、顔画像から顔特徴量を算出する(ステップS4)。顔認証部25は、算出された顔特徴量から顔認証処理を行う。すなわち、顔認証モデル36を用いて顔特徴量が属する登録済み人物のIDを識別し、認証結果を認証結果保存部35に格納する(ステップS5)。ステップS5の詳細は図12にて後述する。
The extracted face image is sent to the face feature
顔認証処理(ステップS5)が成功した場合、識別した人物IDは外部連携部28を介し外部システムへ通知される(ステップS6)。これにより、例えば入退管理システムにおいて自動的にドアを開放する動作が行われる。 If the face authentication process (step S5) is successful, the identified person ID is notified to the external system via the external cooperation unit 28 (step S6). Thus, for example, an operation of automatically opening the door in the entry / exit management system is performed.
当該フレームの顔認証処理を完了後、追加学習顔保存部26は、追加学習のために追加学習用顔画像の選定処理を行う(ステップS7)。ステップS7の詳細は図13〜15にて後述する。追加学習用顔画像が存在する場合、追加すべき顔画像38を追加学習用顔DB15に格納する(ステップS8)。
After completing the face authentication process of the frame, the additional learning
図7は、追加学習実施のシーケンスを示す図である。
入力受付部29は運用者から再学習指示を受けると、追加学習実施部27に追加学習要求を送る。追加学習実施部27は、初期学習用顔DB14と追加学習用顔DB15から顔画像を読み出す(ステップS9)。顔特徴量算出部24は、読み出された顔画像に対して顔特徴量の算出を行い(ステップS10)、追加学習実施部27へ返す。追加学習実施部27は、SVM識別器を学習することで複数の個体を識別可能とする顔認証モデル36を追加学習する(ステップS11)。
FIG. 7 is a diagram showing a sequence of the additional learning implementation.
When receiving the relearning instruction from the operator, the
追加学習結果は出力部30に送られ、学習結果の画面を生成して、運用者に提示する(ステップS12)。運用者は追加学習結果を受入れる場合、追加学習を反映するボタンを押すことで顔認証モデル36を更新する(ステップS13)。ステップS12、S13の詳細は図16にて後述する。
The additional learning result is sent to the
以下、図6と図7における主要なステップについて詳細に説明する。
図8は、人追跡部22による人追跡の処理フロー(ステップS2)を示す図である。
入力画像に対して、画像の中にエッジ部などの追跡しやすい特徴点を抽出する(ステップS101)。抽出した特徴点を用いて、前のフレームの特徴点とのマッチングをとることで各特徴点の動きの軌道を算出する(ステップS102)。追跡中の人物の情報を用いて、特徴点の軌道情報を更新する(ステップS103)。なお、初期状態では追跡中の人物は存在しないため、このステップS103では何も行わない。全ての特徴点の情報及び追跡中の人物の情報を用いて、人領域を更新する(ステップS104)。人領域の情報を用いて、追跡中の人物の追跡結果を更新する(ステップS105)。
Hereinafter, the main steps in FIGS. 6 and 7 will be described in detail.
FIG. 8 is a diagram illustrating a process flow (step S2) of the human tracking by the
For the input image, feature points that are easy to track such as edge portions are extracted from the image (step S101). Using the extracted feature points, the motion trajectory of each feature point is calculated by matching the feature points of the previous frame (step S102). Trajectory information on feature points is updated using information on the person being tracked (step S103). In the initial state, since there is no person being tracked, nothing is performed in this step S103. The human region is updated using the information of all feature points and the information of the person being tracked (step S104). The tracking result of the person being tracked is updated using the information on the person area (step S105).
現在、未追跡の人領域があるか否かを判定する(ステップS106)。未追跡の人領域が存在する場合、追跡対象を追跡結果に追加する(ステップS107)。ステップS107が完了後、または未追跡の人領域が存在しない場合、人領域以外の特徴点を削除する(ステップS108)。追跡結果を顔抽出部23に出力するとともに、追跡結果保存部33に保存する(ステップS109)。
It is determined whether there is an untracked person area at present (step S106). If there is an untracked human region, the tracking target is added to the tracking result (step S107). After completion of step S107, or when there is no untracked human region, feature points other than the human region are deleted (step S108). The tracking result is output to the
図9は、追跡結果保存部33のデータ構造を示す図である。追跡結果保存部33は、フレームID、追跡対象ID、および追跡対象領域からなる。フレームIDは、画像のフレーム番号である。追跡対象IDは、各フレームIDの画像に存在する追跡対象の識別番号である。追跡対象が複数のフレーム画像に渡って存在する場合、1つの追跡対象IDが複数のフレームIDに含まれることになる。追跡対象領域は、当該追跡対象が当該フレーム内で存在する領域(位置座標)を示す。
FIG. 9 shows the data structure of the tracking
図10は、図9に示した追跡結果をマップ上に表した図である。マップ40は映像入力装置2の撮像範囲に対応する。マップ40内には追跡対象は2つあり、それぞれの追跡対象IDは「1」と「2」である。追跡対象ID=「1」はフレーム間で移動しており、41aは追跡対象の軌跡、41bは追跡対象の現在位置を示す。
FIG. 10 is a diagram showing the tracking result shown in FIG. 9 on a map. The
図11は、顔抽出部23による顔領域抽出処理(ステップS3)の結果、顔画像保存部34に保存される顔画像のデータ構造を示す図である。顔画像保存部34は、フレームID、追跡対象ID、および顔画像データからなる。フレームIDと追跡対象IDは、顔画像が抽出される人物の追跡結果保存部33のデータに対応している。また、顔画像データは顔画像のバイナリデータとして保存される。
FIG. 11 is a diagram showing the data structure of the face image stored in the face
図12は、顔認証部25による顔認証処理(ステップS5)の結果、認証結果保存部35に保存される認証結果のデータ構造を示す図である。認証結果保存部35は、フレームID、追跡対象ID、認証結果詳細、および人物IDからなる。フレームIDと追跡対象IDは、顔画像保存部34のデータと関連付ける。認証結果詳細は、当該顔が属する個体(人物ID)及びその確率(類似度または信頼度とも呼ぶ)を示す。認証結果詳細の中に、ある個体に属する確率が所定の値(認証成功閾値)を超える場合、認証成功とみなし、その個体の人物IDに更新する。認証が失敗した場合は、人物IDを「−1」で表す。
FIG. 12 is a diagram showing the data structure of the authentication result stored in the authentication
追跡中の人物は異なるフレームに渡って同一の追跡対象IDで管理されているので、あるフレームで認証が成功すれば他のフレームで認証が失敗したとしても、追跡対象IDが一致するすべてのフレームにおける追跡対象の人物IDを特定することができる。例えば、追跡対象ID=「2」についてはフレームID=12の段階では認証が失敗しているが、フレームID=15で認証が成功(人物ID=001)しているので、フレームID=12に遡って追跡対象ID=「2」の人物IDを特定することができる。 Since the person being tracked is managed by the same tracking target ID across different frames, if authentication succeeds in one frame, all frames that match the tracking target ID even if authentication fails in another frame It is possible to identify the person ID of the tracking target in. For example, with regard to the tracking target ID = “2”, the authentication fails at the frame ID = 12, but the authentication succeeds with the frame ID = 15 (person ID = 001), so It is possible to trace back and identify the person ID of the tracking target ID = "2".
次に、追加学習顔保存部26による追加学習顔画像選定処理(ステップS7)について詳細に説明する。
図13は、追加学習顔画像選定処理にて用いる追加学習設定情報39のデータ構造を示す図である。追加学習設定情報39は、顔画像選定の条件であるパラメータ名とパラメータ値からなる。パラメータとしては、本人信頼度上限T11、本人信頼度下限T12、顔完全度下限T2、追加済本人顔差異度下限T3、実施待ちフレーム数Fなどを含んでいる。
Next, the additional learning face image selection processing (step S7) by the additional learning
FIG. 13 is a diagram showing the data structure of the additional
本人信頼度上限T11は、追加学習の顔データとして選定するための登録済み人物に属する信頼度(=類似度)の上限値である。ここに信頼度とは、顔認証処理の結果得られる登録済み人物に属する確率値で表す。信頼度の上限値は、1未満の値(例えば0.96)とすることで、追加する画像が登録済みの画像に偏ることを防止する効果がある。
本人信頼度下限T12は、追加学習の顔データとして選定するための登録済み人物に属する信頼度の下限値である。
Person confidence limit T 11 is the upper limit of confidence belonging to registered person for choosing as the additional learning face data (= similarity). Here, the reliability is represented by a probability value belonging to a registered person obtained as a result of the face authentication process. By setting the upper limit value of the reliability to a value less than 1 (for example, 0.96), there is an effect of preventing the image to be added from being biased to the registered image.
Person confidence limit T 12 is the lower limit of the confidence that belong to the registered person for choosing as the additional learning face data.
顔完全度下限T2は、追加学習の顔データとして選定するための顔画像完全度の下限値である。顔画像完全度とは、顔画像内に本来あるべき口、目、鼻などのパーツがどれだけ含まれているかを示す割合である。この値が高いほど、顔画像として有効である。この値が低い場合、一部の顔が隠れているか、もしくは、そもそも顔画像ではない可能性がある。下限値を設けることで、追加学習に伴う認証精度の低下を防止する効果がある。 Face completeness lower T 2 are, the lower limit value of the face image completeness for choosing as the additional learning face data. The face image perfection degree is a ratio indicating how many parts such as the mouth, eyes, and nose should be included in the face image. The higher the value, the more effective the face image. If this value is low, some faces may be hidden or may not be face images in the first place. By setting the lower limit value, there is an effect of preventing a decrease in authentication accuracy accompanying the additional learning.
追加済本人顔差異度下限T3は、追加する予定の顔画像が、追加済(登録済)の本人顔画像とどれだけ異なるか、差異度の下限値を示す。この下限値は0より大きい値(例えば0.05)とすることで、既に追加学習済みの画像と類似している顔画像の再追加を避けることができ、その結果、学習の偏りを防ぐ効果がある。 Already added the person face differential degrees lower limit T 3, the face image of the plan to add is, the person face image and how much different or already added (registered), show a lower limit value of the difference degree. By setting the lower limit value to a value larger than 0 (for example, 0.05), it is possible to avoid re-addition of a face image similar to an image already subjected to additional learning, and as a result, it is possible to prevent learning bias. There is.
実施待ちフレーム数Fは、追跡対象が視野から消えた後、追加学習用顔画像の選定を実施するまでの待ちフレーム数である。 The implementation waiting frame number F is the number of waiting frames until the selection of the additional learning face image is performed after the tracking target disappears from the visual field.
図14は、追加学習顔画像選定処理(ステップS7)のフローを示す図である。
追加学習顔保存部26は、顔認証結果保存部35と顔画像保存部34から、一件の認証結果と関連する顔画像データを読み込む(ステップS201)。すなわち、顔認証結果保存部35に保存される追跡対象ID、認証結果詳細、人物IDと、これに関連する顔画像保存部34の顔画像データを準備する。
FIG. 14 is a diagram showing a flow of additional learning face image selection processing (step S7).
The additional learning
当該追跡対象IDの「消えるフレーム数」が、追加学習設定情報39の実施待ちフレーム数Fと一致するか否かを判定する(ステップS202)。ここに「消えるフレーム数」とは、当該追跡対象IDがフレーム画像から消えて再度出現するまでのフレーム数のことである。消えるフレーム数が実施待ちフレーム数Fと一致する場合、選定処理を継続する。一致しない場合、この認証結果の処理を中断し、ステップS201に戻り、次の認証結果について処理する。 It is determined whether the “number of disappearing frames” of the tracking target ID matches the number F of pending frames in the additional learning setting information 39 (step S202). Here, the “number of disappearing frames” is the number of frames until the tracking target ID disappears from the frame image and appears again. If the number of disappearing frames matches the number of pending operation frames F, the selection process is continued. If they do not match, the processing of the authentication result is interrupted, and the process returns to step S201 to process the next authentication result.
当該追跡対象IDに対する認証結果をチェックし、当該追跡対象IDに対し認証成功したフレームが存在するか否か、すなわち、顔認証結果保存部35の人物IDが「−1」以外のフレームが存在するか否かを判定する(ステップS203)。認証成功したフレームが存在する場合、選定処理を継続する。認証成功したフレームが存在しない場合、この認証結果の処理を中断し、ステップS201に戻り次の認証結果について処理する。
The authentication result for the tracking target ID is checked, and whether or not there is a frame for which the authentication target has succeeded for the tracking target ID, that is, there is a frame for which the person ID of the face authentication
次に、当該顔画像について、顔画像完全度の算出(ステップS204)と、本人顔差異度の算出(ステップS205)を行う。顔画像完全度とは、顔画像内に本来備えるべき口、目、鼻などの顔のパーツをどれだけ含んでいるかを示す値である。本人顔差異度とは、当該顔画像が、追加済の本人顔画像とどれだけ異なるかを示す値である。なお、追加済の本人顔画像として利用するデータは、初期学習用顔画像37と追加学習用顔画像38の両方、もしくはその一方でもよい。算出した顔画像完全度と本人顔差異度を用いて、当該顔画像が追加学習用画像として有効であるか否かの判定処理を行う(ステップS206)。ステップS206の詳細は図15を用いて説明する。
Next, for the face image, calculation of the degree of perfection of the face (step S204) and calculation of the degree of human face difference (step S205) are performed. The face image perfection degree is a value indicating how much part of the face such as the mouth, the eyes, and the nose should be included in the face image. The personal face difference degree is a value indicating how much the face image is different from the added personal face image. The data used as the added personal face image may be both the initial
ステップS206の有効性の判定結果に応じて処理を分岐する(ステップS207)。有効と判定した場合は、当該顔画像を追加学習の対象として選定する(ステップS208)。有効でないと判定した場合は、この認証結果の処理を中断し、ステップS201に戻り次の認証結果について処理する。全ての認証結果の処理を完了したか否かを判定し(ステップS209)、完了していれば終了する。完了していなければ、ステップS201に戻り次の認証結果について処理する。 The process branches depending on the determination result of the validity of step S206 (step S207). If it is determined that the face image is valid, the face image is selected as an additional learning target (step S208). If it is determined that the authentication result is not valid, the processing of the authentication result is interrupted, and the process returns to step S201 to process the next authentication result. It is determined whether the processing of all the authentication results has been completed (step S209), and if completed, the processing is terminated. If it has not been completed, the process returns to step S201 to process the next authentication result.
図15は、図14における追加学習顔画像有効性判定フロー(ステップS206)の詳細を示す図である。ここの判定では、図13の追加学習設定情報39に設定されている本人信頼度上限T11、本人信頼度下限T12、顔完全度下限T2、追加済本人顔差異度下限T3を使用する。
FIG. 15 is a diagram showing details of the additional learning face image validity determination flow (step S206) in FIG. In this determination, the upper user confidence limit T 11 , the lower user confidence degree lower limit T 12 , the lower limit of perfection degree T 2 , and the added upper limit face difference lower limit T 3 set in the additional
まず、当該顔画像の本人信頼度(認証時の確率)を判定する(ステップ211)。本人信頼度が本人信頼度下限T12よりも大きく、かつ本人信頼度上限T11よりも小さい場合、選定処理を継続する。そうでない場合、無効とする(ステップS215)。次に、顔画像完全度を判定する(ステップS212)。顔画像完全度が顔完全度下限T2より大きい場合、選定処理を継続する。そうでない場合、無効とする(ステップS215)。さらに、本人顔差異度の判定を行う(ステップS213)。本人顔差異度が追加済本人顔差異度下限T3より大きい場合、当該顔画像の追加学習顔画像としての判定結果を有効とする(ステップS214)。そうでない場合、無効とする(ステップS215)。 First, the person's credibility (probability at the time of authentication) of the face image is determined (step 211). If person reliability is greater than himself reliability lower T 12, and smaller than himself reliability limit T 11, to continue the selection process. If not, it is invalidated (step S215). Next, face image perfection is determined (step S212). If the face image perfection face greater perfection lower T 2, to continue the selection process. If not, it is invalidated (step S215). Further, the determination of the personal-face difference degree is performed (step S213). If principal face difference degree is larger than the already added principal face differential degrees lower T 3, and enable the determination result as an additional learning face images of the face image (step S214). If not, it is invalidated (step S215).
以上の処理で、顔認証結果を用いて、追加学習の対象になる顔画像を適切に選定することが可能になる。その際の選定条件は、
(1)本人信頼度の閾値として下限T12だけでなく上限T11を設ける、
(2)顔画像完全度の閾値として下限T2を設ける、
(3)本人顔差異度の閾値として下限T3を設ける、
ようにしたので、追加学習時の偏りを防ぐとともに認証判定時の誤検知を防止する効果がある。
Through the above processing, it is possible to appropriately select a face image to be a target of additional learning using the face authentication result. The selection condition at that time is
(1) To set not only the lower limit T 12 but also the upper limit T 11 as the threshold of the person's credibility,
(2) To set a lower limit T 2 as a threshold of the perfectness of the face image,
(3) a lower limit T 3 as a threshold value of the principal face differential degrees,
Since this is done, it is possible to prevent bias during additional learning and to prevent false detection during authentication determination.
なお、上記の選定条件(1)〜(3)は全て満足する必要はなく、(1)または(3)のいずれかを満足すれば追加学習時の偏りを防ぐことができる。よって、図15の有効性判定フローは、使用環境に応じて適宜選定条件を組み直して運用すればよい。 The above selection conditions (1) to (3) do not have to be all satisfied, and if either of (1) or (3) is satisfied, it is possible to prevent bias during additional learning. Therefore, the validity determination flow of FIG. 15 may be used by reassembling the selection conditions appropriately according to the usage environment.
図16は、図7の追加学習における学習結果の確認画面(ステップS12,S13)を示す図である。確認画面50では、追加学習結果51として、初期学習用顔DB及び追加学習顔DBのテストデータを対象に認証テストを行い、追加学習前と追加学習後の認証失敗(本人拒否率と他人受入率)の確率を掲示する。本人拒否率とは、本人の顔画像を本人であると認証できなかった確率で、他人受入率とは、他人の顔画像を本人と誤って認証した確率である。追加学習により本人拒否率は低減している。なお、学習により他人受入率は増加しているが、元々0%に近い値なので問題になることはない。運用者は追加学習結果51を確認し、追加学習を反映するボタン52を押すことで追加学習を受け入れることができる。また、取り消しボタン53を押すことで、追加学習を止めることができる。
FIG. 16 is a diagram showing a confirmation screen (steps S12 and S13) of the learning result in the additional learning of FIG. In the
上記の説明では、運用者の指示により追加学習を実施するものとしたが、定期的にもしくは顔認証のたびに追加学習を実施することでもよい。 In the above description, the additional learning is performed according to the instruction of the operator. However, the additional learning may be performed periodically or every time of face authentication.
実施例1によれば、人物認証システムが運用時、顔認証の信頼度が低い顔画像を追加学習の対象に加えることで、顔の経年変化や照明の変化に対する耐性を向上することができる。また、信頼度が十分に高い顔画像や既に大量に学習した顔画像を追加学習の対象外にすることで、学習の偏りを防ぐ効果がある。また、顔完全性のチェックにより、顔画像完全度が低い顔画像を追加学習の対象外にすることで、認証精度の悪化を防ぐ効果がある。 According to the first embodiment, when the person authentication system is in operation, by adding a face image having a low degree of reliability of face authentication to the target of additional learning, it is possible to improve the resistance to the aging of the face and the change of illumination. In addition, by excluding a face image with a sufficiently high degree of reliability and a face image that has already been learned in large amounts as a target for additional learning, there is an effect of preventing bias in learning. Further, by excluding a face image with a low degree of perfectness of face image from the target of the additional learning by checking the face completeness, it is possible to prevent the deterioration of the authentication accuracy.
図17は、本発明の人物認証装置を含む人物認証システムの他の構成例を示す図である。人物認証システム1aでは、人物認証装置5と人物認証管理装置4の間をWAN(Wide Area Network)、VPN(Virtual Private Network)等を含むネットワーク6aを介して接続した構成としている。これにより、人物認証装置5から遠隔地にある人物認証管理装置4にて認証結果を表示し、人物認証装置5の設定を行うことができる。
FIG. 17 is a diagram showing another configuration example of the person authentication system including the person authentication device of the present invention. In the person authentication system 1a, the
一方、映像入力装置2と人物認証装置5は、実施例1と同様に、ネットワーク6を介して接続し、映像入力装置2から映像を受信し、現在写っている人物の顔を特定することができる。本実施例の構成によれば、遠隔地から人物認証装置をメンテナンスすることが可能になる。
On the other hand, as in the first embodiment, the
実施例3では、追加学習設定情報39における信頼度の上限と下限の好適な設定について述べる。
図18は、追加学習設定情報39と顔認証成功閾値の関係を示す図である。横軸は画像フレーム数、縦軸は各フレームにおける信頼度(認証結果の確率)を示し、ある追跡対象(人物)に対する信頼度は曲線60のように変化している。顔認証処理において、当該追跡対象に対し認証成功と判定するための信頼度の閾値(顔認証成功閾値)をT0とすると、信頼度が閾値T0を越えている期間P0が認証成功の期間となる。
In the third embodiment, preferable setting of the upper limit and the lower limit of the reliability in the additional
FIG. 18 is a view showing the relationship between the additional
これに対し追加学習に用いる顔画像の条件は、図13の追加学習設定情報39で示したように、認証時の本人信頼度に上限T11と下限T12を設けている。特に本実施例では、本人信頼度上限T11は顔認証成功閾値T0より大きく、かつ本人信頼度下限T12は顔認証成功閾値T0より小さく設定する。その結果、図15の有効性の判定処理では、追加学習の顔画像として有効とされる期間は、信頼度が上限T11と下限T12に挟まれたP1とP2の期間となる。これらの期間P1、P2には、認証成功した顔画像だけでなく、P3で示す認証に失敗した画像も含まれている。
In contrast conditions of a face image to be used for additional learning, as shown in additional
ただし、P3の領域の画像は、信頼度が僅かの差で認証失敗した画像であり、むしろ追加学習用としては有益なものである。例えば、初期学習時には正面の顔画像のみ存在する状態だったのに対し、運用時の追加学習により、顔の向きが変化した場合の顔画像を認証モデルに追加することで、認証の耐性を向上させる効果がある。 However, the image areas of P 3 is reliability is authentication failed images by the difference of only, but rather beneficial as for additional study. For example, only initial face images are present at the time of initial learning, but additional learning at the time of operation improves resistance to authentication by adding face images to the authentication model when the face orientation changes. It has the effect of
以上、本発明の実施例を説明したが、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 As mentioned above, although the Example of this invention was described, this invention is not limited to an above-described Example, A various modified example is included. The above-described embodiments are described in detail to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. In addition, with respect to a part of the configuration of each embodiment, it is possible to add, delete, and replace other configurations.
例えば、上記実施例においては、映像入力装置2の台数は複数台にあってもよい。また、人物認証装置5と人物認証管理装置4はそれぞれ複数台あって、複数の装置間で連携しながら複数の映像入力装置2に対応させてもよい。また、上記した映像入力装置2、人物認証装置5、映像録画装置3、人物認証管理装置4のうち少なくとも2つが同じ装置内に構成されていてもよい。
For example, in the above embodiment, the number of
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。 In addition, each configuration, function, processing unit, etc. described above may be realized by hardware, for example, by designing part or all of them with an integrated circuit. In addition, the technical elements of the above-described embodiment may be applied alone or may be divided and applied to a plurality of parts such as program parts and hardware parts.
1:人物認証システム、
2:映像入力装置、
4:人物認証管理装置、
5:人物認証装置、
21:映像入力部、
22:人追跡部、
23:顔抽出部、
24:顔特徴量算出部、
25:顔認証部、
26:追加学習顔保存部、
27:追加学習実施部、
36:顔認証モデル、
38:追加学習用顔画像、
39:追加学習設定情報。
1: Person authentication system,
2: Video input device,
4: Person authentication management device,
5: Person authentication device,
21: Video input unit,
22: Person tracking department,
23: face extraction unit,
24: face feature amount calculation unit,
25: Face recognition unit,
26: Additional learning face storage section,
27: Additional Learning Department,
36: Face recognition model,
38: Face image for additional learning,
39: Additional learning setting information.
Claims (4)
人物を含む映像を入力する映像入力部と、
前記入力した映像から人物の移動軌跡を追跡する人追跡部と、
前記追跡した人物を対象に顔画像を抽出する顔抽出部と、
前記抽出した顔画像から顔特徴量を算出する顔特徴量算出部と、
登録済みの人物の顔認証モデルを用いて、前記算出した顔特徴量から前記追跡した人物を認証する顔認証部と、
前記顔認証部にて認証済みの人物の顔画像から追加学習用顔画像を選定して保存する追加学習顔保存部と、
前記選定した追加学習用顔画像を用いて、前記顔認証モデルの追加学習を実施する追加学習実施部と、を備え、
前記追加学習顔保存部は、前記顔認証部にて認証済みの人物の認証信頼度が上限と下限の2つの閾値T11,T12の間にある顔画像を前記追加学習用顔画像として選定することを特徴とする人物認証装置。 In a person authentication apparatus for authenticating a person from a face image of a person,
An image input unit for inputting an image including a person;
A human tracking unit that tracks a movement trajectory of a person from the input video;
A face extraction unit that extracts a face image for the tracked person;
A face feature amount calculation unit that calculates a face feature amount from the extracted face image;
A face authentication unit for authenticating the tracked person from the calculated face feature amount using a registered face authentication model of the person;
An additional learning face storage unit that selects and stores a face image for additional learning from a face image of a person who has been authenticated by the face authentication unit;
And an additional learning unit configured to perform additional learning of the face recognition model using the selected additional learning face image.
The additional learning face storage unit selects, as the additional learning face image, a face image in which the authentication reliability of the person who has been authenticated by the face authentication unit is between two upper and lower thresholds T 11 and T 12. A person authentication apparatus characterized in that.
人物を含む映像を入力する映像入力部と、
前記入力した映像から人物の移動軌跡を追跡する人追跡部と、
前記追跡した人物を対象に顔画像を抽出する顔抽出部と、
前記抽出した顔画像から顔特徴量を算出する顔特徴量算出部と、
登録済みの人物の顔認証モデルを用いて、前記算出した顔特徴量から前記追跡した人物を認証する顔認証部と、
前記顔認証部にて認証済みの人物の顔画像から追加学習用顔画像を選定して保存する追加学習顔保存部と、
前記選定した追加学習用顔画像を用いて、前記顔認証モデルの追加学習を実施する追加学習実施部と、を備え、
前記追加学習顔保存部は、前記顔認証モデルとして追加済の顔画像とどれだけ異なるかを示す差異度が所定の閾値T3より大きい顔画像を前記追加学習用顔画像として選定することを特徴とする人物認証装置。 In a person authentication apparatus for authenticating a person from a face image of a person,
An image input unit for inputting an image including a person;
A human tracking unit that tracks a movement trajectory of a person from the input video;
A face extraction unit that extracts a face image for the tracked person;
A face feature amount calculation unit that calculates a face feature amount from the extracted face image;
A face authentication unit for authenticating the tracked person from the calculated face feature amount using a registered face authentication model of the person;
An additional learning face storage unit that selects and stores a face image for additional learning from a face image of a person who has been authenticated by the face authentication unit;
And an additional learning unit configured to perform additional learning of the face recognition model using the selected additional learning face image.
Said additional learning face storage unit, characterized in that the difference degree indicating how much different from the already added the face image as the face authentication model to select a predetermined threshold value T 3 is greater than the face image as the additional learning face image Person authentication device to be.
前記追加学習顔保存部は、さらに、顔画像内に本来備えるべき顔のパーツをどれだけ含んでいるかを示す顔画像完全度が所定の閾値T2より大きい顔画像を前記追加学習用顔画像として選定することを特徴とする人物認証装置。 In the person authentication apparatus according to claim 1 or 2,
The additional learning face storage unit further uses, as the additional learning face image, a face image having a face image perfection degree greater than a predetermined threshold T 2 indicating how many parts of the face to be originally provided in the face image. A person authentication apparatus characterized by selecting.
前記顔認証部が人物を認証する際に認証成功と判定するための認証信頼度の閾値を認証成功閾値T0としたとき、
前記追加学習顔保存部が前記追加学習用顔画像として選定する際に用いる前記認証信頼度の上限T11は前記認証成功閾値T0よりも大きく、前記認証信頼度の下限T12は前記認証成功閾値T0よりも小さいことを特徴とする人物認証装置。 In the person authentication apparatus according to claim 1,
When a threshold of authentication reliability for determining that the face authentication unit authenticates a person as authentication success is set as an authentication success threshold T 0 ,
Said additional learning face storage unit is the authentication reliability of the upper T 11 used in selecting as the additional learning face image is larger than the authentication success threshold T 0, the authentication confidence limit T 12 of the authentication success A person authentication apparatus characterized in that it is smaller than a threshold T 0 .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017083059A JP6941966B2 (en) | 2017-04-19 | 2017-04-19 | Person authentication device |
CN201810296063.4A CN108734092B (en) | 2017-04-19 | 2018-03-30 | Person authentication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017083059A JP6941966B2 (en) | 2017-04-19 | 2017-04-19 | Person authentication device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018181157A true JP2018181157A (en) | 2018-11-15 |
JP6941966B2 JP6941966B2 (en) | 2021-09-29 |
Family
ID=63941215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017083059A Active JP6941966B2 (en) | 2017-04-19 | 2017-04-19 | Person authentication device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6941966B2 (en) |
CN (1) | CN108734092B (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087165A (en) * | 2018-11-29 | 2020-06-04 | 富士通株式会社 | Learning data generation program, learning data generation device, and learning data generation method |
JP2021012446A (en) * | 2019-07-04 | 2021-02-04 | Kddi株式会社 | Learning device and program |
JP2021015362A (en) * | 2019-07-10 | 2021-02-12 | 富士通コネクテッドテクノロジーズ株式会社 | Interactive device, information processing method, and information processing program |
JPWO2021038788A1 (en) * | 2019-08-29 | 2021-03-04 | ||
WO2021125432A1 (en) * | 2019-12-18 | 2021-06-24 | 주식회사 노타 | Method and device for continuous face authentication |
KR20210078377A (en) * | 2019-12-18 | 2021-06-28 | 주식회사 노타 | Method and appauatus for face continuous authentication |
WO2023047624A1 (en) * | 2021-09-21 | 2023-03-30 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and information processing program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137818A (en) * | 1998-11-04 | 2000-05-16 | Ntt Data Corp | Pattern recognition system |
JP2005128628A (en) * | 2003-10-21 | 2005-05-19 | Toshiba Corp | Generation of template used for matching in pattern identification, and method, apparatus, and program for pattern identification using the template |
JP2008198193A (en) * | 2007-01-19 | 2008-08-28 | Konica Minolta Holdings Inc | Face authentication system, method, and program |
JP2009002150A (en) * | 2001-07-27 | 2009-01-08 | Toshiba Corp | Passage controller |
JP2011242873A (en) * | 2010-05-14 | 2011-12-01 | Honda Motor Co Ltd | Registration device, registration method and computer program |
US20160004935A1 (en) * | 2014-07-02 | 2016-01-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method which learn dictionary |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216884B (en) * | 2007-12-29 | 2012-04-18 | 北京中星微电子有限公司 | A method and system for face authentication |
JP2010146502A (en) * | 2008-12-22 | 2010-07-01 | Toshiba Corp | Authentication processor and authentication processing method |
JP5230793B2 (en) * | 2009-02-24 | 2013-07-10 | 三菱電機株式会社 | Person tracking device and person tracking program |
CN102004905B (en) * | 2010-11-18 | 2012-11-21 | 无锡中星微电子有限公司 | Human face authentication method and device |
JP6132490B2 (en) * | 2012-08-20 | 2017-05-24 | キヤノン株式会社 | Authentication apparatus, authentication method, and program |
JP2017033358A (en) * | 2015-08-03 | 2017-02-09 | 富士ゼロックス株式会社 | Authentication device |
-
2017
- 2017-04-19 JP JP2017083059A patent/JP6941966B2/en active Active
-
2018
- 2018-03-30 CN CN201810296063.4A patent/CN108734092B/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137818A (en) * | 1998-11-04 | 2000-05-16 | Ntt Data Corp | Pattern recognition system |
JP2009002150A (en) * | 2001-07-27 | 2009-01-08 | Toshiba Corp | Passage controller |
JP2005128628A (en) * | 2003-10-21 | 2005-05-19 | Toshiba Corp | Generation of template used for matching in pattern identification, and method, apparatus, and program for pattern identification using the template |
JP2008198193A (en) * | 2007-01-19 | 2008-08-28 | Konica Minolta Holdings Inc | Face authentication system, method, and program |
JP2011242873A (en) * | 2010-05-14 | 2011-12-01 | Honda Motor Co Ltd | Registration device, registration method and computer program |
US20160004935A1 (en) * | 2014-07-02 | 2016-01-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method which learn dictionary |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087165A (en) * | 2018-11-29 | 2020-06-04 | 富士通株式会社 | Learning data generation program, learning data generation device, and learning data generation method |
JP7220062B2 (en) | 2018-11-29 | 2023-02-09 | 富士通株式会社 | LEARNING DATA GENERATION PROGRAM, LEARNING DATA GENERATION DEVICE, AND LEARNING DATA GENERATION METHOD |
JP2021012446A (en) * | 2019-07-04 | 2021-02-04 | Kddi株式会社 | Learning device and program |
JP7074723B2 (en) | 2019-07-04 | 2022-05-24 | Kddi株式会社 | Learning equipment and programs |
JP2021015362A (en) * | 2019-07-10 | 2021-02-12 | 富士通コネクテッドテクノロジーズ株式会社 | Interactive device, information processing method, and information processing program |
JPWO2021038788A1 (en) * | 2019-08-29 | 2021-03-04 | ||
WO2021038788A1 (en) * | 2019-08-29 | 2021-03-04 | 日本電気株式会社 | Robustness evaluation device, robustness evaluation method and recording medium |
JP7255694B2 (en) | 2019-08-29 | 2023-04-11 | 日本電気株式会社 | Robustness evaluation device, robustness evaluation method and program |
WO2021125432A1 (en) * | 2019-12-18 | 2021-06-24 | 주식회사 노타 | Method and device for continuous face authentication |
KR20210078377A (en) * | 2019-12-18 | 2021-06-28 | 주식회사 노타 | Method and appauatus for face continuous authentication |
KR102301785B1 (en) * | 2019-12-18 | 2021-09-15 | 주식회사 노타 | Method and appauatus for face continuous authentication |
WO2023047624A1 (en) * | 2021-09-21 | 2023-03-30 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
CN108734092A (en) | 2018-11-02 |
JP6941966B2 (en) | 2021-09-29 |
CN108734092B (en) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6941966B2 (en) | Person authentication device | |
JP4156430B2 (en) | Face verification method and system using automatic database update method | |
JP4389956B2 (en) | Face recognition device, face recognition method, and computer program | |
JP4725377B2 (en) | Face image registration device, face image registration method, face image registration program, and recording medium | |
US20170262472A1 (en) | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces | |
US20070291998A1 (en) | Face authentication apparatus, face authentication method, and entrance and exit management apparatus | |
CA3152812A1 (en) | Facial recognition method and apparatus | |
US11651624B2 (en) | Iris authentication device, iris authentication method, and recording medium | |
JP5787686B2 (en) | Face recognition device and face recognition method | |
US20150205995A1 (en) | Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium | |
EP3528158A2 (en) | Method and apparatus for selective combined authentication | |
JP2006236260A (en) | Face authentication device, face authentication method, and entrance/exit management device | |
JP2018106282A (en) | Object detection device | |
JP5783759B2 (en) | Authentication device, authentication method, authentication program, and recording medium | |
CN112560683A (en) | Method and device for identifying copied image, computer equipment and storage medium | |
CN109272621A (en) | A kind of management system and method based on face recognition technology | |
JP5648452B2 (en) | Image processing program and image processing apparatus | |
Fegade et al. | Residential security system based on facial recognition | |
US20200104577A1 (en) | Information processing apparatus, authentication system, method of controlling same, and medium | |
JP5748421B2 (en) | Authentication device, authentication method, authentication program, and recording medium | |
JP2020052788A (en) | Image processing system and method therefor, and program | |
KR102301785B1 (en) | Method and appauatus for face continuous authentication | |
CN111986230A (en) | Method and device for tracking posture of target object in video | |
CN113837006B (en) | Face recognition method and device, storage medium and electronic equipment | |
JP2000137818A (en) | Pattern recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6941966 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |