JP2018181157A - Person authentication device - Google Patents

Person authentication device Download PDF

Info

Publication number
JP2018181157A
JP2018181157A JP2017083059A JP2017083059A JP2018181157A JP 2018181157 A JP2018181157 A JP 2018181157A JP 2017083059 A JP2017083059 A JP 2017083059A JP 2017083059 A JP2017083059 A JP 2017083059A JP 2018181157 A JP2018181157 A JP 2018181157A
Authority
JP
Japan
Prior art keywords
face
person
authentication
additional learning
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017083059A
Other languages
Japanese (ja)
Other versions
JP6941966B2 (en
Inventor
清柱 段
Seichu Dan
清柱 段
裕樹 渡邉
Hiroki Watanabe
裕樹 渡邉
廣池 敦
Atsushi Hiroike
敦 廣池
努 今田
Tsutomu Imada
努 今田
孔孝 村田
Yoshitaka Murata
孔孝 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017083059A priority Critical patent/JP6941966B2/en
Priority to CN201810296063.4A priority patent/CN108734092B/en
Publication of JP2018181157A publication Critical patent/JP2018181157A/en
Application granted granted Critical
Publication of JP6941966B2 publication Critical patent/JP6941966B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a person authentication device favorably selecting data upon additional learning and improving authentication accuracy while canceling learning deviation.SOLUTION: A person authentication device 5 includes: a face authentication part 25 authenticating a person as a target to be traced by use of a face authentication model 36 of a registered person; an additional learning face saving part 26 selecting and saving an additional learning face image 38 from the face image of the person authenticated by the face authentication part 25; and an additional learning execution part 27 executing additional learning of the face authentication model 36 by use of the selected additional learning face image 38. The additional learning face saving part 26 selects, as the additional learning face image 38, the face image whose authentication reliability of the person authenticated by the face authentication part 25 is located between two upper- and lower-limit threshold values.SELECTED DRAWING: Figure 3

Description

本発明は、追加学習機能を備えた人物認証装置に関する。   The present invention relates to a person authentication apparatus provided with an additional learning function.

本技術分野の背景技術として、特許文献1には、追加学習機能を有する人物検索装置が開示され、「検索対象の人物が異なる属性を保持していた(例えば異なる服装をしていた)ことがあった場合に、その属性を検索対象として追加する手段を備える」ことが記載されている。さらに、「検索の際に、検索対象として指定された人物が存在しえない時間や場所等の映像を特定する手段を有することにより、指定された人物が存在しえない時間や場所等の映像を検索対象から外す」ことが記載されている。   As background art of this technical field, the person search device which has an additional learning function is disclosed by patent documents 1, and "the person for whom search object was holding different attributes (for example, had different clothes) It is described that "if there is a means for adding the attribute as a search target". Furthermore, “when searching, by having a means for specifying a video such as a time or place where a person specified as a search target can not exist, a video such as a time or place where a specified person can not exist Is excluded from the search target.

特開2014−016968号公報JP, 2014-016968, A

特許文献1に記載される技術は、検索対象として指定する属性を追加することで、人物検索の際に、属性の変化に追随した検索が可能になる。しかしながら、追加するデータの質については十分に配慮されておらず、追加学習の副作用を招く恐れがある。すなわち、追加学習を実施する場合、追加するデータ(顔画像)の質により、学習の偏りを起こす可能性がある。例えば、認証時の類似度が非常に高い顔画像を追加すると、顔認証モデルは追加した画像に偏ることがある。また顔パーツの一部が欠落している顔画像を大量に追加すると、認証判定の閾値が小さくなり、誤検知を起こす可能性がある。このように、追加学習によって認証精度を向上させ、運用時の耐性(ロバスト性)の向上を図るためには、追加学習するデータを好適に選定する必要がある。   In the technique described in Patent Document 1, by adding an attribute designated as a search target, a search following a change in attribute becomes possible at the time of person search. However, the quality of the data to be added is not sufficiently considered, which may result in additional learning side effects. That is, when additional learning is performed, the quality of data (face image) to be added may cause learning bias. For example, when a face image having a very high degree of similarity at the time of authentication is added, the face recognition model may be biased to the added image. In addition, if a large number of face images in which part of the face parts is missing are added, the threshold value of the authentication determination becomes small, which may cause false detection. As described above, in order to improve the authentication accuracy by the additional learning and to improve the tolerance (robustness) at the time of operation, it is necessary to suitably select data to be additionally learned.

本発明の目的は、追加学習時のデータを好適に選定し、学習の偏りをなくして認証精度を向上させる人物認証装置を提供することである。   An object of the present invention is to provide a person authentication apparatus that suitably selects data at the time of additional learning, eliminates bias in learning, and improves authentication accuracy.

本発明に係る人物認証装置は、その一例を挙げるならば、登録済みの人物の顔認証モデルを用いて、追跡対象である人物を認証する顔認証部と、前記顔認証部にて認証済みの人物の顔画像から追加学習用顔画像を選定して保存する追加学習顔保存部と、前記選定した追加学習用顔画像を用いて、前記顔認証モデルの追加学習を実施する追加学習実施部と、を備え、前記追加学習顔保存部は、前記顔認証部にて認証済みの人物の認証信頼度が上限と下限の2つの閾値の間にある顔画像を前記追加学習用顔画像として選定することを特徴とする。   The person authentication apparatus according to the present invention is, for example, a face authentication unit for authenticating a person who is a tracking target using a registered person's face authentication model, and the face authentication unit. An additional learning face storage unit that selects and stores a face image for additional learning from a face image of a person; and an additional learning performing part that performs additional learning of the face recognition model using the selected additional learning face image And the additional learning face storage unit selects a face image having an authentication reliability of a person who has been authenticated by the face authentication unit between two thresholds of upper limit and lower limit as the additional learning face image. It is characterized by

あるいは前記追加学習顔保存部は、前記顔認証モデルとして追加済の顔画像とどれだけ異なるかを示す差異度が所定の閾値より大きい顔画像を前記追加学習用顔画像として選定することを特徴とする。   Alternatively, the additional learning face storage unit is characterized by selecting, as the additional learning face image, a face image whose degree of difference indicating how different it is from the face image added as the face authentication model is larger than a predetermined threshold. Do.

本発明によれば、人物認証装置において、追加学習による副作用を防ぎながら運用時の耐性を向上させる効果がある。   According to the present invention, the person authentication apparatus has an effect of improving the tolerance at the time of operation while preventing the side effect due to the additional learning.

人物認証システムの全体の構成例を示す図(実施例1)。BRIEF DESCRIPTION OF THE DRAWINGS The figure which shows the structural example of the whole person authentication system (Example 1). 人物認証装置5のハードウェア構成を示す図。FIG. 2 is a diagram showing a hardware configuration of a person authentication apparatus 5; 人物認証装置5の機能システム構成を示す図。FIG. 2 shows a functional system configuration of a person authentication apparatus 5; 初期学習用顔画像37のデータ構造を示す図。FIG. 7 is a view showing a data structure of an initial learning face image 37. 追加学習用顔画像38のデータ構造を示す図。The data structure of the face image 38 for additional learning. 顔認証及び追加学習画像蓄積のシーケンスを示す図。The figure which shows the sequence of face recognition and the addition learning image accumulation | storage. 追加学習実施のシーケンスを示す図。The figure which shows the sequence of additional learning implementation. 人追跡の処理フロー(ステップS2)を示す図。The figure which shows the processing flow (step S2) of a person tracking. 追跡結果保存部33のデータ構造を示す図。The figure which shows the data structure of the tracking result preservation | save part 33. FIG. 図9に示した追跡結果をマップ上に表した図。The figure which represented the tracking result shown in FIG. 9 on the map. 顔画像保存部34に保存される顔画像のデータ構造を示す図。FIG. 6 is a view showing a data structure of a face image stored in a face image storage unit 34. 認証結果保存部35に保存される認証結果のデータ構造を示す図。FIG. 6 is a view showing a data structure of an authentication result stored in an authentication result storage unit 35. 追加学習設定情報39のデータ構造を示す図。The figure which shows the data structure of the additional learning setting information 39. FIG. 追加学習顔画像選定処理(ステップS7)のフローを示す図。The figure which shows the flow of an additional learning face image selection process (step S7). 追加学習顔画像有効性判定フロー(ステップS206)の詳細を示す図。The figure which shows the detail of an additional learning face image effectiveness determination flow (step S206). 図7の追加学習における学習結果の確認画面を示す図。The figure which shows the confirmation screen of the learning result in the additional learning of FIG. 人物認証システムの他の構成例を示す図(実施例2)。The figure which shows the other structural example of a person authentication system (Example 2). 追加学習設定情報39と顔認証成功閾値の関係を示す図(実施例3)。The figure which shows the relationship of the additional learning setting information 39 and a face authentication success threshold value (Example 3).

以下、本発明に係る人物認証装置の実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of a person authentication apparatus according to the present invention will be described with reference to the drawings.

図1は、本発明の人物認証装置を含む人物認証システムの全体の構成例を示す図である。人物認証システム1は、人物7を含む映像を取得する監視カメラなどの映像入力装置2と、LAN(Local Area Network)、WAN(Wide Area Network)、VPN(Virtual Private Network)等を含むネットワーク6と、人物を認証する人物認証装置5と、映像を格納する映像録画装置3と、人物認証装置5を管理する人物認証管理装置4と、を備えて構成される。人物認証装置5は、ネットワーク6を介して映像入力装置2から映像を受信し、写っている人物7の顔画像を登録済み人物の顔画像と比較し、人物7を特定する。受信した映像は映像録画装置3に格納する。人物認証管理装置4は、人物認証装置5の設定や人物認証装置5の認証結果の表示を行う。次に、人物認証装置5の内部構成を説明する。   FIG. 1 is a diagram showing an example of the overall configuration of a person authentication system including a person authentication device according to the present invention. The person authentication system 1 includes a video input device 2 such as a surveillance camera for acquiring a video including the person 7, and a network 6 including a LAN (Local Area Network), a WAN (Wide Area Network), a VPN (Virtual Private Network), and the like. And a person authentication device 5 for authenticating a person, a video recording device 3 for storing a video, and a person authentication management device 4 for managing the person authentication device 5. The person authentication device 5 receives an image from the image input device 2 via the network 6, compares the face image of the person 7 in the picture with the face image of the registered person, and specifies the person 7. The received video is stored in the video recording device 3. The person authentication management device 4 displays the setting of the person authentication device 5 and the authentication result of the person authentication device 5. Next, the internal configuration of the person authentication apparatus 5 will be described.

図2は、人物認証装置5のハードウェア構成を示す図である。人物認証装置5は、メモリ10、外部記憶装置11、CPU(Central Processing Unit)18、出力装置19、通信装置20と、これらをつなぐバス17を含んで構成される。   FIG. 2 is a diagram showing a hardware configuration of the person authentication apparatus 5. The person authentication device 5 includes a memory 10, an external storage device 11, a CPU (Central Processing Unit) 18, an output device 19, a communication device 20, and a bus 17 connecting these.

外部記憶装置11は、デジタル情報を記憶可能ないわゆるハードディスク(Hard Disk Drive)やSSD(Solid State Drive)、あるいはフラッシュメモリなどの不揮発性記憶装置である。外部記憶装置11には、顔認証プログラム12、顔認証モデルDB(データベース)13、初期学習用顔DB14、追加学習用顔DB15、追加学習設定DB16などのデータを格納する。   The external storage device 11 is a non-volatile storage device such as a so-called hard disk drive (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory capable of storing digital information. The external storage device 11 stores data such as a face authentication program 12, a face authentication model DB (database) 13, an initial learning face DB 14, an additional learning face DB 15, and an additional learning setting DB 16.

顔認証プログラム12は、以下に述べる顔認証処理を実行するためのプログラムである。顔認証モデルDB13は、各人物を他の人物と識別するためのパラメータで構成される。例えば、SVM(Support Vector Machine)識別器を用いて顔認証を実施する場合、本人と他人を区別するサポートベクター(Support Vector)を格納している。初期学習用顔DB14は、顔認証モデルDB13を構築する時に利用する顔画像を格納する。追加学習用顔DB15は、顔認証モデルの追加学習のために運用中に蓄積した顔画像を格納する。追加学習設定DB16は、運用時に、追加学習用顔DB15に蓄積すべき顔画像の選定条件を定めた設定パラメータを格納している。   The face authentication program 12 is a program for executing the face authentication process described below. The face authentication model DB 13 is configured of parameters for identifying each person from other persons. For example, when face recognition is performed using a SVM (Support Vector Machine) identifier, a support vector (Support Vector) is stored that distinguishes the person from others. The initial learning face DB 14 stores a face image used when constructing the face authentication model DB 13. The additional learning face DB 15 stores face images accumulated during operation for additional learning of the face recognition model. The additional learning setting DB 16 stores setting parameters that define selection conditions of face images to be accumulated in the additional learning face DB 15 at the time of operation.

CPU18は、各種演算を実行するユニットであり、外部記憶装置11からメモリ10にロードした所定のプログラムを実行することにより、各種処理を実行する。すなわち、外部記憶装置11内の顔認証プログラム12、顔認証モデルDB13、初期学習用顔DB14、追加学習用顔DB15、追加学習設定DB16は、CPU18によりメモリ10に展開される。メモリ10は、CPU18により実行されるプログラムや、プログラムの実行に必要なデータを格納する。   The CPU 18 is a unit that executes various operations, and executes various processes by executing a predetermined program loaded from the external storage device 11 to the memory 10. That is, the face authentication program 12 in the external storage device 11, the face authentication model DB 13, the initial learning face DB 14, the additional learning face DB 15, and the additional learning setting DB 16 are expanded in the memory 10 by the CPU 18. The memory 10 stores a program executed by the CPU 18 and data necessary for executing the program.

出力装置19は、グラフィックボード・ビデオカードなどの画面生成装置であり、映像入力装置2からの映像や人物認証装置5の認証結果を表示可能な画面に変換する。通信装置20は、ネットワーク6を介して映像入力装置2からの映像を受信し、人物認証管理装置4との間で認証結果、追加学習結果や制御指令を送受信する。   The output device 19 is a screen generation device such as a graphic board or a video card, and converts the video from the video input device 2 and the authentication result of the person authentication device 5 into a displayable screen. The communication device 20 receives a video from the video input device 2 via the network 6 and transmits / receives an authentication result, an additional learning result and a control command to / from the person authentication management device 4.

図3は、人物認証装置5の機能システム構成を示す図である。人物認証装置5は、映像入力部21、人追跡部22、顔抽出部23、顔特徴量算出部24、顔認証部25、追加学習顔保存部26、追加学習実施部27、外部連携部28、入力受付部29、出力部30、および外部記憶装置11からロードしたデータ保存する一時データ保存部31とデータ保存部32からなる。各部の機能を説明する。   FIG. 3 is a diagram showing a functional system configuration of the person authentication apparatus 5. The person authentication apparatus 5 includes an image input unit 21, a person tracking unit 22, a face extraction unit 23, a face feature amount calculation unit 24, a face authentication unit 25, an additional learning face storage unit 26, an additional learning execution unit 27, and an external cooperation unit 28. , An input receiving unit 29, an output unit 30, and a temporary data storage unit 31 for storing data loaded from the external storage device 11, and a data storage unit 32. The function of each part is explained.

映像入力部21は、ネットワーク6を介して受信した符号化された映像データの復号化を行い、フレーム単位の画像に変換する。
人追跡部22は、映像入力部21に入力した映像に対して、ブロックマッチング法や勾配法などによりオプティカルフロー(物体の動きベクトル)を計算し、映像の中に人物領域を算出し、人物ごとに、最新の存在場所を算出しながら追跡を行う。
The video input unit 21 decodes the encoded video data received via the network 6 and converts it into a frame unit image.
The person tracking unit 22 calculates the optical flow (the motion vector of the object) of the video input to the video input unit 21 by the block matching method or the gradient method, and calculates the human region in the video. In addition, tracking is performed while calculating the latest location.

顔抽出部23は、人追跡部22が追跡中の人物の領域に対して、例えば、顔のパーツの相対位置や大きさ、目や鼻の形を特徴として、顔の領域を抽出する。
顔特徴量算出部24は、本人の顔を他人の顔と区別するための属性、例えば、目、鼻、口などの各パーツのサイズや相対位置などのように、人物ごとに異なる属性を顔特徴量として算出する。
The face extraction unit 23 extracts the face area with respect to the area of the person being tracked by the human tracking unit 22, using, for example, the relative position and size of the parts of the face, and the shape of the eyes and nose.
The face feature amount calculation unit 24 is an attribute for distinguishing the face of the person from the face of another person, such as the size and relative position of each part such as the eyes, nose and mouth. Calculated as a feature amount.

顔認証部25は、当該顔の顔特徴量を対象に、顔認証モデルDB13を用いて登録済み人物の顔特徴量との類似度を確率値として算出し、当該顔が属する人物を特定する。   The face authentication unit 25 uses the face authentication model DB 13 to calculate, as a probability value, the degree of similarity with the registered face feature value as a probability value for the face feature value of the face, and identifies the person to which the face belongs.

追加学習顔保存部26は、人物認証装置5の動作中に、認証済みの人物に対してその一部の顔画像を追加学習用画像として選定し、追加学習用顔DB15に保存する。
追加学習実施部27は、初期学習用顔DB14と追加学習用顔DB15に蓄積された顔データを用いて、顔認証モデルの追加学習を実施する。顔認証モデルの追加学習の結果は顔認証モデルDB13に格納される。
During the operation of the person authentication apparatus 5, the additional learning face storage unit 26 selects a part of the face image of the person who has already been authenticated as an additional learning image, and stores it in the additional learning face DB 15.
The additional learning execution unit 27 performs additional learning of the face recognition model using the initial learning face DB 14 and the face data accumulated in the additional learning face DB 15. The result of the additional learning of the face recognition model is stored in the face recognition model DB 13.

外部連携部28は、顔認証部25の認証結果を外部システム、例えば入退管理システムに送信する。また、外部システムからのトリガーにより顔認証処理を実施する。
入力受付部29は、キーボードやマウスなどのデバイスであり、ユーザの操作を認識して操作命令に変換する。
出力部30は、顔認証部25の認証結果や追加学習実施部27の学習結果などを、運用者が確認可能な形式に変換して、出力装置19にて表示する。
The external cooperation unit 28 transmits the authentication result of the face authentication unit 25 to an external system, for example, an entrance / exit management system. Also, face recognition processing is performed by a trigger from an external system.
The input receiving unit 29 is a device such as a keyboard or a mouse, recognizes a user operation, and converts it into an operation command.
The output unit 30 converts the authentication result of the face authentication unit 25 and the learning result of the additional learning execution unit 27 into a format that can be confirmed by the operator, and displays the converted result on the output device 19.

一時データ保存部31は、追跡結果保存部33、顔画像保存部34、認証結果保存部35からなる。追跡結果保存部33は、追跡対象ごとに人の場所、画面上の領域などの情報を格納する。顔画像保存部34は、追跡対象のフレームごとの顔画像を格納する。認証結果保存部35は、追跡対象のフレームごとの認証結果を格納する。   The temporary data storage unit 31 includes a tracking result storage unit 33, a face image storage unit 34, and an authentication result storage unit 35. The tracking result storage unit 33 stores information such as the location of a person and the area on the screen for each tracking target. The face image storage unit 34 stores a face image of each frame to be tracked. The authentication result storage unit 35 stores an authentication result for each tracking target frame.

データ保存部32は、顔認証モデル36、初期学習用顔画像37、追加学習用顔画像38、追加学習設定情報39からなる。顔認証モデル36は、顔認証モデルDB13をメモリ上に展開したものである。初期学習用顔画像37は、初期学習用顔DB14をメモリ上に展開したものである。追加学習用顔画像38は、追加学習用顔DB15をメモリ上に展開したものである。追加学習設定情報39は、追加学習設定DB16をメモリ上に展開したものである。   The data storage unit 32 includes a face authentication model 36, an initial learning face image 37, an additional learning face image 38, and an additional learning setting information 39. The face authentication model 36 is a face authentication model DB 13 developed on a memory. The initial learning face image 37 is obtained by expanding the initial learning face DB 14 on the memory. The additional learning face image 38 is the additional learning face DB 15 expanded on the memory. The additional learning setting information 39 is obtained by expanding the additional learning setting DB 16 on the memory.

図4は、初期学習用顔画像37のデータ構造を示す図である。また図5は、追加学習用顔画像38のデータ構造を示す図である。いずれも、各人物を識別する人物IDに対応してその顔画像データが格納されている。初期学習用顔画像37と追加学習用顔画像38の画像データを用いて、人物IDごとの顔認証モデル36が構築される。   FIG. 4 is a view showing the data structure of the initial learning face image 37. As shown in FIG. FIG. 5 is a view showing the data structure of the additional learning face image 38. As shown in FIG. In either case, face image data is stored corresponding to a person ID for identifying each person. Using the image data of the initial learning face image 37 and the additional learning face image 38, a face authentication model 36 for each person ID is constructed.

以下、人物認証装置5における人物認証処理の動作を、顔認証処理、追加学習画像蓄積処理、追加学習処理に分けて説明する。   Hereinafter, the operation of the person authentication process in the person authentication apparatus 5 will be described by dividing it into a face authentication process, an additional learning image storage process, and an additional learning process.

図6は、顔認証及び追加学習画像蓄積のシーケンスを示す図である。
映像入力装置2から映像が入力すると、映像入力部21は映像の復号化と前処理を行う(ステップS1)。前処理の内容は、例えば、ホワイトバランス調整や明るさ調整などである。フレームごとの画像は人追跡部22に送られる。人追跡部22は、画像中の人物(追跡対象)の追跡を行い、追跡結果を追跡結果保存部33に格納する(ステップS2)。ステップS2の詳細は図8〜10にて後述する。
FIG. 6 is a diagram showing a sequence of face recognition and additional learning image storage.
When a video is input from the video input device 2, the video input unit 21 performs video decoding and preprocessing (step S1). The contents of the preprocessing are, for example, white balance adjustment and brightness adjustment. The image for each frame is sent to the person tracking unit 22. The human tracking unit 22 tracks the person (tracking target) in the image, and stores the tracking result in the tracking result storage unit 33 (step S2). Details of step S2 will be described later with reference to FIGS.

人物の追跡結果は顔抽出部23に送られ、認証処理が未実施の人物(追跡対象)が存在する場合、以下を行う。顔抽出部23は、追跡中の人物ごとに顔領域の抽出を行い、顔画像を顔画像保存部34に格納する(ステップS3)。顔領域抽出方法には、Haar特徴量に基づくカスケード識別器を用いた顔検出方法などがある。ステップS3の詳細は図11にて後述する。   The tracking result of the person is sent to the face extraction unit 23. When there is a person (tracking target) for which the authentication process has not been performed, the following is performed. The face extraction unit 23 extracts a face area for each person being tracked, and stores a face image in the face image storage unit 34 (step S3). Face region extraction methods include face detection methods using cascade classifiers based on Haar feature values. Details of step S3 will be described later with reference to FIG.

抽出した顔画像は顔特徴量算出部24に送られる。顔特徴量算出部24は、顔画像から顔特徴量を算出する(ステップS4)。顔認証部25は、算出された顔特徴量から顔認証処理を行う。すなわち、顔認証モデル36を用いて顔特徴量が属する登録済み人物のIDを識別し、認証結果を認証結果保存部35に格納する(ステップS5)。ステップS5の詳細は図12にて後述する。   The extracted face image is sent to the face feature amount calculation unit 24. The face feature amount calculation unit 24 calculates a face feature amount from the face image (step S4). The face authentication unit 25 performs face authentication processing from the calculated face feature amount. That is, the ID of the registered person to which the face feature value belongs is identified using the face authentication model 36, and the authentication result is stored in the authentication result storage unit 35 (step S5). Details of step S5 will be described later with reference to FIG.

顔認証処理(ステップS5)が成功した場合、識別した人物IDは外部連携部28を介し外部システムへ通知される(ステップS6)。これにより、例えば入退管理システムにおいて自動的にドアを開放する動作が行われる。   If the face authentication process (step S5) is successful, the identified person ID is notified to the external system via the external cooperation unit 28 (step S6). Thus, for example, an operation of automatically opening the door in the entry / exit management system is performed.

当該フレームの顔認証処理を完了後、追加学習顔保存部26は、追加学習のために追加学習用顔画像の選定処理を行う(ステップS7)。ステップS7の詳細は図13〜15にて後述する。追加学習用顔画像が存在する場合、追加すべき顔画像38を追加学習用顔DB15に格納する(ステップS8)。   After completing the face authentication process of the frame, the additional learning face storage unit 26 performs a process of selecting a face image for additional learning for additional learning (step S7). Details of step S7 will be described later with reference to FIGS. If there is a face image for additional learning, the face image 38 to be added is stored in the face DB for additional learning 15 (step S8).

図7は、追加学習実施のシーケンスを示す図である。
入力受付部29は運用者から再学習指示を受けると、追加学習実施部27に追加学習要求を送る。追加学習実施部27は、初期学習用顔DB14と追加学習用顔DB15から顔画像を読み出す(ステップS9)。顔特徴量算出部24は、読み出された顔画像に対して顔特徴量の算出を行い(ステップS10)、追加学習実施部27へ返す。追加学習実施部27は、SVM識別器を学習することで複数の個体を識別可能とする顔認証モデル36を追加学習する(ステップS11)。
FIG. 7 is a diagram showing a sequence of the additional learning implementation.
When receiving the relearning instruction from the operator, the input accepting unit 29 sends an additional learning request to the additional learning performing unit 27. The additional learning execution unit 27 reads a face image from the initial learning face DB 14 and the additional learning face DB 15 (step S9). The face feature amount calculation unit 24 calculates a face feature amount on the read face image (step S10), and returns the result to the additional learning execution unit 27. The additional learning execution unit 27 additionally learns the face authentication model 36 that enables identification of a plurality of individuals by learning the SVM classifier (step S11).

追加学習結果は出力部30に送られ、学習結果の画面を生成して、運用者に提示する(ステップS12)。運用者は追加学習結果を受入れる場合、追加学習を反映するボタンを押すことで顔認証モデル36を更新する(ステップS13)。ステップS12、S13の詳細は図16にて後述する。   The additional learning result is sent to the output unit 30, and a screen of the learning result is generated and presented to the operator (step S12). When the operator accepts the additional learning result, the operator updates the face recognition model 36 by pressing a button reflecting the additional learning (step S13). Details of steps S12 and S13 will be described later with reference to FIG.

以下、図6と図7における主要なステップについて詳細に説明する。
図8は、人追跡部22による人追跡の処理フロー(ステップS2)を示す図である。
入力画像に対して、画像の中にエッジ部などの追跡しやすい特徴点を抽出する(ステップS101)。抽出した特徴点を用いて、前のフレームの特徴点とのマッチングをとることで各特徴点の動きの軌道を算出する(ステップS102)。追跡中の人物の情報を用いて、特徴点の軌道情報を更新する(ステップS103)。なお、初期状態では追跡中の人物は存在しないため、このステップS103では何も行わない。全ての特徴点の情報及び追跡中の人物の情報を用いて、人領域を更新する(ステップS104)。人領域の情報を用いて、追跡中の人物の追跡結果を更新する(ステップS105)。
Hereinafter, the main steps in FIGS. 6 and 7 will be described in detail.
FIG. 8 is a diagram illustrating a process flow (step S2) of the human tracking by the human tracking unit 22.
For the input image, feature points that are easy to track such as edge portions are extracted from the image (step S101). Using the extracted feature points, the motion trajectory of each feature point is calculated by matching the feature points of the previous frame (step S102). Trajectory information on feature points is updated using information on the person being tracked (step S103). In the initial state, since there is no person being tracked, nothing is performed in this step S103. The human region is updated using the information of all feature points and the information of the person being tracked (step S104). The tracking result of the person being tracked is updated using the information on the person area (step S105).

現在、未追跡の人領域があるか否かを判定する(ステップS106)。未追跡の人領域が存在する場合、追跡対象を追跡結果に追加する(ステップS107)。ステップS107が完了後、または未追跡の人領域が存在しない場合、人領域以外の特徴点を削除する(ステップS108)。追跡結果を顔抽出部23に出力するとともに、追跡結果保存部33に保存する(ステップS109)。   It is determined whether there is an untracked person area at present (step S106). If there is an untracked human region, the tracking target is added to the tracking result (step S107). After completion of step S107, or when there is no untracked human region, feature points other than the human region are deleted (step S108). The tracking result is output to the face extracting unit 23 and stored in the tracking result storage unit 33 (step S109).

図9は、追跡結果保存部33のデータ構造を示す図である。追跡結果保存部33は、フレームID、追跡対象ID、および追跡対象領域からなる。フレームIDは、画像のフレーム番号である。追跡対象IDは、各フレームIDの画像に存在する追跡対象の識別番号である。追跡対象が複数のフレーム画像に渡って存在する場合、1つの追跡対象IDが複数のフレームIDに含まれることになる。追跡対象領域は、当該追跡対象が当該フレーム内で存在する領域(位置座標)を示す。   FIG. 9 shows the data structure of the tracking result storage unit 33. As shown in FIG. The tracking result storage unit 33 includes a frame ID, a tracking target ID, and a tracking target area. The frame ID is a frame number of the image. The tracking target ID is an identification number of the tracking target present in the image of each frame ID. When the tracking target exists over a plurality of frame images, one tracking target ID is included in the plurality of frame IDs. The tracking target area indicates a region (positional coordinates) in which the tracking target is present in the frame.

図10は、図9に示した追跡結果をマップ上に表した図である。マップ40は映像入力装置2の撮像範囲に対応する。マップ40内には追跡対象は2つあり、それぞれの追跡対象IDは「1」と「2」である。追跡対象ID=「1」はフレーム間で移動しており、41aは追跡対象の軌跡、41bは追跡対象の現在位置を示す。   FIG. 10 is a diagram showing the tracking result shown in FIG. 9 on a map. The map 40 corresponds to the imaging range of the video input device 2. There are two tracking targets in the map 40, and the tracking target IDs are “1” and “2”, respectively. The tracking target ID = “1” is moving between frames, 41a indicates the tracking target trajectory, and 41b indicates the current position of the tracking target.

図11は、顔抽出部23による顔領域抽出処理(ステップS3)の結果、顔画像保存部34に保存される顔画像のデータ構造を示す図である。顔画像保存部34は、フレームID、追跡対象ID、および顔画像データからなる。フレームIDと追跡対象IDは、顔画像が抽出される人物の追跡結果保存部33のデータに対応している。また、顔画像データは顔画像のバイナリデータとして保存される。   FIG. 11 is a diagram showing the data structure of the face image stored in the face image storage unit 34 as a result of the face area extraction process (step S3) by the face extraction unit 23. The face image storage unit 34 includes a frame ID, a tracking target ID, and face image data. The frame ID and the tracking target ID correspond to the data of the tracking result storage unit 33 of the person whose face image is extracted. The face image data is stored as binary data of the face image.

図12は、顔認証部25による顔認証処理(ステップS5)の結果、認証結果保存部35に保存される認証結果のデータ構造を示す図である。認証結果保存部35は、フレームID、追跡対象ID、認証結果詳細、および人物IDからなる。フレームIDと追跡対象IDは、顔画像保存部34のデータと関連付ける。認証結果詳細は、当該顔が属する個体(人物ID)及びその確率(類似度または信頼度とも呼ぶ)を示す。認証結果詳細の中に、ある個体に属する確率が所定の値(認証成功閾値)を超える場合、認証成功とみなし、その個体の人物IDに更新する。認証が失敗した場合は、人物IDを「−1」で表す。   FIG. 12 is a diagram showing the data structure of the authentication result stored in the authentication result storage unit 35 as a result of the face authentication process (step S5) by the face authentication unit 25. As shown in FIG. The authentication result storage unit 35 includes a frame ID, a tracking target ID, authentication result details, and a person ID. The frame ID and the tracking target ID are associated with the data of the face image storage unit 34. The authentication result details indicate an individual (person ID) to which the face belongs and its probability (also called similarity or reliability). In the authentication result details, when the probability of belonging to an individual exceeds a predetermined value (authentication success threshold), it is regarded as authentication success and updated to the person ID of the individual. If the authentication fails, the person ID is represented by "-1".

追跡中の人物は異なるフレームに渡って同一の追跡対象IDで管理されているので、あるフレームで認証が成功すれば他のフレームで認証が失敗したとしても、追跡対象IDが一致するすべてのフレームにおける追跡対象の人物IDを特定することができる。例えば、追跡対象ID=「2」についてはフレームID=12の段階では認証が失敗しているが、フレームID=15で認証が成功(人物ID=001)しているので、フレームID=12に遡って追跡対象ID=「2」の人物IDを特定することができる。   Since the person being tracked is managed by the same tracking target ID across different frames, if authentication succeeds in one frame, all frames that match the tracking target ID even if authentication fails in another frame It is possible to identify the person ID of the tracking target in. For example, with regard to the tracking target ID = “2”, the authentication fails at the frame ID = 12, but the authentication succeeds with the frame ID = 15 (person ID = 001), so It is possible to trace back and identify the person ID of the tracking target ID = "2".

次に、追加学習顔保存部26による追加学習顔画像選定処理(ステップS7)について詳細に説明する。
図13は、追加学習顔画像選定処理にて用いる追加学習設定情報39のデータ構造を示す図である。追加学習設定情報39は、顔画像選定の条件であるパラメータ名とパラメータ値からなる。パラメータとしては、本人信頼度上限T11、本人信頼度下限T12、顔完全度下限T、追加済本人顔差異度下限T、実施待ちフレーム数Fなどを含んでいる。
Next, the additional learning face image selection processing (step S7) by the additional learning face storage unit 26 will be described in detail.
FIG. 13 is a diagram showing the data structure of the additional learning setting information 39 used in the additional learning face image selection process. The additional learning setting information 39 includes a parameter name and a parameter value which are conditions for face image selection. The parameters include a person reliability upper limit T 11 , a person reliability lower limit T 12 , a face completeness lower limit T 2 , an added person face difference lower limit T 3 , and a number of waiting frames F for implementation.

本人信頼度上限T11は、追加学習の顔データとして選定するための登録済み人物に属する信頼度(=類似度)の上限値である。ここに信頼度とは、顔認証処理の結果得られる登録済み人物に属する確率値で表す。信頼度の上限値は、1未満の値(例えば0.96)とすることで、追加する画像が登録済みの画像に偏ることを防止する効果がある。
本人信頼度下限T12は、追加学習の顔データとして選定するための登録済み人物に属する信頼度の下限値である。
Person confidence limit T 11 is the upper limit of confidence belonging to registered person for choosing as the additional learning face data (= similarity). Here, the reliability is represented by a probability value belonging to a registered person obtained as a result of the face authentication process. By setting the upper limit value of the reliability to a value less than 1 (for example, 0.96), there is an effect of preventing the image to be added from being biased to the registered image.
Person confidence limit T 12 is the lower limit of the confidence that belong to the registered person for choosing as the additional learning face data.

顔完全度下限Tは、追加学習の顔データとして選定するための顔画像完全度の下限値である。顔画像完全度とは、顔画像内に本来あるべき口、目、鼻などのパーツがどれだけ含まれているかを示す割合である。この値が高いほど、顔画像として有効である。この値が低い場合、一部の顔が隠れているか、もしくは、そもそも顔画像ではない可能性がある。下限値を設けることで、追加学習に伴う認証精度の低下を防止する効果がある。 Face completeness lower T 2 are, the lower limit value of the face image completeness for choosing as the additional learning face data. The face image perfection degree is a ratio indicating how many parts such as the mouth, eyes, and nose should be included in the face image. The higher the value, the more effective the face image. If this value is low, some faces may be hidden or may not be face images in the first place. By setting the lower limit value, there is an effect of preventing a decrease in authentication accuracy accompanying the additional learning.

追加済本人顔差異度下限Tは、追加する予定の顔画像が、追加済(登録済)の本人顔画像とどれだけ異なるか、差異度の下限値を示す。この下限値は0より大きい値(例えば0.05)とすることで、既に追加学習済みの画像と類似している顔画像の再追加を避けることができ、その結果、学習の偏りを防ぐ効果がある。 Already added the person face differential degrees lower limit T 3, the face image of the plan to add is, the person face image and how much different or already added (registered), show a lower limit value of the difference degree. By setting the lower limit value to a value larger than 0 (for example, 0.05), it is possible to avoid re-addition of a face image similar to an image already subjected to additional learning, and as a result, it is possible to prevent learning bias. There is.

実施待ちフレーム数Fは、追跡対象が視野から消えた後、追加学習用顔画像の選定を実施するまでの待ちフレーム数である。   The implementation waiting frame number F is the number of waiting frames until the selection of the additional learning face image is performed after the tracking target disappears from the visual field.

図14は、追加学習顔画像選定処理(ステップS7)のフローを示す図である。
追加学習顔保存部26は、顔認証結果保存部35と顔画像保存部34から、一件の認証結果と関連する顔画像データを読み込む(ステップS201)。すなわち、顔認証結果保存部35に保存される追跡対象ID、認証結果詳細、人物IDと、これに関連する顔画像保存部34の顔画像データを準備する。
FIG. 14 is a diagram showing a flow of additional learning face image selection processing (step S7).
The additional learning face storage unit 26 reads face image data associated with one authentication result from the face authentication result storage unit 35 and the face image storage unit 34 (step S201). That is, the tracking target ID stored in the face authentication result storage unit 35, the authentication result details, the person ID, and the face image data of the face image storage unit 34 related thereto are prepared.

当該追跡対象IDの「消えるフレーム数」が、追加学習設定情報39の実施待ちフレーム数Fと一致するか否かを判定する(ステップS202)。ここに「消えるフレーム数」とは、当該追跡対象IDがフレーム画像から消えて再度出現するまでのフレーム数のことである。消えるフレーム数が実施待ちフレーム数Fと一致する場合、選定処理を継続する。一致しない場合、この認証結果の処理を中断し、ステップS201に戻り、次の認証結果について処理する。   It is determined whether the “number of disappearing frames” of the tracking target ID matches the number F of pending frames in the additional learning setting information 39 (step S202). Here, the “number of disappearing frames” is the number of frames until the tracking target ID disappears from the frame image and appears again. If the number of disappearing frames matches the number of pending operation frames F, the selection process is continued. If they do not match, the processing of the authentication result is interrupted, and the process returns to step S201 to process the next authentication result.

当該追跡対象IDに対する認証結果をチェックし、当該追跡対象IDに対し認証成功したフレームが存在するか否か、すなわち、顔認証結果保存部35の人物IDが「−1」以外のフレームが存在するか否かを判定する(ステップS203)。認証成功したフレームが存在する場合、選定処理を継続する。認証成功したフレームが存在しない場合、この認証結果の処理を中断し、ステップS201に戻り次の認証結果について処理する。   The authentication result for the tracking target ID is checked, and whether or not there is a frame for which the authentication target has succeeded for the tracking target ID, that is, there is a frame for which the person ID of the face authentication result storage unit 35 is other than “-1”. It is determined whether or not it is (step S203). If there is a successfully authenticated frame, the selection process is continued. If there is no frame for which authentication has succeeded, the processing of the authentication result is interrupted, and the process returns to step S201 to process the next authentication result.

次に、当該顔画像について、顔画像完全度の算出(ステップS204)と、本人顔差異度の算出(ステップS205)を行う。顔画像完全度とは、顔画像内に本来備えるべき口、目、鼻などの顔のパーツをどれだけ含んでいるかを示す値である。本人顔差異度とは、当該顔画像が、追加済の本人顔画像とどれだけ異なるかを示す値である。なお、追加済の本人顔画像として利用するデータは、初期学習用顔画像37と追加学習用顔画像38の両方、もしくはその一方でもよい。算出した顔画像完全度と本人顔差異度を用いて、当該顔画像が追加学習用画像として有効であるか否かの判定処理を行う(ステップS206)。ステップS206の詳細は図15を用いて説明する。   Next, for the face image, calculation of the degree of perfection of the face (step S204) and calculation of the degree of human face difference (step S205) are performed. The face image perfection degree is a value indicating how much part of the face such as the mouth, the eyes, and the nose should be included in the face image. The personal face difference degree is a value indicating how much the face image is different from the added personal face image. The data used as the added personal face image may be both the initial learning face image 37 and the additional learning face image 38, or one of them. Using the calculated face image perfection degree and the personal-face difference degree, it is determined whether the face image is effective as an additional learning image (step S206). The details of step S206 will be described with reference to FIG.

ステップS206の有効性の判定結果に応じて処理を分岐する(ステップS207)。有効と判定した場合は、当該顔画像を追加学習の対象として選定する(ステップS208)。有効でないと判定した場合は、この認証結果の処理を中断し、ステップS201に戻り次の認証結果について処理する。全ての認証結果の処理を完了したか否かを判定し(ステップS209)、完了していれば終了する。完了していなければ、ステップS201に戻り次の認証結果について処理する。   The process branches depending on the determination result of the validity of step S206 (step S207). If it is determined that the face image is valid, the face image is selected as an additional learning target (step S208). If it is determined that the authentication result is not valid, the processing of the authentication result is interrupted, and the process returns to step S201 to process the next authentication result. It is determined whether the processing of all the authentication results has been completed (step S209), and if completed, the processing is terminated. If it has not been completed, the process returns to step S201 to process the next authentication result.

図15は、図14における追加学習顔画像有効性判定フロー(ステップS206)の詳細を示す図である。ここの判定では、図13の追加学習設定情報39に設定されている本人信頼度上限T11、本人信頼度下限T12、顔完全度下限T、追加済本人顔差異度下限Tを使用する。 FIG. 15 is a diagram showing details of the additional learning face image validity determination flow (step S206) in FIG. In this determination, the upper user confidence limit T 11 , the lower user confidence degree lower limit T 12 , the lower limit of perfection degree T 2 , and the added upper limit face difference lower limit T 3 set in the additional learning setting information 39 of FIG. 13 are used. Do.

まず、当該顔画像の本人信頼度(認証時の確率)を判定する(ステップ211)。本人信頼度が本人信頼度下限T12よりも大きく、かつ本人信頼度上限T11よりも小さい場合、選定処理を継続する。そうでない場合、無効とする(ステップS215)。次に、顔画像完全度を判定する(ステップS212)。顔画像完全度が顔完全度下限Tより大きい場合、選定処理を継続する。そうでない場合、無効とする(ステップS215)。さらに、本人顔差異度の判定を行う(ステップS213)。本人顔差異度が追加済本人顔差異度下限Tより大きい場合、当該顔画像の追加学習顔画像としての判定結果を有効とする(ステップS214)。そうでない場合、無効とする(ステップS215)。 First, the person's credibility (probability at the time of authentication) of the face image is determined (step 211). If person reliability is greater than himself reliability lower T 12, and smaller than himself reliability limit T 11, to continue the selection process. If not, it is invalidated (step S215). Next, face image perfection is determined (step S212). If the face image perfection face greater perfection lower T 2, to continue the selection process. If not, it is invalidated (step S215). Further, the determination of the personal-face difference degree is performed (step S213). If principal face difference degree is larger than the already added principal face differential degrees lower T 3, and enable the determination result as an additional learning face images of the face image (step S214). If not, it is invalidated (step S215).

以上の処理で、顔認証結果を用いて、追加学習の対象になる顔画像を適切に選定することが可能になる。その際の選定条件は、
(1)本人信頼度の閾値として下限T12だけでなく上限T11を設ける、
(2)顔画像完全度の閾値として下限Tを設ける、
(3)本人顔差異度の閾値として下限Tを設ける、
ようにしたので、追加学習時の偏りを防ぐとともに認証判定時の誤検知を防止する効果がある。
Through the above processing, it is possible to appropriately select a face image to be a target of additional learning using the face authentication result. The selection condition at that time is
(1) To set not only the lower limit T 12 but also the upper limit T 11 as the threshold of the person's credibility,
(2) To set a lower limit T 2 as a threshold of the perfectness of the face image,
(3) a lower limit T 3 as a threshold value of the principal face differential degrees,
Since this is done, it is possible to prevent bias during additional learning and to prevent false detection during authentication determination.

なお、上記の選定条件(1)〜(3)は全て満足する必要はなく、(1)または(3)のいずれかを満足すれば追加学習時の偏りを防ぐことができる。よって、図15の有効性判定フローは、使用環境に応じて適宜選定条件を組み直して運用すればよい。   The above selection conditions (1) to (3) do not have to be all satisfied, and if either of (1) or (3) is satisfied, it is possible to prevent bias during additional learning. Therefore, the validity determination flow of FIG. 15 may be used by reassembling the selection conditions appropriately according to the usage environment.

図16は、図7の追加学習における学習結果の確認画面(ステップS12,S13)を示す図である。確認画面50では、追加学習結果51として、初期学習用顔DB及び追加学習顔DBのテストデータを対象に認証テストを行い、追加学習前と追加学習後の認証失敗(本人拒否率と他人受入率)の確率を掲示する。本人拒否率とは、本人の顔画像を本人であると認証できなかった確率で、他人受入率とは、他人の顔画像を本人と誤って認証した確率である。追加学習により本人拒否率は低減している。なお、学習により他人受入率は増加しているが、元々0%に近い値なので問題になることはない。運用者は追加学習結果51を確認し、追加学習を反映するボタン52を押すことで追加学習を受け入れることができる。また、取り消しボタン53を押すことで、追加学習を止めることができる。   FIG. 16 is a diagram showing a confirmation screen (steps S12 and S13) of the learning result in the additional learning of FIG. In the confirmation screen 50, an authentication test is performed on the test data of the initial learning face DB and the additional learning face DB as the additional learning result 51, and the authentication failure before the additional learning and after the additional learning Post the probability of). The false rejection rate is the probability that the face image of the person can not be authenticated as the person, and the false acceptance rate is the probability of falsely recognizing the face image of another person as the person. The rejection rate is reduced by additional learning. Although the false acceptance rate has increased by learning, it does not pose a problem because it is originally close to 0%. The operator can confirm the additional learning result 51 and can accept the additional learning by pressing the button 52 reflecting the additional learning. Further, pressing the cancel button 53 can stop the additional learning.

上記の説明では、運用者の指示により追加学習を実施するものとしたが、定期的にもしくは顔認証のたびに追加学習を実施することでもよい。   In the above description, the additional learning is performed according to the instruction of the operator. However, the additional learning may be performed periodically or every time of face authentication.

実施例1によれば、人物認証システムが運用時、顔認証の信頼度が低い顔画像を追加学習の対象に加えることで、顔の経年変化や照明の変化に対する耐性を向上することができる。また、信頼度が十分に高い顔画像や既に大量に学習した顔画像を追加学習の対象外にすることで、学習の偏りを防ぐ効果がある。また、顔完全性のチェックにより、顔画像完全度が低い顔画像を追加学習の対象外にすることで、認証精度の悪化を防ぐ効果がある。   According to the first embodiment, when the person authentication system is in operation, by adding a face image having a low degree of reliability of face authentication to the target of additional learning, it is possible to improve the resistance to the aging of the face and the change of illumination. In addition, by excluding a face image with a sufficiently high degree of reliability and a face image that has already been learned in large amounts as a target for additional learning, there is an effect of preventing bias in learning. Further, by excluding a face image with a low degree of perfectness of face image from the target of the additional learning by checking the face completeness, it is possible to prevent the deterioration of the authentication accuracy.

図17は、本発明の人物認証装置を含む人物認証システムの他の構成例を示す図である。人物認証システム1aでは、人物認証装置5と人物認証管理装置4の間をWAN(Wide Area Network)、VPN(Virtual Private Network)等を含むネットワーク6aを介して接続した構成としている。これにより、人物認証装置5から遠隔地にある人物認証管理装置4にて認証結果を表示し、人物認証装置5の設定を行うことができる。   FIG. 17 is a diagram showing another configuration example of the person authentication system including the person authentication device of the present invention. In the person authentication system 1a, the person authentication device 5 and the person authentication management device 4 are connected via a network 6a including a wide area network (WAN), a virtual private network (VPN), and the like. As a result, the authentication result can be displayed by the person authentication management device 4 at a remote place from the person authentication device 5, and the setting of the person authentication device 5 can be performed.

一方、映像入力装置2と人物認証装置5は、実施例1と同様に、ネットワーク6を介して接続し、映像入力装置2から映像を受信し、現在写っている人物の顔を特定することができる。本実施例の構成によれば、遠隔地から人物認証装置をメンテナンスすることが可能になる。   On the other hand, as in the first embodiment, the video input device 2 and the person authentication device 5 can be connected via the network 6, receive a video from the video input device 2, and specify the face of the person currently appearing. it can. According to the configuration of the present embodiment, it is possible to maintain the person authentication apparatus from a remote place.

実施例3では、追加学習設定情報39における信頼度の上限と下限の好適な設定について述べる。
図18は、追加学習設定情報39と顔認証成功閾値の関係を示す図である。横軸は画像フレーム数、縦軸は各フレームにおける信頼度(認証結果の確率)を示し、ある追跡対象(人物)に対する信頼度は曲線60のように変化している。顔認証処理において、当該追跡対象に対し認証成功と判定するための信頼度の閾値(顔認証成功閾値)をTとすると、信頼度が閾値Tを越えている期間Pが認証成功の期間となる。
In the third embodiment, preferable setting of the upper limit and the lower limit of the reliability in the additional learning setting information 39 will be described.
FIG. 18 is a view showing the relationship between the additional learning setting information 39 and the face authentication success threshold. The horizontal axis shows the number of image frames, the vertical axis shows the reliability (probability of authentication result) in each frame, and the reliability for a certain tracking target (person) changes as shown by a curve 60. In the face authentication process, the tracked relative reliability for judging the authentication success threshold (face authentication success threshold) When T 0, the reliability of period P 0 authentication success exceeds the threshold T 0 It becomes a period.

これに対し追加学習に用いる顔画像の条件は、図13の追加学習設定情報39で示したように、認証時の本人信頼度に上限T11と下限T12を設けている。特に本実施例では、本人信頼度上限T11は顔認証成功閾値Tより大きく、かつ本人信頼度下限T12は顔認証成功閾値Tより小さく設定する。その結果、図15の有効性の判定処理では、追加学習の顔画像として有効とされる期間は、信頼度が上限T11と下限T12に挟まれたPとPの期間となる。これらの期間P、Pには、認証成功した顔画像だけでなく、Pで示す認証に失敗した画像も含まれている。 In contrast conditions of a face image to be used for additional learning, as shown in additional learning setting information 39 in FIG. 13, and an upper limit T 11 and lower T 12 the person reliability of authentication. In particular, in this embodiment, personal confidence limit T 11 is greater than the face authentication succeeds threshold T 0, and identity confidence limit T 12 is set smaller than the face authentication succeeds threshold T 0. As a result, the effectiveness of the determination processing in FIG. 15, the period which is effective as the additional learning face image, a reliability limit T 11 and lower T 12 sandwiched by periods P 1 and P 2. These periods P 1 and P 2 include not only a face image that has been successfully authenticated, but also an image that has failed in authentication as indicated by P 3 .

ただし、Pの領域の画像は、信頼度が僅かの差で認証失敗した画像であり、むしろ追加学習用としては有益なものである。例えば、初期学習時には正面の顔画像のみ存在する状態だったのに対し、運用時の追加学習により、顔の向きが変化した場合の顔画像を認証モデルに追加することで、認証の耐性を向上させる効果がある。 However, the image areas of P 3 is reliability is authentication failed images by the difference of only, but rather beneficial as for additional study. For example, only initial face images are present at the time of initial learning, but additional learning at the time of operation improves resistance to authentication by adding face images to the authentication model when the face orientation changes. It has the effect of

以上、本発明の実施例を説明したが、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   As mentioned above, although the Example of this invention was described, this invention is not limited to an above-described Example, A various modified example is included. The above-described embodiments are described in detail to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. In addition, with respect to a part of the configuration of each embodiment, it is possible to add, delete, and replace other configurations.

例えば、上記実施例においては、映像入力装置2の台数は複数台にあってもよい。また、人物認証装置5と人物認証管理装置4はそれぞれ複数台あって、複数の装置間で連携しながら複数の映像入力装置2に対応させてもよい。また、上記した映像入力装置2、人物認証装置5、映像録画装置3、人物認証管理装置4のうち少なくとも2つが同じ装置内に構成されていてもよい。   For example, in the above embodiment, the number of video input devices 2 may be more than one. Also, there may be a plurality of person authentication devices 5 and a plurality of person authentication management devices 4 respectively, and the plurality of devices may be associated with a plurality of video input devices 2 in cooperation with each other. Further, at least two of the video input device 2, the person authentication device 5, the video recording device 3, and the person authentication management device 4 described above may be configured in the same device.

また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。   In addition, each configuration, function, processing unit, etc. described above may be realized by hardware, for example, by designing part or all of them with an integrated circuit. In addition, the technical elements of the above-described embodiment may be applied alone or may be divided and applied to a plurality of parts such as program parts and hardware parts.

1:人物認証システム、
2:映像入力装置、
4:人物認証管理装置、
5:人物認証装置、
21:映像入力部、
22:人追跡部、
23:顔抽出部、
24:顔特徴量算出部、
25:顔認証部、
26:追加学習顔保存部、
27:追加学習実施部、
36:顔認証モデル、
38:追加学習用顔画像、
39:追加学習設定情報。
1: Person authentication system,
2: Video input device,
4: Person authentication management device,
5: Person authentication device,
21: Video input unit,
22: Person tracking department,
23: face extraction unit,
24: face feature amount calculation unit,
25: Face recognition unit,
26: Additional learning face storage section,
27: Additional Learning Department,
36: Face recognition model,
38: Face image for additional learning,
39: Additional learning setting information.

Claims (4)

人物の顔画像から人物の認証を行う人物認証装置において、
人物を含む映像を入力する映像入力部と、
前記入力した映像から人物の移動軌跡を追跡する人追跡部と、
前記追跡した人物を対象に顔画像を抽出する顔抽出部と、
前記抽出した顔画像から顔特徴量を算出する顔特徴量算出部と、
登録済みの人物の顔認証モデルを用いて、前記算出した顔特徴量から前記追跡した人物を認証する顔認証部と、
前記顔認証部にて認証済みの人物の顔画像から追加学習用顔画像を選定して保存する追加学習顔保存部と、
前記選定した追加学習用顔画像を用いて、前記顔認証モデルの追加学習を実施する追加学習実施部と、を備え、
前記追加学習顔保存部は、前記顔認証部にて認証済みの人物の認証信頼度が上限と下限の2つの閾値T11,T12の間にある顔画像を前記追加学習用顔画像として選定することを特徴とする人物認証装置。
In a person authentication apparatus for authenticating a person from a face image of a person,
An image input unit for inputting an image including a person;
A human tracking unit that tracks a movement trajectory of a person from the input video;
A face extraction unit that extracts a face image for the tracked person;
A face feature amount calculation unit that calculates a face feature amount from the extracted face image;
A face authentication unit for authenticating the tracked person from the calculated face feature amount using a registered face authentication model of the person;
An additional learning face storage unit that selects and stores a face image for additional learning from a face image of a person who has been authenticated by the face authentication unit;
And an additional learning unit configured to perform additional learning of the face recognition model using the selected additional learning face image.
The additional learning face storage unit selects, as the additional learning face image, a face image in which the authentication reliability of the person who has been authenticated by the face authentication unit is between two upper and lower thresholds T 11 and T 12. A person authentication apparatus characterized in that.
人物の顔画像から人物の認証を行う人物認証装置において、
人物を含む映像を入力する映像入力部と、
前記入力した映像から人物の移動軌跡を追跡する人追跡部と、
前記追跡した人物を対象に顔画像を抽出する顔抽出部と、
前記抽出した顔画像から顔特徴量を算出する顔特徴量算出部と、
登録済みの人物の顔認証モデルを用いて、前記算出した顔特徴量から前記追跡した人物を認証する顔認証部と、
前記顔認証部にて認証済みの人物の顔画像から追加学習用顔画像を選定して保存する追加学習顔保存部と、
前記選定した追加学習用顔画像を用いて、前記顔認証モデルの追加学習を実施する追加学習実施部と、を備え、
前記追加学習顔保存部は、前記顔認証モデルとして追加済の顔画像とどれだけ異なるかを示す差異度が所定の閾値Tより大きい顔画像を前記追加学習用顔画像として選定することを特徴とする人物認証装置。
In a person authentication apparatus for authenticating a person from a face image of a person,
An image input unit for inputting an image including a person;
A human tracking unit that tracks a movement trajectory of a person from the input video;
A face extraction unit that extracts a face image for the tracked person;
A face feature amount calculation unit that calculates a face feature amount from the extracted face image;
A face authentication unit for authenticating the tracked person from the calculated face feature amount using a registered face authentication model of the person;
An additional learning face storage unit that selects and stores a face image for additional learning from a face image of a person who has been authenticated by the face authentication unit;
And an additional learning unit configured to perform additional learning of the face recognition model using the selected additional learning face image.
Said additional learning face storage unit, characterized in that the difference degree indicating how much different from the already added the face image as the face authentication model to select a predetermined threshold value T 3 is greater than the face image as the additional learning face image Person authentication device to be.
請求項1または請求項2に記載の人物認証装置において、
前記追加学習顔保存部は、さらに、顔画像内に本来備えるべき顔のパーツをどれだけ含んでいるかを示す顔画像完全度が所定の閾値Tより大きい顔画像を前記追加学習用顔画像として選定することを特徴とする人物認証装置。
In the person authentication apparatus according to claim 1 or 2,
The additional learning face storage unit further uses, as the additional learning face image, a face image having a face image perfection degree greater than a predetermined threshold T 2 indicating how many parts of the face to be originally provided in the face image. A person authentication apparatus characterized by selecting.
請求項1に記載の人物認証装置において、
前記顔認証部が人物を認証する際に認証成功と判定するための認証信頼度の閾値を認証成功閾値Tとしたとき、
前記追加学習顔保存部が前記追加学習用顔画像として選定する際に用いる前記認証信頼度の上限T11は前記認証成功閾値Tよりも大きく、前記認証信頼度の下限T12は前記認証成功閾値Tよりも小さいことを特徴とする人物認証装置。
In the person authentication apparatus according to claim 1,
When a threshold of authentication reliability for determining that the face authentication unit authenticates a person as authentication success is set as an authentication success threshold T 0 ,
Said additional learning face storage unit is the authentication reliability of the upper T 11 used in selecting as the additional learning face image is larger than the authentication success threshold T 0, the authentication confidence limit T 12 of the authentication success A person authentication apparatus characterized in that it is smaller than a threshold T 0 .
JP2017083059A 2017-04-19 2017-04-19 Person authentication device Active JP6941966B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017083059A JP6941966B2 (en) 2017-04-19 2017-04-19 Person authentication device
CN201810296063.4A CN108734092B (en) 2017-04-19 2018-03-30 Person authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017083059A JP6941966B2 (en) 2017-04-19 2017-04-19 Person authentication device

Publications (2)

Publication Number Publication Date
JP2018181157A true JP2018181157A (en) 2018-11-15
JP6941966B2 JP6941966B2 (en) 2021-09-29

Family

ID=63941215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017083059A Active JP6941966B2 (en) 2017-04-19 2017-04-19 Person authentication device

Country Status (2)

Country Link
JP (1) JP6941966B2 (en)
CN (1) CN108734092B (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087165A (en) * 2018-11-29 2020-06-04 富士通株式会社 Learning data generation program, learning data generation device, and learning data generation method
JP2021012446A (en) * 2019-07-04 2021-02-04 Kddi株式会社 Learning device and program
JP2021015362A (en) * 2019-07-10 2021-02-12 富士通コネクテッドテクノロジーズ株式会社 Interactive device, information processing method, and information processing program
JPWO2021038788A1 (en) * 2019-08-29 2021-03-04
WO2021125432A1 (en) * 2019-12-18 2021-06-24 주식회사 노타 Method and device for continuous face authentication
KR20210078377A (en) * 2019-12-18 2021-06-28 주식회사 노타 Method and appauatus for face continuous authentication
WO2023047624A1 (en) * 2021-09-21 2023-03-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and information processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137818A (en) * 1998-11-04 2000-05-16 Ntt Data Corp Pattern recognition system
JP2005128628A (en) * 2003-10-21 2005-05-19 Toshiba Corp Generation of template used for matching in pattern identification, and method, apparatus, and program for pattern identification using the template
JP2008198193A (en) * 2007-01-19 2008-08-28 Konica Minolta Holdings Inc Face authentication system, method, and program
JP2009002150A (en) * 2001-07-27 2009-01-08 Toshiba Corp Passage controller
JP2011242873A (en) * 2010-05-14 2011-12-01 Honda Motor Co Ltd Registration device, registration method and computer program
US20160004935A1 (en) * 2014-07-02 2016-01-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method which learn dictionary

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216884B (en) * 2007-12-29 2012-04-18 北京中星微电子有限公司 A method and system for face authentication
JP2010146502A (en) * 2008-12-22 2010-07-01 Toshiba Corp Authentication processor and authentication processing method
JP5230793B2 (en) * 2009-02-24 2013-07-10 三菱電機株式会社 Person tracking device and person tracking program
CN102004905B (en) * 2010-11-18 2012-11-21 无锡中星微电子有限公司 Human face authentication method and device
JP6132490B2 (en) * 2012-08-20 2017-05-24 キヤノン株式会社 Authentication apparatus, authentication method, and program
JP2017033358A (en) * 2015-08-03 2017-02-09 富士ゼロックス株式会社 Authentication device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137818A (en) * 1998-11-04 2000-05-16 Ntt Data Corp Pattern recognition system
JP2009002150A (en) * 2001-07-27 2009-01-08 Toshiba Corp Passage controller
JP2005128628A (en) * 2003-10-21 2005-05-19 Toshiba Corp Generation of template used for matching in pattern identification, and method, apparatus, and program for pattern identification using the template
JP2008198193A (en) * 2007-01-19 2008-08-28 Konica Minolta Holdings Inc Face authentication system, method, and program
JP2011242873A (en) * 2010-05-14 2011-12-01 Honda Motor Co Ltd Registration device, registration method and computer program
US20160004935A1 (en) * 2014-07-02 2016-01-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method which learn dictionary

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020087165A (en) * 2018-11-29 2020-06-04 富士通株式会社 Learning data generation program, learning data generation device, and learning data generation method
JP7220062B2 (en) 2018-11-29 2023-02-09 富士通株式会社 LEARNING DATA GENERATION PROGRAM, LEARNING DATA GENERATION DEVICE, AND LEARNING DATA GENERATION METHOD
JP2021012446A (en) * 2019-07-04 2021-02-04 Kddi株式会社 Learning device and program
JP7074723B2 (en) 2019-07-04 2022-05-24 Kddi株式会社 Learning equipment and programs
JP2021015362A (en) * 2019-07-10 2021-02-12 富士通コネクテッドテクノロジーズ株式会社 Interactive device, information processing method, and information processing program
JPWO2021038788A1 (en) * 2019-08-29 2021-03-04
WO2021038788A1 (en) * 2019-08-29 2021-03-04 日本電気株式会社 Robustness evaluation device, robustness evaluation method and recording medium
JP7255694B2 (en) 2019-08-29 2023-04-11 日本電気株式会社 Robustness evaluation device, robustness evaluation method and program
WO2021125432A1 (en) * 2019-12-18 2021-06-24 주식회사 노타 Method and device for continuous face authentication
KR20210078377A (en) * 2019-12-18 2021-06-28 주식회사 노타 Method and appauatus for face continuous authentication
KR102301785B1 (en) * 2019-12-18 2021-09-15 주식회사 노타 Method and appauatus for face continuous authentication
WO2023047624A1 (en) * 2021-09-21 2023-03-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
CN108734092A (en) 2018-11-02
JP6941966B2 (en) 2021-09-29
CN108734092B (en) 2021-09-17

Similar Documents

Publication Publication Date Title
JP6941966B2 (en) Person authentication device
JP4156430B2 (en) Face verification method and system using automatic database update method
JP4389956B2 (en) Face recognition device, face recognition method, and computer program
JP4725377B2 (en) Face image registration device, face image registration method, face image registration program, and recording medium
US20170262472A1 (en) Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces
US20070291998A1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
CA3152812A1 (en) Facial recognition method and apparatus
US11651624B2 (en) Iris authentication device, iris authentication method, and recording medium
JP5787686B2 (en) Face recognition device and face recognition method
US20150205995A1 (en) Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium
EP3528158A2 (en) Method and apparatus for selective combined authentication
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
JP2018106282A (en) Object detection device
JP5783759B2 (en) Authentication device, authentication method, authentication program, and recording medium
CN112560683A (en) Method and device for identifying copied image, computer equipment and storage medium
CN109272621A (en) A kind of management system and method based on face recognition technology
JP5648452B2 (en) Image processing program and image processing apparatus
Fegade et al. Residential security system based on facial recognition
US20200104577A1 (en) Information processing apparatus, authentication system, method of controlling same, and medium
JP5748421B2 (en) Authentication device, authentication method, authentication program, and recording medium
JP2020052788A (en) Image processing system and method therefor, and program
KR102301785B1 (en) Method and appauatus for face continuous authentication
CN111986230A (en) Method and device for tracking posture of target object in video
CN113837006B (en) Face recognition method and device, storage medium and electronic equipment
JP2000137818A (en) Pattern recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210907

R150 Certificate of patent or registration of utility model

Ref document number: 6941966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150