WO2023042299A1 - Control method, control program, and information processing device - Google Patents

Control method, control program, and information processing device Download PDF

Info

Publication number
WO2023042299A1
WO2023042299A1 PCT/JP2021/033928 JP2021033928W WO2023042299A1 WO 2023042299 A1 WO2023042299 A1 WO 2023042299A1 JP 2021033928 W JP2021033928 W JP 2021033928W WO 2023042299 A1 WO2023042299 A1 WO 2023042299A1
Authority
WO
WIPO (PCT)
Prior art keywords
face image
feature amount
generating
new
estimated
Prior art date
Application number
PCT/JP2021/033928
Other languages
French (fr)
Japanese (ja)
Inventor
秀継 内田
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2021/033928 priority Critical patent/WO2023042299A1/en
Publication of WO2023042299A1 publication Critical patent/WO2023042299A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the above face authentication service has an extraction function that extracts feature values from the user's face image using the above extraction model, and a matching function that matches the feature values extracted from the user's face image with pre-registered templates. and can be included.
  • Such an update function may be realized by being packaged as one function of the above-mentioned face authentication service, or may be realized as a library or framework called by the above-mentioned face authentication service, just as an example. good.
  • the feature amount that can generate a reproduced registered face image by combining this difference information and the estimated registered face image generated from the old template using the generation model corresponding to the extraction model before change is added to the extraction model after change.
  • a new template is determined by searching with the corresponding generative model. By searching the face information space in the template space in which the information is limited, it is possible to reduce the influence of errors contained in the difference information and the template, and to obtain a template with little distortion. As a result, it is possible to generate a new template by utilizing the information at the time of matching before the extraction model is changed.
  • the client terminal 30 has a face image acquisition section 31, a feature quantity extraction section 33, an authentication result reception section 35, a difference information calculation section 37, and a difference information storage section 39.
  • Such difference information is the residual error that was removed when the extraction model Ea before the change extracted the feature amount Fav, so it is difficult to identify the person, and the data size is smaller than that of the face image.
  • the template search unit 17 is a functional unit that searches for a template corresponding to the changed extraction model.
  • the former is described as “new template” and the latter is referred to as “old template”. may be referred to as a "template”.
  • the template searching unit 17 re-inverts the first bit of the N bits included in the neighborhood value Fb' of the new template. As a result, the new template Fb is returned from the neighboring value Fb' to the initial value Fb0, and the new template Fb is not updated.
  • the template searching unit 17 synthesizes the difference information acquired from the client terminal 30 and the estimated registered face image obtained by inputting the old template into the generation model before the change, thereby reproducing the face image.
  • a registered face image Da(Fa)+Rv is generated (step S301).
  • the template searching unit 17 repeats the processing from step S305 to step S313 below until the cost C becomes less than the cost determination threshold value CTh (No at step S304).
  • the template searching unit 17 initializes the bit number index N of the new template to the initial value "1" (step S308). Further, the template searching unit 17 increments by one the index E of the epoch number for identifying the generation of the new template (step S309). Note that the initial value of the index E of the number of epochs of the new template may be "0" as an example.

Abstract

With this control method, a computer executes a process for: extracting a feature quantity from a photographed face image captured by a camera, using an extraction model for extracting a feature quantity from an image; generating an estimated face image from the extracted face image, using a generation model for generating an image from the feature quantity; storing difference information between the photographed face image captured by the camera and the generated estimated face image in a storage unit; newly generating an estimated face image from the extracted feature quantity using the generation model, or newly extracting a feature quantity from another photographed face image captured by the camera using the extraction model and newly generating an estimated face image from the newly extracted feature quantity using the generation model, when the extraction model is changed to a new extraction model for extracting a feature quantity from an image; and generating a feature quantity that is to be verified, during authentication, against the feature quantity extracted from the photographed face image captured by the camera, on the basis of the newly generated estimated face image and the difference information stored in the storage unit.

Description

制御方法、制御プログラム及び情報処理装置Control method, control program and information processing device
 本発明は、制御方法、制御プログラム及び情報処理装置に関する。 The present invention relates to a control method, a control program, and an information processing device.
 顔認証では、特徴量を抽出するモデル(以下、「抽出モデル」と呼ぶ)を用いてユーザの顔画像から抽出された特徴量をあらかじめ登録されたテンプレートと照合することにより認証が行われる。 In face authentication, authentication is performed by matching the feature amount extracted from the user's face image with a pre-registered template using a model for extracting the feature amount (hereinafter referred to as "extraction model").
特開2014-164697号公報JP 2014-164697 A 特開2020-126336号公報JP 2020-126336 A
 しかしながら、上記の抽出モデルが変更される場合、同じ顔画像が入力される場合であっても新旧の抽出モデルの間で出力される特徴量が異なる。そのため、ユーザの顔画像が改めて必要となるが、プライバシーの観点から、登録時に撮影された顔画像を保存しておくのは困難な一面がある。それ故、ユーザの顔画像が再撮影されねばテンプレートを更新するのが困難である。 However, when the above extraction model is changed, even if the same face image is input, the output feature values are different between the old and new extraction models. Therefore, the face image of the user is required again, but from the viewpoint of privacy, it is difficult to store the face image taken at the time of registration. Therefore, it is difficult to update the template unless the user's facial image is retaken.
 1つの側面では、テンプレートの更新時に顔画像の再撮影を不要化できる制御方法、制御プログラム及び情報処理装置を提供することを目的とする。 An object of one aspect is to provide a control method, a control program, and an information processing apparatus that can eliminate the need to re-capture a face image when updating a template.
 一態様にかかる制御方法では、画像から特徴量を抽出する抽出モデルを用いて、カメラにより撮影された撮影顔画像から特徴量を抽出し、特徴量から画像を生成する生成モデルを用いて、抽出した前記特徴量から推定顔画像を生成し、カメラにより撮影された前記撮影顔画像と、生成した前記推定顔画像との差分情報を記憶部に記憶し、前記抽出モデルを、画像から特徴量を抽出する新たな抽出モデルに変更する場合には、前記生成モデルを用いて、抽出した前記特徴量から新たに推定顔画像を生成するか、前記抽出モデルを用いて、カメラにより撮影された他の撮影顔画像から新たに特徴量を抽出し、前記生成モデルを用いて、新たに抽出した前記特徴量から新たに推定顔画像を生成し、新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とに基づき、認証時にカメラにより撮影される撮影顔画像から抽出される特徴量との照合対象となる特徴量を生成する、処理をコンピュータが実行する。 In a control method according to one aspect, an extraction model for extracting a feature amount from an image is used to extract a feature amount from a photographed face image taken by a camera, and a generation model is used to generate an image from the feature amount. An estimated face image is generated from the feature amount obtained, difference information between the photographed face image photographed by a camera and the generated estimated face image is stored in a storage unit, and the extraction model is obtained by extracting the feature amount from the image. When changing to a new extraction model to be extracted, the generation model is used to generate a new estimated face image from the extracted feature quantity, or the extraction model is used to generate another face image captured by a camera. extracting a new feature amount from the photographed face image, using the generation model to generate a new estimated face image from the newly extracted feature amount, storing the newly generated estimated face image and the storage unit; Based on the stored difference information, the computer executes a process of generating a feature quantity to be matched with a feature quantity extracted from a photographed face image photographed by a camera at the time of authentication.
 一実施形態によれば、テンプレートの更新時に顔画像の再撮影を不要化できる。 According to one embodiment, it is possible to eliminate the need to recapture a face image when updating a template.
図1は、顔認証システムの機能構成例を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration example of a face authentication system. 図2は、差分情報の算出例を示す模式図である。FIG. 2 is a schematic diagram showing an example of calculation of difference information. 図3は、テンプレートの探索例を示す模式図である。FIG. 3 is a schematic diagram showing an example of template search. 図4は、差分情報算出処理の手順を示すフローチャートである。FIG. 4 is a flowchart showing the procedure of difference information calculation processing. 図5は、テンプレート探索処理の手順を示すフローチャートである。FIG. 5 is a flowchart showing the procedure of template search processing. 図6は、ハードウェア構成例を示す図である。FIG. 6 is a diagram illustrating a hardware configuration example.
 以下、添付図面を参照して本願に係る制御方法、制御プログラム及び情報処理装置の実施例について説明する。各実施例には、あくまで1つの例や側面を示すに過ぎず、このような例示により数値や機能の範囲、利用シーンなどは限定されない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Hereinafter, embodiments of the control method, control program, and information processing apparatus according to the present application will be described with reference to the accompanying drawings. Each embodiment merely shows one example or one aspect, and such examples do not limit the numerical values, the range of functions, the usage scene, and the like. Further, each embodiment can be appropriately combined within a range that does not contradict the processing contents.
<システム構成>
 図1は、顔認証システムの機能構成例を示すブロック図である。図1に示す顔認証システム1は、クライアント端末30A~30Nにより撮影される顔画像に基づいてサーバ装置10が顔認証を実行する顔認証サービスを提供するものである。
<System configuration>
FIG. 1 is a block diagram showing a functional configuration example of a face authentication system. A face authentication system 1 shown in FIG. 1 provides a face authentication service in which a server device 10 performs face authentication based on face images captured by client terminals 30A to 30N.
 このような顔認証サービスの利用シーンの例として、次のようなものを挙げることができる。例えば、顔認証サービスは、レジ無し店舗や無人レジ、セルフレジなどで購入される商品の決済時の本人認証に利用することができる。この他、顔認証サービスは、任意のコンピュータやネットワーク、あるいはサービスへのログイン認証に利用したり、入退室管理システムにおけるドアやゲートにおける本人認証に利用したりすることができる。 The following are examples of usage scenarios for such face authentication services. For example, face authentication services can be used for personal authentication when paying for products purchased at stores without cash registers, unmanned checkouts, and self-checkouts. In addition, the face authentication service can be used for login authentication to any computer, network, or service, or for personal authentication at doors and gates in an entrance/exit management system.
 図1に示すように、顔認証システム1には、サーバ装置10と、クライアント端末30A~30Nとが含まれ得る。以下、クライアント端末30A~30Nの各々の個体を区別せずともよい場合、クライアント端末30A~30Nのことを「クライアント端末30」と記載する場合がある。 As shown in FIG. 1, the face authentication system 1 may include a server device 10 and client terminals 30A to 30N. Hereinafter, the client terminals 30A to 30N may be referred to as "client terminals 30" when individual client terminals 30A to 30N need not be distinguished.
 これらサーバ装置10及びクライアント端末30は、ネットワークNWを介して通信可能に接続され得る。例えば、ネットワークNWは、有線または無線を問わず、インターネットやLAN(Local Area Network)などの任意の種類の通信網であってよい。 The server device 10 and the client terminal 30 can be communicably connected via the network NW. For example, the network NW may be any type of communication network such as the Internet or a LAN (Local Area Network), regardless of whether it is wired or wireless.
 サーバ装置10は、上記の顔認証サービスをクライアント端末30に提供するコンピュータの一例に対応する。例えば、サーバ装置10は、情報処理装置の一例に対応し得る。一実施形態として、サーバ装置10は、上記の顔認証サービスを実現するソフトウェア、例えば顔認証プログラムを任意のコンピュータに実行させることにより、上記の顔認証サービスを提供できる。一例として、サーバ装置10は、上記の顔認証サービスをオンプレミスに提供するサーバとして実装することができる。他の一例として、サーバ装置10は、SaaS(Software as a Service)型のアプリケーションとして実装することで、上記の顔認証サービスをクラウドサービスとして提供することもできる。 The server device 10 corresponds to an example of a computer that provides the client terminal 30 with the face authentication service described above. For example, the server device 10 may correspond to an example of an information processing device. As one embodiment, the server device 10 can provide the face authentication service by causing an arbitrary computer to execute software for realizing the face authentication service, such as a face authentication program. As an example, the server device 10 can be implemented as a server that provides the face authentication service described above on-premises. As another example, the server device 10 can also provide the above face authentication service as a cloud service by implementing it as a SaaS (Software as a Service) type application.
 クライアント端末30は、上記の顔認証サービスの提供を受けるクライアントとして機能するコンピュータの一例に対応する。1つ側面として、クライアント端末30は、上記の顔認証サービスに加入する顧客、さらには上記の顔認証サービスにより制御される機器やソフトウェア、情報システムを利用するエンドユーザなどにより使用され得る。ここで言う「クライアント端末」というラベルは、あくまで機能の一面からの分類であってデバイスの種類やそのハードウェア構成は特定のものに限定されず、セルフレジやログイン認証、入退室管理などの各種の利用シーンに適合するものであってよい。例えば、クライアント端末30は、上記の顔認証サービスにより制御される機器や情報システムそのものに上記のクライアントの機能が組み込まれる形態で実現されてもよいし、これらとは独立するコンピュータとして実現されてもよい。 The client terminal 30 corresponds to an example of a computer functioning as a client receiving the face authentication service described above. As one aspect, the client terminal 30 can be used by a customer subscribing to the face authentication service, or by an end user who uses the equipment, software, or information system controlled by the face authentication service. The label "client terminal" mentioned here is only a classification from one aspect of function, and the type of device and its hardware configuration are not limited to a specific one, and various types of self-checkout, login authentication, room access management, etc. It may be suitable for the usage scene. For example, the client terminal 30 may be realized in a form in which the functions of the client are incorporated into the equipment or information system itself controlled by the face authentication service, or may be realized as a computer independent of these. good.
<顔認証サービスの機能分散>
 上記の顔認証サービスには、上記の抽出モデルを用いてユーザの顔画像から特徴量を抽出する抽出機能と、ユーザの顔画像から抽出された特徴量をあらかじめ登録されたテンプレートと照合する照合機能とが含まれ得る。
<Distribution of facial recognition service functions>
The above face authentication service has an extraction function that extracts feature values from the user's face image using the above extraction model, and a matching function that matches the feature values extracted from the user's face image with pre-registered templates. and can be included.
 このような顔認証サービスが図1に示す顔認証システム1に適用される場合、上記の抽出機能および上記の照合機能は、必ずしもサーバ装置10に集約されずともよい。あくまで一例として、上記の抽出機能は、クライアント端末30に搭載される一方で、上記の照合機能は、サーバ装置10に搭載されることとしてよい。  When such a face authentication service is applied to the face authentication system 1 shown in FIG. By way of example only, the above extracting function may be installed in the client terminal 30 , while the above matching function may be installed in the server device 10 .
 このように上記の顔認証サービスに含まれる機能を分散させることにより、サーバ装置10およびクライアント端末30の間で顔画像の代わりに特徴量を伝送させ、もってプライバシーの保護を実現する。 By distributing the functions included in the above-described face authentication service in this way, the feature quantity is transmitted between the server device 10 and the client terminal 30 instead of the face image, thereby realizing privacy protection.
<課題の一側面>
 上記の顔認証サービスでは、上記の抽出モデルを用いてユーザの顔画像から抽出された特徴量をあらかじめ登録されたテンプレートと照合することにより認証が行われる。
<One aspect of the challenge>
In the face authentication service described above, authentication is performed by matching the feature amount extracted from the user's face image using the extraction model described above with a pre-registered template.
 例えば、上記の抽出モデルは、顔認証サービスの精度を上げたり、あるいは顔認証サービスがサポートできるテンプレートの数を増加させたりする側面から変更される場合がある。このように抽出モデルが変更されると、同じ顔画像が入力される場合であっても、新旧の抽出モデルの間で出力される特徴量が異なる。 For example, the above extraction model may be changed to improve the accuracy of the face recognition service or increase the number of templates that the face recognition service can support. When the extraction model is changed in this way, even if the same face image is input, the output feature amounts are different between the old and new extraction models.
 このため、抽出モデルが変更される場合、テンプレートの登録者の顔が再撮影された顔画像を新しい抽出モデルに入力することにより、新しい抽出モデルにより生成される特徴量を新しいテンプレートとして登録し直す必要がある。 For this reason, when the extraction model is changed, by inputting the re-captured face image of the template registrant's face into the new extraction model, the feature amount generated by the new extraction model is re-registered as a new template. There is a need.
 抽出モデルの置き換え時に、わざわざ顔認証サービスのユーザごとに顔画像を再撮影するのは困難である。また、プライバシーの観点から、登録時に撮影した顔画像を保存しておくのも困難である。  When replacing the extracted model, it is difficult to retake the face image for each user of the face authentication service. Also, from the viewpoint of privacy, it is difficult to save face images taken at the time of registration.
<課題解決アプローチの一側面>
 そこで、本実施例では、本人特定が困難であり、かつ顔画像よりも小さなサイズのデータから登録時の顔画像に類似する顔画像を再現し、再現した顔画像を用いて新たな特徴量の抽出モデルに対応する特徴量を生成してテンプレートを更新する更新機能を実装する。
<One aspect of the problem-solving approach>
Therefore, in the present embodiment, a face image similar to the face image at the time of registration is reproduced from data whose size is smaller than the size of the face image, and the face image is difficult to identify. Implement an update function that generates feature values corresponding to the extraction model and updates the template.
 このような更新機能は、あくまで一例として、上記の顔認証サービスの一機能としてパッケージ化されることにより実現されてもよいし、上記の顔認証サービスにより呼び出されるライブラリやフレームワークとして実現されてもよい。 Such an update function may be realized by being packaged as one function of the above-mentioned face authentication service, or may be realized as a library or framework called by the above-mentioned face authentication service, just as an example. good.
 例えば、テンプレートの登録時には、上記の抽出モデルにより行われる変換の逆変換、すなわち特徴量から推定顔画像を生成する生成モデルを作成する。その上で、照合時に入力される入力顔画像と、生成モデルを用いて入力顔画像の特徴量から逆変換により生成される推定入力顔画像との差分情報を保存しておく。このような差分情報は、入力顔画像から特徴量により表現される情報が取り除かれた情報、言い換えれば特徴量の抽出時による次元圧縮で消失する情報に対応し、個人性の大部分がそぎ落とされる結果、プライバシーが保護された情報となり得る。この差分情報と、変更前の抽出モデルに対応する生成モデルを用いて旧テンプレートから生成される推定登録顔画像とが合成された再現登録顔画像を生成できる特徴量を、変更後の抽出モデルに対応する生成モデルを用いて探索することで、新テンプレートを決定する。顔情報空間に対して、情報が制限されたテンプレート空間で探索を行うことで、差分情報とテンプレートが含む誤差の影響を軽減することができ、歪みの少ないテンプレートを求めることができる。これにより、抽出モデルが変更される以前の照合時の情報を活用して新たなテンプレートを生成できる。 For example, when registering a template, inverse transformation of the transformation performed by the above extraction model, that is, a generation model that generates an estimated face image from the feature amount is created. In addition, difference information between the input face image input at the time of matching and the estimated input face image generated by inverse transformation from the feature amount of the input face image using the generation model is stored. Such difference information corresponds to information obtained by removing the information represented by the feature values from the input face image, in other words, it corresponds to the information that is lost due to dimensional compression at the time of feature value extraction, and most of the individuality is removed. As a result, privacy-protected information can be obtained. The feature amount that can generate a reproduced registered face image by combining this difference information and the estimated registered face image generated from the old template using the generation model corresponding to the extraction model before change is added to the extraction model after change. A new template is determined by searching with the corresponding generative model. By searching the face information space in the template space in which the information is limited, it is possible to reduce the influence of errors contained in the difference information and the template, and to obtain a template with little distortion. As a result, it is possible to generate a new template by utilizing the information at the time of matching before the extraction model is changed.
 したがって、本実施例に係る更新機能によれば、テンプレートの更新時に顔画像の再撮影を不要化できる。 Therefore, according to the update function according to the present embodiment, it is possible to eliminate the need to re-capture the face image when updating the template.
<クライアント端末30の構成>
 図1には、上記のテンプレートの更新機能がパッケージ化された顔認証サービスに含まれる機能に対応するブロックがサーバ装置10およびクライアント端末30ごとに模式化されている。なお、図1には、上記の顔認証サービスに含まれる機能全般が示されているが、上記のテンプレートの更新機能に対応する機能部のみがサーバ装置10およびクライアント端末30に備わることを妨げない。
<Configuration of Client Terminal 30>
In FIG. 1, blocks corresponding to the functions included in the face authentication service in which the template updating function is packaged are schematically shown for each of the server device 10 and the client terminal 30. FIG. Although FIG. 1 shows all the functions included in the above-described face authentication service, the server device 10 and the client terminal 30 may be provided with only the function units corresponding to the above-described template update function. .
 図1に示すように、クライアント端末30は、顔画像取得部31と、特徴量抽出部33と、認証結果受付部35と、差分情報算出部37と、差分情報記憶部39とを有する。 As shown in FIG. 1, the client terminal 30 has a face image acquisition section 31, a feature quantity extraction section 33, an authentication result reception section 35, a difference information calculation section 37, and a difference information storage section 39.
 図1に示す顔画像取得部31、特徴量抽出部33、認証結果受付部35および差分情報算出部37などの機能部は、ハードウェアプロセッサにより仮想的に実現される。例えば、ハードウェアプロセッサの例として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-Purpose computing on GPU)が挙げられる。プロセッサは、図示しない記憶装置、例えばHDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などからOS(Operating System)の他、クライアント用の顔認証プログラムなどのプログラムを読み出す。その上で、プロセッサは、上記の顔認証プログラムを実行することにより、RAM(Random Access Memory)等のメモリ上に上記の機能部に対応するプロセスを展開する。このように、上記の顔認証プログラムが実行される結果、上記の機能部がプロセスとして仮想的に実現される。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより上記の機能部が実現されることとしてもかまわない。この他、上記の機能部または機能部の一部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることとしてもかまわない。 Functional units such as the face image acquisition unit 31, the feature amount extraction unit 33, the authentication result reception unit 35, and the difference information calculation unit 37 shown in FIG. 1 are virtually implemented by a hardware processor. For example, hardware processors include CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), and GPGPU (General-Purpose computing on GPU). The processor reads an OS (Operating System) from a storage device (not shown), such as a HDD (Hard Disk Drive), an optical disk, or an SSD (Solid State Drive), as well as programs such as a face authentication program for clients. Then, the processor develops processes corresponding to the above functional units on a memory such as RAM (Random Access Memory) by executing the above face authentication program. In this way, as a result of executing the face authentication program, the functional units are virtually implemented as processes. Here, a CPU and an MPU are illustrated as examples of processors, but the above functional units may be implemented by any processor, regardless of whether it is a general-purpose type or a specialized type. In addition, the above functional units or part of the functional units may be realized by hardwired logic such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
 上記の差分情報記憶部39などの記憶部は、HDDや光ディスク、SSDなどの補助記憶装置として実現したり、補助記憶装置が有する記憶領域の一部を割り当てることにより実現したりすることができる。 A storage unit such as the difference information storage unit 39 can be realized as an auxiliary storage device such as an HDD, an optical disk, or an SSD, or by allocating a part of the storage area of the auxiliary storage device.
 顔画像取得部31は、顔画像を取得する機能部である。一実施形態として、顔画像取得部31は、顔画像を撮像する撮像装置、いわゆるカメラにより実現することができる。1つの側面として、テンプレートの登録時には、顔画像取得部31は、顔認証サービスの正当なユーザとして登録される登録者の顔が撮影された顔画像を取得することができる。他の側面として、照合時には、顔画像取得部31は、クライアント端末30のユーザの顔が撮影された顔画像を取得することができる。これら両者のラベルを区別する側面から、登録者の顔画像のことを「登録顔画像」と記載すると共に、照合時に入力される顔画像のことを「入力顔画像」と記載する場合がある。なお、ここでは、顔画像取得部31が登録顔画像および入力顔画像を取得する例を挙げたが、登録顔画像または入力顔画像が顔画像取得部31と同様の機能を有する他の顔画像取得部により取得されることとしてもよい。 The facial image acquisition unit 31 is a functional unit that acquires facial images. As one embodiment, the face image acquisition unit 31 can be realized by an imaging device that captures a face image, a so-called camera. As one aspect, when registering a template, the face image acquisition unit 31 can acquire a face image in which the face of a registrant who is registered as an authorized user of the face authentication service is photographed. As another aspect, at the time of collation, the face image acquisition unit 31 can acquire a face image in which the face of the user of the client terminal 30 is photographed. From the standpoint of distinguishing between these two labels, the face image of the registrant may be referred to as a "registered face image", and the face image input at the time of matching may be referred to as an "input face image". Here, an example in which the face image acquisition unit 31 acquires the registered face image and the input face image is given, but the registered face image or the input face image may be any other face image having the same function as that of the face image acquisition unit 31. It may be acquired by an acquisition unit.
 特徴量抽出部33は、抽出モデルを用いて顔画像から特徴量を抽出する機能部である。ここで、上記の抽出モデルには、ディープラーニング等により埋め込み空間の学習が行われたモデル、例えばCNN(Convolutional Neural Network)などを用いることができる。1つの側面として、テンプレートの登録時には、特徴量抽出部33は、顔画像取得部31により取得される登録顔画像を埋め込み空間が学習済みであるCNNへ入力することにより、CNNが出力する埋め込みベクトルを登録特徴量、すなわちテンプレートとして抽出することができる。このように抽出された登録特徴量は、任意の暗号方式、例えば公開鍵暗号などのアルゴリズムにしたがって暗号化した上でサーバ装置10へ伝送される。他の側面として、照合時には、特徴量抽出部33は、顔画像取得部31により取得される入力顔画像を埋め込み空間が学習済みであるCNNへ入力することにより、CNNが出力する埋め込みベクトルを入力特徴量として抽出することができる。そして、特徴量抽出部33は、入力特徴量とテンプレートの照合リクエストをサーバ装置10へ伝送する。これら入力特徴量および登録特徴量は、あくまで一例として、0または1の2値が並んだビット列、いわゆるバイナリデータであってよい。なお、上記の埋め込みベクトルは、特徴量のあくまで一例に過ぎず、他の種類の特徴量、例えばSIFT(Scale-Invariant Feature Transform)などが抽出されることとしてもよい。なお、ここでは、特徴量抽出部33が登録特徴量および入力特徴量を抽出する例を挙げたが、登録特徴量または入力特徴量が特徴量抽出部33と同様の機能を有する他の特徴量抽出部により取得されることとしてもよい。 The feature amount extraction unit 33 is a functional unit that extracts feature amounts from face images using an extraction model. Here, for the above extraction model, a model in which embedding space learning is performed by deep learning or the like, for example, a CNN (Convolutional Neural Network) or the like can be used. As one aspect, when registering a template, the feature quantity extraction unit 33 inputs the registered face image acquired by the face image acquisition unit 31 to the CNN whose embedding space has been learned, so that the embedding vector output by the CNN is can be extracted as a registered feature quantity, that is, as a template. The registered feature quantity extracted in this way is encrypted according to an arbitrary encryption method, for example, an algorithm such as public key cryptography, and then transmitted to the server device 10 . As another aspect, at the time of matching, the feature amount extraction unit 33 inputs the input face image acquired by the face image acquisition unit 31 to the CNN whose embedding space has already been learned, thereby inputting the embedding vector output by the CNN. It can be extracted as a feature amount. Then, the feature amount extraction unit 33 transmits a request for matching the input feature amount and the template to the server device 10 . These input feature amount and registered feature amount may be a bit string in which binary values of 0 or 1 are arranged, that is, so-called binary data, by way of example only. Note that the embedding vector described above is merely an example of the feature quantity, and other types of feature quantity such as SIFT (Scale-Invariant Feature Transform) may be extracted. Here, an example in which the feature amount extraction unit 33 extracts the registered feature amount and the input feature amount is given, but the registered feature amount or the input feature amount may be any other feature amount having the same function as the feature amount extraction unit 33. It may be acquired by an extraction unit.
 認証結果受付部35は、サーバ装置10による認証結果を受け付ける機能部である。1つの側面として、認証結果受付部35は、照合時には、照合リクエストに対するレスポンスとして、認証成功(認証OK)または認証失敗(認証NG)などの認証結果を受け付ける。このような認証結果は、上記の顔認証サービスにより制御される機器やソフトウェア、情報システムに出力される一面を有する他、後述の通り、上記の差分情報の算出に用いられる側面を有する。 The authentication result reception unit 35 is a functional unit that receives the authentication result from the server device 10 . As one aspect, the authentication result accepting unit 35 accepts an authentication result such as authentication success (authentication OK) or authentication failure (authentication NG) as a response to a matching request at the time of matching. Such an authentication result has an aspect that it is output to the equipment, software, and information system controlled by the face authentication service, and also has an aspect that it is used for calculating the difference information, as described later.
 差分情報算出部37は、差分情報を算出する機能部である。一実施形態として、差分情報算出部37は、認証成功時には、テンプレートの登録時に用いられた抽出モデルにより行われる変換の逆変換を行う生成モデルを用いて入力特徴量から生成される推定入力顔画像と、オリジナルの入力顔画像との差分情報を算出する。このように算出された差分情報は、認証に成功した登録者の識別情報に関連付けて差分情報記憶部39へ保存される。 The difference information calculation unit 37 is a functional unit that calculates difference information. As one embodiment, the difference information calculation unit 37, when the authentication is successful, calculates the estimated input face image generated from the input feature amount using a generation model that performs inverse transformation of the transformation performed by the extraction model used at the time of template registration. , and difference information from the original input face image is calculated. The difference information calculated in this way is stored in the difference information storage unit 39 in association with the identification information of the successfully authenticated registrant.
 ここで、上記の生成モデルには、あくまで一例として、非特許文献1に記載されるCNNなどを用いることができる。例えば、生成モデルは、テンプレートの登録時に作成できる。あくまで一例として、生成モデルは、オリジナルの登録顔画像と、オリジナルの登録顔画像から抽出された登録特徴量を生成モデルへ入力することにより生成モデルが出力する推定登録顔画像との差分を最小化する訓練を実行することにより作成される。 Here, the CNN described in Non-Patent Document 1 can be used as the above generative model, just as an example. For example, a generative model can be created during template registration. As an example, the generative model minimizes the difference between the original registered face image and the estimated registered face image output by the generative model by inputting the registered features extracted from the original registered face image into the generative model. created by performing training to
 例えば、抽出モデルEを用いて顔画像Iから特徴量Fを抽出する操作をF=E(I)と表現する場合、変更前のテンプレート、すなわち登録特徴量Faは、Fa=Ea(Ie)と表現できる。ここで言う「Ea」は、変更前の抽出モデルを指し、また、「Ie」は、登録顔画像を指す。このような抽出モデルEaに対応する生成モデルDaを作成する場合、生成モデルDaは、|Ie-Da(Fa)|を最小化することにより作成することができる。このような生成モデルDaを用いて、差分情報算出部37は、差分情報Rvを算出する。 For example, when an operation for extracting a feature amount F from a face image I using an extraction model E is expressed as F=E(I), the template before change, that is, the registered feature amount Fa is Fa=Ea(Ie). can be expressed. Here, "Ea" refers to the extraction model before change, and "Ie" refers to the registered face image. When creating a generative model Da corresponding to such an extracted model Ea, the generative model Da can be created by minimizing |Ie-Da(Fa)|. Using such a generative model Da, the difference information calculator 37 calculates the difference information Rv.
 図2は、差分情報の算出例を示す模式図である。図2に示すように、顔画像取得部31により入力顔画像Ivが取得されると、特徴量抽出部33は、入力顔画像Ivを変更前の抽出モデルEaへ入力する。すると、入力顔画像Ivが入力された変更前の抽出モデルEaは、入力特徴量Fav=Ea(Iv)を出力する。このようにして得られた入力特徴量Favと変更前のテンプレートFaとの照合を実施する側面から、入力特徴量Favを含む照合リクエストがクライアント端末30からサーバ装置10へ伝送される。 FIG. 2 is a schematic diagram showing an example of calculation of difference information. As shown in FIG. 2, when the face image acquisition unit 31 acquires the input face image Iv, the feature quantity extraction unit 33 inputs the input face image Iv to the extraction model Ea before change. Then, the extraction model Ea before change to which the input face image Iv is input outputs the input feature amount Fav=Ea(Iv). A matching request including the input feature value Fav is transmitted from the client terminal 30 to the server device 10 in order to perform matching between the input feature value Fav thus obtained and the template Fa before change.
 この照合リクエストに対するレスポンスとして、認証結果受付部35により認証OKの認証結果が受け付けられた場合、差分情報算出部37は、認証OKの認証結果が得られた入力特徴量Favを変更前の生成モデルDaへ入力する。これにより、推定入力顔画像Da(Fav)が得られる。その後、差分情報算出部37は、オリジナルの入力顔画像Ivから推定入力顔画像Da(Fav)を減算する計算、すなわちIv-Da(Fav)により、差分情報Rvを算出する。このようにして得られた差分情報Rvは、認証OKの認証結果が得られた登録者の識別情報、例えばIDなどに関連付けて差分情報記憶部39へ保存される。 When the authentication result accepting unit 35 accepts the authentication result of authentication OK as a response to this collation request, the difference information calculation unit 37 converts the input feature amount Fav for which the authentication result of authentication OK is obtained into the generation model before the change. Input to Da. As a result, an estimated input face image Da(Fav) is obtained. Thereafter, the difference information calculator 37 calculates difference information Rv by subtracting the estimated input face image Da(Fav) from the original input face image Iv, ie, Iv-Da(Fav). The difference information Rv thus obtained is stored in the difference information storage unit 39 in association with the identification information of the registrant for whom the authentication result of OK is obtained, such as an ID.
 このような差分情報は、変更前の抽出モデルEaが特徴量Favを抽出する際にそぎ落とした残差であるので、本人特定が困難なデータであり、かつ顔画像よりもデータサイズが小さい。 Such difference information is the residual error that was removed when the extraction model Ea before the change extracted the feature amount Fav, so it is difficult to identify the person, and the data size is smaller than that of the face image.
 ここで、差分情報の算出に入力顔画像Ivを用いることとしたのは、テンプレートの登録時点からの経年変化に対応する差分情報を算出できる側面があるためである。なお、差分情報の算出には、必ずしも入力顔画像Ivを用いずともよい。例えば、差分情報の算出に登録顔画像を用いる場合、テンプレートの登録時に登録顔画像Ieを用いて差分情報を算出しておくことができる。その後、テンプレートの登録時からの経過時間が閾値以上である場合、入力顔画像Ivを用いて差分情報を算出し、登録顔画像Ieを用いて算出された差分情報から入力顔画像Ivを用いて算出された差分情報へ更新することもできる。 The reason why the input face image Iv is used to calculate the difference information is that the difference information can be calculated in response to changes over time since the template was registered. Note that the input face image Iv may not necessarily be used for calculating the difference information. For example, if a registered face image is used to calculate the difference information, the difference information can be calculated using the registered face image Ie when registering the template. Thereafter, if the elapsed time from the template registration is equal to or greater than the threshold, difference information is calculated using the input face image Iv, and the input face image Iv is calculated from the difference information calculated using the registered face image Ie. It is also possible to update to the calculated difference information.
 また、ここでは、差分情報の算出に推定入力顔画像Da(Fav)を用いる例を挙げたが、必ずしも推定入力顔画像Da(Fav)を用いずともよい。例えば、差分情報の算出に推定登録顔画像Da(Fa)を用いることができるのは当然であって、推定登録顔画像Da(Fa)に対する差分を計算する対象が入力顔画像Ivまたは登録顔画像Ieのいずれであってもよいのは言うまでもない。 Also, here, an example of using the estimated input face image Da(Fav) to calculate the difference information has been given, but the estimated input face image Da(Fav) may not necessarily be used. For example, it is natural that the estimated registered face image Da(Fa) can be used to calculate the difference information, and the target for calculating the difference with respect to the estimated registered face image Da(Fa) is the input face image Iv or the registered face image. Needless to say, any of Ie may be used.
<サーバ装置10の構成>
 次に、本実施例に係るサーバ装置10の機能構成例について説明する。図1に示すように、サーバ装置10は、照合部11と、テンプレート記憶部13と、変更受付部15と、テンプレート探索部17とを有する。
<Configuration of server device 10>
Next, a functional configuration example of the server device 10 according to this embodiment will be described. As shown in FIG. 1 , the server device 10 has a matching section 11 , a template storage section 13 , a change receiving section 15 and a template searching section 17 .
 図1に示す照合部11、変更受付部15およびテンプレート探索部17などの機能部は、ハードウェアプロセッサにより仮想的に実現される。例えば、ハードウェアプロセッサの例として、CPUやMPU、GPU、GPGPUが挙げられる。プロセッサは、図示しないストレージからOSの他、サーバ用の顔認証プログラムなどのプログラムを読み出す。その上で、プロセッサは、上記の顔認証プログラムを実行することにより、RAM等のメモリ上に上記の機能部に対応するプロセスを展開する。このように、上記の顔認証プログラムが実行される結果、上記の機能部がプロセスとして仮想的に実現される。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより上記の機能部が実現されることとしてもかまわない。この他、上記の機能部または機能部の一部は、ハードワイヤードロジックによって実現されることとしてもかまわない。 Functional units such as the matching unit 11, the change receiving unit 15, and the template searching unit 17 shown in FIG. 1 are virtually implemented by a hardware processor. For example, hardware processors include CPUs, MPUs, GPUs, and GPGPUs. The processor reads the OS and programs such as a face authentication program for the server from a storage (not shown). Then, the processor develops processes corresponding to the above functional units on a memory such as a RAM by executing the above face authentication program. In this way, as a result of executing the face authentication program, the functional units are virtually implemented as processes. Here, a CPU and an MPU are illustrated as examples of processors, but the above functional units may be implemented by any processor, regardless of whether it is a general-purpose type or a specialized type. In addition, the above functional unit or part of the functional unit may be realized by hardwired logic.
 上記のテンプレート記憶部13などの記憶部は、HDDや光ディスク、SSDなどの補助記憶装置として実現したり、補助記憶装置が有する記憶領域の一部を割り当てることにより実現したりすることができる。 A storage unit such as the template storage unit 13 can be implemented as an auxiliary storage device such as an HDD, an optical disk, or an SSD, or by allocating a part of the storage area of the auxiliary storage device.
 照合部11は、入力特徴量と、テンプレート記憶部13に記憶されたテンプレートとを照合する機能部である。1つの側面として、照合部11は、照合リクエストを受け付けると、テンプレート記憶部13に記憶されたテンプレートごとに、当該テンプレート、すなわち登録特徴量と、照合リクエストで指定された入力特徴量との類似度を算出する。そして、照合部11は、類似度が閾値以上であるテンプレートが存在する場合、認証成功(認証OK)と判定する。この場合、類似度が閾値以上であるテンプレートに関連付けられた識別情報により登録者を識別できる。その一方、照合部11は、類似度が閾値以上であるテンプレートが存在しない場合、認証失敗(認証NG)と判定する。その後、照合部11は、認証成功または認証失敗の認証結果をクライアント端末30へ返信する。このとき、認証成功時には、登録者の識別情報を併せて返信することもできる。なお、ここでは、認証方式が1対N認証である例を挙げたが、認証方式は1対1認証であってもよい。この場合、クライアント端末30から入力特徴量と共に伝送される識別情報に対応付けられたテンプレートのみに絞り込んで照合を実行できるのは言うまでもない。 The collation unit 11 is a functional unit that collates the input feature quantity and the templates stored in the template storage unit 13 . As one aspect, when receiving a matching request, the matching unit 11 determines the degree of similarity between each template stored in the template storage unit 13, that is, the registered feature amount, and the input feature amount specified in the matching request. Calculate Then, if there is a template with a degree of similarity equal to or greater than the threshold, the matching unit 11 determines that the authentication is successful (authentication OK). In this case, the registrant can be identified by the identification information associated with the template whose degree of similarity is greater than or equal to the threshold. On the other hand, if there is no template with a degree of similarity greater than or equal to the threshold, the matching unit 11 determines authentication failure (authentication NG). After that, the matching unit 11 returns the authentication result of authentication success or authentication failure to the client terminal 30 . At this time, when the authentication is successful, the identification information of the registrant can also be sent back. Note that although the example in which the authentication method is one-to-N authentication is given here, the authentication method may be one-to-one authentication. In this case, it goes without saying that matching can be executed by narrowing down to only the templates associated with the identification information transmitted from the client terminal 30 together with the input feature amount.
 変更受付部15は、抽出モデルの変更リクエストを受け付ける機能部である。あくまで一例として、変更受付部15は、変更後の抽出モデルおよび変更後の生成モデルの指定と共に変更リクエストを受け付ける。このような変更リクエストは、上記の顔認証サービスの顧客により使用される任意の端末、例えばクライアント端末30やそれ以外のコンピュータを介して受け付けることができる。 The change acceptance unit 15 is a functional unit that accepts a change request for an extraction model. As an example only, the change receiving unit 15 receives a change request together with designation of a changed extraction model and a changed generation model. Such a change request can be received via any terminal used by the customer of the face authentication service, such as the client terminal 30 or other computer.
 テンプレート探索部17は、変更後の抽出モデルに対応するテンプレートを探索する機能部である。以下、変更後の抽出モデルに対応するテンプレートのラベルを、変更前の抽出モデルに対応するテンプレートのラベルと区別する側面から、前者のことを「新テンプレート」と記載すると共に後者のことを「旧テンプレート」と記載する場合がある。 The template search unit 17 is a functional unit that searches for a template corresponding to the changed extraction model. In the following, from the aspect of distinguishing the label of the template corresponding to the extraction model after change from the label of the template corresponding to the extraction model before change, the former is described as "new template" and the latter is referred to as "old template". may be referred to as a "template".
 一実施形態として、テンプレート探索部17は、抽出モデルの変更リクエストが受け付けられた場合、テンプレート記憶部13に記憶されたテンプレートに関連付けられた識別情報、すなわち顔認証サービスの登録者ごとに以下の処理を実行する。例えば、テンプレート探索部17は、M(≦N)人の登録者の識別情報のうち1人の識別情報を選択する。続いて、テンプレート探索部17は、クライアント端末30A~30Nのうち、選択中の識別情報に対応する差分情報が差分情報記憶部39に登録されたK(≦M)個のクライアント端末30からK個の差分情報を取得する。そして、テンプレート探索部17は、K個の差分情報の代表値、例えば平均値や中央値、最頻値などを算出する。このような代表値の算出により、K個の差分情報の算出に用いられた入力顔画像の撮影条件、例えば撮影時の顔の向きや照明のばらつきを平滑化する。その上で、テンプレート探索部17は、差分情報の代表値と、変更前の生成モデルを用いて旧テンプレートから生成される推定登録顔画像とが合成された再現登録顔画像を生成できる特徴量を、変更後の生成モデルを用いて探索する。 As an embodiment, when a request for changing an extraction model is accepted, the template searching unit 17 performs the following processing for each identification information associated with a template stored in the template storage unit 13, that is, for each registrant of the face authentication service. to run. For example, the template search unit 17 selects the identification information of one of the identification information of M (≦N) registrants. Next, the template searching unit 17 retrieves K pieces of information from K (≦M) client terminals 30 among the client terminals 30A to 30N whose difference information corresponding to the identification information being selected is registered in the difference information storage unit 39. Get the difference information of Then, the template search unit 17 calculates a representative value of the K pieces of difference information, such as an average value, a median value, or a mode. Calculation of such a representative value smoothes variations in photographing conditions of the input face images used to calculate the K pieces of difference information, such as face orientation and illumination during photographing. Then, the template searching unit 17 finds a feature amount that can generate a reproduced registered face image obtained by synthesizing the representative value of the difference information and the estimated registered face image generated from the old template using the generation model before the change. , is searched using the modified generative model.
 図3は、テンプレートの探索例を示す模式図である。図3に示すように、テンプレート探索部17は、クライアント端末30から取得される差分情報Rv=(Iv-Da(Fav))と、旧テンプレート、すなわち旧登録特徴量を変更前の生成モデルDaへ入力することにより得られる推定登録顔画像とを合成する。このような合成により、オリジナルの登録顔画像Ieが疑似的に再現された再現登録顔画像Da(Fa)+Rvが得られる。そして、テンプレート探索部17は、再現登録顔画像Da(Fa)+Rvを、変更受付部15により指定が受け付けられた変更後の抽出モデルEbへ入力する。すると、再現登録顔画像Da(Fa)+Rvが入力された変更後の抽出モデルEbは、変更後の抽出モデルEbに対応する新テンプレートFbを探索する初期値Fb0=Eb(Da(Fa)+Rv)を出力する。 FIG. 3 is a schematic diagram showing an example of template search. As shown in FIG. 3, the template searching unit 17 converts the difference information Rv=(Iv−Da(Fav)) obtained from the client terminal 30 and the old template, that is, the old registered feature value into the generated model Da before change. Synthesize with an estimated registered face image obtained by inputting. By such synthesis, a reproduced registered face image Da(Fa)+Rv in which the original registered face image Ie is simulated is obtained. Then, the template searching unit 17 inputs the reproduced registered face image Da(Fa)+Rv to the changed extraction model Eb whose designation is accepted by the change accepting unit 15 . Then, the modified extraction model Eb to which the reproduced registered face image Da(Fa)+Rv has been input has an initial value Fb0=Eb(Da(Fa)+Rv) for searching for a new template Fb corresponding to the modified extraction model Eb. to output
 このように新テンプレートの初期値Fb0が算出された後、テンプレート探索部17は、新テンプレートの初期値Fb0を変更後の生成モデルDbへ入力する。これにより、変更後の生成モデルDbは、推定登録顔画像Db(Fb0)を出力する。そして、テンプレート探索部17は、新テンプレートの初期値Fb0の損失、あるいはコストC0を評価する側面から、再現登録顔画像Da(Fa)+Rvおよび推定登録顔画像Db(Fb0)の誤差|Da(Fa)+Rv-Db(Fb0)|を算出する。 After the initial value Fb0 of the new template is calculated in this way, the template searching unit 17 inputs the initial value Fb0 of the new template to the modified generation model Db. As a result, the modified generation model Db outputs an estimated registered face image Db (Fb0). Then, the template searching unit 17 calculates the error |Da(Fa )+Rv−Db(Fb0)|.
 これに並行して、テンプレート探索部17は、新テンプレートの初期値Fb0に含まれるNビットのうち先頭のビットを反転させることにより新テンプレートの初期値Fb0から近傍値Fb’を算出する。その上で、テンプレート探索部17は、新テンプレートの近傍値Fb’を変更後の生成モデルDbへ入力する。これにより、変更後の生成モデルDbは、推定登録顔画像Db(Fb’)を出力する。そして、テンプレート探索部17は、新テンプレートの近傍値Fb’の損失、あるいはコストCを評価する側面から、再現登録顔画像Da(Fa)+Rvおよび推定登録顔画像Db(Fb’)の誤差|Da(Fa)+Rv-Db(Fb’)|を算出する。 In parallel with this, the template searching unit 17 calculates the neighborhood value Fb' from the initial value Fb0 of the new template by inverting the leading bit among the N bits included in the initial value Fb0 of the new template. Then, the template searching unit 17 inputs the neighborhood value Fb' of the new template to the modified generative model Db. As a result, the modified generative model Db outputs an estimated registered face image Db (Fb'). Then, from the aspect of evaluating the loss of the neighborhood value Fb' or the cost C of the new template, the template searching unit 17 calculates the error |Da (Fa)+Rv-Db(Fb')| is calculated.
 これらコストC0およびコストCの大小関係を比較することにより、テンプレート探索部17は、初期値Fb0および近傍値Fb’のうちいずれが新テンプレートとして適切であるのかを評価する。例えば、テンプレート探索部17は、コストCがコストC0よりも小さいか否か、すなわちC<C0であるか否かを判定する。 By comparing the size relationship between these costs C0 and C, the template searching unit 17 evaluates which of the initial value Fb0 and the neighboring value Fb' is appropriate as the new template. For example, the template searching unit 17 determines whether or not the cost C is smaller than the cost C0, that is, whether or not C<C0.
 ここで、C<C0である場合、近傍値Fb’の誤差の方が初期値Fb0の誤差よりも小さいことが判明するので、近傍値Fb’の方が初期値Fb0よりも新テンプレートとして適切であると評価できる。この場合、テンプレート探索部17は、新テンプレートFbを初期値Fb0から近傍値Fb’へ更新する。 Here, when C<C0, it is found that the error of the neighborhood value Fb' is smaller than the error of the initial value Fb0, so the neighborhood value Fb' is more suitable as the new template than the initial value Fb0. It can be evaluated that there is. In this case, the template searching unit 17 updates the new template Fb from the initial value Fb0 to the neighboring value Fb'.
 一方、C<C0でない場合、すなわちC0≦Cである場合、初期値Fb0の誤差の方が近傍値Fb’の誤差よりも小さいことが判明するので、初期値Fb0が近傍値Fb’よりも新テンプレートとして適切であると評価できる。この場合、テンプレート探索部17は、新テンプレートの近傍値Fb’に含まれるNビットのうち先頭のビットを再反転させる。これにより、新テンプレートFbが近傍値Fb’から初期値Fb0へ戻される結果、新テンプレートFbの更新は実施されない。 On the other hand, if C<C0 does not hold, that is, if C0≦C, the error of the initial value Fb0 is found to be smaller than the error of the neighboring value Fb′, so the initial value Fb0 is newer than the neighboring value Fb′. It can be evaluated as appropriate as a template. In this case, the template searching unit 17 re-inverts the first bit of the N bits included in the neighborhood value Fb' of the new template. As a result, the new template Fb is returned from the neighboring value Fb' to the initial value Fb0, and the new template Fb is not updated.
 その後、テンプレート探索部17は、新テンプレートFbに含まれるNビットの先頭から2番目のビットから最後尾のビットまでビット反転による近傍値の算出を算出しつつ、コストの比較結果に応じて新テンプレートを更新する探索を繰り返す。 After that, the template searching unit 17 calculates a neighborhood value by bit inversion from the second bit to the last bit of the N bits included in the new template Fb, and calculates the new template according to the cost comparison result. Repeat the search to update .
 ここで、上記の探索は、次のような収束条件を満たすまで繰り返すことができる。1つ目として、コストCがコスト判定閾値CTh未満であるといった条件が挙げられる。これにより、コストCが十分に小さくなるまで探索が繰り返される。2つ目として、新テンプレートFbに含まれるビットの反転を先頭から末尾まで繰り返す試行により新テンプレートのエポックが1つ更新されるとしたとき、エポック数Eがエポック判定閾値EThを超過するといった条件が挙げられる。これにより、新テンプレートFbの世代が十分に更新されるまで探索が繰り返される。これらの条件のいずれかを満たす場合、変更後の生成モデルDbを用いて再現登録顔画像Da(Fa)+Rvを生成できる新テンプレートFbを探索できたとみなすことができる。なお、上記2つの条件以外にも他の条件、例えば新テンプレートFbの更新量またはその変化量が閾値未満であるといった条件が新テンプレートFbの収束条件として用いられてもよい。 Here, the above search can be repeated until the following convergence conditions are met. The first condition is that the cost C is less than the cost determination threshold value CTh. This repeats the search until the cost C becomes sufficiently small. Second, when one epoch of the new template is updated by repeating the inversion of the bits included in the new template Fb from the beginning to the end, there is a condition that the number of epochs E exceeds the epoch determination threshold ETh. mentioned. This repeats the search until the generation of the new template Fb is sufficiently updated. If any one of these conditions is satisfied, it can be considered that a new template Fb capable of generating a reproduced registered face image Da(Fa)+Rv using the modified generation model Db has been found. In addition to the above two conditions, other conditions, such as a condition that the amount of update of the new template Fb or the amount of change thereof is less than a threshold, may be used as the convergence condition of the new template Fb.
 このような探索の終了後、テンプレート探索部17は、テンプレート記憶部13に記憶されたテンプレートのうち、選択中の識別情報に対応する登録者のテンプレートの値を旧テンプレートFaから新テンプレートFbへ更新する。 After such a search is completed, the template search unit 17 updates the value of the template of the registrant corresponding to the identification information being selected among the templates stored in the template storage unit 13 from the old template Fa to the new template Fb. do.
<処理の流れ>
 次に、本実施例に係る顔認証システムの処理の流れについて説明する。ここでは、クライアント端末30により実行される(1)差分情報算出処理を説明した後に、サーバ装置10により実行される(2)テンプレート探索処理を説明することとする。
<Process flow>
Next, the processing flow of the face authentication system according to this embodiment will be described. Here, (1) difference information calculation processing executed by the client terminal 30 will be described, and then (2) template search processing executed by the server device 10 will be described.
(1)差分情報算出処理
 図4は、差分情報算出処理の手順を示すフローチャートである。この処理は、あくまで一例として、顔画像取得部31により入力顔画像が取得された場合に開始できる。図4に示すように、顔画像取得部31により入力顔画像が取得されると(ステップS101)、特徴量抽出部33は、ステップS101で取得された入力顔画像から抽出モデルを用いて入力特徴量を抽出する(ステップS102)。
(1) Difference Information Calculation Processing FIG. 4 is a flowchart showing the procedure of difference information calculation processing. This processing can be started when an input face image is acquired by the face image acquisition unit 31, as an example only. As shown in FIG. 4, when an input face image is acquired by the face image acquisition unit 31 (step S101), the feature amount extraction unit 33 extracts input features from the input face image acquired in step S101 using an extraction model. Extract the quantity (step S102).
 続いて、特徴量抽出部33は、ステップS102で抽出された入力特徴量とテンプレートとの照合リクエストをサーバ装置10へ伝送する(ステップS103)。その後、認証結果受付部35は、照合リクエストに対するレスポンスとして、認証成功(認証OK)または認証失敗(認証NG)などの認証結果を待機する(ステップS104)。 Subsequently, the feature amount extraction unit 33 transmits a matching request between the input feature amount extracted in step S102 and the template to the server device 10 (step S103). After that, the authentication result receiving unit 35 waits for an authentication result such as authentication success (authentication OK) or authentication failure (authentication NG) as a response to the collation request (step S104).
 そして、サーバ装置10からのレスポンスとして得られた認証結果が認証OKである場合(ステップS105Yes)、差分情報算出部37は、次のような処理を実行する。すなわち、差分情報算出部37は、ステップS102で抽出された入力特徴量を生成モデルへ入力することにより、推定入力顔画像を生成する(ステップS106)。 Then, if the authentication result obtained as a response from the server device 10 is authentication OK (step S105 Yes), the difference information calculation unit 37 executes the following processing. That is, the difference information calculation unit 37 generates an estimated input face image by inputting the input feature amount extracted in step S102 to the generation model (step S106).
 その後、差分情報算出部37は、ステップS101で取得されたオリジナルの入力顔画像からステップS106で生成された推定入力顔画像を減算することにより、差分情報を算出する(ステップS107)。 After that, the difference information calculation unit 37 calculates difference information by subtracting the estimated input face image generated in step S106 from the original input face image obtained in step S101 (step S107).
 最後に、差分情報算出部37は、ステップS107で算出された差分情報を、認証OKの認証結果が得られた登録者の識別情報、例えばIDなどに関連付けて差分情報記憶部39へ保存し(ステップS108)、処理を終了する。 Finally, the difference information calculation unit 37 stores the difference information calculated in step S107 in the difference information storage unit 39 in association with the identification information of the registrant for whom the authentication result of authentication OK is obtained, such as an ID ( Step S108), the process ends.
(2)テンプレート探索処理
 図5は、テンプレート探索処理の手順を示すフローチャートである。この処理は、あくまで一例として、変更受付部15により抽出モデルの変更リクエストが受け付けられた場合、テンプレート記憶部13に記憶されたテンプレートに関連付けられた識別情報、すなわち顔認証サービスの登録者ごとに実行され得る。
(2) Template Search Processing FIG. 5 is a flowchart showing the procedure of template search processing. As an example only, this processing is executed for each identification information associated with the template stored in the template storage unit 13, that is, for each registrant of the face authentication service when the change request for the extraction model is received by the change reception unit 15. can be
 図5に示すように、テンプレート探索部17は、クライアント端末30から取得される差分情報と、旧テンプレートを変更前の生成モデルへ入力して得た推定登録顔画像とを合成することで、再現登録顔画像Da(Fa)+Rvを生成する(ステップS301)。 As shown in FIG. 5, the template searching unit 17 synthesizes the difference information acquired from the client terminal 30 and the estimated registered face image obtained by inputting the old template into the generation model before the change, thereby reproducing the face image. A registered face image Da(Fa)+Rv is generated (step S301).
 そして、テンプレート探索部17は、ステップS301で生成された再現登録顔画像を、変更リクエストで指定された変更後の抽出モデルへ入力することにより、変更後の抽出モデルに対応する新テンプレートの初期値Fb0を算出する(ステップS302)。 Then, the template searching unit 17 inputs the reproduced registered face image generated in step S301 to the modified extraction model specified by the modification request, thereby obtaining the initial values of the new template corresponding to the modified extraction model. Fb0 is calculated (step S302).
 テンプレート探索部17は、新テンプレートの初期値Fb0のコストCとして、再現登録顔画像と、新テンプレートの初期値を変更後の生成モデルへ入力して得た推定登録顔画像との誤差|Da(Fa)+Rv-Db(Fb0)|を算出する(ステップS303)。 As the cost C of the new template initial value Fb0, the template searching unit 17 calculates the error |Da( Fa)+Rv-Db(Fb0)| is calculated (step S303).
 その後、コストCがコスト判定閾値CTh未満になるまで(ステップS304No)、テンプレート探索部17は、下記のステップS305から下記のステップS313までの処理を繰り返す。 After that, the template searching unit 17 repeats the processing from step S305 to step S313 below until the cost C becomes less than the cost determination threshold value CTh (No at step S304).
 まず、テンプレート探索部17は、図示しないレジスト等に保持されるコストC0の値をステップS303で算出されたコストC、あるいは後述するステップS312で算出されたコストCに更新する(ステップS305)。続いて、テンプレート探索部17は、新テンプレートFbのビット列の位置を識別するビット番号のインデックスNを1つインクリメントする(ステップS306)。 First, the template searching unit 17 updates the value of the cost C0 held in a resist (not shown) or the like to the cost C calculated in step S303 or the cost C calculated in step S312 (described later) (step S305). Subsequently, the template searching unit 17 increments by one the index N of the bit number that identifies the position of the bit string of the new template Fb (step S306).
 このとき、ビット番号のインデックスNが新テンプレートのビット数Lよりも大きい場合(ステップS307Yes)、テンプレート探索部17は、新テンプレートのビット番号のインデックスNを初期値「1」へ初期化する(ステップS308)。さらに、テンプレート探索部17は、新テンプレートの世代を識別するエポック数のインデックスEを1つインクリメントする(ステップS309)。なお、新テンプレートのエポック数のインデックスEの初期値はあくまで一例として「0」であってよい。 At this time, if the bit number index N is greater than the bit number L of the new template (Yes at step S307), the template searching unit 17 initializes the bit number index N of the new template to the initial value "1" (step S308). Further, the template searching unit 17 increments by one the index E of the epoch number for identifying the generation of the new template (step S309). Note that the initial value of the index E of the number of epochs of the new template may be "0" as an example.
 そして、新テンプレートのエポック数のインデックスEがエポック判定閾値EThを超過しない場合(ステップS310No)、テンプレート探索部17は、次のような処理を実行する。すなわち、テンプレート探索部17は、新テンプレートのビット列のうちインデックスNに対応するビットを反転させることにより新テンプレートの近傍値Fb’を算出する(ステップS311)。 Then, when the index E of the number of epochs of the new template does not exceed the epoch determination threshold ETh (No in step S310), the template searching unit 17 executes the following processing. That is, the template searching unit 17 calculates the neighborhood value Fb' of the new template by inverting the bit corresponding to the index N in the bit string of the new template (step S311).
 その上で、テンプレート探索部17は、新テンプレートの近傍値Fb’を変更後の生成モデルDbへ入力する。これにより、変更後の生成モデルDbは、推定登録顔画像Db(Fb’)を出力する。そして、テンプレート探索部17は、新テンプレートの近傍値Fb’のコストCとして、再現登録顔画像および推定登録顔画像の誤差|Da(Fa)+Rv-Db(Fb’)|を算出する(ステップS312)。 After that, the template searching unit 17 inputs the neighborhood value Fb' of the new template to the modified generative model Db. As a result, the modified generative model Db outputs an estimated registered face image Db (Fb'). Then, the template searching unit 17 calculates the error |Da(Fa)+Rv-Db(Fb')| ).
 このとき、近傍値Fb’のコストCが新テンプレートFbのコストC0未満でない場合(ステップS313No)、新テンプレートFbの誤差の方が近傍値Fb’の誤差よりも小さいことが判明するので、新テンプレートFbが近傍値Fb’よりも適切であると評価できる。この場合、テンプレート探索部17は、新テンプレートの近傍値Fb’のビット列のうちインデックスNに対応するビットを再反転させ(ステップS314)、ステップS306へ移行する。 At this time, if the cost C of the neighborhood value Fb' is not less than the cost C0 of the new template Fb (step S313 No), it is found that the error of the new template Fb is smaller than that of the neighborhood value Fb'. It can be evaluated that Fb is more appropriate than the neighborhood value Fb'. In this case, the template searching unit 17 re-inverts the bit corresponding to the index N in the bit string of the neighborhood value Fb' of the new template (step S314), and proceeds to step S306.
 一方、近傍値Fb’のコストCが新テンプレートFbのコストC0未満である場合(ステップS313Yes)、近傍値Fb’の誤差の方が新テンプレートFbの誤差よりも小さいことが判明するので、近傍値Fb’の方が新テンプレートFbよりも新テンプレートとして適切であると評価できる。この場合、テンプレート探索部17は、新テンプレートFbの値をステップS311のビット反転で算出された近傍値Fb’へ更新し(ステップS315)、ステップS304へ移行する。 On the other hand, if the cost C of the neighborhood value Fb' is less than the cost C0 of the new template Fb (Yes in step S313), it is found that the error of the neighborhood value Fb' is smaller than the error of the new template Fb. It can be evaluated that Fb' is more suitable as a new template than new template Fb. In this case, the template searching unit 17 updates the value of the new template Fb to the neighboring value Fb' calculated by bit inversion in step S311 (step S315), and proceeds to step S304.
<効果の一側面>
 上述してきたように、本実施例に係るサーバ装置10は、オリジナルの顔画像と特徴量からの逆変換で得られる顔画像との差分情報を用いて再現された登録顔画像を変更後の特徴量抽出モデルの逆変換で生成できる特徴量を探索してテンプレートを更新する。このため、テンプレートの変更前に算出される情報ではあるが、テンプレートの登録者本人の特定が困難であり、かつ顔画像よりも小さなサイズの差分情報を活用してテンプレートを生成できる。したがって、本実施例に係るサーバ装置10によれば、テンプレートの更新時における顔画像の再撮影をオミットできる。
<One aspect of the effect>
As described above, the server device 10 according to the present embodiment converts the registered face image reproduced using the difference information between the original face image and the face image obtained by inverse transformation from the feature quantity into the changed feature. The template is updated by searching for features that can be generated by inverse transformation of the quantity extraction model. Therefore, although the information is calculated before the template is changed, it is difficult to identify the person registrant of the template, and the template can be generated by utilizing the difference information of a size smaller than the face image. Therefore, according to the server device 10 of the present embodiment, it is possible to omit the re-capture of the face image when updating the template.
 さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments relating to the disclosed apparatus have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, other embodiments included in the present invention will be described below.
<分散および統合>
 また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、上記の実施例1では、上記の顔認証サービスに含まれる機能がサーバ装置10及びクライアント端末30を含むクライアントサーバシステムとして実現される例を挙げたが、上記の顔認証サービスに対応する機能はスタンドアロンで実現されてもよい。
<Decentralization and Integration>
Also, each component of each illustrated device does not necessarily have to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured. For example, in the first embodiment described above, the functions included in the above face authentication service are implemented as a client server system including the server device 10 and the client terminal 30, but the functions corresponding to the above face authentication service may be implemented standalone.
<ハードウェア構成例>
 また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図6を用いて、実施例1及び実施例2と同様の機能を有する制御プログラムを実行するコンピュータの一例について説明する。
<Hardware configuration example>
Moreover, various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a work station. Therefore, an example of a computer that executes a control program having functions similar to those of the first and second embodiments will be described below with reference to FIG.
 図6は、ハードウェア構成例を示す図である。図6に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110~180の各部はバス140を介して接続される。 FIG. 6 is a diagram showing a hardware configuration example. As shown in FIG. 6, the computer 100 has an operation section 110a, a speaker 110b, a camera 110c, a display 120, and a communication section . Furthermore, this computer 100 has a CPU 150 , a ROM 160 , an HDD 170 and a RAM 180 . Each part of these 110 to 180 is connected via a bus 140 .
 HDD170には、図6に示すように、上記の実施例1で示した照合部11、変更受付部15およびテンプレート探索部17と同様の機能を発揮する制御プログラム170aが記憶される。この制御プログラム170aは、図1に示した照合部11、変更受付部15およびテンプレート探索部17の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。 As shown in FIG. 6, the HDD 170 stores a control program 170a that exhibits the same functions as the matching section 11, the change accepting section 15, and the template searching section 17 shown in the first embodiment. This control program 170a may be integrated or separated like the components of the matching unit 11, the change receiving unit 15, and the template searching unit 17 shown in FIG. That is, the HDD 170 does not necessarily store all the data shown in the first embodiment, and the HDD 170 only needs to store data used for processing.
 このような環境の下、CPU150は、HDD170から制御プログラム170aを読み出した上でRAM180へ展開する。この結果、制御プログラム170aは、図6に示すように、制御プロセス180aとして機能する。この制御プロセス180aは、RAM180が有する記憶領域のうち制御プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、制御プロセス180aが実行する処理の一例として、図5に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。 Under such an environment, the CPU 150 reads out the control program 170a from the HDD 170 and expands it to the RAM 180. As a result, the control program 170a functions as a control process 180a, as shown in FIG. The control process 180a deploys various data read from the HDD 170 in an area assigned to the control process 180a among storage areas of the RAM 180, and executes various processes using the deployed various data. For example, an example of the processing executed by the control process 180a includes the processing shown in FIG. Note that the CPU 150 does not necessarily have to operate all the processing units described in the first embodiment, as long as the processing units corresponding to the processes to be executed are virtually realized.
 なお、上記の制御プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。 It should be noted that the above control program 170a does not necessarily have to be stored in the HDD 170 or ROM 160 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk inserted into the computer 100, so-called FD, CD-ROM, DVD disk, magneto-optical disk, IC card, or the like. Then, the computer 100 may acquire and execute each program from these portable physical media. Alternatively, each program may be stored in another computer or server device connected to computer 100 via a public line, the Internet, LAN, WAN, etc., and computer 100 may obtain and execute each program from these. can be
   1  顔認証システム
  10  サーバ装置
  11  照合部
  13  テンプレート記憶部
  15  変更受付部
  17  テンプレート探索部
  30  クライアント端末
  31  顔画像取得部
  33  特徴量抽出部
  35  認証結果受付部
  37  差分情報算出部
  39  差分情報記憶部
1 face authentication system 10 server device 11 matching unit 13 template storage unit 15 change reception unit 17 template search unit 30 client terminal 31 face image acquisition unit 33 feature amount extraction unit 35 authentication result reception unit 37 difference information calculation unit 39 difference information storage unit

Claims (12)

  1.  画像から特徴量を抽出する抽出モデルを用いて、カメラにより撮影された撮影顔画像から特徴量を抽出し、
     特徴量から画像を生成する生成モデルを用いて、抽出した前記特徴量から推定顔画像を生成し、
     カメラにより撮影された前記撮影顔画像と、生成した前記推定顔画像との差分情報を記憶部に記憶し、
     前記抽出モデルを、画像から特徴量を抽出する新たな抽出モデルに変更する場合には、前記生成モデルを用いて、抽出した前記特徴量から新たに推定顔画像を生成するか、前記抽出モデルを用いて、カメラにより撮影された他の撮影顔画像から新たに特徴量を抽出し、前記生成モデルを用いて、新たに抽出した前記特徴量から新たに推定顔画像を生成し、
     新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とに基づき、認証時にカメラにより撮影される撮影顔画像から抽出される特徴量との照合対象となる特徴量を生成する、
     処理をコンピュータが実行することを特徴とする制御方法。
    Using an extraction model for extracting feature amounts from images, extracting feature amounts from a photographed face image taken by a camera,
    generating an estimated face image from the extracted feature amount using a generative model for generating an image from the feature amount;
    storing difference information between the photographed face image photographed by a camera and the generated estimated face image in a storage unit;
    When the extraction model is changed to a new extraction model that extracts a feature amount from an image, the generation model is used to newly generate an estimated face image from the extracted feature amount, or the extraction model is used. using to extract a new feature amount from another photographed face image taken by a camera, and using the generation model to generate a new estimated face image from the newly extracted feature amount,
    Based on the newly generated estimated face image and the difference information stored in the storage unit, a feature amount to be matched with a feature amount extracted from a photographed face image taken by a camera at the time of authentication is generated. do,
    A control method characterized in that the processing is executed by a computer.
  2.  前記特徴量を生成する処理は、新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とが合成された合成顔画像に対する差が最小となる推定顔画像が前記新たな抽出モデルに対応する新たな生成モデルを用いて生成される特徴量の探索を行うことにより、前記照合対象となる特徴量を生成する処理を含む、
     ことを特徴とする請求項1に記載の制御方法。
    In the processing for generating the feature amount, the estimated face image having the minimum difference from the synthesized face image obtained by synthesizing the newly generated estimated face image and the difference information stored in the storage unit is generated as the new estimated face image. Including a process of generating the feature amount to be matched by searching for the feature amount generated using a new generative model corresponding to the extraction model,
    2. The control method according to claim 1, characterized by:
  3.  前記特徴量を生成する処理は、前記新たな抽出モデルを用いて前記合成顔画像から抽出される特徴量を初期値として前記探索を行う処理を含む、
     ことを特徴とする請求項2に記載の制御方法。
    The process of generating the feature amount includes a process of performing the search using the feature amount extracted from the synthetic face image using the new extraction model as an initial value,
    3. The control method according to claim 2, characterized by:
  4.  前記特徴量を生成する処理は、前記初期値の特徴量に対応するビット列のうち一部のビットを反転させながら、前記合成顔画像に対する差が最小となる推定顔画像が生成されるビット列の探索を行う処理を含む、
     ことを特徴とする請求項3に記載の制御方法。
    The processing for generating the feature value includes searching for a bit string that generates an estimated face image that minimizes the difference from the synthesized face image while inverting some bits in the bit string corresponding to the feature value of the initial value. including processing to
    4. The control method according to claim 3, characterized in that:
  5.  画像から特徴量を抽出する抽出モデルを用いて、カメラにより撮影された撮影顔画像から特徴量を抽出し、
     特徴量から画像を生成する生成モデルを用いて、抽出した前記特徴量から推定顔画像を生成し、
     カメラにより撮影された前記撮影顔画像と、生成した前記推定顔画像との差分情報を記憶部に記憶し、
     前記抽出モデルを、画像から特徴量を抽出する新たな抽出モデルに変更する場合には、前記生成モデルを用いて、抽出した前記特徴量から新たに推定顔画像を生成するか、前記抽出モデルを用いて、カメラにより撮影された他の撮影顔画像から新たに特徴量を抽出し、前記生成モデルを用いて、新たに抽出した前記特徴量から新たに推定顔画像を生成し、
     新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とに基づき、認証時にカメラにより撮影される撮影顔画像から抽出される特徴量との照合対象となる特徴量を生成する、
     処理をコンピュータに実行させることを特徴とする制御プログラム。
    Using an extraction model for extracting feature amounts from images, extracting feature amounts from a photographed face image taken by a camera,
    generating an estimated face image from the extracted feature amount using a generative model for generating an image from the feature amount;
    storing difference information between the photographed face image photographed by a camera and the generated estimated face image in a storage unit;
    When the extraction model is changed to a new extraction model that extracts a feature amount from an image, the generation model is used to newly generate an estimated face image from the extracted feature amount, or the extraction model is used. using to extract a new feature amount from another photographed face image taken by a camera, and using the generation model to generate a new estimated face image from the newly extracted feature amount,
    Based on the newly generated estimated face image and the difference information stored in the storage unit, a feature amount to be matched with a feature amount extracted from a photographed face image taken by a camera at the time of authentication is generated. do,
    A control program that causes a computer to execute processing.
  6.  前記特徴量を生成する処理は、新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とが合成された合成顔画像に対する差が最小となる推定顔画像が前記新たな抽出モデルに対応する新たな生成モデルを用いて生成される特徴量の探索を行うことにより、前記照合対象となる特徴量を生成する処理を含む、
     ことを特徴とする請求項5に記載の制御プログラム。
    In the processing for generating the feature amount, the estimated face image having the minimum difference from the synthesized face image obtained by synthesizing the newly generated estimated face image and the difference information stored in the storage unit is generated as the new estimated face image. Including a process of generating the feature amount to be matched by searching for the feature amount generated using a new generative model corresponding to the extraction model,
    6. The control program according to claim 5, characterized by:
  7.  前記特徴量を生成する処理は、前記新たな抽出モデルを用いて前記合成顔画像から抽出される特徴量を初期値として前記探索を行う処理を含む、
     ことを特徴とする請求項6に記載の制御プログラム。
    The process of generating the feature amount includes a process of performing the search using the feature amount extracted from the synthetic face image using the new extraction model as an initial value,
    7. The control program according to claim 6, characterized by:
  8.  前記特徴量を生成する処理は、前記初期値の特徴量に対応するビット列のうち一部のビットを反転させながら、前記合成顔画像に対する差が最小となる推定顔画像が生成されるビット列の探索を行う処理を含む、
     ことを特徴とする請求項7に記載の制御プログラム。
    The processing for generating the feature value includes searching for a bit string that generates an estimated face image that minimizes the difference from the synthesized face image while inverting some bits in the bit string corresponding to the feature value of the initial value. including processing to
    8. The control program according to claim 7, characterized by:
  9.  画像から特徴量を抽出する抽出モデルを用いて、カメラにより撮影された撮影顔画像から特徴量を抽出し、
     特徴量から画像を生成する生成モデルを用いて、抽出した前記特徴量から推定顔画像を生成し、
     カメラにより撮影された前記撮影顔画像と、生成した前記推定顔画像との差分情報を記憶部に記憶し、
     前記抽出モデルを、画像から特徴量を抽出する新たな抽出モデルに変更する場合には、前記生成モデルを用いて、抽出した前記特徴量から新たに推定顔画像を生成するか、前記抽出モデルを用いて、カメラにより撮影された他の撮影顔画像から新たに特徴量を抽出し、前記生成モデルを用いて、新たに抽出した前記特徴量から新たに推定顔画像を生成し、
     新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とに基づき、認証時にカメラにより撮影される撮影顔画像から抽出される特徴量との照合対象となる特徴量を生成する、
     処理を実行する制御部を含む情報処理装置。
    Using an extraction model for extracting feature amounts from images, extracting feature amounts from a photographed face image taken by a camera,
    generating an estimated face image from the extracted feature amount using a generative model for generating an image from the feature amount;
    storing difference information between the photographed face image photographed by a camera and the generated estimated face image in a storage unit;
    When the extraction model is changed to a new extraction model that extracts a feature amount from an image, the generation model is used to newly generate an estimated face image from the extracted feature amount, or the extraction model is used. using to extract a new feature amount from another photographed face image taken by a camera, and using the generation model to generate a new estimated face image from the newly extracted feature amount,
    Based on the newly generated estimated face image and the difference information stored in the storage unit, a feature amount to be matched with a feature amount extracted from a photographed face image taken by a camera at the time of authentication is generated. do,
    An information processing apparatus including a control unit that executes processing.
  10.  前記特徴量を生成する処理は、新たに生成した前記推定顔画像と、前記記憶部に記憶された前記差分情報とが合成された合成顔画像に対する差が最小となる推定顔画像が前記新たな抽出モデルに対応する新たな生成モデルを用いて生成される特徴量の探索を行うことにより、前記照合対象となる特徴量を生成する処理を含む、
     ことを特徴とする請求項9に記載の情報処理装置。
    In the processing for generating the feature amount, the estimated face image having the minimum difference from the synthesized face image obtained by synthesizing the newly generated estimated face image and the difference information stored in the storage unit is generated as the new estimated face image. Including a process of generating the feature amount to be matched by searching for the feature amount generated using a new generative model corresponding to the extraction model,
    10. The information processing apparatus according to claim 9, characterized by:
  11.  前記特徴量を生成する処理は、前記新たな抽出モデルを用いて前記合成顔画像から抽出される特徴量を初期値として前記探索を行う処理を含む、
     ことを特徴とする請求項10に記載の情報処理装置。
    The process of generating the feature amount includes a process of performing the search using the feature amount extracted from the synthetic face image using the new extraction model as an initial value,
    11. The information processing apparatus according to claim 10, characterized by:
  12.  前記特徴量を生成する処理は、前記初期値の特徴量に対応するビット列のうち一部のビットを反転させながら、前記合成顔画像に対する差が最小となる推定顔画像が生成されるビット列の探索を行う処理を含む、
     ことを特徴とする請求項11に記載の情報処理装置。
    The processing for generating the feature value includes searching for a bit string that generates an estimated face image that minimizes the difference from the synthesized face image while inverting some bits in the bit string corresponding to the feature value of the initial value. including processing to
    12. The information processing apparatus according to claim 11, characterized by:
PCT/JP2021/033928 2021-09-15 2021-09-15 Control method, control program, and information processing device WO2023042299A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/033928 WO2023042299A1 (en) 2021-09-15 2021-09-15 Control method, control program, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/033928 WO2023042299A1 (en) 2021-09-15 2021-09-15 Control method, control program, and information processing device

Publications (1)

Publication Number Publication Date
WO2023042299A1 true WO2023042299A1 (en) 2023-03-23

Family

ID=85602002

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033928 WO2023042299A1 (en) 2021-09-15 2021-09-15 Control method, control program, and information processing device

Country Status (1)

Country Link
WO (1) WO2023042299A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164697A (en) * 2013-02-27 2014-09-08 Canon Inc Image processing apparatus, image processing method, program, and storage medium
JP2020126336A (en) * 2019-02-01 2020-08-20 パナソニックIpマネジメント株式会社 Face authentication unit and face authentication method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164697A (en) * 2013-02-27 2014-09-08 Canon Inc Image processing apparatus, image processing method, program, and storage medium
JP2020126336A (en) * 2019-02-01 2020-08-20 パナソニックIpマネジメント株式会社 Face authentication unit and face authentication method

Similar Documents

Publication Publication Date Title
Manisha et al. Cancelable biometrics: a comprehensive survey
Chen et al. Vgan-based image representation learning for privacy-preserving facial expression recognition
Parkin et al. Recognizing multi-modal face spoofing with face recognition networks
Agarwal et al. Swapped! digital face presentation attack detection via weighted local magnitude pattern
US8542886B2 (en) System for secure face identification (SCIFI) and methods useful in conjunction therewith
US10333714B2 (en) Method and apparatus for key generation based on face recognition using CNN and RNN
JP2020520509A (en) Biometric identification system and method
JP2004005622A (en) Face recognizing method using face descriptor based on face element and its device
Vendrow et al. Realistic face reconstruction from deep embeddings
Almomani et al. Proposed biometric security system based on deep learning and chaos algorithms
CN108564061A (en) A kind of image-recognizing method and system based on two-dimensional principal component analysis
WO2013181695A1 (en) Biometric verification
KR20180086649A (en) Authentication method and authentication apparatus using synthesized code for iris
WO2023042299A1 (en) Control method, control program, and information processing device
Datsenko et al. Biometric authentication utilizing convolutional neural networks
JP3729581B2 (en) Pattern recognition / collation device
Jabberi et al. Generative data augmentation applied to face recognition
CN114978623B (en) Face comparison method and device based on privacy protection
US8015128B2 (en) Biometric security using neuroplastic fidelity
Kimura et al. Quality-dependent score-level fusion of face, gait, and the height biometrics
KR102511943B1 (en) Authenticator device and user voice-based encryption key generation method using the same
Sarkar et al. Leveraging test-time consensus prediction for robustness against unseen noise
RU2720361C1 (en) Multi-frame training of realistic neural models of speakers heads
Barde et al. Person Identification Using Face, Ear and Foot Modalities.
Shatnawi et al. The impact of the number of eigen-faces on the face recognition accuracy using different distance measures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21957481

Country of ref document: EP

Kind code of ref document: A1