JP2022532177A - Forged face recognition methods, devices, and non-temporary computer-readable storage media - Google Patents

Forged face recognition methods, devices, and non-temporary computer-readable storage media Download PDF

Info

Publication number
JP2022532177A
JP2022532177A JP2021566527A JP2021566527A JP2022532177A JP 2022532177 A JP2022532177 A JP 2022532177A JP 2021566527 A JP2021566527 A JP 2021566527A JP 2021566527 A JP2021566527 A JP 2021566527A JP 2022532177 A JP2022532177 A JP 2022532177A
Authority
JP
Japan
Prior art keywords
face
model
forged
counterfeiting
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021566527A
Other languages
Japanese (ja)
Inventor
晨旭 ▲趙▼
天宇 傅
▲海▼林 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Publication of JP2022532177A publication Critical patent/JP2022532177A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本開示は、コンピュータの技術分野に関する、偽造された顔の認識方法、装置、およびコンピュータ可読記憶媒体に関する。本開示の方法は、偽造された顔認識方法であって、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するステップであって、事前トレーニングされた顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて決定され、事前にトレーニングされたパラメータの複数のセットが複数のタスクに基づいてそれぞれ決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、ステップと、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するステップとを備える、認識方法である。FIELD OF THE DISCLOSURE The present disclosure relates to a forged face recognition method, apparatus, and computer-readable storage medium in the technical field of computers. The method of the present disclosure is a forged face recognition method comprising the steps of obtaining a small sample set of forged face images of a new category; updating the parameters of the trained face anti-counterfeiting model, wherein the parameters of the pre-trained face anti-counterfeiting model are determined based on the plurality of sets of parameters, and the parameters of the pre-trained face anti-counterfeiting model A plurality of sets are each determined based on a plurality of tasks, each task comprising a small sample set of forged face images for each of one or more existing categories and each of one or more existing categories. and inputting the face image to be recognized to the anti-forgery model of the face after parameter update, so that the face image to be recognized is the forged face image and determining whether there is.

Description

関連出願の相互参照
本出願は、2019年5月10日出願の中国特許出願第201910387689.0号に基づき、該出願の優先権を主張するものであり、その全体が本明細書に参照により組み込まれる。
Cross-reference to related applications This application claims priority in Chinese Patent Application No. 201910387689.0 filed May 10, 2019, which is incorporated herein by reference in its entirety.

本開示は、コンピュータ技術の分野に関し、特に、偽造された顔の認識方法、デバイス、およびコンピュータ可読記憶媒体に関する。 The present disclosure relates to the field of computer technology, in particular to counterfeit face recognition methods, devices, and computer readable storage media.

顔の偽造防止のための認識とは、偽造された顔の特徴を効果的に識別することを指す。例えば、顔認識システムでは、顔認識システムを攻撃するために、いくつかの偽造された顔(ビデオ、写真、およびマスクなど)が生み出されることがある。顔の偽造防止のための認識は、偽造された顔の特徴を識別することを目的とする。一般に、顔認識システムでは、ユーザは、生体検出などとも呼ばれる、顔の偽造防止のための認識の検出にパスする必要がある。 Face anti-counterfeiting recognition refers to the effective identification of counterfeit facial features. For example, a facial recognition system may produce several forged faces (videos, photos, masks, etc.) to attack the facial recognition system. Face anti-counterfeiting recognition aims to identify counterfeit facial features. Generally, in a face recognition system, a user needs to pass the detection of recognition for preventing forgery of a face, which is also called biological detection.

発明者に既知の偽造された顔の認識方法は、既知のカテゴリの大量の偽造された顔画像に基づいて、分類モデルについてディープラーニング訓練を実行することである。訓練された分類モデルは、偽造された顔が訓練のための偽造された顔画像と同じカテゴリに属することを認識し得る。 A method of recognizing counterfeit faces known to the inventor is to perform deep learning training on the classification model based on a large number of counterfeit facial images in known categories. The trained classification model may recognize that the forged face belongs to the same category as the forged face image for training.

発明者は、既存の偽造された顔認識方法において、訓練されたモデルが正確に偽造された顔を認識できるように、モデルを訓練するための多数のサンプルを使用する必要があることが分かっている。新しいカテゴリの偽造された顔画像が出現すると、偽造された顔画像のサンプル数が非常に少ない場合、再開したモデルの訓練を達成することは不可能であり、その結果、モデルは新しいカテゴリの偽造された顔をタイムリーに認識できず、新しいカテゴリの偽造された顔の攻撃をタイムリーに効果的に防ぐことが不可能になる。 The inventor found that in existing counterfeit face recognition methods, it was necessary to use a large number of samples to train the model so that the trained model could accurately recognize the counterfeit face. There is. With the advent of new categories of forged facial images, it is not possible to achieve reopened model training if the sample size of the forged facial images is very small, and as a result, the model is forged in the new category. The face is not recognized in a timely manner, making it impossible to effectively prevent a new category of counterfeit face attacks in a timely manner.

本開示により解決されるべき一つの技術的課題は、新しいカテゴリの偽造された顔画像のタイムリーで効果的な認識を実現し、少数の新しいカテゴリの偽造された顔画像が現れた場合に顔認識システムのセキュリティを向上する方法である。 One technical challenge to be resolved by this disclosure is to achieve timely and effective recognition of new categories of forged facial images, and for faces when a small number of new categories of forged facial images appear. This is a way to improve the security of the recognition system.

本開示のいくつかの実施形態では、偽造された顔認識方法が提供される。方法は、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するステップであって、事前トレーニングされた顔の偽造防止モデルのパラメータが、複数のタスクに基づいてそれぞれ決定されたパラメータの複数のセットに基づいて決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、ステップと、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するステップとを含む。 Some embodiments of the present disclosure provide forged face recognition methods. The method is to get a small sample set of forged facial images in a new category and update the parameters of a pre-trained facial anti-counterfeiting model with a small sample set of forged facial images in the new category. Steps to be performed, where the parameters of the pre-trained facial anti-counterfeiting model are determined based on multiple sets of parameters, each determined on the basis of multiple tasks, with each task being one or more existing. Face anti-counterfeiting after steps and parameter updates, including a small sample set of each forged face image in each of the categories and a small sample set of each actual face image in one or more existing categories. It includes a step of inputting a face image to be recognized into the model and determining whether the face image to be recognized is a forged face image.

いくつかの実施形態では、方法は、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するステップを含み、顔の偽造防止モデルが分類モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが、偽造方法またはモデルの少なくとも一つを含み、あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, the method is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. If the anti-counterfeit model contains a step to update the parameters of the anti-counterfeit model and the anti-counterfeit model is a classification model, the classification label is configured to label the category of forged face images corresponding to the classification label. If the classification label is 1 and the category contains at least one of the counterfeiting methods or models, or the anti-counterfeiting model of the face is a regression model, the classification label is a forged face image corresponding to the classification label. A second classification label configured to be labeled as a positive sample or a negative sample.

いくつかの実施形態では、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するステップが、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力するステップと、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定するステップと、顔の偽造防止モデルのパラメータの勾配に基づいて、顔の偽造防止モデルのパラメータを更新するステップとを含む。 In some embodiments, a face anti-counterfeiting model is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. The step to update the parameters of is to enter the forged face image in a small sample set of forged face images in a new category into the face anti-counterfeiting model as a support sample image for one task. Steps to determine the gradient of facial anti-counterfeiting model parameters based on the output value of the face anti-counterfeiting model for each of the forged facial images and the classification label corresponding to each of the forged facial images. Includes a step to update the face anti-counterfeiting model parameters based on the facial anti-counterfeiting model parameter gradient.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定するステップが、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第1の勾配を決定するステップを備え、あるいは、顔の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々が正のサンプルに属する確率であり、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定するステップが、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第2の勾配を決定するステップを備える。 In some embodiments, if the anti-counterfeit model of the face is a classification model, the output value of the anti-counterfeit model for each of the counterfeit face images is the probability that each of the counterfeit face images belongs to a different category. The gradient of the parameters of the anti-counterfeiting model of the face is determined based on the output value of the anti-counterfeiting model of the face for each of the counterfeited face images and the classification label corresponding to each of the counterfeited face images. The first of the parameters of the anti-counterfeiting model of the face is based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is a regression model, or if the anti-counterfeiting model is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is a positive sample for each of the counterfeited face images. The gradient of the parameters of the anti-counterfeit model based on the output value of the anti-counterfeit model of the face for each of the counterfeit face images and the classification label corresponding to each of the counterfeit face images. The steps to determine the parameters of the anti-counterfeiting model of the face are based on the probability that each of the forged face images belongs to a positive sample and the second classification label that corresponds to each of the forged face images. Provide a step to determine the second gradient.

いくつかの実施形態では、認識方法はさらに、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とを複数のタスクに分けるステップであって、各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ステップと、第4の事前設定された数のタスクを選択して毎回バッチを形成するステップであって、顔の偽造防止モデルのパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて再決定される、ステップと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了するステップとをさらに備える。 In some embodiments, the recognition method is further a step of dividing the forged face image of the existing category and the actual face image of the existing category into a plurality of tasks, and each task has a plurality of methods. And each method has multiple real facial images of one model or multiple counterfeit facial images of existing categories, and each task has a first preset number of existing categories. Each method has a second preset number of real or forged face images as a small sample set consisting of support sample images, and a third preset as a query sample image. A step with a number of real face images or a forged face image, and a fourth preset number of tasks to form a batch each time, a parameter of the face anti-counterfeiting model. Multiple sets of are determined based on multiple tasks in the batch, and the parameters of the face anti-counterfeiting model are redetermined based on multiple sets of parameters, the steps and the face anti-counterfeiting model converge. Further prepare for steps to complete pre-training of the face anti-counterfeiting model until the conditions are reached.

いくつかの実施形態では、顔の偽造防止モデルのパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて再決定されることが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクについての第3の勾配に基づいて顔の偽造防止モデルのパラメータの一つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されるパラメータのセット、複数のタスクに対応するクエリサンプル画像、およびクエリサンプル画像の各々に対応する分類ラベルに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて、顔の偽造防止モデルのパラメータを再決定することとを含む。 In some embodiments, a plurality of sets of anti-counterfeiting model parameters are determined based on a plurality of tasks in a batch, and the parameters of the anti-counterfeiting model are re-based on a plurality of sets of parameters. What is determined is to determine the third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and the face based on the third gradient for each task in the batch. Determining one set of parameters for the anti-counterfeiting model and corresponding to each of the set of parameters determined by each of the multiple tasks in the batch, the query sample image corresponding to multiple tasks, and the query sample image. It involves determining the fourth gradient corresponding to the batch based on the classification label to be used and redetermining the parameters of the anti-counterfeiting model based on the fourth gradient corresponding to the batch.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが偽造方法またはモデルの少なくとも一つを含む。あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, when the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label. Yes, the category contains at least one of the counterfeit methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. Is.

いくつかの実施形態では、事前トレーニング前の顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される。 In some embodiments, the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method.

いくつかの実施形態では、異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、偽造方法が、写真、ビデオ、またはマスクを含み、モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルを含み、異なるタスクの実際の顔画像は、同じモデルまたは異なるモデルを有し、新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、既存の画像が、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを含む。 In some embodiments, different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises a photo, video, or mask, and the model is a depth model, near. Actual facial images of different tasks, including infrared models, or red-green-blue (RGB) models, have the same model or different models, and a new category of counterfeit facial images is within at least one of the counterfeit methods or models. Unlike existing images in, existing images include forged facial images in existing categories and actual facial images in existing categories.

本開示の他の実施形態では、偽造された顔認識デバイスが提供される。デバイスは、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するように構成された小さなサンプル取得モジュールと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するように構成されたモデル調整モジュールであって、事前トレーニングされた顔の偽造防止モデルのパラメータが、複数のタスクに基づいてそれぞれ決定されたパラメータの複数のセットに基づいて決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、モデル調整モジュールと、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するように構成された顔認識モジュールとを備える。 In another embodiment of the present disclosure, a forged face recognition device is provided. The device has a pre-trained face with a small sample acquisition module configured to acquire a small sample set of forged facial images in a new category and a small sample set of forged facial images in the new category. A model tuning module configured to update the parameters of the anti-counterfeiting model of the pre-trained facial anti-counterfeiting model into multiple sets of parameters, each determined based on multiple tasks. Determined on the basis, each task is a small sample set of each forged facial image in one or more existing categories and a small sample set of each actual facial image in one or more existing categories. Enter a model adjustment module, including, and a face image to be recognized by the face anti-counterfeiting model after parameter updates to determine if the face image to be recognized is a forged face image. It is equipped with a face recognition module configured in.

いくつかの実施形態では、モデル調整モジュールが、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するように構成され、顔の偽造防止モデルが分類モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが、偽造方法またはモデルの少なくとも一つを含み、あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, the model adjustment module is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is configured to update the parameters and the anti-counterfeiting model of the face is a classification model, the classification label is configured to label the category of forged face images corresponding to the classification label. If it is the first classification label given and the category contains at least one of the counterfeiting methods or models, or if the anti-counterfeiting model of the face is a regression model, the classification label is counterfeited corresponding to the classification label. A second classification label configured to label the facial image as a positive sample or a negative sample.

いくつかの実施形態では、モデル調整モジュールが、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力し、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定し、顔の偽造防止モデルのパラメータの勾配に基づいて、顔の偽造防止モデルのパラメータを更新するように構成される。 In some embodiments, the model adjustment module inputs the forged face image in a small sample set of forged face images in a new category into the face anti-counterfeiting model as a support sample image for one task. Then, the gradient of the parameters of the anti-counterfeiting model of the face is determined based on the output value of the anti-counterfeiting model of the face for each of the forged facial images and the classification label corresponding to each of the forged facial images. It is configured to update the parameters of the face anti-counterfeiting model based on the gradient of the face anti-counterfeiting model parameters.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、モデル調整モジュールが、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第1の勾配を決定するように構成される。 In some embodiments, when the anti-counterfeiting model of the face is a classification model, the output value of the anti-counterfeiting model for each of the counterfeit face images is the probability that each of the counterfeit face images belongs to a different category. And the model adjustment module is based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images of the anti-counterfeiting model of the face. It is configured to determine the first gradient of the parameter.

あるいは、顔の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々が正のサンプルに属する確率であり、モデル調整モジュールが、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第2の勾配を決定するように構成される。 Alternatively, if the anti-counterfeiting model of the face is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a positive sample, and the model adjustment. A second of the parameters of the anti-counterfeiting model of the face, based on the probability that each of the forged facial images belongs to a positive sample and the second classification label that corresponds to each of the forged facial images. It is configured to determine the gradient.

いくつかの実施形態では、認識デバイスは、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とを複数のタスクに分けることであって、各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ことと、第4の事前設定された数のタスクを選択して毎回バッチを形成することであって、顔の偽造防止モデルのパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて再決定される、ことと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了することとを行うように構成される事前トレーニングモジュールをさらに備える。 In some embodiments, the recognition device is to divide the forged face image of an existing category from the actual face image of an existing category into a plurality of tasks, each task having a plurality of methods. Each method has multiple real facial images of one model or multiple forged facial images of existing categories, and each task has a first preset number of existing categories. Each method has a second preset number of real or forged face images as a small sample set consisting of support sample images, and a third preset number as query sample images. It has a real face image or a forged face image, and a fourth preset number of tasks is to be selected to form a batch each time, and the parameters of the face anti-counterfeiting model. Multiple sets are each determined based on multiple tasks in the batch, face anti-counterfeiting model parameters are redetermined based on multiple sets of parameters, and the face anti-counterfeiting model is a convergence condition. Further equipped with a pre-training module configured to complete and perform pre-training of the face anti-counterfeiting model until.

いくつかの実施形態では、事前トレーニングモジュールが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクについての第3の勾配に基づいて顔の偽造防止モデルのパラメータの一つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されるパラメータのセット、複数のタスクに対応するクエリサンプル画像、およびクエリサンプル画像の各々に対応する分類ラベルに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて、顔の偽造防止モデルのパラメータを再決定することを行うように構成される。 In some embodiments, the pre-training module determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and a third for each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on the gradient of, and a set of parameters determined by each of the multiple tasks in the batch, query sample images corresponding to multiple tasks, and queries. Determining the fourth gradient for the batch based on the classification label corresponding to each of the sample images, and redetermining the parameters of the anti-counterfeiting model based on the fourth gradient corresponding to the batch. Is configured to do.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが偽造方法またはモデルの少なくとも一つを含み、あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, if the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label. Yes, if the category contains at least one of the counterfeiting methods or models, or if the anti-counterfeiting model of the face is a regression model, then each of the classification labels is a positive sample or a negative sample of the support sample image corresponding to the classification label. A second classification label configured to be labeled as a sample.

いくつかの実施形態では、事前トレーニング前の顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される。 In some embodiments, the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method.

いくつかの実施形態では、異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、偽造方法が、写真、ビデオ、またはマスクを含み、モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルを含み、異なるタスクの実際の顔画像は、同じモデルまたは異なるモデルを有し、新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、既存の画像が、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを含む。 In some embodiments, different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises a photo, video, or mask, and the model is a depth model, near. Actual facial images of different tasks, including infrared models, or red-green-blue (RGB) models, have the same model or different models, and a new category of counterfeit facial images is within at least one of the counterfeit methods or models. Unlike existing images in, existing images include forged facial images in existing categories and actual facial images in existing categories.

本開示のさらに別の実施形態では、偽造された顔認識デバイスが提供される。デバイスは、メモリと、メモリに結合されたプロセッサとを備え、プロセッサは、メモリに格納された命令に基づいて上述の実施形態のいずれかに記載の偽造された顔認識方法を実施するように構成される。 Yet another embodiment of the present disclosure provides a forged face recognition device. The device comprises a memory and a processor coupled to the memory, the processor configured to perform the forged face recognition method according to any of the above embodiments based on the instructions stored in the memory. Will be done.

本開示のさらに別の実施形態では、コンピュータ可読記憶媒体が提供される。記憶媒体は、プロセッサによる実行時に、上述の実施形態のいずれかに記載の方法を実施するコンピュータプログラムを格納している。 In yet another embodiment of the present disclosure, a computer-readable storage medium is provided. The storage medium stores a computer program that implements the method according to any of the above embodiments when executed by the processor.

本開示では、事前にトレーニングされた顔の偽造防止モデルのパラメータが、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて直接更新され、その結果、更新された顔の偽造防止モデルは、既存のカテゴリおよび新しいカテゴリの様々な偽造された顔画像を認識できる。これは、事前にトレーニングされた顔の偽造防止モデルが、既存のカテゴリの偽造された顔画像の小さなサンプルセットと、実際の顔画像の小さなサンプルセットとによってトレーニングされ、顔の偽造防止モデルのパラメータの複数のセットが、それぞれ複数のタスクによって決定され、次いで、顔の偽造防止モデルのパラメータが、トレーニングプロセスの間にパラメータの複数のセットに基づいて再決定されるためである。このトレーニングプロセスは、2つのステージ:既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像の複数の小さなサンプルセットをそれぞれ用いて顔の偽造防止モデルをトレーニングする第1のステージであって、モデルが、小さなサンプルセットの特徴を学習するステージ、または、偽造された顔と実際の顔とを区別することを学習するステージである、第1のステージと、集約を実行するとともに、複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再更新する第2のステージであって、モデルが特徴の小さなサンプルセットを学習する方法を学習するか、偽造された顔と実際の顔とを区別することを学習する方法を学習するステージである、第2のステージとを含む。 In this disclosure, the parameters of the pre-trained facial anti-counterfeiting model are updated directly with a small sample set of forged facial images in a new category, resulting in the updated facial anti-counterfeiting model. It can recognize various forged facial images in existing and new categories. This is a parameter of the face anti-counterfeiting model, where a pre-trained facial anti-counterfeiting model is trained by a small sample set of forged facial images in the existing category and a small sample set of real facial images. This is because multiple sets of each are determined by multiple tasks, and then the parameters of the face anti-counterfeiting model are redetermined based on the multiple sets of parameters during the training process. This training process consists of two stages: the first stage of training a facial anti-counterfeiting model using multiple small sample sets of forged facial images in an existing category and real facial images in an existing category. And with the first stage, where the model learns the features of a small sample set, or the stage where it learns to distinguish between a fake face and a real face, as well as performing aggregation. The second step is to re-update the parameters of the face anti-counterfeiting model based on multiple training results, learning how the model learns a small sample set of features, or the forged face and the actual It includes a second stage, which is a stage for learning how to learn to distinguish from the face.

したがって、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像の小さなサンプルセットを有する複数のタスクを学習した後、顔の偽造防止モデルは、小さなサンプルセットを学習する方法を習得するか、偽造された顔と実際の顔を区別することを学習する方法、あるいは偽造された手掛かりを見つけることを学習する方法を習得し、適切な初期化パラメータを取得する。新しいカテゴリの偽造された顔画像が小さなサンプルセットの条件に関係する場合、顔の偽造防止モデルは更新される。以前に学習した速い学習能力による利点として、顔の偽造防止モデルはまた、新しいカテゴリの偽造された顔の特徴の速い収束と速い学習とを実行し、顔の偽造防止モデルのタイムリーで効果的な更新を実行でき、新しいカテゴリの偽造された顔画像をタイムリーに効果的に認識し、新しいカテゴリの偽造された顔からの攻撃に対してタイムリーに効果的に防御できる。 Therefore, after learning multiple tasks with a small sample set of forged face images in an existing category and a real face image in an existing category, the face anti-counterfeiting model learns how to learn a small sample set. Learn how to learn to distinguish between a forged face and a real face, or learn to find forged clues, and get the appropriate initialization parameters. The anti-counterfeiting model of the face is updated if the new category of counterfeit facial images is related to the conditions of a small sample set. As an advantage of the fast learning ability previously learned, the face anti-counterfeiting model also performs fast convergence and fast learning of a new category of counterfeit facial features, making the face anti-counterfeiting model timely and effective. Updates can be performed, the forged face image of the new category can be recognized in a timely and effective manner, and the attack from the forged face of the new category can be effectively protected in a timely manner.

本開示の他の特徴および利点は、添付の図面を参照して本開示の例示的な実施形態の以降の詳細な説明から明らかになるであろう。 Other features and advantages of the present disclosure will become apparent from the subsequent detailed description of the exemplary embodiments of the present disclosure with reference to the accompanying drawings.

本開示のさらなる理解を提供する目的で本明細書に述べる添付の図面は、本出願の一部を構成する。本開示に示される実施形態ならびに図解は、本開示の説明を目的とするが、本開示について不適切な定義を構成するものではない。 The accompanying drawings set forth herein for the purpose of providing further understanding of the present disclosure form part of this application. The embodiments and illustrations presented in this disclosure are intended to illustrate this disclosure, but do not constitute an inappropriate definition of this disclosure.

本開示のいくつかの実施形態による、偽造された顔の認識方法の概略のフローチャートである。It is a schematic flowchart of the method of recognizing a forged face according to some embodiments of this disclosure. 本開示の他の実施形態による、偽造された顔の認識方法の概略のフローチャートである。It is a schematic flowchart of the forged face recognition method by another embodiment of this disclosure. 本開示のいくつかの実施形態による、偽造された顔認識デバイスの概略の構造図である。FIG. 3 is a schematic structural diagram of a forged face recognition device according to some embodiments of the present disclosure. 本開示のいくつかの他の実施形態による、偽造された顔認識デバイスの概略の構造図である。FIG. 3 is a schematic structural diagram of a forged face recognition device according to some other embodiment of the present disclosure. 本開示のさらに他の実施形態による、偽造された顔認識デバイスの構造の概略図である。FIG. 3 is a schematic diagram of the structure of a forged face recognition device according to still another embodiment of the present disclosure.

本開示の実施形態の技術的解決策が、本開示の実施形態の添付の図面とともに、以降に明確におよび完全に説明されるであろう。明らかに、説明される実施形態は、実施形態の全てではなく、本開示の実施形態のいくつかに過ぎない。実際に単なる例示である少なくとも一つの説明の実施形態の以下の説明は、決して、本開示ならびにその適用または使用に関するいかなる限定としても機能してはならない。本開示の実施形態に基づいて、発明の努力が含まれないという前提で当業者によって得られた他のすべての実施形態は、本開示の保護範囲に含まれるものとする。 The technical solutions of the embodiments of the present disclosure will be described expressly and fully herein, along with the accompanying drawings of the embodiments of the present disclosure. Obviously, the embodiments described are not all of the embodiments, but only some of the embodiments of the present disclosure. The following description of at least one embodiment of the description, which is merely exemplary in practice, shall by no means serve as any limitation with respect to the present disclosure and its application or use. All other embodiments obtained by one of ordinary skill in the art on the premise that the efforts of the invention are not included in accordance with the embodiments of the present disclosure shall be included in the scope of protection of the present disclosure.

モデルが新しいカテゴリの偽造された顔をタイムリーに効果的に認識できず、新しいカテゴリの偽造された顔画像が出現し、かつサンプルが非常に少ない場合に、新しいカテゴリの偽造された顔からの攻撃をタイムリーにおよび効果的に防止できないという課題を解決するために、本解決策が提供される。本開示のいくつかの実施形態による偽造された顔の認識方法が、図1とともに以下に説明される。 From a new category of forged faces when the model cannot timely and effectively recognize the new category of forged faces, new categories of forged face images appear, and very few samples. The solution is provided to solve the problem of not being able to prevent attacks in a timely and effective manner. A method for recognizing a forged face according to some embodiments of the present disclosure is described below together with FIG.

図1は、本開示のいくつかの実施形態による偽造された顔の認識方法の概略的なフローチャートを示す。図1に示すように、この実施形態の方法はステップS102~S106を含む。 FIG. 1 shows a schematic flow chart of a forged face recognition method according to some embodiments of the present disclosure. As shown in FIG. 1, the method of this embodiment comprises steps S102-S106.

ステップS102では、新しいカテゴリの偽造された顔画像の小さいサンプルセットが取得される。 In step S102, a small sample set of forged facial images in a new category is obtained.

本開示では、小さいサンプルセット内の画像数はしきい値より少ない。このしきい値は、顔偽造防止モデルが、ディープラーニングトレーニング方法に従って、小さいサンプルセットを用いて更新され、モデルが収束することが不可能であることを認めるものである。しきい値は、例えば、10~30であるが、リストされる例に制限されない。新しいカテゴリの偽造された顔画像は、顔偽造防止モデルが事前にトレーニングされているときに使用した偽造された顔画像のカテゴリとは異なるカテゴリに属し、顔偽造防止モデルが事前にトレーニングされているときに使用した偽造された顔のカテゴリは、既存のカテゴリと呼ばれ得る。 In the present disclosure, the number of images in a small sample set is less than the threshold. This threshold acknowledges that the anti-counterfeiting model is updated with a small sample set according to deep learning training methods, making it impossible for the model to converge. The threshold is, for example, 10 to 30, but is not limited to the examples listed. The new category of forged face images belongs to a different category than the forged face image category used when the face anti-counterfeiting model was pre-trained, and the face anti-counterfeiting model is pre-trained. The forged face category used when used can be referred to as an existing category.

異なる既存のカテゴリの偽装された顔画像は、偽造方法またはモデルの少なくとも1つで異なる。偽造方法は、例えば、写真、ビデオ、およびマスクを含み、モデルは、例えば、深度(Depth)モデル、近赤外線(NIR)モデル、および赤緑青(RGB)モデルを含む。例えば、写真の偽造方法および深度モデルによる偽造された顔画像は、写真の偽造方法およびRGBモデルによる偽造された顔画像と異なるカテゴリに属し、写真の偽造方法および深度モデルによる偽造された顔画像はまた、ビデオの偽造方法およびRGBモデルによる偽造された顔画像と異なるカテゴリに属する。マルチモデル(マルチ-モデル)画像は、同じ物体の異なる属性を記述するための異なる技術手段によって収集された画像を指す。例えば、ある物体に対して、カメラによってキャプチャされた色画像およびレーザレーダによってスキャンされた深度画像は、物体の2つのモデル画像と呼ばれる。新しいカテゴリの偽造された顔画像は、偽造方法またはモデルの少なくとも一つの既存の画像と異なり、既存の画像は、既存のカテゴリの偽造された顔画像および実際の顔画像を含む。 Disguised facial images in different existing categories differ in at least one of the counterfeiting methods or models. Counterfeiting methods include, for example, photographs, videos, and masks, and models include, for example, depth (Depth) models, near-infrared (NIR) models, and red-green-blue (RGB) models. For example, a photo forgery method and a forged face image with a depth model belong to a different category than a photo forgery method and an RGB model forged face image, and a photo forgery method and a forged face image with a depth model It also belongs to a different category from video forgery methods and forged facial images with RGB models. Multi-model (multi-model) images refer to images collected by different technical means for describing different attributes of the same object. For example, for an object, a color image captured by a camera and a depth image scanned by a laser radar are called two model images of the object. Forged facial images in the new category differ from at least one existing image of the forged method or model, and existing images include forged facial images and actual facial images in the existing category.

ステップS104では、事前にトレーニングされた顔の偽造防止モデルのパラメータが、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて更新される。事前にトレーニングされた顔の偽造防止モデルのパラメータが、マルチタスクに基づいてそれぞれ決定された顔の偽造防止モデルのパラメータの複数のセットであるパラメータの複数のセットに基づいて決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、実際の顔画像の小さなサンプルセットとを含む。 In step S104, the parameters of the pre-trained facial anti-counterfeiting model are updated with a small sample set of forged facial images in a new category. Pre-trained facial anti-counterfeiting model parameters are determined based on multiple sets of parameters, each of which is a multi-tasking-determined set of facial anti-counterfeiting model parameters. Includes a small sample set of forged facial images for each of one or more existing categories, and a small sample set of real facial images.

いくつかの実施形態では、顔の偽造防止モデルのパラメータが、新しいカテゴリの偽造された顔画像の小さなサンプルセットの複数の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて更新される。顔の偽造防止モデルは、分類モデルまたは回帰モデルであってよい。顔の偽造防止モデルが分類モデルである場合、各分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリは、偽造方法またはモデルの少なくとも一つを含む。代替的に、顔の偽造防止モデルが回帰モデルである場合、各分類ラベルは、正のサンプルまたは負のサンプルとして、分類ラベルに対応する偽造された顔画像をラベル付けするように構成された第2の分類ラベルである。第1の分類ラベルは、偽造方法または偽造された顔画像のモデルの少なくとも一つをラベル付けしてよい。異なる偽造方法および異なるモデルの画像の特徴を学習する必要がある場合、偽造方法およびモデルの両方がラベル付けされる。 In some embodiments, the parameters of the face anti-counterfeiting model are multiple forged face images in a small sample set of forged face images in a new category, and a classification label corresponding to each of the forged face images. And will be updated based on. The anti-counterfeiting model of the face may be a classification model or a regression model. If the anti-counterfeiting model of the face is a classification model, each classification label is the first classification label configured to label the category of forged face images corresponding to the classification label, and the category is counterfeit. Includes at least one of the methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each classification label is configured to label the forged face image corresponding to the classification label as a positive or negative sample. It is a classification label of 2. The first classification label may label at least one of the counterfeit methods or models of the counterfeit facial image. If it is necessary to learn different forgery methods and image features of different models, both the forgery method and the model are labeled.

新しいカテゴリの偽造された顔画像の小さなサンプルセットの偽造された顔画像の各々は、事前にトレーニングされた顔の偽造防止モデルに入力され、顔の偽造防止モデルのパラメータの勾配が、出力値、偽造された顔画像の各々に対応する分類ラベル、および事前に設定された損失関数に基づいて決定され、事前にトレーニングされた顔の偽造防止モデルのパラメータが、勾配に基づいて更新される。顔の偽造防止モデルが分類モデルである場合、事前に設定された損失関数は、MSE(平均二乗誤差)損失関数であってよい。顔の偽造防止モデルが回帰モデルである場合、事前に設定された損失関数は、交差エントロピー損失関数であってよいが、これらは取り上げた例に限定されるものではない。勾配に基づいて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新する方法は、本明細書に詳述されないが、要望に応じて既存の勾配降下法でもよい。 Each of the counterfeit facial images in a small sample set of counterfeit facial images in the new category is entered into a pre-trained anti-counterfeiting model of the face, and the gradient of the parameters of the anti-counterfeiting model of the face is the output value, The parameters of the pre-trained anti-counterfeiting model, determined based on the classification label corresponding to each of the forged facial images and the preset loss function, are updated based on the gradient. If the face anti-counterfeiting model is a classification model, the preset loss function may be an MSE (Mean Squared Error) loss function. If the face anti-counterfeiting model is a regression model, the preset loss function may be a cross entropy loss function, but these are not limited to the examples taken. Methods of updating the parameters of a pre-trained anti-counterfeiting model based on the gradient are not detailed herein, but existing gradient descent methods may be used as desired.

いくつかの実施形態では、新しいカテゴリの偽造された顔画像の小さなサンプルセットの複数の偽造された顔画像は、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力され、顔の偽造防止モデルのパラメータの勾配は、偽造された顔画像の各々に対する顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて決定され、顔の偽造防止モデルのパラメータが、顔の偽造防止モデルのパラメータの勾配に基づいて更新される。 In some embodiments, multiple forged facial images in a small sample set of forged facial images in a new category are entered into the facial anti-counterfeiting model as support sample images for one task and of the face. The gradient of the anti-counterfeiting model parameters is determined based on the output value of the face anti-counterfeiting model for each of the forged face images and the classification label corresponding to each of the forged face images to prevent face anti-counterfeiting. The model parameters are updated based on the gradient of the face anti-counterfeiting model parameters.

タスクは、新しいカテゴリの偽造された顔画像の小さなサンプルセットに基づいて構築され得る。新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像は、タスクのサポートサンプル画像であってよい。このことは、後述する偽造された顔画像の事前トレーニング方法でタスクを設定する形式に類似している。構築されたタスクは、1つまたは複数の異なる新しいカテゴリを含み、新しいカテゴリの各々は、対応する小さなサンプルセットを有する。タスクはまた、実際の顔画像の小さなサンプルセットなどを有する。 The task can be built on a small sample set of forged facial images in a new category. The forged face image in a small sample set of forged face images in the new category may be a support sample image for the task. This is similar to the format in which tasks are set by the pre-training method for forged facial images, which will be described later. The constructed task contains one or more different new categories, each of which has a corresponding small sample set. The task also has a small sample set of real facial images and the like.

いくつかの実施形態では、顔の偽造防止モデルは分類モデルであり、顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像の各々と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて更新される。例えば、深度モデルによる実際の顔画像の第1の分類ラベルは0であり、マスクの偽造方法および深度モデルによる偽造された顔画像の第1の分類ラベルは1であり、新しいカテゴリの第1の分類ラベルは2である。 In some embodiments, the face anti-counterfeiting model is a classification model, and the parameters of the face anti-counterfeiting model are each of the forged face images in a small sample set of forged face images in a new category. Updated based on a first classification label corresponding to each of the forged facial images. For example, the first classification label for the actual face image by the depth model is 0, the first classification label for the forged mask method and the forged face image by the depth model is 1, and the first in the new category. The classification label is 2.

偽造された顔画像および実際の顔画像は、適用シナリオに応じて第1の分類ラベルおよび第2の分類ラベルを用いてラベル付けされ得る。例えば、顔の偽造防止モデルのパラメータを更新するプロセスの間に、第1の分類ラベルを使用して、モデルの正確性を向上するために、損失関数の値や勾配の値などを計算することができる。顔の偽造防止モデルは画像を分類して、結果を出力するとき、実際の顔画像および偽造された顔画像の2つのカテゴリに画像を区別するだけで済む。画像の偽造防止モデルを事前トレーニングした後のテストプロセスの間に、第2の分類ラベルを使用して、画像が偽造されたものか実際のものかを認識することで、顔の偽造防止モデルの精度をテストできる。例えば、偽造された顔画像を表す第2の分類ラベルが0であり、実際の顔画像を表す第2の分類ラベルが1である。 The forged facial image and the actual facial image can be labeled with a first classification label and a second classification label depending on the application scenario. For example, during the process of updating the parameters of the face anti-counterfeiting model, the first classification label may be used to calculate the value of the loss function, the value of the gradient, etc. to improve the accuracy of the model. Can be done. When the face anti-counterfeiting model classifies images and outputs the results, it only needs to distinguish the images into two categories: real face images and forged face images. During the testing process after pre-training the anti-counterfeiting model of the image, a second classification label is used to recognize whether the image is forged or real, so that the anti-counterfeiting model of the face You can test the accuracy. For example, the second classification label representing a forged face image is 0 and the second classification label representing an actual face image is 1.

さらに、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々に対する顔の偽造防止モデルの出力値は、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、顔の偽造防止モデルのパラメータの第1の勾配は、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて決定される。 Further, when the face anti-counterfeiting model is a classification model, the output value of the face anti-counterfeiting model for each of the forged face images is the probability that each of the forged face images belongs to a different category, and the face. The first gradient of the anti-counterfeiting model parameters is based on the probability that each of the forged facial images belongs to a different category and the first classification label that corresponds to each of the forged facial images. To.

いくつかの実施形態では、顔の偽造防止モデルは回帰モデルであってよく、顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像の各々と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて更新される。回帰モデルは最終的に、入力画像に対する値を出力し、値に対応するしきい値が設定され得る。値がしきい値より高い場合、画像は実際の顔画像であることを意味し、値がしきい値より低い場合、画像は偽造された顔画像であることを意味する。したがって、回帰モデルは、画像の第2の分類ラベルを適用し得る。 In some embodiments, the face anti-counterfeiting model may be a regression model, and the parameters of the face anti-counterfeiting model are each of the forged face images in a small sample set of forged face images in a new category. And a second classification label corresponding to each of the forged facial images. The regression model can finally output a value for the input image and set a threshold corresponding to the value. If the value is higher than the threshold, it means that the image is a real face image, and if the value is lower than the threshold, it means that the image is a forged face image. Therefore, the regression model may apply a second classification label for the image.

さらに、画像の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々に対する顔の偽造防止モデルの出力値は、偽造された顔画像の各々が正のサンプルに属する確率であり、第2の勾配は、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて決定され、顔の偽造防止モデルのパラメータが、第2の勾配に基づいて更新される。 Further, when the anti-counterfeiting model of the image is a regression model, the output value of the anti-counterfeiting model of the face for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a positive sample. The gradient of 2 is determined based on the probability that each of the forged facial images belongs to a positive sample and the second classification label that corresponds to each of the forged facial images, and is a parameter of the anti-counterfeiting model of the face. Is updated based on the second gradient.

事前にトレーニングされた顔の偽造防止モデルのパラメータは、次の方法でトレーニングされる:顔の偽造防止モデルのパラメータの複数のセットが、複数のタスクに基づいてそれぞれ決定され、次いで、顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて再決定される。各タスクは、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む。実際の顔画像はまた、異なるモデルの実際の顔画像に分けられる。各タスクは、1つまたは複数のモデルの各々の実際の顔画像の小さなサンプルセットを含み得る。異なるタスクにおける実際の顔画像は、同じモデルまたは異なるモデルを有する。すなわち、既存のカテゴリの偽造された顔画像と、既存のカテゴリ実際の顔画像とから構成された小さなサンプルセットが、複数のタスクに割り当てられる。異なる小さなサンプルセットを使用して、顔の偽造防止モデルをトレーニングし、トレーニング後に複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再決定する必要がある。異なる小さなサンプルセットによる顔の偽造防止モデルをトレーニングするプロセスは、モデル学習のプロセスであり、複数のトレーニング結果に基づいてパラメータを再決定するプロセスは、「学習方法を学習する」モデルのプロセスである。 Pre-trained facial anti-counterfeiting model parameters are trained in the following way: multiple sets of facial anti-counterfeiting model parameters are determined based on multiple tasks, respectively, and then face counterfeiting. The parameters of the prevention model are redetermined based on multiple sets of parameters. Each task includes a small sample set of each forged facial image in one or more existing categories and a small sample set of actual facial images in each of one or more existing categories. The actual facial image is also divided into actual facial images of different models. Each task may include a small sample set of each actual facial image of one or more models. Actual facial images in different tasks have the same model or different models. That is, a small sample set composed of a forged face image of an existing category and an actual face image of an existing category is assigned to a plurality of tasks. A different small sample set should be used to train the anti-counterfeiting model, and after training the parameters of the anti-counterfeiting model should be redetermined based on multiple training results. The process of training a face anti-counterfeiting model with different small sample sets is the process of model learning, and the process of redetermining parameters based on multiple training results is the process of a "learning how to learn" model. ..

上述の2つのプロセスの後に、モデルは、小さなサンプルセットの特徴を学習するだけでなく、小さなサンプルセットの特徴を学習する方法を学習し、あるいは、偽造された顔と実際の顔とを区別する方法を単に学習する、または偽造された手掛かりを単に学習するのではなく、顔の偽造防止モデルは最終的に、「偽装された顔と実際の顔とを区別することを学習する方法」および「偽造された手掛かりを見つけることを学習する方法」を学習する。したがって、新しいカテゴリの偽造された顔画像が小さなサンプルセットに属する場合、顔の偽造防止モデルはまた、速い収束と、新しいカテゴリの偽造された顔の特徴の速い学習とを行い、効果的かつタイムリーに防御する。 After the two processes described above, the model not only learns the features of the small sample set, but also learns how to learn the features of the small sample set, or distinguishes between a forged face and a real face. Rather than simply learning how, or simply learning forged clues, the anti-counterfeiting model of the face ultimately "how to learn to distinguish between a disguised face and a real face" and " Learn how to learn to find forged clues. Therefore, if the new category of counterfeit facial images belong to a small sample set, the face anti-counterfeiting model also performs fast convergence and fast learning of the new category of counterfeit facial features, effectively and timely. Defend Lee.

ステップS106では、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像であるかどうかが判定される。 In step S106, the face image to be recognized is input to the face anti-counterfeiting model after the parameters are updated, and it is determined whether the face image to be recognized is a forged face image.

認識されるべき顔画像は、いずれも顔の偽造防止モデルによって認識され得る新しいカテゴリまたは既存のカテゴリに属する偽造された顔画像であることがある。 The facial image to be recognized may be a forged facial image that belongs to a new category or an existing category that can be recognized by the anti-counterfeiting model of the face.

上述の実施形態の方法では、事前にトレーニングされた顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて直接更新され、その結果、更新された顔の偽造防止モデルは、既存のカテゴリおよび新しいカテゴリの様々な偽造された顔画像を認識できる。これは、事前にトレーニングされた顔の偽造防止モデルが、既存のカテゴリの偽造された顔画像の小さなサンプルセットと、実際の顔画像の小さなサンプルセットとによってトレーニングされ、顔の偽造防止モデルのパラメータの複数のセットが、それぞれ複数のタスクによって決定され、次いで、顔の偽造防止モデルのパラメータが、トレーニングプロセスの間にパラメータの複数のセットに基づいて再決定されるためである。このトレーニングプロセスは、2つのステージ:既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像の複数の小さなサンプルセットをそれぞれ用いて顔の偽造防止モデルをトレーニングする第1のステージであって、モデルが、小さなサンプルセットの特徴を学習するステージ、または、偽造された顔と実際の顔とを区別することを学習するステージである、第1のステージと、集約を実行するとともに、複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再更新する第2のステージであって、モデルが特徴の小さなサンプルセットを学習する方法を学習するか、偽造された顔と実際の顔とを区別することを学習する方法を学習するステージである、第2のステージとを含む。 In the method of the above embodiment, the parameters of the pre-trained face anti-counterfeiting model are updated directly with a small sample set of forged face images in a new category, resulting in the updated face forgery. The prevention model can recognize various forged facial images in existing and new categories. This is a parameter of the face anti-counterfeiting model, where a pre-trained facial anti-counterfeiting model is trained by a small sample set of forged facial images in the existing category and a small sample set of real facial images. This is because multiple sets of each are determined by multiple tasks, and then the parameters of the face anti-counterfeiting model are redetermined based on the multiple sets of parameters during the training process. This training process consists of two stages: the first stage of training a facial anti-counterfeiting model using multiple small sample sets of forged facial images in an existing category and real facial images in an existing category. And with the first stage, where the model learns the features of a small sample set, or the stage where it learns to distinguish between a fake face and a real face, as well as performing aggregation. The second step is to re-update the parameters of the face anti-counterfeiting model based on multiple training results, learning how the model learns a small sample set of features, or the forged face and the actual It includes a second stage, which is a stage for learning how to learn to distinguish from the face.

したがって、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像の小さなサンプルセットを有する複数のタスクを学習した後、顔の偽造防止モデルは、小さなサンプルセットを学習する方法を習得するか、偽造された顔と実際の顔を区別することを学習する方法、あるいは偽造された手掛かりを見つけることを学習する方法を習得し、適切な初期化パラメータを取得する。新しいカテゴリの偽造された顔画像が小さなサンプルセットの条件に関係する場合、顔の偽造防止モデルは更新される。以前に学習した速い学習能力による利点として、顔の偽造防止モデルはまた、新しいカテゴリの偽造された顔の特徴の速い収束と速い学習とを実行し、顔の偽造防止モデルのタイムリーで効果的な更新を実行でき、新しいカテゴリの偽造された顔画像をタイムリーに効果的に認識し、新しいカテゴリの偽造された顔からの攻撃に対してタイムリーに効果的に防御できる。 Therefore, after learning multiple tasks with a small sample set of forged face images in an existing category and a real face image in an existing category, the face anti-counterfeiting model learns how to learn a small sample set. Learn how to learn to distinguish between a forged face and a real face, or learn to find forged clues, and get the appropriate initialization parameters. The anti-counterfeiting model of the face is updated if the new category of counterfeit facial images is related to the conditions of a small sample set. As an advantage of the fast learning ability previously learned, the face anti-counterfeiting model also performs fast convergence and fast learning of a new category of counterfeit facial features, making the face anti-counterfeiting model timely and effective. Updates can be performed, the forged face image of the new category can be recognized in a timely and effective manner, and the attack from the forged face of the new category can be effectively protected in a timely manner.

本開示の他の実施形態によれば偽造された顔認識方法を図2とともに以下に説明する。この実施形態は、顔の偽造防止モデルの事前トレーニング方法および動作方法を含む。 According to another embodiment of the present disclosure, a forged face recognition method will be described below together with FIG. This embodiment includes a pre-training method and a method of operation of a face anti-counterfeiting model.

図2は、本開示の他の実施形態による偽造された顔認識方法の概略的なフローチャートを示す。図2に示すように、本実施形態の方法は、ステップS202~S214を含む。 FIG. 2 shows a schematic flow chart of a forged face recognition method according to another embodiment of the present disclosure. As shown in FIG. 2, the method of the present embodiment includes steps S202 to S214.

ステップS202では、顔の偽造防止モデルは、ディープラーニングトレーニング方法に従って、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを用いて最初にトレーニングされ、事前トレーニング前の顔の偽造防止モデルの初期パラメータが決定される。 In step S202, the face anti-counterfeiting model is first trained with a forged face image of an existing category and an actual face image of an existing category according to a deep learning training method, and the face before pre-training. The initial parameters of the anti-counterfeit model are determined.

まず、顔の偽造防止モデルは、既存のディープラーニングトレーニング方法を使用することによってトレーニングされ、次いで、後続の事前トレーニングプロセスに進み、その結果、2つのトレーニング後の顔の偽造防止モデルは、適切な区別と一般化を提供する。ディープラーニングトレーニング方法により、顔の偽造防止モデルは、より正確に画像を区別できるようになり、本開示の事前トレーニング方法により、モデルは、異なるカテゴリの偽造された顔画像を一般化でき、2つのトレーニング後の顔の偽造防止モデルは、新しいタスクへの素早い適応性を提供するだけでなく、既知のタスクまたは類似のタスクについての適切な区別を提示することもできる。 First, the face anti-counterfeiting model is trained by using existing deep learning training methods, then proceed to the subsequent pre-training process, so that the two post-training facial anti-counterfeiting models are suitable. Provides distinction and generalization. Deep learning training methods allow facial anti-counterfeiting models to more accurately distinguish images, and pre-training methods of the present disclosure allow models to generalize different categories of forged facial images. The post-training facial anti-counterfeiting model not only provides quick adaptability to new tasks, but can also provide appropriate distinctions for known or similar tasks.

ステップS204では、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とは、複数のタスクに分割される。各タスクは、複数の方法を有し、各方法は、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各方法は、サポートサンプル画像から構成された小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを有する。各タスクは、第1の事前設定された数の既存のカテゴリを有する。各既存のカテゴリは、偽造方法および/またはモデルを表す。顔の偽造防止モデルは単に、異なる偽造方法を用いて偽造された顔画像を認識するように構成され、既存のカテゴリは単に、偽造方法を表すように構成され、全ての偽造された顔画像および実際の顔画像は同じモデルに属する。顔の偽造防止モデルは、異なる偽造方法および異なるモデルの偽造された顔画像を認識するように構成される場合、各既存のカテゴリは、偽造方法またはモデルを表す。 In step S204, the forged face image of the existing category and the actual face image of the existing category are divided into a plurality of tasks. Each task has multiple methods, each method has multiple real facial images of one model or multiple counterfeit facial images of existing categories, and each method consists of support sample images. A second preset number of real or forged face images as a small set of samples, and a third preset number of real or forged face images as a query sample image. Has a face image. Each task has a first preset number of existing categories. Each existing category represents a counterfeit method and / or model. Face anti-counterfeiting models are simply configured to recognize counterfeit facial images using different counterfeiting methods, existing categories are simply configured to represent counterfeiting methods, and all counterfeit facial images and The actual face image belongs to the same model. If the face anti-counterfeiting model is configured to recognize different counterfeiting methods and counterfeit facial images of different models, each existing category represents a counterfeiting method or model.

タスクは複数の方法を有する。各方法は、第2の事前設定された数のサポートサンプル画像と、第3の事前設定された数のクエリサンプル画像とを含む。各方法のサポートサンプル画像は、小さなサンプルセットを形成し、各タスクにおける各方法のサポートサンプル画像は、例えば10~30であるしきい値より少ない。事前トレーニングプロセスの間、サポートサンプル画像によって形成された小さなサンプルセット内の画像数は、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の画像数と同じであっても異なっていてもよい。サポートサンプル画像によって形成された小さなサンプルセット内の画像数が、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の画像数以下である場合、顔の偽造防止モデルは、事前トレーニングプロセスにおける新しいカテゴリの小さなサンプルセットに基づいて続いて更新され、顔の偽造防止モデルはより良好な認識効果を提示できる。これは、顔の偽造防止モデルが、事前トレーニングプロセスの間により少ない数のサンプルを学習する方法を学習するためであり、更新時に新しいカテゴリの多数の画像があるので、モデルのパラメータの更新がより良好に達成され得る。 The task has multiple methods. Each method includes a second preset number of support sample images and a third preset number of query sample images. The support sample images for each method form a small sample set, and the support sample images for each method in each task are less than the threshold, eg 10-30. During the pre-training process, the number of images in the small sample set formed by the support sample images may be the same as or different from the number of images in the small sample set of counterfeit facial images in the new category. If the number of images in the small sample set formed by the support sample images is less than or equal to the number of images in the small sample set of forged face images in the new category, the face anti-counterfeiting model is a new category in the pre-training process. Subsequently updated based on a small sample set of, the face anti-counterfeiting model can present a better recognition effect. This is because the face anti-counterfeiting model learns how to learn a smaller number of samples during the pre-training process, and there are numerous images in the new category at the time of the update, so the model parameters are more updated. Can be achieved well.

毎回、第1の事前設定された数の既存カテゴリがランダムに選択され、次いで、第2の事前設定された数のサポートサンプル画像および第3の事前設定された数のクエリサンプル画像が、既存カテゴリの選択された偽造された顔画像からランダムに選択され得る。1つまたは複数のモデルの実際の顔画像がランダムに選択され、次いで、第2の事前設定された数のサポートサンプル画像および第3の事前設定された数のクエリサンプル画像が、選択された実際の顔画像からランダムに選択され、タスクを生成する。異なるタスクの画像を完全に同じできない。 Each time, a first preset number of existing categories is randomly selected, followed by a second preset number of support sample images and a third preset number of query sample images in the existing category. Can be randomly selected from selected forged facial images. The actual facial images of one or more models were randomly selected, followed by a second preset number of support sample images and a third preset number of query sample images. Randomly selected from the face image of the to generate a task. Images of different tasks cannot be exactly the same.

ステップS206では、第4の事前設定された数のタスクが選択されて、バッチを形成し、顔の偽造防止モデルのパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて再決定される。 In step S206, a fourth preset number of tasks are selected to form a batch, and multiple sets of face anti-counterfeiting model parameters are determined, respectively, based on multiple tasks in the batch. The parameters of the anti-counterfeit model are redetermined based on multiple sets of parameters.

第4の事前設定された数のタスクがランダムに選択され、バッチを形成する。例えば、5つのタスクがバッチとして選択される。各バッチについて、顔の偽造防止モデルのパラメータが2回更新され得る。第1の更新は、各タスクにおいてサポートサンプル画像によって顔の偽造防止モデルのパラメータを更新することである。第2の更新は、各タスクにおいてクエリサンプル画像によって顔の偽造防止モデルのパラメータを更新することである。すなわち、更新は、前述の、学習プロセスと、「学習方法の学習」のプロセスで構成される。これは、各バッチがパラメータを更新するためにモデルに一度直接入力される既存のディープラーニング方法とは異なる。 A fourth preset number of tasks are randomly selected to form a batch. For example, 5 tasks are selected as a batch. For each batch, the face anti-counterfeiting model parameters can be updated twice. The first update is to update the parameters of the face anti-counterfeiting model with support sample images in each task. The second update is to update the parameters of the face anti-counterfeiting model with the query sample image in each task. That is, the update is composed of the above-mentioned learning process and the process of "learning the learning method". This is different from existing deep learning methods where each batch is entered directly into the model once to update the parameters.

いくつかの実施形態では、バッチ内の各タスクについて、タスクに対応する第3の勾配(第1の勾配から更新された)は、各サポートサンプル画像と各サポートサンプル画像に対応する分類ラベルとに基づいて決定され、顔の偽造防止モデルのパラメータのセットが、第3の勾配に基づいて決定される。中間パラメータに属し、顔の偽造防止モデルのパラメータを正確に更新しない複数のタスクによって決定されたパラメータの複数のセットは、次の更新のために格納され得る。さらに、バッチに対応する第4の勾配(第2の勾配から更新された)は、バッチ内の複数のタスクの各々について決定されたパラメータのセットと、複数のタスクに対応するクエリサンプル画像と、クエリサンプル画像の各々に対応する分類ラベルとに基づいて決定される。顔の偽造防止モデルのパラメータは、バッチに対応する第4の勾配に基づいて再決定される。第2の時間の間に決定された顔の偽造防止モデルのパラメータを使用して、顔の偽造防止モデルのパラメータを更新する。 In some embodiments, for each task in the batch, the third gradient (updated from the first gradient) corresponding to the task is in each support sample image and the classification label corresponding to each support sample image. Determined on the basis of, the set of parameters for the anti-counterfeiting model of the face is determined on the basis of the third gradient. Multiple sets of parameters that belong to intermediate parameters and are determined by multiple tasks that do not accurately update the parameters of the face anti-counterfeiting model may be stored for the next update. In addition, the fourth gradient corresponding to the batch (updated from the second gradient) is a set of parameters determined for each of the multiple tasks in the batch, a query sample image corresponding to the multiple tasks, and a query sample image. It is determined based on the classification label corresponding to each of the query sample images. The parameters of the anti-counterfeiting model of the face are redetermined based on the fourth gradient corresponding to the batch. Update the face anti-counterfeiting model parameters using the face anti-counterfeiting model parameters determined during the second time.

例えば、バッチ内の各タスクτi∈Tについて、iは、タスクのシリアル番号を表す正の整数であり、Tはバッチのタスクセットである。各タスクτiについて、タスクに対応する顔の偽造防止モデルのパラメータの第3の勾配

Figure 2022532177000002
が計算され、ここで、θは、顔の偽造防止モデルの現在のパラメータを表し、
Figure 2022532177000003
は、タスクτiのためのサポートサンプル画像を使用して現在のパラメータθに関して計算された損失関数の勾配
Figure 2022532177000004
を表す。タスクτiについて決定された顔の偽造防止モデルのパラメータは、
Figure 2022532177000005
と表され、ここで、αは、第1のステップ値を表す。バッチ内の複数のタスクは、格納される複数の
Figure 2022532177000006
(重みパラメータ行列であってよい)を決定する。 For example, for each task τ i ∈ T in a batch, i is a positive integer representing the serial number of the task and T is the task set for the batch. For each task τ i , the third gradient of the parameters of the face anti-counterfeiting model corresponding to the task
Figure 2022532177000002
Is calculated, where θ represents the current parameters of the anti-counterfeiting model of the face.
Figure 2022532177000003
Is the gradient of the loss function calculated for the current parameter θ using the support sample image for task τ i .
Figure 2022532177000004
Represents. The parameters of the face anti-counterfeiting model determined for task τi are:
Figure 2022532177000005
Here, α represents the first step value. Multiple tasks in a batch are stored in multiple
Figure 2022532177000006
Determine (may be a weight parameter matrix).

さらに、バッチに対して、バッチに対応する第4の勾配が、

Figure 2022532177000007
と表され、これは、バッチ内の複数のタスクの損失がまず加算され、次いで勾配が計算されることを表している。損失および第4の勾配は、タスクτiのクエリサンプル画像と、対応する
Figure 2022532177000008
に基づいて計算される。このバッチに対して更新される顔の偽造防止モデルのパラメータは、
Figure 2022532177000009
である。βは、第2のステップ値である。
Figure 2022532177000010
は、第4の勾配を計算するための中間変数であり、モデルのパラメータはバッチの開始時にθに基づいて各バッチについて更新されることが分かる。顔の偽造防止モデルは、クエリサンプル画像によって更新され、タスクについてのモデルの一般化能力を向上させ、サポートサンプル画像の過剰適合を回避できる。 In addition, for the batch, the fourth gradient corresponding to the batch,
Figure 2022532177000007
This means that the losses of multiple tasks in the batch are added first, and then the gradient is calculated. The loss and the fourth gradient correspond to the query sample image of task τi .
Figure 2022532177000008
It is calculated based on. The face anti-counterfeiting model parameters updated for this batch are:
Figure 2022532177000009
Is. β is the second step value.
Figure 2022532177000010
Is an intermediate variable for calculating the fourth gradient, and it can be seen that the model parameters are updated for each batch based on θ at the start of the batch. The face anti-counterfeiting model can be updated with query sample images to improve the model's generalization ability for tasks and avoid overfitting of support sample images.

顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々は、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリは、偽造方法またはモデルの少なくとも一つを含む。代替的に、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々は、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。実際の顔画像について、事前設定された値は、偽装方法を使用してラベル付けを実行するときにラベル付けされ得る。すなわち、顔の偽造防止モデルが分類モデルである場合、このバッチ内の各タスクについて、このタスクに対応する第3の勾配が、各サポートサンプル画像および各サポートサンプル画像に対応する第1の分類ラベルに基づいて決定される。代替的に、顔の偽造防止モデルが回帰モデルである場合、バッチ内の各タスクについて、このタスクに対応する第3の勾配が、各サポートサンプル画像および各サポートサンプル画像に対応する第2の分類ラベルに基づいて決定される。 If the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label, and the category is the counterfeiting method. Or include at least one of the models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. It is a classification label. For the actual facial image, the preset values can be labeled when performing the labeling using the impersonation method. That is, if the face anti-counterfeiting model is a classification model, for each task in this batch, the third gradient corresponding to this task is the first classification label corresponding to each support sample image and each support sample image. Is determined based on. Alternatively, if the face anti-counterfeiting model is a regression model, for each task in the batch, the third gradient corresponding to this task is the second classification corresponding to each support sample image and each support sample image. Determined based on the label.

ステップS208では、顔の偽造防止モデルが収束条件に達しているかどうかが判定され、YESの場合、顔の偽造防止モデルの事前トレーニングが完了し、NOの場合、再スタートのためにステップS206に戻る。 In step S208, it is determined whether the anti-counterfeiting model has reached the convergence condition. If YES, the pre-training of the anti-counterfeiting model is completed, and if NO, the process returns to step S206 for restart. ..

収束条件は、例えば、損失関数の値が最小になるか事前設定された損失関数の値に到達することに一致する。損失関数の値が収束条件に達しない場合、顔の偽造防止モデルをトレーニングするための別のバッチを選択するために、ステップS206に戻る。 The convergence condition corresponds, for example, to minimizing the value of the loss function or reaching a preset value of the loss function. If the value of the loss function does not reach the convergence condition, return to step S206 to select another batch for training the face anti-counterfeiting model.

上述のステップは、顔の偽造防止モデルの事前トレーニングプロセスに属する。各タスクの各カテゴリのサポートサンプル画像は非常に少ない数であり、ゆえに小さなサンプルセットに属しているが、多数のサンプル(既存のカテゴリの多数のサンプル画像および実際の画像カテゴリを含む)が、事前トレーニングプロセス全体の間に使用されることに、留意されたい。また、サンプル数が多いほど良好である。違いは、多くのタスクおよび多くの小さなサンプルセットが分割されていることだけであり、その結果、モデルは、事前トレーニングプロセスの間に「学習方法を学習する」ことができ、モデルの精度を上げることができる。 The steps described above belong to the pre-training process for the anti-counterfeiting model of the face. The number of supported sample images in each category of each task is very small and therefore belongs to a small sample set, but a large number of samples (including many sample images in existing categories and actual image categories) are pre-existing. Note that it is used during the entire training process. Also, the larger the number of samples, the better. The only difference is that many tasks and many small sample sets are split so that the model can "learn how to learn" during the pre-training process, increasing the accuracy of the model. be able to.

ステップS210では、新しいカテゴリの偽造された顔画像の小さなサンプルセットが取得される。 In step S210, a small sample set of forged facial images in a new category is obtained.

新しいカテゴリの偽造された顔画像の小さなサンプルセットは、タスクにおいてサポートサンプル画像として働き得る。タスクは、1つまたは複数の新しいカテゴリを含み、各新しいカテゴリが小さなサンプルセットに対応する。 A small sample set of forged facial images in the new category can serve as support sample images in the task. The task contains one or more new categories, with each new category corresponding to a small sample set.

ステップS212では、事前トレーニングされた顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて更新される。 In step S212, the parameters of the pre-trained facial anti-counterfeiting model are updated with a small sample set of counterfeit facial images in a new category.

新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新する方法は、ステップS206のタスクτiのサポートサンプル画像を使用することによって顔の偽造防止モデルのパラメータ

Figure 2022532177000011
を決定するプロセスに類似している。例えば、タスクτjのサポートサンプル画像として1つまたは複数の新しいカテゴリの小さなサンプルセット内の偽造された顔画像の場合、このタスクτjに対応する顔の偽造防止モデルのパラメータの第3の勾配
Figure 2022532177000012
が計算され、タスクτj対して決定された顔の偽造防止モデルのパラメータは、
Figure 2022532177000013
と表され、ここで、αは第1のステップ値を表す。すなわち、更新された顔の偽造防止モデルのパラメータは、
Figure 2022532177000014
である。クエリサンプル画像を使用した更新プロセスは、実行されない。 How to update the parameters of the pre-trained face anti-counterfeiting model with a small sample set of forged face images in the new category is by using the support sample images of task τi in step S206. Anti-counterfeit model parameters
Figure 2022532177000011
It is similar to the process of determining. For example, for a forged face image in a small sample set in one or more new categories as a support sample image for task τ j , the third gradient of the parameters of the face anti-counterfeiting model corresponding to this task τ j .
Figure 2022532177000012
Is calculated and the parameters of the face anti-counterfeiting model determined for the task τj are:
Figure 2022532177000013
Here, α represents the first step value. That is, the parameters of the updated face anti-counterfeiting model are:
Figure 2022532177000014
Is. The update process using the query sample image is not performed.

ステップS214では、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像かどうかが判定される。 In step S214, the face image to be recognized is input to the face anti-counterfeiting model after the parameters are updated, and it is determined whether the face image to be recognized is a forged face image.

本開示の解決策は、新しい偽造方法の偽造された顔画像を認識するために適用されるだけでなく、新しいモデルの偽造された顔画像を認識できる。例えば、新しい偽造方法の偽造された顔画像を認識する必要だけがある場合、既存の偽造方法の偽造された顔画像および実際の顔画像が、事前トレーニングの間にトレーニングサンプルとして働き、トレーニングサンプルは、同じモデルのものであり、新しい偽造方法の偽造された顔画像もそのようなモデルに属する。別の例では、偽造された顔画像を認識する必要だけがある場合、既存のモデルの偽造された顔画像および実際の顔画像が、事前トレーニングの間にトレーニングサンプルとして働き、既存のモデルのこれらの偽造された顔画像は、同じ偽造方法によって偽造され、新しい偽造モデルの偽造された顔画像もそのような偽造方法に属する。トレーニングサンプルが、異なる偽造方法および異なるモデルの両方の偽造された顔画像と、事前トレーニングの間に1つまたは複数のモデルの実際の顔画像とを含む場合、新しい偽造された顔画像は、トレーニングサンプルにおける任意の偽造方法または任意のモデルと異なることがある。 The solutions of the present disclosure can be applied not only to recognize forged facial images of new counterfeit methods, but also to recognize forged facial images of new models. For example, if you only need to recognize the forged face image of the new counterfeit method, the counterfeit face image and the actual face image of the existing counterfeit method will act as a training sample during the pre-training, and the training sample will Forged facial images of the same model and new forgery methods also belong to such models. In another example, if only the forged face image needs to be recognized, the forged face image and the actual face image of the existing model act as training samples during the pre-training and these of the existing model. The forged face image of is forged by the same forgery method, and the forged face image of the new forged model also belongs to such a forgery method. If the training sample contains forged facial images of both different counterfeit methods and different models, and the actual facial images of one or more models during pre-training, the new counterfeit facial images will be trained. May differ from any counterfeiting method or any model in the sample.

例えば、新しい偽造方法の偽造された顔画像について、いくつかの実施形態では、新しい偽造方法の偽造された顔画像の小さなサンプルセットが取得され、顔の偽造防止モデルのパラメータが、新しい偽造方法の偽造された顔画像の小さなサンプルセットを用いて更新され、事前トレーニングされた顔の偽造防止モデルのパラメータは、複数のタスクに基づいてそれぞれ決定された顔の偽造防止モデルのパラメータの複数のセットである複数のパラメータのセットに基づいて決定され、各タスクは、1つまたは複数の既存の偽造方法の各々の偽造された顔画像の小さなサンプルセットと実際の顔画像の小さなサンプルセットとを含み、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像であるかどうか判定される。 For example, for a forged face image of a new counterfeit method, in some embodiments, a small sample set of the forged face image of the new counterfeit method is obtained, and the parameters of the face anti-counterfeiting model are the parameters of the new counterfeit method. Updated with a small sample set of forged facial images, the parameters of the pre-trained facial anti-counterfeiting model are multiple sets of facial anti-counterfeiting model parameters, each determined based on multiple tasks. Determined on the basis of a set of parameters, each task includes a small sample set of forged facial images and a small sample set of actual facial images for each of one or more existing counterfeit methods. The face image to be recognized is input to the face anti-counterfeiting model after the parameters are updated, and it is determined whether the face image to be recognized is a forged face image.

例えば、新しいモデルの偽造された顔画像について、いくつかの実施形態では、新しいモデルの偽造された顔画像の小さなサンプルセットが取得され、顔の偽造防止モデルのパラメータが、新しいモデルの偽造された顔画像の小さなサンプルセットを用いて更新され、事前トレーニングされた顔の偽造防止モデルのパラメータは、複数のタスクに基づいてそれぞれ決定された顔の偽造防止モデルのパラメータの複数のセットである複数のパラメータのセットに基づいて決定され、各タスクは、1つまたは複数の既存のモデルの各々の偽造された顔画像の小さなサンプルセットと1つまたは複数の既存のモデルの各々の実際の顔画像の小さなサンプルセットとを含み、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像であるかどうか判定される。 For example, for a forged face image of a new model, in some embodiments a small sample set of the forged face image of the new model was obtained and the parameters of the anti-face anti-counterfeit model were forged in the new model. Updated with a small sample set of facial images, the pre-trained facial anti-counterfeiting model parameters are multiple sets of facial anti-counterfeiting model parameters, each determined based on multiple tasks. Determined based on a set of parameters, each task is a small sample set of each forged facial image of one or more existing models and each actual facial image of one or more existing models. A face image to be recognized, including a small sample set, is entered into the face anti-counterfeiting model after the parameters have been updated to determine if the face image to be recognized is a forged face image.

事前トレーニングプロセスは、上述の実施形態のものに類似している。トレーニングサンプルが、異なる偽造方法および異なるモデルの偽造された顔画像を含む状況では、例えば、3つの既知のモデルと3つの既知の偽造方法がある場合、最大9つの異なる既存のカテゴリの偽造された顔画像が存在し得る。さらに、3つのモデルの実際の顔画像が存在する場合、生成されるタスクは、最大12の小さなサンプルセットを含み得る。 The pre-training process is similar to that of the embodiments described above. In situations where the training sample contains different forgery methods and forged facial images of different models, for example, if there are 3 known models and 3 known forgery methods, up to 9 different existing categories of forgery. There can be a facial image. In addition, if there are actual facial images of the three models, the generated task can contain up to 12 small sample sets.

上述の実施形態では、事前にトレーニングされた顔の偽造防止モデルが、1つまたは複数の既存のモデルの偽造された顔画像から構成された複数の小さなサンプルセット、1つまたは複数の既存の偽造方法、あるいは複数の既存のモデルの実際の顔画像によってトレーニングされ、顔の偽造防止モデルのパラメータの複数のグループが複数のタスクによってそれぞれ決定され、次いで、顔の偽造防止モデルのパラメータが、トレーニングプロセスの間パラメータの複数のセットに基づいて再決定される。このトレーニングプロセスは、2つのステージ:既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像の複数の小さなサンプルセットをそれぞれ用いて顔の偽造防止モデルをトレーニングする第1のステージであって、モデルが、小さなサンプルセットの特徴を学習するステージ、または、偽造された顔と実際の顔とを区別することを学習するステージである、第1のステージと、集約を実行するとともに、複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再更新する第2のステージであって、モデルが特徴の小さなサンプルセットを学習する方法を学習するか、偽造された顔と実際の顔とを区別することを学習する方法を学習するステージである、第2のステージとを含む。 In the embodiments described above, the pre-trained facial anti-counterfeiting model is a set of small samples, one or more existing anti-counterfeiting, consisting of forged facial images of one or more existing models. Trained by the method, or the actual facial images of multiple existing models, multiple groups of facial anti-counterfeiting model parameters are determined by multiple tasks, respectively, and then facial anti-counterfeiting model parameters are determined during the training process. Redetermined based on multiple sets of parameters during. This training process consists of two stages: the first stage of training a facial anti-counterfeiting model using multiple small sample sets of forged facial images in an existing category and real facial images in an existing category. And with the first stage, where the model learns the features of a small sample set, or the stage where it learns to distinguish between a fake face and a real face, as well as performing aggregation. The second step is to re-update the parameters of the face anti-counterfeiting model based on multiple training results, learning how the model learns a small sample set of features, or the forged face and the actual It includes a second stage, which is a stage for learning how to learn to distinguish from the face.

したがって、事前トレーニングを受けた顔の偽造防止モデルは、小さなサンプルセットを学習する方法を習得するか、偽造された顔と実際の顔を区別することを学習する方法を習得し、適切な初期化パラメータを取得する。新しいモデルの偽造された顔画像が小さなサンプルセットの条件に属するとき、顔の偽造防止モデルが更新される。以前に学習した早い学習能力による利点として、顔の偽造防止モデルはまた、新しいカテゴリの偽造された顔の特徴の速い収束と速い学習とを実行し、顔の偽造防止モデルのタイムリーで効果的な更新を実行でき、新しいカテゴリの偽造された顔画像をタイムリーに効果的に認識し、新しいカテゴリの偽造された顔からの攻撃に対してタイムリーに効果的に防御できる。 Therefore, a pre-trained face anti-counterfeiting model learns how to learn a small sample set or how to distinguish between a forged face and a real face, and proper initialization. Get the parameters. The face anti-counterfeiting model is updated when the forged face image of the new model belongs to the conditions of a small sample set. As an advantage of the fast learning ability previously learned, the face anti-counterfeiting model also performs fast convergence and fast learning of a new category of counterfeit facial features, making the face anti-counterfeiting model timely and effective. Updates can be performed, the forged face image of the new category can be recognized in a timely and effective manner, and the attack from the forged face of the new category can be effectively protected in a timely manner.

本開示はまた、図3とともに以下に説明する、偽造された顔認識デバイスを提供する。 The disclosure also provides a forged face recognition device, described below with FIG.

図3は、本開示のいくつかの実施形態による偽造された顔認識デバイスの概略の構造図を示す。図3に示すように、本実施形態のデバイス30は、小さなサンプル取得モジュール302、モデル調整モジュール304、および顔認識モジュール306を備える。 FIG. 3 shows a schematic structural diagram of a forged face recognition device according to some embodiments of the present disclosure. As shown in FIG. 3, the device 30 of this embodiment includes a small sample acquisition module 302, a model adjustment module 304, and a face recognition module 306.

小さなサンプル取得モジュール302は、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するように構成される。 The small sample acquisition module 302 is configured to acquire a small sample set of forged facial images in a new category.

モデル調整モジュール304は、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するように構成され、事前トレーニングされた顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて決定され、事前にトレーニングされたパラメータの複数のセットが複数のタスクに基づいてそれぞれ決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む。 The model adjustment module 304 is configured to update the parameters of a pre-trained facial anti-counterfeiting model with a small sample set of pre-trained facial anti-counterfeiting models in a new category. Parameters are determined based on multiple sets of parameters, multiple sets of pre-trained parameters are determined respectively based on multiple tasks, and each task is each in one or more existing categories. Includes a small sample set of forged facial images and a small sample set of actual facial images for each of one or more existing categories.

いくつかの実施形態では、モデル調整モジュール304が、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するように構成され、顔の偽造防止モデルが分類モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが、偽造方法またはモデルの少なくとも一つを含む。あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, the model adjustment module 304 is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is configured to update the parameters of the anti-counterfeiting model and the anti-counterfeiting model is a classification model, the classification label will now label the category of forged face images corresponding to the classification label. The first classified label constructed, the category comprising at least one of the counterfeiting methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, the classification label is a second classification label configured to label the forged face image corresponding to the classification label as a positive sample or a negative sample. Is.

いくつかの実施形態では、モデル調整モジュール304が、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力し、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定し、顔の偽造防止モデルのパラメータの勾配に基づいて、顔の偽造防止モデルのパラメータを更新するように構成される。 In some embodiments, the model adjustment module 304 turns the forged face image in a small sample set of forged face images in a new category into a face anti-counterfeiting model as a support sample image for one task. Enter and determine the gradient of the face anti-counterfeiting model parameters based on the output value of the face anti-counterfeiting model for each of the forged facial images and the classification label corresponding to each of the forged facial images. , Based on the gradient of the face anti-counterfeiting model parameters, it is configured to update the face anti-counterfeiting model parameters.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、モデル調整モジュール304が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第1の勾配を決定するように構成され、あるいは、顔の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々が正のサンプルに属する確率であり、モデル調整モジュール304が、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第2の勾配を決定するように構成される。 In some embodiments, if the anti-counterfeit model of the face is a classification model, the output value of the anti-counterfeit model for each of the counterfeit face images is the probability that each of the counterfeit face images belongs to a different category. And the model adjustment module 304 is an anti-counterfeiting model of the face based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is configured to determine the first gradient of the parameters of the counterfeited face. Each of the images is the probability of belonging to the positive sample, and the model adjustment module 304 has the probability that each of the forged face images belongs to the positive sample and the second classification label corresponding to each of the forged face images. Based on, it is configured to determine the second gradient of the parameters of the anti-counterfeiting model.

顔認識モジュール306は、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するように構成される。 The face recognition module 306 is configured to input a face image to be recognized in the face anti-counterfeiting model after updating the parameters and determine whether the face image to be recognized is a forged face image. To.

いくつかの実施形態では、デバイス30はさらに、事前トレーニングモジュール308を備える。事前トレーニングモジュール308は、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とを複数のタスクに分けることであって、各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ことと、第4の事前設定された数のタスクを選択して毎回バッチを形成することであって、顔の偽造防止モデルのパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、パラメータの複数のセットに基づいて再決定される、ことと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了することとを行うように構成される。 In some embodiments, the device 30 further comprises a pre-training module 308. The pre-training module 308 is to divide the forged face image of the existing category and the actual face image of the existing category into a plurality of tasks, and each task has a plurality of methods, and each method has a plurality of methods. Each task has a first preset number of existing categories, each method supports, with multiple real facial images of one model or multiple forged facial images of existing categories. A second preset number of real or forged face images as a small sample set consisting of sample images, and a third preset number of real face images as a query sample image. Or with a forged facial image, and to select a fourth preset number of tasks to form a batch each time, with multiple sets of facial anti-counterfeiting model parameters. Determined based on multiple tasks in the batch, and the parameters of the face anti-counterfeiting model are redetermined based on multiple sets of parameters, and until the face anti-counterfeiting model reaches convergence conditions. It is configured to complete the pre-training of the anti-counterfeiting model.

いくつかの実施形態では、事前トレーニングモジュール308は、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクについての第3の勾配に基づいて顔の偽造防止モデルのパラメータの一つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されるパラメータのセット、複数のタスクに対応するクエリサンプル画像、およびクエリサンプル画像の各々に対応する分類ラベルに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて、顔の偽造防止モデルのパラメータを再決定することを行うように構成される。 In some embodiments, the pre-training module 308 determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and the first for each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on a gradient of 3 and a set of parameters determined by each of the multiple tasks in the batch, query sample images corresponding to the multiple tasks, and Determine the fourth gradient corresponding to the batch based on the classification label corresponding to each of the query sample images, and redetermine the parameters of the anti-counterfeit model based on the fourth gradient corresponding to the batch. It is configured to do things.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが偽造方法またはモデルの少なくとも一つを含む。あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, when the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label. Yes, the category contains at least one of the counterfeit methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. Is.

いくつかの実施形態では、事前トレーニング前の顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される。 In some embodiments, the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method.

いくつかの実施形態では、異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、偽造方法が、写真、ビデオ、またはマスクを含み、モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルを含み、異なるタスクの実際の顔画像は、同じモデルまたは異なるモデルを有し、新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、既存の画像が、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを含む。 In some embodiments, different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises a photo, video, or mask, and the model is a depth model, near. Actual facial images of different tasks, including infrared models, or red-green-blue (RGB) models, have the same model or different models, and a new category of counterfeit facial images is within at least one of the counterfeit methods or models. Unlike existing images in, existing images include forged facial images in existing categories and actual facial images in existing categories.

本開示の実施形態の偽造された顔認識デバイスは、様々なコンピューティングデバイスまたはコンピュータシステムによって実施され、図4および5とともに以降に説明される。 The forged face recognition device of the embodiments of the present disclosure is implemented by various computing devices or computer systems and is described below with FIGS. 4 and 5.

図4は、本開示のいくつかの実施形態による偽造された顔認識デバイスの概略の構造図を示す。図4に示すように、実施形態のデバイス40は、メモリ410と、メモリ410に結合されたプロセッサ420とを備え、プロセッサ420は、メモリ410に格納された命令に基づいて本開示のいずれかの実施形態に記載の偽造された顔認識方法を実施するように構成される。 FIG. 4 shows a schematic structural diagram of a forged face recognition device according to some embodiments of the present disclosure. As shown in FIG. 4, the device 40 of the embodiment comprises a memory 410 and a processor 420 coupled to the memory 410, wherein the processor 420 is any of the present disclosures based on instructions stored in the memory 410. It is configured to implement the forged face recognition method described in the embodiment.

メモリ410は、例えば、システムメモリ、所定の不揮発性記憶媒体などを含み得る。システムメモリは、例えば、オペレーティングシステム、アプリケーション、ブートローダ、データベース、および他のプログラムを格納する。 The memory 410 may include, for example, a system memory, a predetermined non-volatile storage medium, and the like. System memory stores, for example, operating systems, applications, boot loaders, databases, and other programs.

図5は、本開示の他の実施形態による偽造された顔認識デバイスの概略の構造図を示す。図5に示すように、本実施形態のデバイス50は、メモリ410およびプロセッサ420に類似する、メモリ510およびプロセッサ520を備える。さらに、I/Oインターフェース530、ネットワークインターフェース540、ストレージインターフェース550などがある。これらのインターフェース530、540、550、ならびにその間のメモリ510およびプロセッサ520は、例えばバス560を介して接続され得る。I/Oインターフェース530は、ディスプレイ、マウス、キーボード、およびタッチ識別機などの入力および出力デバイスのための接続インターフェースを提供する。ネットワークインターフェース540は、様々なネットワークデバイスのための接続インターフェースを提供する。例えば、それはデータベースサーバまたはクラウドストレージサーバに接続され得る。ストレージインターフェース550は、SDカードまたはUSBフラッシュディスクなどの外部ストレージデバイスのための接続インターフェースを提供する。 FIG. 5 shows a schematic structural diagram of a forged face recognition device according to another embodiment of the present disclosure. As shown in FIG. 5, the device 50 of this embodiment includes a memory 510 and a processor 520, which are similar to the memory 410 and the processor 420. In addition, there are I / O interface 530, network interface 540, storage interface 550, etc. These interfaces 530, 540, 550, as well as the memory 510 and processor 520 in between, may be connected, for example, via bus 560. The I / O interface 530 provides a connectivity interface for input and output devices such as displays, mice, keyboards, and touch classifiers. The network interface 540 provides a connection interface for various network devices. For example, it can be connected to a database server or cloud storage server. The storage interface 550 provides a connectivity interface for external storage devices such as SD cards or USB flash disks.

当業者には、本開示の実施形態が、方法、システム、またはコンピュータプログラム製品として提供され得ることが明らかであろう。したがって、本開示は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、またはソフトウェアとハードウェアの態様の組み合わせの形をとることができる。さらに、本開示は、コンピュータ使用可能なプログラムコードを含む1つまたは複数のコンピュータ使用可能な非一時的記憶媒体(ディスクメモリ、CD-ROM、光メモリなどを含むがこれらに限定されない)に具現化されたコンピュータプログラム製品の形態をとることができる。 It will be apparent to those skilled in the art that embodiments of the present disclosure may be provided as methods, systems, or computer program products. Accordingly, the present disclosure may take the form of a fully hardware embodiment, a fully software embodiment, or a combination of software and hardware aspects. Further, the present disclosure is embodied in one or more computer-usable non-temporary storage media including, but not limited to, disk memory, CD-ROM, optical memory, etc., including computer-usable program code. It can take the form of a computer program product.

本開示は、本開示の実施形態による、方法のフローチャートおよび/またはブロック図、デバイス(システム)、およびコンピュータプログラム製品とともに説明される。フローチャートおよび/またはブロック図の各ステップおよび/または各ブロック、ならびにフローチャートおよび/またはブロック図のステップおよび/またはブロックの組み合わせは、コンピュータプログラム命令によって実装されることが分かる。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、組み込み処理機、または他のプログラム可能なデータ処理デバイスのプロセッサに提供されてマシンを生み出し、コンピュータまたは他のプログラム可能なデータ処理デバイスのプロセッサによって実行される命令が、フローチャートの1つまたは複数のステップおよび/またはブロック図の1つまたは複数のブロックで指定された機能を実現するためのデバイスを生み出す。 The present disclosure is described with flow charts and / or block diagrams of the method, devices (systems), and computer program products according to embodiments of the present disclosure. It can be seen that the flow chart and / or block diagram steps and / or blocks, as well as the flow chart and / or block diagram steps and / or block combinations, are implemented by computer program instructions. These computer program instructions are provided to the processor of a general purpose computer, dedicated computer, embedded processor, or other programmable data processing device to create a machine and are executed by the computer or the processor of another programmable data processing device. The instructions given give rise to a device for achieving the function specified in one or more steps in the flowchart and / or one or more blocks in the block diagram.

これらのコンピュータプログラム命令はまた、コンピュータまたは他のプログラム可能なデータ処理デバイスを特定の方法で動作するようにガイドすることができるコンピュータ可読メモリに格納され得、その結果、コンピュータ可読メモリに格納された命令は、命令デバイスを含む製造物を生み出す。命令デバイスは、フローチャートの1つまたは複数のステップ、またはブロック図の1つまたは複数のブロックに指定された機能を実現する。 These computer program instructions may also be stored in computer-readable memory that can guide the computer or other programmable data processing device to operate in a particular way, and as a result, are stored in computer-readable memory. Instructions produce a product that includes an instruction device. The instruction device implements the function specified in one or more steps in the flowchart, or in one or more blocks in the block diagram.

これらのコンピュータプログラム命令はまた、コンピュータまたは他のプログラム可能なデータ処理デバイスにロードされ得、その結果、一連の動作ステップがコンピュータまたは他のプログラム可能なデバイス上で実行されて、コンピュータ上で実行される命令などのコンピュータ実装処理を生み出し、コンピュータまたは他のプログラム可能なデバイス上で実行される命令は、フローチャートの1つまたは複数のステップおよび/またはブロックビューの1つまたは複数のブロックで指定された機能を実現するためのステップを提供する。 These computer program instructions can also be loaded into a computer or other programmable data processing device, so that a series of operating steps is performed on the computer or other programmable device and is performed on the computer. An instruction that produces a computer-implemented process, such as an instruction, that is executed on a computer or other programmable device is specified in one or more steps in a flowchart and / or one or more blocks in a block view. It provides the steps to realize the function.

上述の説明は単に、本開示の好ましい実施形態であり、本開示を限定しようとするものではない。本開示の原則の範囲内における任意の修正、等価な置換、改善などは、本開示の保護範囲にすべて含まれる。 The above description is merely a preferred embodiment of the present disclosure and is not intended to limit the present disclosure. Any modifications, equivalent replacements, improvements, etc. within the principles of this disclosure are included within the scope of this disclosure.

302 小さいサンプル取得モジュール
304 モデル調整モジュール
306 顔認識モジュール
308 事前トレーニングモジュール
410 メモリ
420 プロセッサ
510 メモリ
520 プロセッサ
530 I/Oインターフェース
540 ネットワークインターフェース
550 ストレージインターフェース
560 バス
302 Small sample acquisition module
304 Model Adjustment Module
306 Face recognition module
308 Pre-training module
410 memory
420 processor
510 memory
520 processor
530 I / O interface
540 network interface
550 storage interface
560 bus

関連出願の相互参照
本出願は、2019年5月10日出願の中国特許出願第201910387689.0号に基づき、該出願の優先権を主張するものであり、その全体が本明細書に参照により組み込まれる。
Cross-reference to related applications This application claims priority in Chinese Patent Application No. 201910387689.0 filed May 10, 2019, which is incorporated herein by reference in its entirety.

本開示は、コンピュータ技術の分野に関し、特に、偽造された顔の認識方法、デバイス、および非一時的コンピュータ可読記憶媒体に関する。 The present disclosure relates to the field of computer technology, in particular to counterfeit face recognition methods, devices, and non-temporary computer-readable storage media.

顔の偽造防止のための認識とは、偽造された顔の特徴を効果的に識別することを指す。例えば、顔認識システムでは、顔認識システムを攻撃するために、いくつかの偽造された顔(ビデオ、写真、およびマスクなど)が生み出されることがある。顔の偽造防止のための認識は、偽造された顔の特徴を識別することを目的とする。一般に、顔認識システムでは、ユーザは、生体検出などとも呼ばれる、顔の偽造防止のための認識の検出にパスする必要がある。 Face anti-counterfeiting recognition refers to the effective identification of counterfeit facial features. For example, a facial recognition system may produce several forged faces (videos, photos, masks, etc.) to attack the facial recognition system. Face anti-counterfeiting recognition aims to identify counterfeit facial features. Generally, in a face recognition system, a user needs to pass the detection of recognition for preventing forgery of a face, which is also called biological detection.

発明者に既知の偽造された顔の認識方法は、既知のカテゴリの大量の偽造された顔画像に基づいて、分類モデルについてディープラーニング訓練を実行することである。訓練された分類モデルは、偽造された顔が訓練のための偽造された顔画像と同じカテゴリに属することを認識し得る。 A method of recognizing counterfeit faces known to the inventor is to perform deep learning training on the classification model based on a large number of counterfeit facial images in known categories. The trained classification model may recognize that the forged face belongs to the same category as the forged face image for training.

本開示のいくつかの実施形態では、偽造された顔認識方法が提供される。方法は、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するステップであって、新しいカテゴリが、顔の偽造防止モデルが事前トレーニングされたときに使用された既存のカテゴリと異なる、ステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するステップであって、事前トレーニングされた顔の偽造防止モデルのパラメータが、複数のタスクに基づいてそれぞれ決定された事前にトレーニングされたパラメータの複数のセットに基づいて決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、ステップと、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するステップとを含む。 Some embodiments of the present disclosure provide forged face recognition methods. The method is to get a small sample set of forged facial images in a new category, where the new category is different from the existing category used when the facial anti-counterfeiting model was pre-trained. , A step to update the parameters of a pre-trained facial anti-counterfeiting model with a small sample set of pre-trained facial anti-counterfeiting models in a new category, with multiple pre-trained facial anti-counterfeiting model parameters. Determined based on multiple sets of pre-trained parameters, each determined on the basis of each task, each task with a small sample set of each forged facial image in one or more existing categories. Recognized by entering a step and a face image that should be recognized by the face anti-counterfeiting model after parameter updates, including a small sample set of each actual face image in one or more existing categories. It includes a step of determining whether the face image to be forged is a forged face image.

いくつかの実施形態では、方法は、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するステップを含み、顔の偽造防止モデルが分類モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが、偽造方法またはモデルの少なくとも一つを含み、あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, the method is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. If the anti-counterfeit model contains a step to update the parameters of the anti-counterfeit model and the anti-counterfeit model is a classification model, the classification label is configured to label the category of forged face images corresponding to the classification label. If the classification label is 1 and the category contains at least one of the counterfeiting methods or models, or the anti-counterfeiting model of the face is a regression model, the classification label is a forged face image corresponding to the classification label. A second classification label configured to be labeled as a positive sample or a negative sample.

いくつかの実施形態では、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するステップが、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力するステップと、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定するステップと、顔の偽造防止モデルのパラメータの勾配に基づいて、顔の偽造防止モデルのパラメータを更新するステップとを含む。 In some embodiments, a face anti-counterfeiting model is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. The step to update the parameters of is to enter the forged face image in a small sample set of forged face images in a new category into the face anti-counterfeiting model as a support sample image for one task. Steps to determine the gradient of facial anti-counterfeiting model parameters based on the output value of the face anti-counterfeiting model for each of the forged facial images and the classification label corresponding to each of the forged facial images. Includes a step to update the face anti-counterfeiting model parameters based on the facial anti-counterfeiting model parameter gradient.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定するステップが、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第1の勾配を決定するステップを備え、あるいは、顔の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々が正のサンプルに属する確率であり、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定するステップが、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第2の勾配を決定するステップを備える。 In some embodiments, if the anti-counterfeit model of the face is a classification model, the output value of the anti-counterfeit model for each of the counterfeit face images is the probability that each of the counterfeit face images belongs to a different category. The gradient of the parameters of the anti-counterfeiting model of the face is determined based on the output value of the anti-counterfeiting model of the face for each of the counterfeited face images and the classification label corresponding to each of the counterfeited face images. The first of the parameters of the anti-counterfeiting model of the face is based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is a regression model, or if the anti-counterfeiting model is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is a positive sample for each of the counterfeited face images. The gradient of the parameters of the anti-counterfeit model based on the output value of the anti-counterfeit model of the face for each of the counterfeit face images and the classification label corresponding to each of the counterfeit face images. The steps to determine the parameters of the anti-counterfeiting model of the face are based on the probability that each of the forged face images belongs to a positive sample and the second classification label that corresponds to each of the forged face images. Provide a step to determine the second gradient.

いくつかの実施形態では、認識方法はさらに、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とを複数のタスクに分けるステップであって、各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ステップと、第4の事前設定された数のタスクを選択して毎回バッチを形成するステップであって、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される、ステップと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了するステップとをさらに備える。 In some embodiments, the recognition method is further a step of dividing the forged face image of the existing category and the actual face image of the existing category into a plurality of tasks, and each task has a plurality of methods. And each method has multiple real facial images of one model or multiple counterfeit facial images of existing categories, and each task has a first preset number of existing categories. Each method has a second preset number of real or forged face images as a small sample set consisting of support sample images, and a third preset as a query sample image. A step with a number of real or forged facial images, and a step of selecting a fourth preset number of tasks to form a batch each time, in advance of the face anti-counterfeiting model. Multiple sets of trained parameters are determined respectively based on multiple tasks in the batch, and parameters of the face anti-counterfeiting model are redetermined based on multiple sets of pre-trained parameters. It further comprises a step and a step to complete the pre-training of the face anti-counterfeiting model until the face anti-counterfeiting model reaches the convergence condition.

いくつかの実施形態では、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定されることが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクについての第3の勾配に基づいて顔の偽造防止モデルのパラメータの一つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されるパラメータのセット、複数のタスクに対応するクエリサンプル画像、およびクエリサンプル画像の各々に対応する分類ラベルに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて、顔の偽造防止モデルのパラメータを再決定することとを含む。 In some embodiments, a plurality of sets of pre- trained parameters for the anti-counterfeiting model are each determined based on multiple tasks in a batch, and the parameters for the anti-counterfeiting model are pre-trained. Redetermination based on multiple sets of parameters determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on a third gradient of about, and a set of parameters determined by each of the multiple tasks in the batch, a query sample corresponding to multiple tasks. Determine the fourth gradient corresponding to the batch based on the classification label corresponding to each of the image and the query sample image, and the parameters of the anti-counterfeiting model based on the fourth gradient corresponding to the batch. Includes deciding.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが偽造方法またはモデルの少なくとも一つを含む。あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, when the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label. Yes, the category contains at least one of the counterfeit methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. Is.

いくつかの実施形態では、事前トレーニング前の顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される。 In some embodiments, the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method.

いくつかの実施形態では、異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、偽造方法が、複数の写真、ビデオ、またはマスクを含み、モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルの複数を含み、異なるタスクの実際の顔画像は、同じモデルまたは異なるモデルを有し、新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、既存の画像が、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを含む。 In some embodiments, different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises multiple photographs, videos, or masks, and the model is a depth model. The actual facial images of different tasks, including multiple near-infrared models, or red-green-blue (RGB) models, have the same model or different models, and new categories of counterfeit facial images are of the counterfeit method or model. Unlike existing images in at least one, the existing image includes a forged facial image in an existing category and an actual facial image in an existing category.

本開示の他の実施形態では、偽造された顔認識デバイスが提供される。デバイスは、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するように構成された小さなサンプル取得モジュールであって、新しいカテゴリが、顔の偽造防止モデルが事前トレーニングされたときに使用された既存のカテゴリと異なる、小さなサンプル取得モジュールと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するように構成されたモデル調整モジュールであって、事前トレーニングされた顔の偽造防止モデルのパラメータが、複数のタスクに基づいてそれぞれ決定された事前にトレーニングされたパラメータの複数のセットに基づいて決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、モデル調整モジュールと、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するように構成された顔認識モジュールとを備える。 In another embodiment of the present disclosure, a forged face recognition device is provided. The device is a small sample acquisition module configured to acquire a small sample set of forged facial images in a new category, which was used when the new category was pre-trained for facial anti-counterfeiting models. A model tuning module configured to update the parameters of a pre-trained facial anti-counterfeiting model with a small sample acquisition module that differs from the existing category and a small sample set of forged facial images in the new category. And the parameters of the pre-trained facial anti-counterfeiting model are determined based on multiple sets of pre-trained parameters, each determined on the basis of multiple tasks, with each task being one or more. Model tuning modules and parameter updates, including a small sample set of forged facial images for each of multiple existing categories and a small sample set of actual facial images for each of one or more existing categories. It includes a face recognition module configured to later input a face image to be recognized into a face anti-counterfeiting model and determine whether the face image to be recognized is a forged face image.

いくつかの実施形態では、モデル調整モジュールが、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するように構成され、顔の偽造防止モデルが分類モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが、偽造方法またはモデルの少なくとも一つを含み、あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, the model adjustment module is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is configured to update the parameters and the anti-counterfeiting model of the face is a classification model, the classification label is configured to label the category of forged face images corresponding to the classification label. If it is the first classification label given and the category contains at least one of the counterfeiting methods or models, or if the anti-counterfeiting model of the face is a regression model, the classification label is counterfeited corresponding to the classification label. A second classification label configured to label the facial image as a positive sample or a negative sample.

いくつかの実施形態では、モデル調整モジュールが、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力し、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定し、顔の偽造防止モデルのパラメータの勾配に基づいて、顔の偽造防止モデルのパラメータを更新するように構成される。 In some embodiments, the model adjustment module inputs the forged face image in a small sample set of forged face images in a new category into the face anti-counterfeiting model as a support sample image for one task. Then, the gradient of the parameters of the anti-counterfeiting model of the face is determined based on the output value of the anti-counterfeiting model of the face for each of the forged facial images and the classification label corresponding to each of the forged facial images. It is configured to update the parameters of the face anti-counterfeiting model based on the gradient of the face anti-counterfeiting model parameters.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、モデル調整モジュールが、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第1の勾配を決定するように構成される。 In some embodiments, when the anti-counterfeiting model of the face is a classification model, the output value of the anti-counterfeiting model for each of the counterfeit face images is the probability that each of the counterfeit face images belongs to a different category. And the model adjustment module is based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images of the anti-counterfeiting model of the face. It is configured to determine the first gradient of the parameter.

あるいは、顔の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々が正のサンプルに属する確率であり、モデル調整モジュールが、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第2の勾配を決定するように構成される。 Alternatively, if the anti-counterfeiting model of the face is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a positive sample, and the model adjustment. A second of the parameters of the anti-counterfeiting model of the face, based on the probability that each of the forged facial images belongs to a positive sample and the second classification label that corresponds to each of the forged facial images. It is configured to determine the gradient.

いくつかの実施形態では、認識デバイスは、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とを複数のタスクに分けることであって、各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ことと、第4の事前設定された数のタスクを選択して毎回バッチを形成することであって、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される、ことと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了することとを行うように構成される事前トレーニングモジュールをさらに備える。 In some embodiments, the recognition device is to divide the forged face image of an existing category from the actual face image of an existing category into a plurality of tasks, each task having a plurality of methods. Each method has multiple real facial images of one model or multiple forged facial images of existing categories, and each task has a first preset number of existing categories. Each method has a second preset number of real or forged face images as a small sample set consisting of support sample images, and a third preset number as query sample images. To have a real or forged facial image of the face, and to select a fourth preset number of tasks to form a batch each time, in advance of the facial anti-counterfeiting model. Multiple sets of trained parameters are each determined based on multiple tasks in the batch, and parameters of the face anti-counterfeiting model are redetermined based on multiple sets of pre-trained parameters. And further includes a pre-training module configured to complete the pre-training of the face anti-counterfeiting model until the face anti-counterfeiting model reaches the convergence condition.

いくつかの実施形態では、事前トレーニングモジュールが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクについての第3の勾配に基づいて顔の偽造防止モデルのパラメータの一つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されるパラメータのセット、複数のタスクに対応するクエリサンプル画像、およびクエリサンプル画像の各々に対応する分類ラベルに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて、顔の偽造防止モデルのパラメータを再決定することを行うように構成される。 In some embodiments, the pre-training module determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and a third for each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on the gradient of, and a set of parameters determined by each of the multiple tasks in the batch, query sample images corresponding to multiple tasks, and queries. Determining the fourth gradient for the batch based on the classification label corresponding to each of the sample images, and redetermining the parameters of the anti-counterfeiting model based on the fourth gradient corresponding to the batch. Is configured to do.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが偽造方法またはモデルの少なくとも一つを含み、あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, if the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label. Yes, if the category contains at least one of the counterfeiting methods or models, or if the anti-counterfeiting model of the face is a regression model, then each of the classification labels is a positive sample or a negative sample of the support sample image corresponding to the classification label. A second classification label configured to be labeled as a sample.

いくつかの実施形態では、事前トレーニング前の顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される。 In some embodiments, the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method.

いくつかの実施形態では、異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、偽造方法が、複数の写真、ビデオ、またはマスクを含み、モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルの複数を含み、異なるタスクの実際の顔画像は、同じモデルまたは異なるモデルを有し、新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、既存の画像が、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを含む。 In some embodiments, different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises multiple photographs, videos, or masks, and the model is a depth model. The actual facial images of different tasks, including multiple near-infrared models, or red-green-blue (RGB) models, have the same model or different models, and new categories of counterfeit facial images are of the counterfeit method or model. Unlike existing images in at least one, the existing image includes a forged facial image in an existing category and an actual facial image in an existing category.

本開示のさらに別の実施形態では、偽造された顔認識デバイスが提供される。デバイスは、メモリと、メモリに結合されたプロセッサとを備え、プロセッサは、メモリに格納された命令に基づいて上述の実施形態のいずれかに記載の偽造された顔認識方法を実施するように構成される。 Yet another embodiment of the present disclosure provides a forged face recognition device. The device comprises a memory and a processor coupled to the memory, the processor configured to perform the forged face recognition method according to any of the above embodiments based on the instructions stored in the memory. Will be done.

本開示のさらに別の実施形態では、非一時的コンピュータ可読記憶媒体が提供される。記憶媒体は、プロセッサによる実行時に、上述の実施形態のいずれかに記載の方法または顔の偽造防止モデルのトレーニング方法を実施するコンピュータプログラムを格納している。 Yet another embodiment of the present disclosure provides a non-temporary computer-readable storage medium. The storage medium stores a computer program that implements the method described in any of the above embodiments or the training method of the anti-counterfeiting model when executed by the processor.

本開示のさらに他の実施形態では、顔の偽造防止モデルのトレーニング方法が提供される。顔の偽造防止モデルのトレーニング方法は、既存のカテゴリの偽造された顔画像および既存のカテゴリの実際の顔画像を複数のタスクに分けるステップであって、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、ステップと、複数のタスクを使用して顔の偽造防止モデルを事前トレーニングして、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットをそれぞれ決定するステップと、事前にトレーニングされたパラメータの複数のセットに基づいて、事前にトレーニングされた顔の偽造防止モデルのパラメータを決定するステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するステップであって、新しいカテゴリが、顔の偽造防止モデルが事前トレーニングされたときに使用された既存のカテゴリと異なる、ステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するステップとを備える。Yet another embodiment of the present disclosure provides a training method for a face anti-counterfeiting model. The method of training the face anti-counterfeiting model is the step of dividing the forged face image of the existing category and the actual face image of the existing category into multiple tasks, and each task is one or more existing ones. Faces using steps and multiple tasks, including a small sample set of forged facial images for each category and a small sample set of actual facial images for each of one or more existing categories. Pre-trained based on the steps of pre-training the anti-counterfeit model to determine each of the multiple sets of pre-trained parameters for the face anti-counterfeit model and the multiple sets of pre-trained parameters. A step to determine the parameters of the face anti-counterfeiting model and a step to get a small sample set of forged facial images in a new category, when the new category is pre-trained for the face anti-counterfeiting model. It comprises steps that differ from the existing categories used and steps that update the parameters of the pre-trained facial anti-counterfeiting model with a small sample set of forged facial images in the new category.

いくつかの実施形態では、各タスクが複数の方法を備え、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが、第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成された小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像を有し、クエリサンプル画像として第3の事前設定された数の実際の顔画像または偽造された顔画像を有し、複数のタスクを使用して顔の偽造防止モデルを事前トレーニングして、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットをそれぞれ決定するステップおよび事前にトレーニングされたパラメータの複数のセットに基づいて、事前にトレーニングされた顔の偽造防止モデルのパラメータを決定するステップが、第4の事前設定された数のタスクを選択して毎回バッチを形成するステップであって、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される、ステップと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了するステップとを備える。In some embodiments, each task comprises multiple methods, each method having multiple real facial images of one model or multiple counterfeit facial images of an existing category, and each task has multiple methods. A first preset number of existing categories, each method as a small sample set composed of support sample images, a second preset number of real face images or forged faces. Having an image, having a third preset number of real or forged facial images as query sample images, and pre-training a facial anti-counterfeiting model using multiple tasks, Determine the parameters of the pre-trained face anti-counterfeiting model based on the steps to determine each of the multiple sets of pre-trained face anti-counterfeiting models and the multiple sets of pre-trained parameters. The step to do is to select a fourth preset number of tasks to form a batch each time, with multiple sets of pre-trained parameters for the face anti-counterfeiting model, multiple batches. Each step is determined based on the task, and the parameters of the face anti-counterfeiting model are redetermined based on multiple sets of pre-trained parameters, until the steps and the face anti-counterfeiting model reach convergence conditions. It includes steps to complete pre-training of the face anti-counterfeiting model.

いくつかの実施形態では、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定されることが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクに対する第3の勾配に基づいて顔の偽造防止モデルのパラメータの1つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されたパラメータのセットと、複数のタスクに対応するクエリサンプル画像と、クエリサンプル画像の各々に対応する分類ラベルとに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて顔の偽造防止モデルのパラメータを再決定することとを備える。In some embodiments, a plurality of sets of pre-trained parameters for the anti-counterfeiting model are each determined based on multiple tasks in a batch, and the parameters for the anti-counterfeiting model are pre-trained. Redetermination based on multiple sets of parameters determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on a third gradient against, a set of parameters determined by each of the multiple tasks in the batch, and a query sample corresponding to the multiple tasks. Determine the fourth gradient corresponding to the batch based on the image and the classification label corresponding to each of the query sample images, and the parameters of the anti-counterfeiting model based on the fourth gradient corresponding to the batch. Be prepared to make a decision again.

本開示のさらに別の実施形態では、顔の偽造防止モデルのトレーニングデバイスが提供される。デバイスは、メモリと、メモリに結合されたプロセッサとを備え、プロセッサが、メモリに格納された命令に基づいて上述の実施形態のいずれかに従う顔の偽造防止モデルのトレーニング方法を実施するように構成される。Yet another embodiment of the present disclosure provides a training device for a face anti-counterfeiting model. The device comprises a memory and a processor coupled to the memory, and the processor is configured to perform a training method of a face anti-counterfeiting model according to any of the above embodiments based on instructions stored in the memory. Will be done.

本開示のさらに別の実施形態では、コンピュータプログラムが提供される。コンピュータプログラムは、プロセッサによる実行時に、プロセッサに、顔の偽造防止モデルのトレーニング方法に従う偽造された顔認識方法または上述の実施形態のいずれかに従う偽造された顔認識方法を実行させる命令を備える。In yet another embodiment of the present disclosure, a computer program is provided. The computer program, upon execution by the processor, comprises an instruction to cause the processor to execute a forged face recognition method according to a training method of a face anti-counterfeiting model or a forged face recognition method according to any of the above embodiments.

本開示の他の特徴および利点は、添付の図面を参照して本開示の例示的な実施形態の以降の詳細な説明から明らかになるであろう。 Other features and advantages of the present disclosure will become apparent from the subsequent detailed description of the exemplary embodiments of the present disclosure with reference to the accompanying drawings.

本開示のさらなる理解を提供する目的で本明細書に述べる添付の図面は、本出願の一部を構成する。本開示に示される実施形態ならびに図解は、本開示の説明を目的とするが、本開示について不適切な定義を構成するものではない。 The accompanying drawings set forth herein for the purpose of providing further understanding of the present disclosure form part of this application. The embodiments and illustrations presented in this disclosure are intended to illustrate this disclosure, but do not constitute an inappropriate definition of this disclosure.

本開示のいくつかの実施形態による、偽造された顔の認識方法の概略のフローチャートである。It is a schematic flowchart of the method of recognizing a forged face according to some embodiments of this disclosure. 本開示の他の実施形態による、偽造された顔の認識方法の概略のフローチャートである。It is a schematic flowchart of the forged face recognition method by another embodiment of this disclosure. 本開示のいくつかの実施形態による、偽造された顔認識デバイスの概略の構造図である。FIG. 3 is a schematic structural diagram of a forged face recognition device according to some embodiments of the present disclosure. 本開示のいくつかの他の実施形態による、偽造された顔認識デバイスの概略の構造図である。FIG. 3 is a schematic structural diagram of a forged face recognition device according to some other embodiment of the present disclosure. 本開示のさらに他の実施形態による、偽造された顔認識デバイスの構造の概略図である。FIG. 3 is a schematic diagram of the structure of a forged face recognition device according to still another embodiment of the present disclosure.

本開示の実施形態の技術的解決策が、本開示の実施形態の添付の図面とともに、以降に明確におよび完全に説明されるであろう。明らかに、説明される実施形態は、実施形態の全てではなく、本開示の実施形態のいくつかに過ぎない。実際に単なる例示である少なくとも一つの説明の実施形態の以下の説明は、決して、本開示ならびにその適用または使用に関するいかなる限定としても機能してはならない。本開示の実施形態に基づいて、発明の努力が含まれないという前提で当業者によって得られた他のすべての実施形態は、本開示の保護範囲に含まれるものとする。 The technical solutions of the embodiments of the present disclosure will be described expressly and fully herein, along with the accompanying drawings of the embodiments of the present disclosure. Obviously, the embodiments described are not all of the embodiments, but only some of the embodiments of the present disclosure. The following description of at least one embodiment of the description, which is merely exemplary in practice, shall by no means serve as any limitation with respect to the present disclosure and its application or use. All other embodiments obtained by one of ordinary skill in the art on the premise that the efforts of the invention are not included in accordance with the embodiments of the present disclosure shall be included in the scope of protection of the present disclosure.

発明者は、既存の偽造された顔認識方法において、訓練されたモデルが正確に偽造された顔を認識できるように、モデルを訓練するための多数のサンプルを使用する必要があることが分かっている。新しいカテゴリの偽造された顔画像が出現すると、偽造された顔画像のサンプル数が非常に少ない場合、再開したモデルの訓練を達成することは不可能であり、その結果、モデルは新しいカテゴリの偽造された顔をタイムリーに認識できず、新しいカテゴリの偽造された顔の攻撃をタイムリーに効果的に防ぐことが不可能になる。The inventor found that in existing counterfeit face recognition methods, it was necessary to use a large number of samples to train the model so that the trained model could accurately recognize the counterfeit face. There is. With the advent of new categories of forged facial images, it is not possible to achieve reopened model training if the sample size of the forged facial images is very small, and as a result, the model is forged in the new category. The face is not recognized in a timely manner, making it impossible to effectively prevent a new category of counterfeit face attacks in a timely manner.

本開示により解決されるべき一つの技術的課題は、新しいカテゴリの偽造された顔画像のタイムリーで効果的な認識を実現し、少数の新しいカテゴリの偽造された顔画像が現れた場合に顔認識システムのセキュリティを向上する方法である。One technical challenge to be resolved by this disclosure is to achieve timely and effective recognition of new categories of forged facial images, and for faces when a small number of new categories of forged facial images appear. This is a way to improve the security of the recognition system.

モデルが新しいカテゴリの偽造された顔をタイムリーに効果的に認識できず、新しいカテゴリの偽造された顔画像が出現し、かつサンプルが非常に少ない場合に、新しいカテゴリの偽造された顔からの攻撃をタイムリーにおよび効果的に防止できないという課題を解決するために、本解決策が提供される。本開示のいくつかの実施形態による偽造された顔の認識方法が、図1とともに以下に説明される。 From a new category of forged faces when the model cannot timely and effectively recognize the new category of forged faces, new categories of forged face images appear, and very few samples. The solution is provided to solve the problem of not being able to prevent attacks in a timely and effective manner. A method for recognizing a forged face according to some embodiments of the present disclosure is described below together with FIG.

図1は、本開示のいくつかの実施形態による偽造された顔の認識方法の概略的なフローチャートを示す。図1に示すように、この実施形態の方法はステップS102~S106を含む。 FIG. 1 shows a schematic flow chart of a forged face recognition method according to some embodiments of the present disclosure. As shown in FIG. 1, the method of this embodiment comprises steps S102-S106.

ステップS102では、新しいカテゴリの偽造された顔画像の小さいサンプルセットが取得される。 In step S102, a small sample set of forged facial images in a new category is obtained.

本開示では、小さいサンプルセット内の画像数はしきい値より少ない。このしきい値は、顔偽造防止モデルが、ディープラーニングトレーニング方法に従って、小さいサンプルセットを用いて更新され、モデルが収束することが不可能であることを認めるものである。しきい値は、例えば、10~30であるが、リストされる例に制限されない。新しいカテゴリの偽造された顔画像は、顔偽造防止モデルが事前にトレーニングされているときに使用した偽造された顔画像のカテゴリとは異なるカテゴリに属し、顔偽造防止モデルが事前にトレーニングされているときに使用した偽造された顔のカテゴリは、既存のカテゴリと呼ばれ得る。 In the present disclosure, the number of images in a small sample set is less than the threshold. This threshold acknowledges that the anti-counterfeiting model is updated with a small sample set according to deep learning training methods, making it impossible for the model to converge. The threshold is, for example, 10 to 30, but is not limited to the examples listed. The new category of forged face images belongs to a different category than the forged face image category used when the face anti-counterfeiting model was pre-trained, and the face anti-counterfeiting model is pre-trained. The forged face category used when used can be referred to as an existing category.

異なる既存のカテゴリの偽装された顔画像は、偽造方法またはモデルの少なくとも1つで異なる。偽造方法は、例えば、写真、ビデオ、およびマスクを含み、モデルは、例えば、深度(Depth)モデル、近赤外線(NIR)モデル、および赤緑青(RGB)モデルを含む。例えば、写真の偽造方法および深度モデルによる偽造された顔画像は、写真の偽造方法およびRGBモデルによる偽造された顔画像と異なるカテゴリに属し、写真の偽造方法および深度モデルによる偽造された顔画像はまた、ビデオの偽造方法およびRGBモデルによる偽造された顔画像と異なるカテゴリに属する。マルチモデル(マルチ-モデル)画像は、同じ物体の異なる属性を記述するための異なる技術手段によって収集された画像を指す。例えば、ある物体に対して、カメラによってキャプチャされた色画像およびレーザレーダによってスキャンされた深度画像は、物体の2つのモデル画像と呼ばれる。新しいカテゴリの偽造された顔画像は、偽造方法またはモデルの少なくとも一つの既存の画像と異なり、既存の画像は、既存のカテゴリの偽造された顔画像および実際の顔画像を含む。 Disguised facial images in different existing categories differ in at least one of the counterfeiting methods or models. Counterfeiting methods include, for example, photographs, videos, and masks, and models include, for example, depth (Depth) models, near-infrared (NIR) models, and red-green-blue (RGB) models. For example, a photo forgery method and a forged face image with a depth model belong to a different category than a photo forgery method and an RGB model forged face image, and a photo forgery method and a forged face image with a depth model It also belongs to a different category from video forgery methods and forged facial images with RGB models. Multi-model (multi-model) images refer to images collected by different technical means for describing different attributes of the same object. For example, for an object, a color image captured by a camera and a depth image scanned by a laser radar are called two model images of the object. Forged facial images in the new category differ from at least one existing image of the forged method or model, and existing images include forged facial images and actual facial images in the existing category.

ステップS104では、事前にトレーニングされた顔の偽造防止モデルのパラメータが、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて更新される。事前にトレーニングされた顔の偽造防止モデルのパラメータが、マルチタスクに基づいてそれぞれ決定された顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットである事前にトレーニングされたパラメータの複数のセットに基づいて決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、実際の顔画像の小さなサンプルセットとを含む。 In step S104, the parameters of the pre-trained facial anti-counterfeiting model are updated with a small sample set of forged facial images in a new category. The parameters of the pre-trained face anti-counterfeiting model are multiple sets of pre-trained parameters of the face anti-counterfeiting model, each determined based on multitasking. Determined on the basis of a set, each task includes a small sample set of forged facial images for each of one or more existing categories and a small sample set of actual facial images.

いくつかの実施形態では、顔の偽造防止モデルのパラメータが、新しいカテゴリの偽造された顔画像の小さなサンプルセットの複数の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて更新される。顔の偽造防止モデルは、分類モデルまたは回帰モデルであってよい。顔の偽造防止モデルが分類モデルである場合、各分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリは、偽造方法またはモデルの少なくとも一つを含む。代替的に、顔の偽造防止モデルが回帰モデルである場合、各分類ラベルは、正のサンプルまたは負のサンプルとして、分類ラベルに対応する偽造された顔画像をラベル付けするように構成された第2の分類ラベルである。第1の分類ラベルは、偽造方法または偽造された顔画像のモデルの少なくとも一つをラベル付けしてよい。異なる偽造方法および異なるモデルの画像の特徴を学習する必要がある場合、偽造方法およびモデルの両方がラベル付けされる。 In some embodiments, the parameters of the face anti-counterfeiting model are multiple forged face images in a small sample set of forged face images in a new category, and a classification label corresponding to each of the forged face images. And will be updated based on. The anti-counterfeiting model of the face may be a classification model or a regression model. If the anti-counterfeiting model of the face is a classification model, each classification label is the first classification label configured to label the category of forged face images corresponding to the classification label, and the category is counterfeit. Includes at least one of the methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each classification label is configured to label the forged face image corresponding to the classification label as a positive or negative sample. It is a classification label of 2. The first classification label may label at least one of the counterfeit methods or models of the counterfeit facial image. If it is necessary to learn different forgery methods and image features of different models, both the forgery method and the model are labeled.

新しいカテゴリの偽造された顔画像の小さなサンプルセットの偽造された顔画像の各々は、事前にトレーニングされた顔の偽造防止モデルに入力され、顔の偽造防止モデルのパラメータの勾配が、出力値、偽造された顔画像の各々に対応する分類ラベル、および事前に設定された損失関数に基づいて決定され、事前にトレーニングされた顔の偽造防止モデルのパラメータが、勾配に基づいて更新される。顔の偽造防止モデルが分類モデルである場合、事前に設定された損失関数は、MSE(平均二乗誤差)損失関数であってよい。顔の偽造防止モデルが回帰モデルである場合、事前に設定された損失関数は、交差エントロピー損失関数であってよいが、これらは取り上げた例に限定されるものではない。勾配に基づいて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新する方法は、本明細書に詳述されないが、要望に応じて既存の勾配降下法でもよい。 Each of the counterfeit facial images in a small sample set of counterfeit facial images in the new category is entered into a pre-trained anti-counterfeiting model of the face, and the gradient of the parameters of the anti-counterfeiting model of the face is the output value, The parameters of the pre-trained anti-counterfeiting model, determined based on the classification label corresponding to each of the forged facial images and the preset loss function, are updated based on the gradient. If the face anti-counterfeiting model is a classification model, the preset loss function may be an MSE (Mean Squared Error) loss function. If the face anti-counterfeiting model is a regression model, the preset loss function may be a cross entropy loss function, but these are not limited to the examples taken. Methods of updating the parameters of a pre-trained anti-counterfeiting model based on the gradient are not detailed herein, but existing gradient descent methods may be used as desired.

いくつかの実施形態では、新しいカテゴリの偽造された顔画像の小さなサンプルセットの複数の偽造された顔画像は、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力され、顔の偽造防止モデルのパラメータの勾配は、偽造された顔画像の各々に対する顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて決定され、顔の偽造防止モデルのパラメータが、顔の偽造防止モデルのパラメータの勾配に基づいて更新される。 In some embodiments, multiple forged facial images in a small sample set of forged facial images in a new category are entered into the facial anti-counterfeiting model as support sample images for one task and of the face. The gradient of the anti-counterfeiting model parameters is determined based on the output value of the face anti-counterfeiting model for each of the forged face images and the classification label corresponding to each of the forged face images to prevent face anti-counterfeiting. The model parameters are updated based on the gradient of the face anti-counterfeiting model parameters.

タスクは、新しいカテゴリの偽造された顔画像の小さなサンプルセットに基づいて構築され得る。新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像は、タスクのサポートサンプル画像であってよい。このことは、後述する偽造された顔画像の事前トレーニング方法でタスクを設定する形式に類似している。構築されたタスクは、1つまたは複数の異なる新しいカテゴリを含み、新しいカテゴリの各々は、対応する小さなサンプルセットを有する。タスクはまた、実際の顔画像の小さなサンプルセットなどを有する。 The task can be built on a small sample set of forged facial images in a new category. The forged face image in a small sample set of forged face images in the new category may be a support sample image for the task. This is similar to the format in which tasks are set by the pre-training method for forged facial images, which will be described later. The constructed task contains one or more different new categories, each of which has a corresponding small sample set. The task also has a small sample set of real facial images and the like.

いくつかの実施形態では、顔の偽造防止モデルは分類モデルであり、顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像の各々と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて更新される。例えば、深度モデルによる実際の顔画像の第1の分類ラベルは0であり、マスクの偽造方法および深度モデルによる偽造された顔画像の第1の分類ラベルは1であり、新しいカテゴリの第1の分類ラベルは2である。 In some embodiments, the face anti-counterfeiting model is a classification model, and the parameters of the face anti-counterfeiting model are each of the forged face images in a small sample set of forged face images in a new category. Updated based on a first classification label corresponding to each of the forged facial images. For example, the first classification label for the actual face image by the depth model is 0, the first classification label for the forged mask method and the forged face image by the depth model is 1, and the first in the new category. The classification label is 2.

偽造された顔画像および実際の顔画像は、適用シナリオに応じて第1の分類ラベルおよび第2の分類ラベルを用いてラベル付けされ得る。例えば、顔の偽造防止モデルのパラメータを更新するプロセスの間に、第1の分類ラベルを使用して、モデルの正確性を向上するために、損失関数の値や勾配の値などを計算することができる。顔の偽造防止モデルは画像を分類して、結果を出力するとき、実際の顔画像および偽造された顔画像の2つのカテゴリに画像を区別するだけで済む。画像の偽造防止モデルを事前トレーニングした後のテストプロセスの間に、第2の分類ラベルを使用して、画像が偽造されたものか実際のものかを認識することで、顔の偽造防止モデルの精度をテストできる。例えば、偽造された顔画像を表す第2の分類ラベルが0であり、実際の顔画像を表す第2の分類ラベルが1である。 The forged facial image and the actual facial image can be labeled with a first classification label and a second classification label depending on the application scenario. For example, during the process of updating the parameters of the face anti-counterfeiting model, the first classification label may be used to calculate the value of the loss function, the value of the gradient, etc. to improve the accuracy of the model. Can be done. When the face anti-counterfeiting model classifies images and outputs the results, it only needs to distinguish the images into two categories: real face images and forged face images. During the testing process after pre-training the anti-counterfeiting model of the image, a second classification label is used to recognize whether the image is forged or real, so that the anti-counterfeiting model of the face You can test the accuracy. For example, the second classification label representing a forged face image is 0 and the second classification label representing an actual face image is 1.

さらに、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々に対する顔の偽造防止モデルの出力値は、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、顔の偽造防止モデルのパラメータの第1の勾配は、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて決定される。 Further, when the face anti-counterfeiting model is a classification model, the output value of the face anti-counterfeiting model for each of the forged face images is the probability that each of the forged face images belongs to a different category, and the face. The first gradient of the anti-counterfeiting model parameters is based on the probability that each of the forged facial images belongs to a different category and the first classification label that corresponds to each of the forged facial images. To.

いくつかの実施形態では、顔の偽造防止モデルは回帰モデルであってよく、顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像の各々と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて更新される。回帰モデルは最終的に、入力画像に対する値を出力し、値に対応するしきい値が設定され得る。値がしきい値より高い場合、画像は実際の顔画像であることを意味し、値がしきい値より低い場合、画像は偽造された顔画像であることを意味する。したがって、回帰モデルは、画像の第2の分類ラベルを適用し得る。 In some embodiments, the face anti-counterfeiting model may be a regression model, and the parameters of the face anti-counterfeiting model are each of the forged face images in a small sample set of forged face images in a new category. And a second classification label corresponding to each of the forged facial images. The regression model can finally output a value for the input image and set a threshold corresponding to the value. If the value is higher than the threshold, it means that the image is a real face image, and if the value is lower than the threshold, it means that the image is a forged face image. Therefore, the regression model may apply a second classification label for the image.

さらに、画像の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々に対する顔の偽造防止モデルの出力値は、偽造された顔画像の各々が正のサンプルに属する確率であり、第2の勾配は、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて決定され、顔の偽造防止モデルのパラメータが、第2の勾配に基づいて更新される。 Further, when the anti-counterfeiting model of the image is a regression model, the output value of the anti-counterfeiting model of the face for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a positive sample. The gradient of 2 is determined based on the probability that each of the forged facial images belongs to a positive sample and the second classification label that corresponds to each of the forged facial images, and is a parameter of the anti-counterfeiting model of the face. Is updated based on the second gradient.

事前にトレーニングされた顔の偽造防止モデルのパラメータは、次の方法でトレーニングされる:顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、複数のタスクに基づいてそれぞれ決定され、次いで、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される。各タスクは、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む。実際の顔画像はまた、異なるモデルの実際の顔画像に分けられる。各タスクは、1つまたは複数のモデルの各々の実際の顔画像の小さなサンプルセットを含み得る。異なるタスクにおける実際の顔画像は、同じモデルまたは異なるモデルを有する。すなわち、既存のカテゴリの偽造された顔画像と、既存のカテゴリ実際の顔画像とから構成された小さなサンプルセットが、複数のタスクに割り当てられる。異なる小さなサンプルセットを使用して、顔の偽造防止モデルをトレーニングし、トレーニング後に複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再決定する必要がある。異なる小さなサンプルセットによる顔の偽造防止モデルをトレーニングするプロセスは、モデル学習のプロセスであり、複数のトレーニング結果に基づいてパラメータを再決定するプロセスは、「学習方法を学習する」モデルのプロセスである。 The parameters of the pre-trained anti-counterfeiting model are trained in the following way: multiple sets of pre-trained anti-counterfeiting models of the face are determined based on multiple tasks, respectively. The parameters of the anti-counterfeiting model of the face are then redetermined based on multiple sets of pre-trained parameters. Each task includes a small sample set of each forged facial image in one or more existing categories and a small sample set of actual facial images in each of one or more existing categories. The actual facial image is also divided into actual facial images of different models. Each task may include a small sample set of each actual facial image of one or more models. Actual facial images in different tasks have the same model or different models. That is, a small sample set composed of a forged face image of an existing category and an actual face image of an existing category is assigned to a plurality of tasks. A different small sample set should be used to train the anti-counterfeiting model, and after training the parameters of the anti-counterfeiting model should be redetermined based on multiple training results. The process of training a face anti-counterfeiting model with different small sample sets is the process of model learning, and the process of redetermining parameters based on multiple training results is the process of a "learning how to learn" model. ..

上述の2つのプロセスの後に、モデルは、小さなサンプルセットの特徴を学習するだけでなく、小さなサンプルセットの特徴を学習する方法を学習し、あるいは、偽造された顔と実際の顔とを区別する方法を単に学習する、または偽造された手掛かりを単に学習するのではなく、顔の偽造防止モデルは最終的に、「偽装された顔と実際の顔とを区別することを学習する方法」および「偽造された手掛かりを見つけることを学習する方法」を学習する。したがって、新しいカテゴリの偽造された顔画像が小さなサンプルセットに属する場合、顔の偽造防止モデルはまた、速い収束と、新しいカテゴリの偽造された顔の特徴の速い学習とを行い、効果的かつタイムリーに防御する。 After the two processes described above, the model not only learns the features of the small sample set, but also learns how to learn the features of the small sample set, or distinguishes between a forged face and a real face. Rather than simply learning how, or simply learning forged clues, the anti-counterfeiting model of the face ultimately "how to learn to distinguish between a disguised face and a real face" and " Learn how to learn to find forged clues. Therefore, if the new category of counterfeit facial images belong to a small sample set, the face anti-counterfeiting model also performs fast convergence and fast learning of the new category of counterfeit facial features, effectively and timely. Defend Lee.

ステップS106では、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像であるかどうかが判定される。 In step S106, the face image to be recognized is input to the face anti-counterfeiting model after the parameters are updated, and it is determined whether the face image to be recognized is a forged face image.

認識されるべき顔画像は、いずれも顔の偽造防止モデルによって認識され得る新しいカテゴリまたは既存のカテゴリに属する偽造された顔画像であることがある。 The facial image to be recognized may be a forged facial image that belongs to a new category or an existing category that can be recognized by the anti-counterfeiting model of the face.

上述の実施形態の方法では、事前にトレーニングされた顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて直接更新され、その結果、更新された顔の偽造防止モデルは、既存のカテゴリおよび新しいカテゴリの様々な偽造された顔画像を認識できる。これは、事前にトレーニングされた顔の偽造防止モデルが、既存のカテゴリの偽造された顔画像の小さなサンプルセットと、実際の顔画像の小さなサンプルセットとによってトレーニングされ、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、それぞれ複数のタスクによって決定され、次いで、顔の偽造防止モデルのパラメータが、トレーニングプロセスの間に事前にトレーニングされたパラメータの複数のセットに基づいて再決定されるためである。このトレーニングプロセスは、2つのステージ:既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像の複数の小さなサンプルセットをそれぞれ用いて顔の偽造防止モデルをトレーニングする第1のステージであって、モデルが、小さなサンプルセットの特徴を学習するステージ、または、偽造された顔と実際の顔とを区別することを学習するステージである、第1のステージと、集約を実行するとともに、複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再更新する第2のステージであって、モデルが特徴の小さなサンプルセットを学習する方法を学習するか、偽造された顔と実際の顔とを区別することを学習する方法を学習するステージである、第2のステージとを含む。 In the method of the above embodiment, the parameters of the pre-trained face anti-counterfeiting model are updated directly with a small sample set of forged face images in a new category, resulting in the updated face forgery. The prevention model can recognize various forged facial images in existing and new categories. This is a pre-trained facial anti-counterfeiting model that is trained by a small sample set of forged facial images in the existing category and a small sample set of real facial images in advance of the facial anti-counterfeiting model. Multiple sets of trained parameters are determined by multiple tasks each, and then the parameters of the face anti-counterfeiting model are redetermined based on the multiple sets of pre- trained parameters during the training process. Because it is done. This training process consists of two stages: the first stage of training a facial anti-counterfeiting model using multiple small sample sets of forged facial images in an existing category and real facial images in an existing category. And with the first stage, where the model learns the features of a small sample set, or the stage where it learns to distinguish between a fake face and a real face, as well as performing aggregation. The second step is to re-update the parameters of the face anti-counterfeiting model based on multiple training results, learning how the model learns a small sample set of features, or the forged face and the actual It includes a second stage, which is a stage for learning how to learn to distinguish from the face.

したがって、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像の小さなサンプルセットを有する複数のタスクを学習した後、顔の偽造防止モデルは、小さなサンプルセットを学習する方法を習得するか、偽造された顔と実際の顔を区別することを学習する方法、あるいは偽造された手掛かりを見つけることを学習する方法を習得し、適切な初期化パラメータを取得する。新しいカテゴリの偽造された顔画像が小さなサンプルセットの条件に関係する場合、顔の偽造防止モデルは更新される。以前に学習した速い学習能力による利点として、顔の偽造防止モデルはまた、新しいカテゴリの偽造された顔の特徴の速い収束と速い学習とを実行し、顔の偽造防止モデルのタイムリーで効果的な更新を実行でき、新しいカテゴリの偽造された顔画像をタイムリーに効果的に認識し、新しいカテゴリの偽造された顔からの攻撃に対してタイムリーに効果的に防御できる。 Therefore, after learning multiple tasks with a small sample set of forged face images in an existing category and a real face image in an existing category, the face anti-counterfeiting model learns how to learn a small sample set. Learn how to learn to distinguish between a forged face and a real face, or learn to find forged clues, and get the appropriate initialization parameters. The anti-counterfeiting model of the face is updated if the new category of counterfeit facial images is related to the conditions of a small sample set. As an advantage of the fast learning ability previously learned, the face anti-counterfeiting model also performs fast convergence and fast learning of a new category of counterfeit facial features, making the face anti-counterfeiting model timely and effective. Updates can be performed, the forged face image of the new category can be recognized in a timely and effective manner, and the attack from the forged face of the new category can be effectively protected in a timely manner.

本開示の他の実施形態によれば偽造された顔認識方法を図2とともに以下に説明する。この実施形態は、顔の偽造防止モデルの事前トレーニング方法および動作方法を含む。 According to another embodiment of the present disclosure, a forged face recognition method will be described below together with FIG. This embodiment includes a pre-training method and a method of operation of a face anti-counterfeiting model.

図2は、本開示の他の実施形態による偽造された顔認識方法の概略的なフローチャートを示す。図2に示すように、本実施形態の方法は、ステップS202~S214を含む。 FIG. 2 shows a schematic flow chart of a forged face recognition method according to another embodiment of the present disclosure. As shown in FIG. 2, the method of the present embodiment includes steps S202 to S214.

ステップS202では、顔の偽造防止モデルは、ディープラーニングトレーニング方法に従って、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを用いて最初にトレーニングされ、事前トレーニング前の顔の偽造防止モデルの初期パラメータが決定される。 In step S202, the face anti-counterfeiting model is first trained with a forged face image of an existing category and an actual face image of an existing category according to a deep learning training method, and the face before pre-training. The initial parameters of the anti-counterfeit model are determined.

まず、顔の偽造防止モデルは、既存のディープラーニングトレーニング方法を使用することによってトレーニングされ、次いで、後続の事前トレーニングプロセスに進み、その結果、2つのトレーニング後の顔の偽造防止モデルは、適切な区別と一般化を提供する。ディープラーニングトレーニング方法により、顔の偽造防止モデルは、より正確に画像を区別できるようになり、本開示の事前トレーニング方法により、モデルは、異なるカテゴリの偽造された顔画像を一般化でき、2つのトレーニング後の顔の偽造防止モデルは、新しいタスクへの素早い適応性を提供するだけでなく、既知のタスクまたは類似のタスクについての適切な区別を提示することもできる。 First, the face anti-counterfeiting model is trained by using existing deep learning training methods, then proceed to the subsequent pre-training process, so that the two post-training facial anti-counterfeiting models are suitable. Provides distinction and generalization. Deep learning training methods allow facial anti-counterfeiting models to more accurately distinguish images, and pre-training methods of the present disclosure allow models to generalize different categories of forged facial images. The post-training facial anti-counterfeiting model not only provides quick adaptability to new tasks, but can also provide appropriate distinctions for known or similar tasks.

ステップS204では、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とは、複数のタスクに分割される。各タスクは、複数の方法を有し、各方法は、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各方法は、サポートサンプル画像から構成された小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを有する。各タスクは、第1の事前設定された数の既存のカテゴリを有する。各既存のカテゴリは、偽造方法および/またはモデルを表す。顔の偽造防止モデルは単に、異なる偽造方法を用いて偽造された顔画像を認識するように構成され、既存のカテゴリは単に、偽造方法を表すように構成され、全ての偽造された顔画像および実際の顔画像は同じモデルに属する。顔の偽造防止モデルは、異なる偽造方法および異なるモデルの偽造された顔画像を認識するように構成される場合、各既存のカテゴリは、偽造方法またはモデルを表す。 In step S204, the forged face image of the existing category and the actual face image of the existing category are divided into a plurality of tasks. Each task has multiple methods, each method has multiple real facial images of one model or multiple counterfeit facial images of existing categories, and each method consists of support sample images. A second preset number of real or forged face images as a small set of samples, and a third preset number of real or forged face images as a query sample image. Has a face image. Each task has a first preset number of existing categories. Each existing category represents a counterfeit method and / or model. Face anti-counterfeiting models are simply configured to recognize counterfeit facial images using different counterfeiting methods, existing categories are simply configured to represent counterfeiting methods, and all counterfeit facial images and The actual face image belongs to the same model. If the face anti-counterfeiting model is configured to recognize different counterfeiting methods and counterfeit facial images of different models, each existing category represents a counterfeiting method or model.

タスクは複数の方法を有する。各方法は、第2の事前設定された数のサポートサンプル画像と、第3の事前設定された数のクエリサンプル画像とを含む。各方法のサポートサンプル画像は、小さなサンプルセットを形成し、各タスクにおける各方法のサポートサンプル画像は、例えば10~30であるしきい値より少ない。事前トレーニングプロセスの間、サポートサンプル画像によって形成された小さなサンプルセット内の画像数は、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の画像数と同じであっても異なっていてもよい。サポートサンプル画像によって形成された小さなサンプルセット内の画像数が、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の画像数以下である場合、顔の偽造防止モデルは、事前トレーニングプロセスにおける新しいカテゴリの小さなサンプルセットに基づいて続いて更新され、顔の偽造防止モデルはより良好な認識効果を提示できる。これは、顔の偽造防止モデルが、事前トレーニングプロセスの間により少ない数のサンプルを学習する方法を学習するためであり、更新時に新しいカテゴリの多数の画像があるので、モデルのパラメータの更新がより良好に達成され得る。 The task has multiple methods. Each method includes a second preset number of support sample images and a third preset number of query sample images. The support sample images for each method form a small sample set, and the support sample images for each method in each task are less than the threshold, eg 10-30. During the pre-training process, the number of images in the small sample set formed by the support sample images may be the same as or different from the number of images in the small sample set of counterfeit facial images in the new category. If the number of images in the small sample set formed by the support sample images is less than or equal to the number of images in the small sample set of forged face images in the new category, the face anti-counterfeiting model is a new category in the pre-training process. Subsequently updated based on a small sample set of, the face anti-counterfeiting model can present a better recognition effect. This is because the face anti-counterfeiting model learns how to learn a smaller number of samples during the pre-training process, and there are numerous images in the new category at the time of the update, so the model parameters are more updated. Can be achieved well.

毎回、第1の事前設定された数の既存カテゴリがランダムに選択され、次いで、第2の事前設定された数のサポートサンプル画像および第3の事前設定された数のクエリサンプル画像が、既存カテゴリの選択された偽造された顔画像からランダムに選択され得る。1つまたは複数のモデルの実際の顔画像がランダムに選択され、次いで、第2の事前設定された数のサポートサンプル画像および第3の事前設定された数のクエリサンプル画像が、選択された実際の顔画像からランダムに選択され、タスクを生成する。異なるタスクの画像を完全に同じできない。 Each time, a first preset number of existing categories is randomly selected, followed by a second preset number of support sample images and a third preset number of query sample images in the existing category. Can be randomly selected from selected forged facial images. The actual facial images of one or more models were randomly selected, followed by a second preset number of support sample images and a third preset number of query sample images. Randomly selected from the face image of the to generate a task. Images of different tasks cannot be exactly the same.

ステップS206では、第4の事前設定された数のタスクが選択されて、バッチを形成し、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される。 In step S206, a fourth preset number of tasks are selected to form a batch, and multiple sets of pre-trained parameters of the face anti-counterfeiting model are based on multiple tasks in the batch. Each is determined and the parameters of the anti-counterfeiting model are redetermined based on multiple sets of pre-trained parameters.

第4の事前設定された数のタスクがランダムに選択され、バッチを形成する。例えば、5つのタスクがバッチとして選択される。各バッチについて、顔の偽造防止モデルのパラメータが2回更新され得る。第1の更新は、各タスクにおいてサポートサンプル画像によって顔の偽造防止モデルのパラメータを更新することである。第2の更新は、各タスクにおいてクエリサンプル画像によって顔の偽造防止モデルのパラメータを更新することである。すなわち、更新は、前述の、学習プロセスと、「学習方法の学習」のプロセスで構成される。これは、各バッチがパラメータを更新するためにモデルに一度直接入力される既存のディープラーニング方法とは異なる。 A fourth preset number of tasks are randomly selected to form a batch. For example, 5 tasks are selected as a batch. For each batch, the face anti-counterfeiting model parameters can be updated twice. The first update is to update the parameters of the face anti-counterfeiting model with support sample images in each task. The second update is to update the parameters of the face anti-counterfeiting model with the query sample image in each task. That is, the update is composed of the above-mentioned learning process and the process of "learning the learning method". This is different from existing deep learning methods where each batch is entered directly into the model once to update the parameters.

いくつかの実施形態では、バッチ内の各タスクについて、タスクに対応する第3の勾配(第1の勾配から更新された)は、各サポートサンプル画像と各サポートサンプル画像に対応する分類ラベルとに基づいて決定され、顔の偽造防止モデルのパラメータのセットが、第3の勾配に基づいて決定される。中間パラメータに属し、顔の偽造防止モデルのパラメータを正確に更新しない複数のタスクによって決定された事前にトレーニングされたパラメータの複数のセットは、次の更新のために格納され得る。さらに、バッチに対応する第4の勾配(第2の勾配から更新された)は、バッチ内の複数のタスクの各々について決定されたパラメータのセットと、複数のタスクに対応するクエリサンプル画像と、クエリサンプル画像の各々に対応する分類ラベルとに基づいて決定される。顔の偽造防止モデルのパラメータは、バッチに対応する第4の勾配に基づいて再決定される。第2の時間の間に決定された顔の偽造防止モデルのパラメータを使用して、顔の偽造防止モデルのパラメータを更新する。 In some embodiments, for each task in the batch, the third gradient (updated from the first gradient) corresponding to the task is in each support sample image and the classification label corresponding to each support sample image. Determined on the basis of, the set of parameters for the anti-counterfeiting model of the face is determined on the basis of the third gradient. Multiple sets of pre-trained parameters that belong to intermediate parameters and are determined by multiple tasks that do not accurately update the parameters of the face anti-counterfeiting model may be stored for the next update. In addition, the fourth gradient corresponding to the batch (updated from the second gradient) is a set of parameters determined for each of the multiple tasks in the batch, a query sample image corresponding to the multiple tasks, and a query sample image. It is determined based on the classification label corresponding to each of the query sample images. The parameters of the anti-counterfeiting model of the face are redetermined based on the fourth gradient corresponding to the batch. Update the face anti-counterfeiting model parameters using the face anti-counterfeiting model parameters determined during the second time.

例えば、バッチ内の各タスクτi∈Tについて、iは、タスクのシリアル番号を表す正の整数であり、Tはバッチのタスクセットである。各タスクτiについて、タスクに対応する顔の偽造防止モデルのパラメータの第3の勾配

Figure 2022532177000020
が計算され、ここで、θは、顔の偽造防止モデルの現在のパラメータを表し、
Figure 2022532177000021
は、タスクτiのためのサポートサンプル画像を使用して現在のパラメータθに関して計算された損失関数の勾配
Figure 2022532177000022
を表す。タスクτiについて決定された顔の偽造防止モデルのパラメータは、
Figure 2022532177000023
と表され、ここで、αは、第1のステップ値を表す。バッチ内の複数のタスクは、格納される複数の
Figure 2022532177000024
(重みパラメータ行列であってよい)を決定する。 For example, for each task τ i ∈ T in a batch, i is a positive integer representing the serial number of the task and T is the task set for the batch. For each task τ i , the third gradient of the parameters of the face anti-counterfeiting model corresponding to the task
Figure 2022532177000020
Is calculated, where θ represents the current parameters of the anti-counterfeiting model of the face.
Figure 2022532177000021
Is the gradient of the loss function calculated for the current parameter θ using the support sample image for task τ i .
Figure 2022532177000022
Represents. The parameters of the face anti-counterfeiting model determined for task τi are:
Figure 2022532177000023
Here, α represents the first step value. Multiple tasks in a batch are stored in multiple
Figure 2022532177000024
Determine (may be a weight parameter matrix).

さらに、バッチに対して、バッチに対応する第4の勾配が、

Figure 2022532177000025
と表され、これは、バッチ内の複数のタスクの損失がまず加算され、次いで勾配が計算されることを表している。損失および第4の勾配は、タスクτiのクエリサンプル画像と、対応する
Figure 2022532177000026
に基づいて計算される。このバッチに対して更新される顔の偽造防止モデルのパラメータは、
Figure 2022532177000027
である。βは、第2のステップ値である。
Figure 2022532177000028
は、第4の勾配を計算するための中間変数であり、モデルのパラメータはバッチの開始時にθに基づいて各バッチについて更新されることが分かる。顔の偽造防止モデルは、クエリサンプル画像によって更新され、タスクについてのモデルの一般化能力を向上させ、サポートサンプル画像の過剰適合を回避できる。 In addition, for the batch, the fourth gradient corresponding to the batch,
Figure 2022532177000025
This means that the losses of multiple tasks in the batch are added first, and then the gradient is calculated. The loss and the fourth gradient correspond to the query sample image of task τi .
Figure 2022532177000026
It is calculated based on. The face anti-counterfeiting model parameters updated for this batch are:
Figure 2022532177000027
Is. β is the second step value.
Figure 2022532177000028
Is an intermediate variable for calculating the fourth gradient, and it can be seen that the model parameters are updated for each batch based on θ at the start of the batch. The face anti-counterfeiting model can be updated with query sample images to improve the model's generalization ability for tasks and avoid overfitting of support sample images.

顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々は、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリは、偽造方法またはモデルの少なくとも一つを含む。代替的に、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々は、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。実際の顔画像について、事前設定された値は、偽装方法を使用してラベル付けを実行するときにラベル付けされ得る。すなわち、顔の偽造防止モデルが分類モデルである場合、このバッチ内の各タスクについて、このタスクに対応する第3の勾配が、各サポートサンプル画像および各サポートサンプル画像に対応する第1の分類ラベルに基づいて決定される。代替的に、顔の偽造防止モデルが回帰モデルである場合、バッチ内の各タスクについて、このタスクに対応する第3の勾配が、各サポートサンプル画像および各サポートサンプル画像に対応する第2の分類ラベルに基づいて決定される。 If the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label, and the category is the counterfeiting method. Or include at least one of the models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. It is a classification label. For the actual facial image, the preset values can be labeled when performing the labeling using the impersonation method. That is, if the face anti-counterfeiting model is a classification model, for each task in this batch, the third gradient corresponding to this task is the first classification label corresponding to each support sample image and each support sample image. Is determined based on. Alternatively, if the face anti-counterfeiting model is a regression model, for each task in the batch, the third gradient corresponding to this task is the second classification corresponding to each support sample image and each support sample image. Determined based on the label.

ステップS208では、顔の偽造防止モデルが収束条件に達しているかどうかが判定され、YESの場合、顔の偽造防止モデルの事前トレーニングが完了し、NOの場合、再スタートのためにステップS206に戻る。 In step S208, it is determined whether the anti-counterfeiting model has reached the convergence condition. If YES, the pre-training of the anti-counterfeiting model is completed, and if NO, the process returns to step S206 for restart. ..

収束条件は、例えば、損失関数の値が最小になるか事前設定された損失関数の値に到達することに一致する。損失関数の値が収束条件に達しない場合、顔の偽造防止モデルをトレーニングするための別のバッチを選択するために、ステップS206に戻る。 The convergence condition corresponds, for example, to minimizing the value of the loss function or reaching a preset value of the loss function. If the value of the loss function does not reach the convergence condition, return to step S206 to select another batch for training the face anti-counterfeiting model.

上述のステップは、顔の偽造防止モデルの事前トレーニングプロセスに属する。各タスクの各カテゴリのサポートサンプル画像は非常に少ない数であり、ゆえに小さなサンプルセットに属しているが、多数のサンプル(既存のカテゴリの多数のサンプル画像および実際の画像カテゴリを含む)が、事前トレーニングプロセス全体の間に使用されることに、留意されたい。また、サンプル数が多いほど良好である。違いは、多くのタスクおよび多くの小さなサンプルセットが分割されていることだけであり、その結果、モデルは、事前トレーニングプロセスの間に「学習方法を学習する」ことができ、モデルの精度を上げることができる。 The steps described above belong to the pre-training process for the anti-counterfeiting model of the face. The number of supported sample images in each category of each task is very small and therefore belongs to a small sample set, but a large number of samples (including many sample images in existing categories and actual image categories) are pre-existing. Note that it is used during the entire training process. Also, the larger the number of samples, the better. The only difference is that many tasks and many small sample sets are split so that the model can "learn how to learn" during the pre-training process, increasing the accuracy of the model. be able to.

ステップS210では、新しいカテゴリの偽造された顔画像の小さなサンプルセットが取得される。 In step S210, a small sample set of forged facial images in a new category is obtained.

新しいカテゴリの偽造された顔画像の小さなサンプルセットは、タスクにおいてサポートサンプル画像として働き得る。タスクは、1つまたは複数の新しいカテゴリを含み、各新しいカテゴリが小さなサンプルセットに対応する。 A small sample set of forged facial images in the new category can serve as support sample images in the task. The task contains one or more new categories, with each new category corresponding to a small sample set.

ステップS212では、事前トレーニングされた顔の偽造防止モデルのパラメータは、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて更新される。 In step S212, the parameters of the pre-trained facial anti-counterfeiting model are updated with a small sample set of counterfeit facial images in a new category.

新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新する方法は、ステップS206のタスクτiのサポートサンプル画像を使用することによって顔の偽造防止モデルのパラメータ

Figure 2022532177000029
を決定するプロセスに類似している。例えば、タスクτjのサポートサンプル画像として1つまたは複数の新しいカテゴリの小さなサンプルセット内の偽造された顔画像の場合、このタスクτjに対応する顔の偽造防止モデルのパラメータの第3の勾配
Figure 2022532177000030
が計算され、タスクτj対して決定された顔の偽造防止モデルのパラメータは、
Figure 2022532177000031
と表され、ここで、αは第1のステップ値を表す。すなわち、更新された顔の偽造防止モデルのパラメータは、
Figure 2022532177000032
である。クエリサンプル画像を使用した更新プロセスは、実行されない。 How to update the parameters of the pre-trained face anti-counterfeiting model with a small sample set of forged face images in the new category is by using the support sample images of task τi in step S206. Anti-counterfeit model parameters
Figure 2022532177000029
It is similar to the process of determining. For example, for a forged face image in a small sample set in one or more new categories as a support sample image for task τ j , the third gradient of the parameters of the face anti-counterfeiting model corresponding to this task τ j .
Figure 2022532177000030
Is calculated and the parameters of the face anti-counterfeiting model determined for the task τj are:
Figure 2022532177000031
Here, α represents the first step value. That is, the parameters of the updated face anti-counterfeiting model are:
Figure 2022532177000032
Is. The update process using the query sample image is not performed.

ステップS214では、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像かどうかが判定される。 In step S214, the face image to be recognized is input to the face anti-counterfeiting model after the parameters are updated, and it is determined whether the face image to be recognized is a forged face image.

本開示の解決策は、新しい偽造方法の偽造された顔画像を認識するために適用されるだけでなく、新しいモデルの偽造された顔画像を認識できる。例えば、新しい偽造方法の偽造された顔画像を認識する必要だけがある場合、既存の偽造方法の偽造された顔画像および実際の顔画像が、事前トレーニングの間にトレーニングサンプルとして働き、トレーニングサンプルは、同じモデルのものであり、新しい偽造方法の偽造された顔画像もそのようなモデルに属する。別の例では、偽造された顔画像を認識する必要だけがある場合、既存のモデルの偽造された顔画像および実際の顔画像が、事前トレーニングの間にトレーニングサンプルとして働き、既存のモデルのこれらの偽造された顔画像は、同じ偽造方法によって偽造され、新しい偽造モデルの偽造された顔画像もそのような偽造方法に属する。トレーニングサンプルが、異なる偽造方法および異なるモデルの両方の偽造された顔画像と、事前トレーニングの間に1つまたは複数のモデルの実際の顔画像とを含む場合、新しい偽造された顔画像は、トレーニングサンプルにおける任意の偽造方法または任意のモデルと異なることがある。 The solutions of the present disclosure can be applied not only to recognize forged facial images of new counterfeit methods, but also to recognize forged facial images of new models. For example, if you only need to recognize the forged face image of the new counterfeit method, the counterfeit face image and the actual face image of the existing counterfeit method will act as a training sample during the pre-training, and the training sample will Forged facial images of the same model and new forgery methods also belong to such models. In another example, if only the forged face image needs to be recognized, the forged face image and the actual face image of the existing model act as training samples during the pre-training and these of the existing model. The forged face image of is forged by the same forgery method, and the forged face image of the new forged model also belongs to such a forgery method. If the training sample contains forged facial images of both different counterfeit methods and different models, and the actual facial images of one or more models during pre-training, the new counterfeit facial images will be trained. May differ from any counterfeiting method or any model in the sample.

例えば、新しい偽造方法の偽造された顔画像について、いくつかの実施形態では、新しい偽造方法の偽造された顔画像の小さなサンプルセットが取得され、顔の偽造防止モデルのパラメータが、新しい偽造方法の偽造された顔画像の小さなサンプルセットを用いて更新され、事前トレーニングされた顔の偽造防止モデルのパラメータは、複数のタスクに基づいてそれぞれ決定された顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットである事前にトレーニングされたパラメータの複数のセットに基づいて決定され、各タスクは、1つまたは複数の既存の偽造方法の各々の偽造された顔画像の小さなサンプルセットと実際の顔画像の小さなサンプルセットとを含み、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像であるかどうか判定される。 For example, for a forged face image of a new counterfeit method, in some embodiments, a small sample set of the forged face image of the new counterfeit method is obtained, and the parameters of the face anti-counterfeiting model are the parameters of the new counterfeit method. Updated and pre-trained facial anti-counterfeiting model parameters with a small sample set of forged facial images, each pre- trained facial anti-counterfeiting model parameter was determined based on multiple tasks. Determined on the basis of multiple sets of pre-trained parameters, which are multiple sets of, each task is a small sample set of each forged facial image of one or more existing counterfeit methods and the actual A face image to be recognized, including a small sample set of face images, is entered into the face anti-counterfeiting model after the parameters have been updated to determine if the face image to be recognized is a forged face image. Will be done.

例えば、新しいモデルの偽造された顔画像について、いくつかの実施形態では、新しいモデルの偽造された顔画像の小さなサンプルセットが取得され、顔の偽造防止モデルのパラメータが、新しいモデルの偽造された顔画像の小さなサンプルセットを用いて更新され、事前トレーニングされた顔の偽造防止モデルのパラメータは、複数のタスクに基づいてそれぞれ決定された顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットである事前にトレーニングされたパラメータの複数のセットに基づいて決定され、各タスクは、1つまたは複数の既存のモデルの各々の偽造された顔画像の小さなサンプルセットと1つまたは複数の既存のモデルの各々の実際の顔画像の小さなサンプルセットとを含み、認識されるべき顔画像が、パラメータが更新された後に顔の偽造防止モデルに入力され、認識されるべき顔画像が偽造された顔画像であるかどうか判定される。 For example, for a forged face image of a new model, in some embodiments a small sample set of the forged face image of the new model was obtained and the parameters of the anti-face anti-counterfeit model were forged in the new model. Updated with a small sample set of facial images, the parameters of the pre-trained facial anti-counterfeiting model are multiple of the pre -trained parameters of the pre-trained facial anti-counterfeiting model, each determined based on multiple tasks. Determined on the basis of multiple sets of pre-trained parameters that are a set, each task is a small sample set of each forged facial image of one or more existing models and one or more existing ones. The face image to be recognized was entered into the face anti-counterfeiting model after the parameters were updated, including a small sample set of each actual face image of the model, and the face image to be recognized was forged. It is determined whether it is a face image.

事前トレーニングプロセスは、上述の実施形態のものに類似している。トレーニングサンプルが、異なる偽造方法および異なるモデルの偽造された顔画像を含む状況では、例えば、3つの既知のモデルと3つの既知の偽造方法がある場合、最大9つの異なる既存のカテゴリの偽造された顔画像が存在し得る。さらに、3つのモデルの実際の顔画像が存在する場合、生成されるタスクは、最大12の小さなサンプルセットを含み得る。 The pre-training process is similar to that of the embodiments described above. In situations where the training sample contains different forgery methods and forged facial images of different models, for example, if there are 3 known models and 3 known forgery methods, up to 9 different existing categories of forgery. There can be a facial image. In addition, if there are actual facial images of the three models, the generated task can contain up to 12 small sample sets.

上述の実施形態では、事前にトレーニングされた顔の偽造防止モデルが、1つまたは複数の既存のモデルの偽造された顔画像から構成された複数の小さなサンプルセット、1つまたは複数の既存の偽造方法、あるいは複数の既存のモデルの実際の顔画像によってトレーニングされ、顔の偽造防止モデルのパラメータの複数のグループが複数のタスクによってそれぞれ決定され、次いで、顔の偽造防止モデルのパラメータが、トレーニングプロセスの間事前にトレーニングされたパラメータの複数のセットに基づいて再決定される。このトレーニングプロセスは、2つのステージ:既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像の複数の小さなサンプルセットをそれぞれ用いて顔の偽造防止モデルをトレーニングする第1のステージであって、モデルが、小さなサンプルセットの特徴を学習するステージ、または、偽造された顔と実際の顔とを区別することを学習するステージである、第1のステージと、集約を実行するとともに、複数のトレーニング結果に基づいて顔の偽造防止モデルのパラメータを再更新する第2のステージであって、モデルが特徴の小さなサンプルセットを学習する方法を学習するか、偽造された顔と実際の顔とを区別することを学習する方法を学習するステージである、第2のステージとを含む。 In the embodiments described above, the pre-trained facial anti-counterfeiting model is a set of small samples, one or more existing anti-counterfeiting, consisting of forged facial images of one or more existing models. Trained by the method, or the actual facial images of multiple existing models, multiple groups of facial anti-counterfeiting model parameters are determined by multiple tasks, respectively, and then facial anti-counterfeiting model parameters are determined during the training process. During the redetermination based on multiple sets of pre-trained parameters. This training process consists of two stages: the first stage of training a facial anti-counterfeiting model using multiple small sample sets of forged facial images in an existing category and real facial images in an existing category. And with the first stage, where the model learns the features of a small sample set, or the stage where it learns to distinguish between a fake face and a real face, as well as performing aggregation. The second step is to re-update the parameters of the face anti-counterfeiting model based on multiple training results, learning how the model learns a small sample set of features, or the forged face and the actual It includes a second stage, which is a stage for learning how to learn to distinguish from the face.

したがって、事前トレーニングを受けた顔の偽造防止モデルは、小さなサンプルセットを学習する方法を習得するか、偽造された顔と実際の顔を区別することを学習する方法を習得し、適切な初期化パラメータを取得する。新しいモデルの偽造された顔画像が小さなサンプルセットの条件に属するとき、顔の偽造防止モデルが更新される。以前に学習した早い学習能力による利点として、顔の偽造防止モデルはまた、新しいカテゴリの偽造された顔の特徴の速い収束と速い学習とを実行し、顔の偽造防止モデルのタイムリーで効果的な更新を実行でき、新しいカテゴリの偽造された顔画像をタイムリーに効果的に認識し、新しいカテゴリの偽造された顔からの攻撃に対してタイムリーに効果的に防御できる。 Therefore, a pre-trained face anti-counterfeiting model learns how to learn a small sample set or how to distinguish between a forged face and a real face, and proper initialization. Get the parameters. The face anti-counterfeiting model is updated when the forged face image of the new model belongs to the conditions of a small sample set. As an advantage of the fast learning ability previously learned, the face anti-counterfeiting model also performs fast convergence and fast learning of a new category of counterfeit facial features, making the face anti-counterfeiting model timely and effective. Updates can be performed, the forged face image of the new category can be recognized in a timely and effective manner, and the attack from the forged face of the new category can be effectively protected in a timely manner.

本開示はまた、図3とともに以下に説明する、偽造された顔認識デバイスを提供する。 The disclosure also provides a forged face recognition device, described below with FIG.

図3は、本開示のいくつかの実施形態による偽造された顔認識デバイスの概略の構造図を示す。図3に示すように、本実施形態のデバイス30は、小さなサンプル取得モジュール302、モデル調整モジュール304、および顔認識モジュール306を備える。 FIG. 3 shows a schematic structural diagram of a forged face recognition device according to some embodiments of the present disclosure. As shown in FIG. 3, the device 30 of this embodiment includes a small sample acquisition module 302, a model adjustment module 304, and a face recognition module 306.

小さなサンプル取得モジュール302は、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するように構成される。 The small sample acquisition module 302 is configured to acquire a small sample set of forged facial images in a new category.

モデル調整モジュール304は、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するように構成され、事前トレーニングされた顔の偽造防止モデルの事前にトレーニングされたパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて決定され、事前にトレーニングされたパラメータの複数のセットが複数のタスクに基づいてそれぞれ決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む。 The model adjustment module 304 is configured to update the parameters of a pre-trained facial anti-counterfeiting model with a small sample set of pre-trained facial anti-counterfeiting models in a new category. Pre-trained parameters are determined based on multiple sets of pre -trained parameters, multiple sets of pre-trained parameters are determined based on multiple tasks, and each task is determined. Includes a small sample set of forged facial images for each of one or more existing categories and a small sample set of actual facial images for each of one or more existing categories.

いくつかの実施形態では、モデル調整モジュール304が、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像と、偽造された顔画像の各々に対応する分類ラベルとに基づいて、顔の偽造防止モデルのパラメータを更新するように構成され、顔の偽造防止モデルが分類モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが、偽造方法またはモデルの少なくとも一つを含む。あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, the model adjustment module 304 is based on a forged face image in a small sample set of forged face images in a new category and a classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is configured to update the parameters of the anti-counterfeiting model and the anti-counterfeiting model is a classification model, the classification label will now label the category of forged face images corresponding to the classification label. The first classified label constructed, the category comprising at least one of the counterfeiting methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, the classification label is a second classification label configured to label the forged face image corresponding to the classification label as a positive sample or a negative sample. Is.

いくつかの実施形態では、モデル調整モジュール304が、新しいカテゴリの偽造された顔画像の小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として顔の偽造防止モデルに入力し、偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、偽造された顔画像の各々に対応する分類ラベルとに基づいて顔の偽造防止モデルのパラメータの勾配を決定し、顔の偽造防止モデルのパラメータの勾配に基づいて、顔の偽造防止モデルのパラメータを更新するように構成される。 In some embodiments, the model adjustment module 304 turns the forged face image in a small sample set of forged face images in a new category into a face anti-counterfeiting model as a support sample image for one task. Enter and determine the gradient of the face anti-counterfeiting model parameters based on the output value of the face anti-counterfeiting model for each of the forged facial images and the classification label corresponding to each of the forged facial images. , Based on the gradient of the face anti-counterfeiting model parameters, it is configured to update the face anti-counterfeiting model parameters.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、モデル調整モジュール304が、偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率と、偽造された顔画像の各々に対応する第1の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第1の勾配を決定するように構成され、あるいは、顔の偽造防止モデルが回帰モデルである場合、偽造された顔画像の各々についての偽造防止モデルの出力値が、偽造された顔画像の各々が正のサンプルに属する確率であり、モデル調整モジュール304が、偽造された顔画像の各々が正のサンプルに属する確率と、偽造された顔画像の各々に対応する第2の分類ラベルとに基づいて、顔の偽造防止モデルのパラメータの第2の勾配を決定するように構成される。 In some embodiments, if the anti-counterfeit model of the face is a classification model, the output value of the anti-counterfeit model for each of the counterfeit face images is the probability that each of the counterfeit face images belongs to a different category. And the model adjustment module 304 is an anti-counterfeiting model of the face based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images. If the anti-counterfeiting model of the face is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is configured to determine the first gradient of the parameters of the counterfeited face. Each of the images is the probability of belonging to the positive sample, and the model adjustment module 304 has the probability that each of the forged face images belongs to the positive sample and the second classification label corresponding to each of the forged face images. Based on, it is configured to determine the second gradient of the parameters of the anti-counterfeiting model.

顔認識モジュール306は、パラメータ更新の後に顔の偽造防止モデルに認識されるべき顔画像を入力して、認識されるべき顔画像が偽造された顔画像であるかどうかを判定するように構成される。 The face recognition module 306 is configured to input a face image to be recognized in the face anti-counterfeiting model after updating the parameters and determine whether the face image to be recognized is a forged face image. To.

いくつかの実施形態では、デバイス30はさらに、事前トレーニングモジュール308を備える。事前トレーニングモジュール308は、既存のカテゴリの偽造された顔画像と既存のカテゴリの実際の顔画像とを複数のタスクに分けることであって、各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ことと、第4の事前設定された数のタスクを選択して毎回バッチを形成することであって、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される、ことと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了することとを行うように構成される。 In some embodiments, the device 30 further comprises a pre-training module 308. The pre-training module 308 is to divide the forged face image of the existing category and the actual face image of the existing category into a plurality of tasks, and each task has a plurality of methods, and each method has a plurality of methods. Each task has a first preset number of existing categories, each method supports, with multiple real facial images of one model or multiple forged facial images of existing categories. A second preset number of real or forged face images as a small sample set consisting of sample images, and a third preset number of real face images as a query sample image. Or with a forged facial image, and to select a fourth preset number of tasks to form a batch each time, of the pre-trained parameters of the facial anti-counterfeiting model. Multiple sets are each determined based on multiple tasks in the batch, and face anti-counterfeiting model parameters are redetermined based on multiple sets of pre-trained parameters, and face counterfeiting. It is configured to complete pre-training of the face anti-counterfeiting model until the prevention model reaches the convergence condition.

いくつかの実施形態では、事前トレーニングモジュール308は、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクについての第3の勾配に基づいて顔の偽造防止モデルのパラメータの一つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されるパラメータのセット、複数のタスクに対応するクエリサンプル画像、およびクエリサンプル画像の各々に対応する分類ラベルに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて、顔の偽造防止モデルのパラメータを再決定することを行うように構成される。 In some embodiments, the pre-training module 308 determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and the first for each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on a gradient of 3 and a set of parameters determined by each of the multiple tasks in the batch, query sample images corresponding to the multiple tasks, and Determine the fourth gradient corresponding to the batch based on the classification label corresponding to each of the query sample images, and redetermine the parameters of the anti-counterfeit model based on the fourth gradient corresponding to the batch. It is configured to do things.

いくつかの実施形態では、顔の偽造防止モデルが分類モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、カテゴリが偽造方法またはモデルの少なくとも一つを含む。あるいは、顔の偽造防止モデルが回帰モデルである場合、分類ラベルの各々が、分類ラベルに対応するサポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである。 In some embodiments, when the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of support sample images corresponding to the classification label. Yes, the category contains at least one of the counterfeit methods or models. Alternatively, if the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. Is.

いくつかの実施形態では、事前トレーニング前の顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される。 In some embodiments, the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method.

いくつかの実施形態では、異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、偽造方法が、複数の写真、ビデオ、またはマスクを含み、モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルの複数を含み、異なるタスクの実際の顔画像は、同じモデルまたは異なるモデルを有し、新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、既存の画像が、既存のカテゴリの偽造された顔画像と、既存のカテゴリの実際の顔画像とを含む。 In some embodiments, different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises multiple photographs, videos, or masks, and the model is a depth model. The actual facial images of different tasks, including multiple near-infrared models, or red-green-blue (RGB) models, have the same model or different models, and new categories of counterfeit facial images are of the counterfeit method or model. Unlike existing images in at least one, the existing image includes a forged facial image in an existing category and an actual facial image in an existing category.

本開示の実施形態の偽造された顔認識デバイスは、様々なコンピューティングデバイスまたはコンピュータシステムによって実施され、図4および5とともに以降に説明される。 The forged face recognition device of the embodiments of the present disclosure is implemented by various computing devices or computer systems and is described below with FIGS. 4 and 5.

図4は、本開示のいくつかの実施形態による偽造された顔認識デバイスの概略の構造図を示す。図4に示すように、実施形態のデバイス40は、メモリ410と、メモリ410に結合されたプロセッサ420とを備え、プロセッサ420は、メモリ410に格納された命令に基づいて本開示のいずれかの実施形態に記載の偽造された顔認識方法を実施するように構成される。 FIG. 4 shows a schematic structural diagram of a forged face recognition device according to some embodiments of the present disclosure. As shown in FIG. 4, the device 40 of the embodiment comprises a memory 410 and a processor 420 coupled to the memory 410, wherein the processor 420 is any of the present disclosures based on instructions stored in the memory 410. It is configured to implement the forged face recognition method described in the embodiment.

メモリ410は、例えば、システムメモリ、所定の不揮発性記憶媒体などを含み得る。システムメモリは、例えば、オペレーティングシステム、アプリケーション、ブートローダ、データベース、および他のプログラムを格納する。 The memory 410 may include, for example, a system memory, a predetermined non-volatile storage medium, and the like. System memory stores, for example, operating systems, applications, boot loaders, databases, and other programs.

図5は、本開示の他の実施形態による偽造された顔認識デバイスの概略の構造図を示す。図5に示すように、本実施形態のデバイス50は、メモリ410およびプロセッサ420に類似する、メモリ510およびプロセッサ520を備える。さらに、I/Oインターフェース530、ネットワークインターフェース540、ストレージインターフェース550などがある。これらのインターフェース530、540、550、ならびにその間のメモリ510およびプロセッサ520は、例えばバス560を介して接続され得る。I/Oインターフェース530は、ディスプレイ、マウス、キーボード、およびタッチ識別機などの入力および出力デバイスのための接続インターフェースを提供する。ネットワークインターフェース540は、様々なネットワークデバイスのための接続インターフェースを提供する。例えば、それはデータベースサーバまたはクラウドストレージサーバに接続され得る。ストレージインターフェース550は、SDカードまたはUSBフラッシュディスクなどの外部ストレージデバイスのための接続インターフェースを提供する。 FIG. 5 shows a schematic structural diagram of a forged face recognition device according to another embodiment of the present disclosure. As shown in FIG. 5, the device 50 of this embodiment includes a memory 510 and a processor 520, which are similar to the memory 410 and the processor 420. In addition, there are I / O interface 530, network interface 540, storage interface 550, etc. These interfaces 530, 540, 550, as well as the memory 510 and processor 520 in between, may be connected, for example, via bus 560. The I / O interface 530 provides a connectivity interface for input and output devices such as displays, mice, keyboards, and touch classifiers. The network interface 540 provides a connection interface for various network devices. For example, it can be connected to a database server or cloud storage server. The storage interface 550 provides a connectivity interface for external storage devices such as SD cards or USB flash disks.

本開示のさらに他の実施形態では、顔の偽造防止モデルのトレーニング方法が提供される。顔の偽造防止モデルのトレーニング方法は、既存のカテゴリの偽造された顔画像および既存のカテゴリの実際の顔画像を複数のタスクに分けるステップであって、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、ステップと、複数のタスクを使用して顔の偽造防止モデルを事前トレーニングして、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットをそれぞれ決定するステップと、事前にトレーニングされたパラメータの複数のセットに基づいて、事前にトレーニングされた顔の偽造防止モデルのパラメータを決定するステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するステップであって、新しいカテゴリが、顔の偽造防止モデルが事前トレーニングされたときに使用された既存のカテゴリと異なる、ステップと、新しいカテゴリの偽造された顔画像の小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するステップとを備える。Yet another embodiment of the present disclosure provides a training method for a face anti-counterfeiting model. The method of training the face anti-counterfeiting model is the step of dividing the forged face image of the existing category and the actual face image of the existing category into multiple tasks, and each task is one or more existing ones. Faces using steps and multiple tasks, including a small sample set of forged facial images for each category and a small sample set of actual facial images for each of one or more existing categories. Pre-trained based on the steps of pre-training the anti-counterfeit model to determine each of the multiple sets of pre-trained parameters for the anti-counterfeiting model and the multiple sets of pre-trained parameters. A step to determine the parameters of the face anti-counterfeiting model and a step to get a small sample set of forged facial images in a new category, when the new category is pre-trained for the face anti-counterfeiting model. It comprises steps that differ from the existing categories used and steps that update the parameters of the pre-trained facial anti-counterfeiting model with a small sample set of forged facial images in the new category.

いくつかの実施形態では、各タスクが複数の方法を備え、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが、第1の事前設定された数の既存のカテゴリを有し、各方法が、サポートサンプル画像から構成された小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像を有し、クエリサンプル画像として第3の事前設定された数の実際の顔画像または偽造された顔画像を有し、複数のタスクを使用して顔の偽造防止モデルを事前トレーニングして、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットをそれぞれ決定するステップおよび事前にトレーニングされたパラメータの複数のセットに基づいて、事前にトレーニングされた顔の偽造防止モデルのパラメータを決定するステップが、第4の事前設定された数のタスクを選択して毎回バッチを形成するステップであって、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定される、ステップと、顔の偽造防止モデルが収束条件に達するまで、顔の偽造防止モデルの事前トレーニングを完了するステップとを備える。In some embodiments, each task comprises multiple methods, each method having multiple real facial images of one model or multiple counterfeit facial images of an existing category, and each task has multiple methods. A first preset number of existing categories, each method as a small sample set composed of support sample images, a second preset number of real face images or forged faces. Having an image, having a third preset number of real or forged facial images as query sample images, and pre-training a facial anti-counterfeiting model using multiple tasks, Determine the parameters of the pre-trained face anti-counterfeiting model based on the steps to determine each of the multiple sets of pre-trained face anti-counterfeiting models and the multiple sets of pre-trained parameters. The step to do is to select a fourth preset number of tasks to form a batch each time, with multiple sets of pre-trained parameters for the face anti-counterfeiting model, multiple batches. Each step is determined based on the task, and the parameters of the face anti-counterfeiting model are redetermined based on multiple sets of pre-trained parameters, until the steps and the facial anti-counterfeiting model reach convergence conditions. It includes steps to complete pre-training of the face anti-counterfeiting model.

いくつかの実施形態では、顔の偽造防止モデルの事前にトレーニングされたパラメータの複数のセットが、バッチの複数のタスクに基づいてそれぞれ決定され、顔の偽造防止モデルのパラメータが、事前にトレーニングされたパラメータの複数のセットに基づいて再決定されることが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいてタスクに対応する第3の勾配を決定し、バッチ内の各タスクに対する第3の勾配に基づいて顔の偽造防止モデルのパラメータの1つのセットを決定することと、バッチ内の複数のタスクの各々によって決定されたパラメータのセットと、複数のタスクに対応するクエリサンプル画像と、クエリサンプル画像の各々に対応する分類ラベルとに基づいてバッチに対応する第4の勾配を決定することと、バッチに対応する第4の勾配に基づいて顔の偽造防止モデルのパラメータを再決定することとを備える。In some embodiments, a plurality of sets of pre-trained parameters for the anti-counterfeiting model are each determined based on multiple tasks in a batch, and the parameters for the anti-counterfeiting model are pre-trained. Redetermination based on multiple sets of parameters determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and each task in the batch. Determining one set of parameters for the anti-counterfeiting model based on a third gradient against, a set of parameters determined by each of the multiple tasks in the batch, and a query sample corresponding to the multiple tasks. Determine the fourth gradient corresponding to the batch based on the image and the classification label corresponding to each of the query sample images, and the parameters of the anti-counterfeiting model based on the fourth gradient corresponding to the batch. Be prepared to make a decision again.

本開示のさらに別の実施形態では、顔の偽造防止モデルのトレーニングデバイスが提供される。デバイスは、メモリと、メモリに結合されたプロセッサとを備え、プロセッサが、メモリに格納された命令に基づいて上述の実施形態のいずれかに従う顔の偽造防止モデルのトレーニング方法を実施するように構成される。Yet another embodiment of the present disclosure provides a training device for a face anti-counterfeiting model. The device comprises a memory and a processor coupled to the memory, and the processor is configured to perform a training method of a face anti-counterfeiting model according to any of the above embodiments based on instructions stored in the memory. Will be done.

本開示のさらに別の実施形態では、コンピュータプログラムが提供される。コンピュータプログラムは、プロセッサによる実行時に、プロセッサに、顔の偽造防止モデルのトレーニング方法に従う偽造された顔認識方法または上述の実施形態のいずれかに従う偽造された顔認識方法を実行させる命令を備える。In yet another embodiment of the present disclosure, a computer program is provided. The computer program, upon execution by the processor, comprises an instruction to cause the processor to execute a forged face recognition method according to a training method of a face anti-counterfeiting model or a forged face recognition method according to any of the above embodiments.

当業者には、本開示の実施形態が、方法、システム、またはコンピュータプログラム製品として提供され得ることが明らかであろう。したがって、本開示は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、またはソフトウェアとハードウェアの態様の組み合わせの形をとることができる。さらに、本開示は、コンピュータ使用可能なプログラムコードを含む1つまたは複数のコンピュータ使用可能な非一時的記憶媒体(ディスクメモリ、CD-ROM、光メモリなどを含むがこれらに限定されない)に具現化されたコンピュータプログラム製品の形態をとることができる。 It will be apparent to those skilled in the art that embodiments of the present disclosure may be provided as methods, systems, or computer program products. Accordingly, the present disclosure may take the form of a fully hardware embodiment, a fully software embodiment, or a combination of software and hardware aspects. Further, the present disclosure is embodied in one or more computer-usable non-temporary storage media including, but not limited to, disk memory, CD-ROM, optical memory, etc., including computer-usable program code. It can take the form of a computer program product.

本開示は、本開示の実施形態による、方法のフローチャートおよび/またはブロック図、デバイス(システム)、およびコンピュータプログラム製品とともに説明される。フローチャートおよび/またはブロック図の各ステップおよび/または各ブロック、ならびにフローチャートおよび/またはブロック図のステップおよび/またはブロックの組み合わせは、コンピュータプログラム命令によって実装されることが分かる。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、組み込み処理機、または他のプログラム可能なデータ処理デバイスのプロセッサに提供されてマシンを生み出し、コンピュータまたは他のプログラム可能なデータ処理デバイスのプロセッサによって実行される命令が、フローチャートの1つまたは複数のステップおよび/またはブロック図の1つまたは複数のブロックで指定された機能を実現するためのデバイスを生み出す。 The present disclosure is described with flow charts and / or block diagrams of methods, devices (systems), and computer program products according to embodiments of the present disclosure. It can be seen that the flow chart and / or block diagram steps and / or blocks, as well as the flow chart and / or block diagram steps and / or block combinations, are implemented by computer program instructions. These computer program instructions are provided to the processor of a general purpose computer, dedicated computer, embedded processor, or other programmable data processing device to create a machine and are executed by the computer or the processor of another programmable data processing device. The instructions given give rise to a device for achieving the functions specified in one or more steps in the flowchart and / or one or more blocks in the block diagram.

これらのコンピュータプログラム命令はまた、コンピュータまたは他のプログラム可能なデータ処理デバイスを特定の方法で動作するようにガイドすることができるコンピュータ可読メモリに格納され得、その結果、コンピュータ可読メモリに格納された命令は、命令デバイスを含む製造物を生み出す。命令デバイスは、フローチャートの1つまたは複数のステップ、またはブロック図の1つまたは複数のブロックに指定された機能を実現する。 These computer program instructions may also be stored in computer-readable memory that can guide the computer or other programmable data processing device to operate in a particular way, and as a result, are stored in computer-readable memory. Instructions produce a product that includes an instruction device. The instruction device implements the function specified in one or more steps in the flowchart, or in one or more blocks in the block diagram.

これらのコンピュータプログラム命令はまた、コンピュータまたは他のプログラム可能なデータ処理デバイスにロードされ得、その結果、一連の動作ステップがコンピュータまたは他のプログラム可能なデバイス上で実行されて、コンピュータ上で実行される命令などのコンピュータ実装処理を生み出し、コンピュータまたは他のプログラム可能なデバイス上で実行される命令は、フローチャートの1つまたは複数のステップおよび/またはブロックビューの1つまたは複数のブロックで指定された機能を実現するためのステップを提供する。 These computer program instructions can also be loaded into a computer or other programmable data processing device, so that a series of operating steps is performed on the computer or other programmable device and is performed on the computer. An instruction that produces a computer-implemented process, such as an instruction, that is executed on a computer or other programmable device is specified in one or more steps in a flowchart and / or one or more blocks in a block view. It provides the steps to realize the function.

上述の説明は単に、本開示の好ましい実施形態であり、本開示を限定しようとするものではない。本開示の原則の範囲内における任意の修正、等価な置換、改善などは、本開示の保護範囲にすべて含まれる。 The above description is merely a preferred embodiment of the present disclosure and is not intended to limit the present disclosure. Any modifications, equivalent replacements, improvements, etc. within the principles of this disclosure are included within the scope of this disclosure.

302 小さいサンプル取得モジュール
304 モデル調整モジュール
306 顔認識モジュール
308 事前トレーニングモジュール
410 メモリ
420 プロセッサ
510 メモリ
520 プロセッサ
530 I/Oインターフェース
540 ネットワークインターフェース
550 ストレージインターフェース
560 バス
302 Small sample acquisition module
304 Model Adjustment Module
306 Face recognition module
308 Pre-training module
410 memory
420 processor
510 memory
520 processor
530 I / O interface
540 network interface
550 storage interface
560 bus

Claims (20)

偽造された顔認識方法であって、
新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するステップと、
新しいカテゴリの偽造された顔画像の前記小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するステップであって、事前トレーニングされた前記顔の偽造防止モデルの前記パラメータが、パラメータの複数のセットに基づいて決定され、事前にトレーニングされたパラメータの前記複数のセットが複数のタスクに基づいてそれぞれ決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、ステップと、
パラメータ更新の後に前記顔の偽造防止モデルに認識されるべき顔画像を入力して、前記認識されるべき顔画像が偽造された顔画像であるかどうかを判定するステップと
を備える、認識方法。
It ’s a forged face recognition method.
Steps to get a small sample set of forged facial images in a new category,
A step of updating the parameters of a pre-trained face anti-counterfeiting model using the small sample set of pre-trained face anti-counterfeiting models in a new category. , The multiple sets of pre-trained parameters are determined based on multiple sets of parameters, respectively, and each task is a forgery of each of one or more existing categories. With steps, including a small sample set of face images that have been made and a small sample set of actual facial images for each of one or more existing categories.
A recognition method comprising a step of inputting a face image to be recognized into the face anti-counterfeiting model after updating parameters and determining whether the face image to be recognized is a forged face image.
新しいカテゴリの偽造された顔画像の前記小さなサンプルセットを用いて事前にトレーニングされた前記顔の偽造防止モデルのパラメータを更新するステップが、
前記新しいカテゴリの偽造された顔画像の前記小さなサンプルセット内の偽造された顔画像と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータを更新するステップを含み、
前記顔の偽造防止モデルが分類モデルである場合、分類ラベルは、前記分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、前記カテゴリが、偽造方法またはモデルの少なくとも一つを含み、あるいは、
前記顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、前記分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである、請求項1に記載の認識方法。
The step of updating the parameters of the anti-counterfeiting model of the face pre-trained with the small sample set of counterfeit facial images in the new category
The parameters of the anti-counterfeiting model of the face based on the forged face image in the small sample set of the forged face image of the new category and the classification label corresponding to each of the forged face images. Including the step to update
When the anti-counterfeiting model of the face is a classification model, the classification label is a first classification label configured to label a category of forged face images corresponding to the classification label. , Includes at least one counterfeit method or model, or
If the anti-counterfeiting model of the face is a regression model, the classification label is a second classification label configured to label the forged face image corresponding to the classification label as a positive sample or a negative sample. The recognition method according to claim 1.
前記新しいカテゴリの偽造された顔画像の前記小さなサンプルセット内の偽造された顔画像と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータを更新するステップが、
前記新しいカテゴリの偽造された顔画像の前記小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として前記顔の偽造防止モデルに入力するステップと、
前記偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて前記顔の偽造防止モデルの前記パラメータの勾配を決定するステップと、
前記顔の偽造防止モデルの前記パラメータの前記勾配に基づいて、前記顔の偽造防止モデルの前記パラメータを更新するステップと
を含む、請求項2に記載の認識方法。
The parameters of the anti-counterfeiting model of the face based on the forged face image in the small sample set of the forged face image of the new category and the classification label corresponding to each of the forged face images. The step to update is
The step of inputting the forged face image in the small sample set of the forged face image of the new category into the anti-counterfeiting model of the face as a support sample image for one task.
The gradient of the parameters of the face anti-counterfeiting model is determined based on the output value of the face anti-counterfeiting model for each of the forged face images and the classification label corresponding to each of the forged face images. Steps to do and
The recognition method according to claim 2, comprising the step of updating the parameters of the face anti-counterfeiting model based on the gradient of the parameters of the face anti-counterfeiting model.
前記顔の偽造防止モデルが分類モデルである場合、前記偽造された顔画像の各々についての前記偽造防止モデルの前記出力値が、前記偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、
前記偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて前記顔の偽造防止モデルの前記パラメータの勾配を決定するステップが、
前記偽造された顔画像の各々がそれぞれ異なるカテゴリに属する前記確率と、前記偽造された顔画像の各々に対応する前記第1の分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータの第1の勾配を決定するステップを備え、あるいは、
前記顔の偽造防止モデルが回帰モデルである場合、前記偽造された顔画像の各々についての前記偽造防止モデルの前記出力値が、前記偽造された顔画像の各々が正のサンプルに属する確率であり、
前記偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて前記顔の偽造防止モデルの前記パラメータの勾配を決定するステップが、
前記偽造された顔画像の各々が正のサンプルに属する前記確率と、前記偽造された顔画像の各々に対応する前記第2の分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータの第2の勾配を決定するステップを備える、請求項3に記載の認識方法。
When the anti-counterfeiting model of the face is a classification model, the output value of the anti-counterfeiting model for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a different category. ,
The gradient of the parameters of the face anti-counterfeiting model is determined based on the output value of the face anti-counterfeiting model for each of the forged face images and the classification label corresponding to each of the forged face images. Steps to do
The parameters of the anti-counterfeiting model of the face are based on the probability that each of the forged face images belongs to a different category and the first classification label corresponding to each of the forged face images. Equipped with steps to determine the first gradient, or
When the anti-counterfeiting model of the face is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a positive sample. ,
The gradient of the parameters of the face anti-counterfeiting model is determined based on the output value of the face anti-counterfeiting model for each of the forged face images and the classification label corresponding to each of the forged face images. Steps to do
The parameters of the anti-counterfeiting model of the face are based on the probability that each of the forged face images belongs to a positive sample and the second classification label corresponding to each of the forged face images. The recognition method according to claim 3, comprising a step of determining a second gradient.
前記既存のカテゴリの偽造された顔画像と前記既存のカテゴリの実際の顔画像とを複数のタスクに分けるステップであって、
各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、
各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ステップと、
第4の事前設定された数のタスクを選択して毎回バッチを形成するステップであって、前記顔の偽造防止モデルのパラメータの前記複数のセットが、前記バッチの前記複数のタスクに基づいてそれぞれ決定され、前記顔の偽造防止モデルの前記パラメータが、パラメータの前記複数のセットに基づいて再決定される、ステップと、
前記顔の偽造防止モデルが収束条件に達するまで、前記顔の偽造防止モデルの前記事前トレーニングを完了するステップとをさらに備える、請求項1に記載の認識方法。
It is a step of dividing the forged face image of the existing category and the actual face image of the existing category into a plurality of tasks.
Each task has multiple methods, each method has multiple real facial images of one model or multiple counterfeit facial images of existing categories, and each task has a first preset. Has a number of existing categories,
Each method has a second preset number of real or forged face images as a small sample set consisting of support sample images, and a third preset number as query sample images. With a step and, with a real face image or a forged face image of
A fourth step of selecting a preset number of tasks to form a batch each time, wherein the plurality of sets of parameters of the face anti-counterfeiting model are based on the plurality of tasks of the batch, respectively. A step and a step in which the parameters of the face anti-counterfeiting model are determined and redetermined based on the plurality of sets of parameters.
The recognition method according to claim 1, further comprising a step of completing the pre-training of the face anti-counterfeiting model until the face anti-counterfeiting model reaches the convergence condition.
前記顔の偽造防止モデルのパラメータの前記複数のセットが、前記バッチの前記複数のタスクに基づいてそれぞれ決定され、前記顔の偽造防止モデルの前記パラメータが、パラメータの前記複数のセットに基づいて再決定されることが、
各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいて前記タスクに対応する第3の勾配を決定し、前記バッチ内の各タスクについての前記第3の勾配に基づいて前記顔の偽造防止モデルのパラメータの一つのセットを決定することと、
前記バッチ内の前記複数のタスクの各々によって決定されるパラメータのセット、前記複数のタスクに対応する前記クエリサンプル画像、および前記クエリサンプル画像の各々に対応する前記分類ラベルに基づいて前記バッチに対応する第4の勾配を決定することと、
前記バッチに対応する前記第4の勾配に基づいて、前記顔の偽造防止モデルの前記パラメータを再決定することとを含む、請求項5に記載の認識方法。
The plurality of sets of parameters of the face anti-counterfeiting model are each determined based on the plurality of tasks of the batch, and the parameters of the face anti-counterfeiting model are re-based on the plurality of sets of parameters. To be decided
A third gradient corresponding to the task is determined based on each support sample image and the classification label corresponding to each support sample image, and the face counterfeiting is based on the third gradient for each task in the batch. Determining one set of prevention model parameters,
Corresponds to the batch based on a set of parameters determined by each of the plurality of tasks in the batch, the query sample image corresponding to the plurality of tasks, and the classification label corresponding to each of the query sample images. To determine the fourth gradient to be
5. The recognition method of claim 5, comprising redetermining the parameters of the face anti-counterfeiting model based on the fourth gradient corresponding to the batch.
前記顔の偽造防止モデルが分類モデルである場合、前記分類ラベルの各々が、前記分類ラベルに対応する前記サポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、前記カテゴリが偽造方法またはモデルの少なくとも一つを含み、あるいは、
前記顔の偽造防止モデルが回帰モデルである場合、前記分類ラベルの各々が、前記分類ラベルに対応する前記サポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである、請求項6に記載の認識方法。
When the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of the support sample image corresponding to the classification label. The category contains at least one of the counterfeit methods or models, or
If the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. The recognition method according to claim 6, which is a classification label.
事前トレーニング前の前記顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される、請求項1に記載の認識方法。 The recognition method according to claim 1, wherein the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to the deep learning training method. 異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、前記偽造方法が、写真、ビデオ、またはマスクを含み、前記モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルを含み、
前記異なるタスクの前記実際の顔画像は、同じモデルまたは異なるモデルを有し、
前記新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、前記既存の画像が、前記既存のカテゴリの偽造された顔画像と、前記既存のカテゴリの実際の顔画像とを含む、請求項1~8のいずれか一項に記載の認識方法。
Different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises a photo, video, or mask, and the model is a depth model, near infrared model, or red. Including green-blue (RGB) model,
The actual facial images of the different tasks have the same model or different models and
The forged face image in the new category is different from the existing image in at least one of the forgery methods or models, and the existing image is the forged face image in the existing category and the existing category. The recognition method according to any one of claims 1 to 8, which includes an actual face image.
偽造された顔認識デバイスであって、
新しいカテゴリの偽造された顔画像の小さなサンプルセットを取得するように構成された小さなサンプル取得モジュールと、
新しいカテゴリの偽造された顔画像の前記小さなサンプルセットを用いて事前にトレーニングされた顔の偽造防止モデルのパラメータを更新するように構成されたモデル調整モジュールであって、事前トレーニングされた前記顔の偽造防止モデルの前記パラメータが、パラメータの複数のセットに基づいて決定され、事前にトレーニングされたパラメータの前記複数のセットが複数のタスクに基づいてそれぞれ決定され、各タスクが、1つまたは複数の既存のカテゴリの各々の偽造された顔画像の小さなサンプルセットと、1つまたは複数の既存のカテゴリの各々の実際の顔画像の小さなサンプルセットとを含む、モデル調整モジュールと、
パラメータ更新の後に前記顔の偽造防止モデルに認識されるべき顔画像を入力して、前記認識されるべき顔画像が偽造された顔画像であるかどうかを判定するように構成された顔認識モジュールと
を備える、認識デバイス。
A forged face recognition device,
With a small sample acquisition module configured to acquire a small sample set of forged facial images in a new category,
A model adjustment module configured to update the parameters of a pre-trained anti-counterfeiting model of a pre-trained face using the small sample set of pre-trained face images in a new category of the pre-trained face. The parameters of the anti-counterfeit model are determined based on a plurality of sets of parameters, the plurality of sets of pre-trained parameters are determined based on a plurality of tasks, and each task is one or more. A model tuning module, including a small sample set of forged facial images for each existing category and a small sample set of actual facial images for each of one or more existing categories.
A face recognition module configured to input a face image to be recognized in the face anti-counterfeiting model after updating the parameters and determine whether the face image to be recognized is a forged face image. And with a recognition device.
前記モデル調整モジュールが、前記新しいカテゴリの偽造された顔画像の前記小さなサンプルセット内の偽造された顔画像と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータを更新するように構成され、
前記顔の偽造防止モデルが分類モデルである場合、分類ラベルは、前記分類ラベルに対応する偽造された顔画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、前記カテゴリが、偽造方法またはモデルの少なくとも一つを含み、あるいは、
前記顔の偽造防止モデルが回帰モデルである場合、分類ラベルは、前記分類ラベルに対応する偽造された顔画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである、請求項10に記載の認識デバイス。
The model adjustment module is based on the forged face image in the small sample set of the forged face image of the new category and the classification label corresponding to each of the forged face images of the face. It is configured to update the above parameters of the anti-counterfeit model,
When the anti-counterfeiting model of the face is a classification model, the classification label is a first classification label configured to label a category of forged face images corresponding to the classification label. , Includes at least one counterfeit method or model, or
If the anti-counterfeiting model of the face is a regression model, the classification label is a second classification label configured to label the forged face image corresponding to the classification label as a positive sample or a negative sample. The recognition device according to claim 10.
前記モデル調整モジュールが、前記新しいカテゴリの偽造された顔画像の前記小さなサンプルセット内の偽造された顔画像を、1つのタスクのためのサポートサンプル画像として前記顔の偽造防止モデルに入力し、前記偽造された顔画像の各々についての顔の偽造防止モデルの出力値と、前記偽造された顔画像の各々に対応する分類ラベルとに基づいて前記顔の偽造防止モデルの前記パラメータの勾配を決定し、前記顔の偽造防止モデルの前記パラメータの前記勾配に基づいて、前記顔の偽造防止モデルの前記パラメータを更新するように構成される、請求項11に記載の認識デバイス。 The model adjustment module inputs the forged face image in the small sample set of the forged face image of the new category into the face anti-counterfeiting model as a support sample image for one task. The gradient of the parameters of the face anti-counterfeiting model is determined based on the output value of the face anti-counterfeiting model for each of the forged face images and the classification label corresponding to each of the forged face images. 11. The recognition device of claim 11, configured to update the parameters of the face anti-counterfeiting model based on the gradient of the parameters of the face anti-counterfeiting model. 前記顔の偽造防止モデルが分類モデルである場合、前記偽造された顔画像の各々についての前記偽造防止モデルの前記出力値が、前記偽造された顔画像の各々がそれぞれ異なるカテゴリに属する確率であり、前記モデル調整モジュールが、前記偽造された顔画像の各々がそれぞれ異なるカテゴリに属する前記確率と、前記偽造された顔画像の各々に対応する前記第1の分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータの第1の勾配を決定するように構成され、あるいは、
前記顔の偽造防止モデルが回帰モデルである場合、前記偽造された顔画像の各々についての前記偽造防止モデルの前記出力値が、前記偽造された顔画像の各々が正のサンプルに属する確率であり、前記モデル調整モジュールが、前記偽造された顔画像の各々が正のサンプルに属する前記確率と、前記偽造された顔画像の各々に対応する前記第2の分類ラベルとに基づいて、前記顔の偽造防止モデルの前記パラメータの第2の勾配を決定するように構成される、請求項12に記載の認識デバイス。
When the anti-counterfeiting model of the face is a classification model, the output value of the anti-counterfeiting model for each of the forged face images is the probability that each of the forged face images belongs to a different category. , The model adjustment module is based on the probability that each of the forged facial images belongs to a different category and the first classification label corresponding to each of the forged facial images. It is configured to determine the first gradient of said parameter in the anti-counterfeit model, or
When the anti-counterfeiting model of the face is a regression model, the output value of the anti-counterfeiting model for each of the counterfeited face images is the probability that each of the counterfeited face images belongs to a positive sample. , The model adjustment module is based on the probability that each of the forged facial images belongs to a positive sample and the second classification label corresponding to each of the forged facial images. 12. The recognition device of claim 12, configured to determine a second gradient of said parameter of the anti-counterfeit model.
前記既存のカテゴリの偽造された顔画像と前記既存のカテゴリの実際の顔画像とを複数のタスクに分けることであって、
各タスクが複数の方法を有し、各方法が、1つのモデルの複数の実際の顔画像または既存のカテゴリの複数の偽造された顔画像を有し、各タスクが第1の事前設定された数の既存のカテゴリを有し、
各方法が、サポートサンプル画像から構成される小さなサンプルセットとして、第2の事前設定された数の実際の顔画像または偽造された顔画像と、クエリサンプル画像として、第3の事前設定された数の実際の顔画像または偽造された顔画像とを備える、ことと、
第4の事前設定された数のタスクを選択して毎回バッチを形成することであって、前記顔の偽造防止モデルのパラメータの前記複数のセットが、前記バッチの前記複数のタスクに基づいてそれぞれ決定され、前記顔の偽造防止モデルの前記パラメータが、パラメータの前記複数のセットに基づいて再決定される、ことと、
前記顔の偽造防止モデルが収束条件に達するまで、前記顔の偽造防止モデルの前記事前トレーニングを完了することと
を行うように構成される事前トレーニングモジュールをさらに備える、請求項10に記載の認識デバイス。
It is to divide the forged face image of the existing category and the actual face image of the existing category into a plurality of tasks.
Each task has multiple methods, each method has multiple real facial images of one model or multiple counterfeit facial images of existing categories, and each task has a first preset. Has a number of existing categories,
Each method has a second preset number of real or forged face images as a small sample set consisting of support sample images, and a third preset number as query sample images. With a real face image or a forged face image,
A fourth preset number of tasks is to be selected to form a batch each time, wherein the plurality of sets of parameters of the anti-counterfeiting model of the face are based on the plurality of tasks of the batch, respectively. The parameters of the face anti-counterfeiting model are determined and redetermined based on the plurality of sets of parameters.
The recognition according to claim 10, further comprising a pre-training module configured to complete said pre-training of the face anti-counterfeiting model until the face anti-counterfeiting model reaches a convergence condition. device.
前記事前トレーニングモジュールが、各サポートサンプル画像および各サポートサンプル画像に対応する分類ラベルに基づいて前記タスクに対応する第3の勾配を決定し、前記バッチ内の各タスクについての前記第3の勾配に基づいて前記顔の偽造防止モデルのパラメータの一つのセットを決定することと、前記バッチ内の前記複数のタスクの各々によって決定されるパラメータのセット、前記複数のタスクに対応する前記クエリサンプル画像、および前記クエリサンプル画像の各々に対応する前記分類ラベルに基づいて前記バッチに対応する第4の勾配を決定することと、前記バッチに対応する前記第4の勾配に基づいて、前記顔の偽造防止モデルの前記パラメータを再決定することを行うように構成される、請求項14に記載の認識デバイス。 The pre-training module determines a third gradient corresponding to the task based on each support sample image and the classification label corresponding to each support sample image, and the third gradient for each task in the batch. To determine one set of parameters for the anti-counterfeiting model of the face, a set of parameters determined by each of the plurality of tasks in the batch, and the query sample image corresponding to the plurality of tasks. , And the fourth gradient corresponding to the batch based on the classification label corresponding to each of the query sample images, and the forgery of the face based on the fourth gradient corresponding to the batch. The recognition device according to claim 14, wherein the parameters of the prevention model are configured to be redetermined. 前記顔の偽造防止モデルが分類モデルである場合、前記分類ラベルの各々が、前記分類ラベルに対応する前記サポートサンプル画像のカテゴリをラベル付けするように構成された第1の分類ラベルであり、前記カテゴリが偽造方法またはモデルの少なくとも一つを含み、あるいは、
前記顔の偽造防止モデルが回帰モデルである場合、前記分類ラベルの各々が、前記分類ラベルに対応する前記サポートサンプル画像を正のサンプルまたは負のサンプルとしてラベル付けするように構成された第2の分類ラベルである、請求項15に記載の認識デバイス。
When the anti-counterfeiting model of the face is a classification model, each of the classification labels is a first classification label configured to label the category of the support sample image corresponding to the classification label. The category contains at least one of the counterfeit methods or models, or
If the anti-counterfeiting model of the face is a regression model, each of the classification labels is configured to label the support sample image corresponding to the classification label as a positive sample or a negative sample. The recognition device according to claim 15, which is a classification label.
事前トレーニング前の前記顔の偽造防止モデルの初期パラメータが、ディープラーニングトレーニング方法に従って決定される、請求項10に記載の認識デバイス。 The recognition device according to claim 10, wherein the initial parameters of the anti-counterfeiting model of the face before pre-training are determined according to a deep learning training method. 異なる既存のカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つにおいて異なり、前記偽造方法が、写真、ビデオ、またはマスクを含み、前記モデルが、深度モデル、近赤外線モデル、または赤緑青(RGB)モデルを含み、
前記異なるタスクの前記実際の顔画像は、同じモデルまたは異なるモデルを有し、
前記新しいカテゴリの偽造された顔画像が、偽造方法またはモデルの少なくとも一つ内の既存の画像と異なり、前記既存の画像が、前記既存のカテゴリの偽造された顔画像と、前記既存のカテゴリの実際の顔画像とを含む、請求項10~16のいずれか一項に記載の認識デバイス。
Different existing categories of counterfeit facial images differ in at least one of the counterfeit methods or models, the counterfeit method comprises a photo, video, or mask, and the model is a depth model, near infrared model, or red. Including green-blue (RGB) model,
The actual facial images of the different tasks have the same model or different models and
The forged face image in the new category is different from the existing image in at least one of the forgery methods or models, and the existing image is the forged face image in the existing category and the existing category. The recognition device according to any one of claims 10 to 16, including an actual facial image.
メモリと、
前記メモリに結合されたプロセッサとを備え、前記プロセッサは、前記メモリに格納された命令に基づいて請求項1~9のいずれか一項に記載の偽造された顔認識方法を実施するように構成される、偽造された顔認識デバイス。
With memory
A processor coupled to the memory is provided, and the processor is configured to implement the forged face recognition method according to any one of claims 1 to 9 based on an instruction stored in the memory. A forged facial recognition device.
プロセッサによる実行時に、請求項1~9にいずれか一項に記載の方法を実施するコンピュータプログラムを格納したコンピュータ可読記憶媒体。 A computer-readable storage medium containing a computer program that implements the method according to any one of claims 1 to 9 when executed by a processor.
JP2021566527A 2019-05-10 2020-04-26 Forged face recognition methods, devices, and non-temporary computer-readable storage media Pending JP2022532177A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910387689.0 2019-05-10
CN201910387689.0A CN111783505A (en) 2019-05-10 2019-05-10 Method and device for identifying forged faces and computer-readable storage medium
PCT/CN2020/086952 WO2020228515A1 (en) 2019-05-10 2020-04-26 Fake face recognition method, apparatus and computer-readable storage medium

Publications (1)

Publication Number Publication Date
JP2022532177A true JP2022532177A (en) 2022-07-13

Family

ID=72755586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021566527A Pending JP2022532177A (en) 2019-05-10 2020-04-26 Forged face recognition methods, devices, and non-temporary computer-readable storage media

Country Status (4)

Country Link
JP (1) JP2022532177A (en)
KR (1) KR20220007130A (en)
CN (1) CN111783505A (en)
WO (1) WO2020228515A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329745A (en) * 2021-01-04 2021-02-05 北京沃东天骏信息技术有限公司 Training method, face anti-counterfeiting detection method, related equipment and storage medium
CN113014914B (en) * 2021-01-27 2022-11-01 北京市博汇科技股份有限公司 Neural network-based single face-changing short video identification method and system
CN112784790B (en) * 2021-01-29 2022-05-10 厦门大学 Generalization false face detection method based on meta-learning
CN113205044B (en) * 2021-04-30 2022-09-30 湖南大学 Deep fake video detection method based on characterization contrast prediction learning
CN113221786A (en) * 2021-05-21 2021-08-06 深圳市商汤科技有限公司 Data classification method and device, electronic equipment and storage medium
CN113723295B (en) * 2021-08-31 2023-11-07 浙江大学 Face counterfeiting detection method based on image domain frequency domain double-flow network
CN113807281B (en) * 2021-09-23 2024-03-29 深圳信息职业技术学院 Image detection model generation method, detection method, terminal and storage medium
CN114925748B (en) * 2022-04-20 2024-05-24 北京市商汤科技开发有限公司 Model training and modal information prediction method, related device, equipment and medium
CN114821825B (en) * 2022-06-30 2022-12-06 广州中平智能科技有限公司 Multi-granularity face forgery detection method, system, equipment and medium
CN117496118B (en) * 2023-10-23 2024-06-04 浙江大学 Method and system for analyzing steal vulnerability of target detection model
CN117611923A (en) * 2024-01-08 2024-02-27 北京锐融天下科技股份有限公司 Identification method and system for identity document authenticity

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101464950B (en) * 2009-01-16 2011-05-04 北京航空航天大学 Video human face identification and retrieval method based on on-line learning and Bayesian inference
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
KR102462818B1 (en) * 2015-07-08 2022-11-04 주식회사 케이티 Method of motion vector and feature vector based fake face detection and apparatus for the same
CN107871100B (en) * 2016-09-23 2021-07-06 北京眼神科技有限公司 Training method and device of face model, and face authentication method and device
CN108229325A (en) * 2017-03-16 2018-06-29 北京市商汤科技开发有限公司 Method for detecting human face and system, electronic equipment, program and medium
CN107506717B (en) * 2017-08-17 2020-11-27 南京东方网信网络科技有限公司 Face recognition method based on depth transformation learning in unconstrained scene
CN108776786A (en) * 2018-06-04 2018-11-09 北京京东金融科技控股有限公司 Method and apparatus for generating user's truth identification model
CN109214414B (en) * 2018-07-18 2022-02-22 广东工业大学 Multi-task positive and semi-definite constraint metric learning method facing face recognition
CN109359541A (en) * 2018-09-17 2019-02-19 南京邮电大学 A kind of sketch face identification method based on depth migration study
CN109522798A (en) * 2018-10-16 2019-03-26 平安科技(深圳)有限公司 Video anticounterfeiting method, system, device based on vivo identification and can storage medium
CN109697469A (en) * 2018-12-26 2019-04-30 西北工业大学 A kind of self study small sample Classifying Method in Remote Sensing Image based on consistency constraint
CN109670491A (en) * 2019-02-25 2019-04-23 百度在线网络技术(北京)有限公司 Identify method, apparatus, equipment and the storage medium of facial image

Also Published As

Publication number Publication date
WO2020228515A1 (en) 2020-11-19
KR20220007130A (en) 2022-01-18
CN111783505A (en) 2020-10-16

Similar Documents

Publication Publication Date Title
JP2022532177A (en) Forged face recognition methods, devices, and non-temporary computer-readable storage media
US11657525B2 (en) Extracting information from images
KR102554724B1 (en) Method for identifying an object in an image and mobile device for practicing the method
CN108960080B (en) Face recognition method based on active defense image anti-attack
US11941918B2 (en) Extracting information from images
KR101993266B1 (en) method for designing and learning varying model and method for detecting video forgeries therewith
US10853642B2 (en) Fusing multi-spectral images for identity authentication
US10445602B2 (en) Apparatus and method for recognizing traffic signs
CN109359541A (en) A kind of sketch face identification method based on depth migration study
WO2020164278A1 (en) Image processing method and device, electronic equipment and readable storage medium
CN108710893B (en) Digital image camera source model classification method based on feature fusion
CN108681735A (en) Optical character recognition method based on convolutional neural networks deep learning model
CN112801054B (en) Face recognition model processing method, face recognition method and device
WO2019232850A1 (en) Method and apparatus for recognizing handwritten chinese character image, computer device, and storage medium
WO2021051553A1 (en) Certificate information classification and positioning method and apparatus
WO2020093303A1 (en) Processing method and apparatus based on facial recognition, and device and readable storage medium
CN112966685B (en) Attack network training method and device for scene text recognition and related equipment
CN111275051A (en) Character recognition method, character recognition device, computer equipment and computer-readable storage medium
Lv et al. Chinese character CAPTCHA recognition based on convolution neural network
US20120328198A1 (en) Dictionary data registration apparatus for image recognition, method therefor, and program
CN112232336A (en) Certificate identification method, device, equipment and storage medium
Booysens et al. Ear biometrics using deep learning: A survey
CN113033305B (en) Living body detection method, living body detection device, terminal equipment and storage medium
CN110942067A (en) Text recognition method and device, computer equipment and storage medium
CN112733574B (en) Face recognition method and device and computer readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240307