JP6994588B2 - 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 - Google Patents

顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 Download PDF

Info

Publication number
JP6994588B2
JP6994588B2 JP2020560486A JP2020560486A JP6994588B2 JP 6994588 B2 JP6994588 B2 JP 6994588B2 JP 2020560486 A JP2020560486 A JP 2020560486A JP 2020560486 A JP2020560486 A JP 2020560486A JP 6994588 B2 JP6994588 B2 JP 6994588B2
Authority
JP
Japan
Prior art keywords
face
image
feature
image set
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560486A
Other languages
English (en)
Other versions
JP2021532434A (ja
Inventor
旭峰 姚
国▲強▼ 徐
Original Assignee
ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン) filed Critical ワン・コネクト・スマート・テクノロジー・カンパニー・リミテッド・(シェンチェン)
Publication of JP2021532434A publication Critical patent/JP2021532434A/ja
Application granted granted Critical
Publication of JP6994588B2 publication Critical patent/JP6994588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

関連出願の相互参照
本出願は、2019年07月05日に中国特許庁に提出した出願番号が201910606508.9、発明名称が「顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体」の中国特許出願の優先権を主張するものであり、その内容のすべては参照により本出願に組込まれる。
本出願は、生体認識分野に関し、特に、顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体に関する。
近年、顔に代表される生体特徴の検出及び認識は、身元認識、知恵教育などの多くの分野で広く応用されている。顔認識技術とは、特徴抽出モデルによって顔特徴を抽出し、その顔特徴によって身元認識又はターゲット検出を行う技術である。既存の特徴抽出モデルは、人の顔から特徴を抽出する時に、抽出精度が高くなく、実際の応用シーンでの利用要件を満たすことが難しい。
本出願は、顔特徴抽出モデルの特徴抽出精度を向上させ、人間の顔の動作認識のための重要な参考を提供する、顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体を提供する。
第1態様では、本出願は、顔特徴抽出モデル訓練方法を提供する。前記方法は、
顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得ることと、
顔検証データを前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力することと、
各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力することと、
予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定することと、を含む。
第2態様では、本出願はさらに、顔特徴抽出方法を提供する。前記方法は、
ターゲット画像を取得することと、
前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得ることと、
前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力することとを含み、ここで、前記顔特徴抽出モデルが上記顔特徴抽出モデル訓練方法により訓練されて得られる。
第3態様では、本出願はさらに、顔特徴抽出モデル訓練装置を提供する。前記装置は、
顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得るためのモデル訓練ユニットと、
顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力するためのデータ出力ユニットと、
各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力するためのデータ入力ユニットと、
予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するためのモデル確定ユニットと、を含む。
第4態様では、本出願はさらに、顔特徴抽出装置を提供する。前記装置は、
ターゲット画像を取得するための画像取得ユニットと、
前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得るための画像処理ユニットと、
前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力するための画像入力ユニットとを含み、ここで、前記顔特徴抽出モデルが上記の顔特徴抽出モデル訓練方法により訓練されて得られる。
第5態様では、本出願はさらに、コンピュータ機器を提供する。前記コンピュータ機器は、コンピュータプログラムを記憶するためのメモリと、前記コンピュータプログラムを実行し、かつ前記コンピュータプログラムを実行するときに上記の顔特徴抽出モデル訓練方法または顔特徴抽出方法を実現するためのプロセッサと、を含む。
第6態様では、本出願はさらに、コンピュータ読み取り可能な記憶媒体を提供する。前記コンピュータ読み取り可能な記憶媒体には、プロセッサによって実行されると、前記プロセッサに上記の顔特徴抽出モデル訓練方法または顔特徴抽出方法を実現させるためのコンピュータプログラムが記憶されている。
本出願は、顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体を開示する。顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得て、顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力し、各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力し、予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定する。これにより、顔特徴抽出モデルの特徴抽出精度が向上する。
本出願の実施例における技術的解決手段をより明確に説明するために、以下は、実施例の説明に必要な図面を簡単に紹介し、明らかに、以下で説明される図面は、本出願のいくつかの実施例に過ぎず、当業者であれば、創造的労働を要することなく、これらの図面に基づく他の図面を得ることができる。
本出願の実施例による画像セットのタグ付け方法を示すフローチャートである。 図1の画像セットのタグ付け方法のサブステップを示すフローチャートである。 図1の画像セットのタグ付け方法のサブステップを示すフローチャートである。 図1の第1スクリーニング画像セットの取得ステップを示すフローチャートである。 本出願の実施例による顔特徴抽出モデル訓練方法を示すフローチャートである。 図5の顔特徴抽出モデル訓練方法のサブステップを示すフローチャートである。 図5の顔特徴抽出モデル訓練方法のサブステップを示すフローチャートである。 損失値を確定するステップを示すフローチャートである。 本出願の一実施例による顔特徴抽出方法のステップを示すフローチャートである。 本出願の一実施例による顔特徴抽出方法の応用シーンを示す図である。 本出願の実施例による顔特徴抽出モデル訓練装置を示すブロック図である。 図11の顔特徴抽出モデル訓練装置のサブユニットを示すブロック図である。 本出願の実施例による顔特徴抽出装置を示すブロック図である。 本出願の一実施例によるコンピュータ機器の構造を示すブロック図である。
以下では、本出願の実施例における技術的解決手段を、本出願の実施例における図面と組み合わせて明確かつ完全に説明するが、明らかに、記載された実施例は、本出願の実施例の全てではなく、実施例の一部である。本出願の実施例に基づき、創造的な作業を行わずに当業者によって得られた他のすべての実施例は、本出願の保護範囲内にあるものとする。
図面に示されているフローチャートは、一例に過ぎず、必ずしもすべての内容および操作/ステップを含むわけではなく、記載された順序でそれらを実行することも必須ではない。例えば、一部の操作/ステップは、分解、結合、または部分的に結合できるため、実際の実行順序が実際の状況に応じて変更される場合がある。
本出願の実施例は、顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、コンピュータ機器および記憶媒体を提供する。顔特徴抽出モデルは、人間の顔動作の認識シーンにおいて人間の顔動作の顔特徴を抽出するために使用されてもよい。
以下、本出願のいくつかの実施形態を図面と組み合わせて詳細に説明する。衝突がない場合、下記の実施例および実施例の特徴は、互いに組み合わせられてもよい。
図1を参照すると、図1は、本出願の実施例による画像セットのタグ付け方法のステップを示すフローチャートである。
機械学習プロセスでは、モデルをテストして訓練できるために、顔サンプル画像にタグ付けを行う必要がある。通常、顔サンプル画像に直接タグ付けし、対応する顔訓練データを得る。しかし、現在のモデルでは、顔サンプル画像が容易に認識できる状況もあるため、そのような画像にタグ付けしてから訓練しても、通常所望の効果が得られず、タグ付け者の多大な労力が浪費され、機械学習の全体的な効率が低下する。
図1に示すように、モデル訓練の効率と機械学習の全体的な効率を向上させるために、本出願は、顔特徴抽出モデルに対してモデル訓練を行うように、顔画像にラベリングするために使用される画像セットのタグ付け方法を提供する。ここで、当該方法は、具体的には、ステップS110乃至ステップS150を含む。
S110、予め設定された選択ルールに従って、複数の元の顔画像からタグ無し画像を選択し、顔サンプル画像セットを得る。
具体的には、元の顔画像とは、インターネットから得られた大量の画像を指す。これらの画像は処理されていない画像である。機械学習では、これらの画像に対して認識処理を行って認識結果を得て、またはこれらの画像から対応する画像を選択してテスト訓練処理を行い、当該機械学習のためのより適切なデータを得ることができるので、予め設定されたターゲットに従って機械学習が進行し、これにより、より優れた機械学習モデルを得ることができる。
従って、大量の元の顔画像からタグ無し顔サンプル画像を選択する必要があり、すべての顔サンプル画像が顔サンプル画像セットを構成する。ここで、予め設定された選択ルールでは、特定の画像生成源の画像を顔サンプル画像として選択してもよく、例えば、予め設定されたチャネルを通じて、イエール(Yale)顔データベース内の顔画像を顔サンプル画像として選択する。もちろん、画像の生成時間などに従って選択してもよく、例えば、法定休日の間の顔画像を顔サンプル画像として選択する。すべての顔サンプル画像の集合を顔サンプル画像セットとして構成する。
S120、前記顔サンプル画像セットに対して不確実性分析を行い、分析結果を得る。
ここで、前記顔サンプル画像セットは、いくつかのタグ無し画像を含む。各前記顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることは、具体的には、
各前記顔サンプル画像セットに対して、最小信頼度分析、エッジサンプリング分析および情報エントロピー分析のうちの少なくとも1つを実行し、各前記顔サンプル画像セットの不確実性値を得ることを含む。
具体的には、不確実性は、最小信頼度、エッジサンプリングおよび情報エントロピーのうちの少なくとも1つによって測定されてもよい。具体的には、その分析結果は、値で表されてもよい。例えば、値が高いほど、不確実性が高くなる。もちろん、分析結果は、不確実性を複数のレベルに分けて比較するなどの形で不確実性を示すこともできる。
図2に示すように、一実施例では、各前記顔サンプル画像セットのそれぞれに対して不確実性分析を行う具体的なプロセス、すなわち、ステップS120は、具体的には、サブステップS121、S122およびS123を含む。
S121、前記顔サンプル画像セットにおける画像に対して最小信頼度分析を行い、各前記画像に対応する第1不確実性値を得る。
具体的には、画像の不確実性は、画像のタグ値とも呼ばれる。最小信頼度分析、すなわち、Least confidenceは、以下のように定義され得る。

Figure 0006994588000001
ここで、

Figure 0006994588000002
が前記第1不確実性値を示し、

Figure 0006994588000003
がカテゴリを示し、

Figure 0006994588000004
がサンプルxの予測確率分布における確率を示し、

Figure 0006994588000005
がモデル予測確率分布を示し、

Figure 0006994588000006
が大きいほど、サンプルxの不確実性が高いこと、すなわち、対応するタグ付け処理の必要性が高いことを示す。
S122、前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、各前記画像に対応する第2不確実性値を得る。
具体的には、エッジサンプル分析、すなわち、Margin samplingは、以下のように定義され得る。

Figure 0006994588000007
ここで、

Figure 0006994588000008
が前記第2不確実性値を示し、

Figure 0006994588000009
がサンプルxの予測確率分布における最大確率を示し、

Figure 0006994588000010
がサンプルxの予測確率分布における2番目に高い確率を示し、ここで、

Figure 0006994588000011
がそれぞれモデルθによって予測された最大確率および2番目に高い確率に対応するカテゴリであり、

Figure 0006994588000012
がモデル予測確率分布を示し、

Figure 0006994588000013
が大きいほど、サンプルxの不確実性が高いこと、すなわち、対応するタグ付け処理の必要性が高いことを示す。
S123、前記顔サンプル画像セットにおける画像に対して情報エントロピー分析を行い、各前記画像に対応する第3不確実性値を得る。
具体的には、情報エントロピー分析は、以下のように定義され得る。

Figure 0006994588000014
ここで、

Figure 0006994588000015
が前記第3不確実性値を示し、

Figure 0006994588000016
がサンプルxの予測確率を示し、

Figure 0006994588000017
がモデル予測確率分布を示し、

Figure 0006994588000018
が大きいほど、サンプルxの不確実性が高いこと、すなわち、対応するタグ付け処理の必要性が大きいことを示す。
S130、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得る。
具体的には、前記分析結果は、前記顔サンプル画像セットにおける各画像に対応する不確実性値を含む。
一実施例では、ステップS130は、具体的には、
第1不確実性値、第2不確実性値および第3不確実性値に応じて、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることを含む。
図3に示すように、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ること、すなわち、ステップS130は、具体的には、サブステップS131乃至S134を含む。
S131、第1不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第1スクリーニング画像セットを得る。
具体的には、最小信頼度分析に基づき、当該分析方法に対応する第1不確実性値を得ることができる。当該第1不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、対応する第1スクリーニング画像セットを得ることができる。
S132、第2不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第2スクリーニング画像セットを得る。
具体的には、エッジサンプリング分析に基づき、当該分析方法に対応する第2不確実性値を得ることができる。当該第2不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、対応する第2スクリーニング画像セットを得ることができる。
S133、第3不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第3スクリーニング画像セットを得る。
具体的には、情報エントロピー分析に基づき、当該分析方法に対応する第3不確実性値を得ることができる。当該第3不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、対応する第3スクリーニング画像セットを得ることができる。
S134、前記第1スクリーニング画像セット、第2スクリーニング画像セットおよび第3スクリーニング画像セットに基づき、前記タグ付け対象となる画像セットを構成する。
具体的には、第1スクリーニング画像セット、第2スクリーニング画像セットおよび第3スクリーニング画像セットをタグ付け対象となる画像セットとして構成する。これにより、タグ付け対象となる画像セットにおける画像数を増やすと同時に、タグ付け対象となる画像セットにおける画像の多様性を高め、最終的に、タグ付け対象となる画像セットにおける画像を豊かにさせ、モデルの訓練効率を向上させ、訓練時間を効果的に短縮し、モデルのロバスト性を向上させることができる。
不確実性値を第1不確実性値として例示している。一実施例では、第1不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第1スクリーニング画像セットを得ること、すなわち、ステップS131は、
前記顔サンプル画像セットにおける画像に対して、対応する不確実性値に応じて降順でソートし、上記の予め設定された数の対応する前記画像をタグ付け対象となる画像として設定し、すべての前記タグ付け対象となる画像をタグ付け対象となる画像セットとして設定すること、を含む。
具体的には、顔サンプル画像セットにおける画像を、対応する不確実性値に応じて降順で配列することで、シーケンスの前の画像を不確実性の高い画像として維持でき、さらに、選択によりデータの不確実性の程度を維持でき、さらに、モデルの訓練に使用される画像の訓練効率を高く確保できる。
ここで、応用の環境に応じて予め設定された数を適宜選択したり、一定の割合で予め設定された数を設定したりすることができる。例えば、顔サンプル画像セットに含まれる画像の総数の85%をタグ付け対象となる画像として選択することができ、この場合、予め設定された数は、その総数の85%である。
別の実施例では、図4に示すように、第1不確実性値に応じて、前記顔サンプル画像セットをスクリーニングし、第1スクリーニング画像セットを得ること、すなわち、ステップS131は、具体的には、サブステップS1311、S1312およびS1313を含む。
S1311、各判断前記画像に対応する不確実性値が、予め設定された不確実性閾値よりも大きいかどうかを判断する。
具体的には、不確実性値は、実際の作業環境に応じて設定される。
S1312、前記不確実性値が前記不確実性閾値よりも大きい場合には、対応する前記顔サンプル画像セットをタグ付け対象となる画像として設定する。
顔サンプル画像セットにおけるある画像の不確実性値が不確実性閾値よりも大きい場合には、当該画像がタグ付けのルールに準拠していることを示し、さらに、それに対してタグ付け処理を行う。
S1313、すべての前記タグ付け対象となる画像をタグ付け対象となる画像セットとして設定する。
理解されるように、不確実性値が第2不確実性値または第3不確実性値である場合に、上記のステップを参照することができ、ここでは繰り返さない。
S140、前記タグ付け対象となる画像セットにおける画像に対してタグ付け処理を行い、タグ付け済み顔画像セットを得る。
タグ付け処理は、対応するタグ付け済み画像を取得できるように、各前記タグ付け対象となる画像とそれらに対応するカテゴリとの間で1対1の対応関係を形成することを指し、当該タグ付け済み画像が前記顔検証データである。
一実施例では、前記タグ付け対象となる画像に対してタグ付け処理を行うこと、すなわち、ステップS140は、任意の入力としてタグ付けられた、前記タグ付け対象となる画像に対応するタグ付け情報を受信することと、監査人がタグ付け情報を監査して得られる監査結果に応じて、タグ付け情報と前記タグ付け対象となる画像との間に対応関係を形成し、タグ付け済み顔画像セットを得ることと、を含み得る。
上記の画像タグ付け方法では、顔サンプル画像セットに対して、最小信頼度分析、エッジサンプリング分析および情報エントロピー分析をそれぞれ行うことで、それらに対応する不確実性の結果を得て、さらに、3つの不確実性分析結果を融合させることで、異なる視点から画像の不確実性を分析することができ、タグ付け対象となる画像の数を増やすと同時に、タグ付け対象となる画像の多様性を高めることができる。各タグ付け対象となる画像をタグ付けすることで、モデル訓練効率を向上させ、より少ないデータでより良い効果を達成し、機械学習の全体的な効率を向上させることができる。
図5を参照し、図5は、本出願の実施例による顔特徴抽出モデル訓練方法のステップを示すフローチャートである。
なお、当該訓練方法では、複数のオリジナル学生ネットワークを選択してモデル訓練を行い、対応する候補学生ネットワークを得ることができる。複数は、2つ、3つまたはそれ以上であってもよい。オリジナル学生ネットワークは、YOLO9000、AlexNetまたはVGGNetなどのネットワークであってもよい。以下、一例として、複数を2つとし、2つのオリジナル学生ネットワークをそれぞれYOLO9000ネットワークおよびVGGNetネットワークとして説明する。
図1に示すように、当該顔特徴抽出モデル訓練方法は、具体的には、ステップS210乃至ステップS240を含む。
S210、顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得る。
具体的には、顔訓練データは、オリジナル学生ネットワークに対してモデル訓練を行うために使用され、訓練サブデータとテストサブデータを含む。ここで、テストサブデータは、上記の画像タグ付け方法を用いてタグ付けすることによって得られたデータであり、当該候補学生ネットワークが学習要件を満たしているか否かを判定するように、候補学生ネットワークをテストするために使用される。ここで、顔訓練データをYOLO9000ネットワークに入力してモデル訓練を行い、第1候補学生ネットワークを得る。当該顔訓練データをVGGNetネットワークに入力してモデル訓練を行い、第2候補学生ネットワークを得る。
S220、顔検証データを各前記候補学生ネットワークに入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力する。
具体的には、顔検証データは、上記の画像タグ付け方法を用いてラベリングすることによって得られたデータであってもよい。ここで、顔検証データを第1候補学生ネットワークに入力し、第1検証顔特徴データを得る。当該顔検証データを第2候補学生ネットワークに入力し、第2検証顔特徴データを得る。
S230、各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力する。
ここで、教師ネットワークは、事前に訓練されたYOLO9000であってもよい。具体的には、第1検証顔特徴データを当該教師ネットワークに入力し、第1候補顔特徴データを出力する。第2検証顔特徴データを当該教師ネットワークに入力し、第2候補顔特徴データを出力する。
S240、予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定する。
具体的には、予め設定された特徴スクリーニングルールは、特定の応用シーンに応じて設定されてもよい。一実施例では、図6に示すように、予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得ることは、サブステップS241およびS242を含む。
S241、各前記候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データに基づき、各前記候補顔特徴データに対応する精度を算出する。
具体的には、校正顔画像は、具体的なシーンに応じて設定されてもよい。ここで、第1候補顔特徴データに基づき、第1精度を算出する。第2候補顔特徴データに基づき、第2精度を算出する。
より具体的には、第1候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データを、事前に訓練されたニューラルネットワークモデルに入力し、第1候補顔特徴データに対応する第1精度を出力する。第2候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データを、当該ニューラルネットワークモデルに入力し、第2候補顔特徴データに対応する第2精度を出力する。当該ニューラルネットワークモデルは、具体的には、事前に訓練されたGoogLeNetモデルであってもよいが、もちろん、他のネットワークモデルであってもよい。
S242、最大精度に対応する候補顔特徴データをターゲットサンプル特徴として確定する。
例えば、第1精度が第2精度よりも小さい場合には、第2精度に対応する第2候補顔特徴データをターゲットサンプル特徴として確定する。第2候補顔特徴データに対応する第2候補学生ネットワークを顔特徴抽出モデルとして確定する。
図7に示すように、一実施例では、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定することは、サブステップS243、S244およびS245を含む。
S243、前記ターゲットサンプル特徴に基づき、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を算出する。
ここで、前記ターゲットサンプル特徴に基づき、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を算出する具体的なプロセスについては、図8に示すように、すなわち、ステップS243は、S2431およびS2432を含む。
S2431、第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定する。
具体的には、第1損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値を確定する。第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第2サブ損失値を確定する。
ここで、前記第1損失関数は、

Figure 0006994588000019
であり、
ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mが各バッチの顔訓練データにおける画像数である。
前記第2損失関数は、

Figure 0006994588000020
であり、
ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データ中のk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数である。
S2432、損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定する。
具体的には、前記損失値融合式は、

Figure 0006994588000021
であり、
ここで、Jが前記損失値であり、wとwが重みである。
第1損失関数と第2損失関数との組み合わせを顔特徴抽出モデル再訓練の損失関数として用いることで、訓練された顔特徴抽出モデルがまとまりのあるものとなり、膨大な高品質の顔訓練データセットが存在しない場合でも特徴データを正確に抽出することができ、また、顔特徴抽出モデルの再訓練における収束の遅さやオーバーフィット現象を回避することができる。
S244、前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定する。
具体的には、前記損失値が予め設定された損失閾値よりも小さい場合には、ターゲットサンプル特徴に対応する候補学生ネットワークが収束したことを示し、当該候補学生ネットワークを顔特徴抽出モデルとして確定する。
S245、前記損失値が予め設定された損失閾値以上である場合には、前記損失値に基づき、前記候補学生ネットワークのパラメータを調整する。
具体的には、前記損失値が予め設定された損失閾値以上である場合には、ターゲットサンプル特徴に対応する候補学生ネットワークが収束しないことを示しているので、候補学生ネットワークを継続的に訓練する必要があり、当該損失値に基づき、当該損失値が損失閾値よりも小さくなるまで、当該候補学生ネットワークのパラメータを調整し、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定する、すなわち、ステップS244を実行する。
上記の顔特徴抽出モデル訓練方法では、上記のタグ付け方法によりタグ付けされた顔訓練データを用い、複数のオリジナル学生ネットワークに対してモデル訓練を行い、さらに、教師ネットワークおよび顔検証データを用いてスクリーニングし、それによって、顔特徴抽出モデルとして最も特徴抽出精度の高い候補学生ネットワークを得る。当該訓練方法によれば、顔訓練データと顔検証データの一部の多様性を高め、モデル訓練の効率を向上させ、さらに、モデル抽出顔特徴の精度を向上させ、人間の顔動作の認識の重要な参考を提供する。
図9を参照すると、図9は、本出願の一実施例による顔特徴抽出方法のステップを示すフローチャートである。図10を参照すると、図10は、本出願の一実施例による顔特徴抽出方法の応用シーンを示す図である。ここで、当該顔特徴抽出方法は、端末装置610、620、ネットワーク630およびサーバ640を含むシステムに適用してもよい。
ネットワーク640は、端末装置610、620とサーバ640との間の通信リンクを提供するための媒体である。ネットワーク630は、有線、無線通信リンクまたは光ファイバケーブルなどの様々な接続タイプを含んでもよい。
ユーザは、端末装置610、620を用い、ネットワーク630を介してサーバ640とインタラクションを行い、要求コマンドなどを受信したり、送信したりしてもよい。端末装置610、620には、画像処理アプリケーション、Webブラウザアプリケーション、検索アプリケーション、インスタントメッセンジャーなどの各種の通信クライアントアプリケーションがインストールされてもよい。
具体的には、当該顔特徴抽出方法は、具体的には、ステップS310乃至ステップS330を含む。
S310、ターゲット画像を取得する。
具体的には、前記認識対象となる画像は、認識対象となる顔ターゲットを含む画像であり、RGB(Red Green Blue、赤緑青)モードの画像などの可視光画像であってもよい。もちろん、上記の認識対象となる画像は、近赤外(Near Infrared、NIR)画像であってもよい。
本実施例の実行主体には、可視光画像を収集するためのカメラ、又は近赤外画像を収集するためのカメラがインストールされてもよい。ユーザは、オンになる必要があるカメラを選択し、さらに選択されたカメラで撮影(ユーザの頭又は顔の自撮りに使用)することで、認識対象となる画像を得ることができる。
S320、前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得る。
顔特徴抽出モデルの精度を向上させるために、ターゲット画像を取得した後、ターゲット画像に対して画像処理操作を行い、前記ターゲット画像の画像パラメータを変更する必要がある。
ここで、画像処理操作としては、サイズ調整、クロップ処理、回転処理や画像アルゴリズム処理などがある。画像アルゴリズム処理としては、色温度調整アルゴリズム、露出調整アルゴリズムなどがある。これらの画像処理操作により、ターゲット画像を実際に撮影した画像に近づけることができる。
それに応じて、画像パラメータには、サイズ情報、画素サイズ、コントラスト、シャープネス、自然な彩度などが含まれる。
S330、前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力する。
ここで、前記顔特徴抽出モデルは、上記の顔特徴抽出モデル訓練方法を用いて訓練して得られたモデルである。
上記の顔特徴抽出方法では、ターゲット画像を取得し、前記ターゲット画像に対して画像処理を行い、前記ターゲット処理画像を顔特徴抽出モデルに入力することにより、顔特徴の抽出の精度が高く、実際の応用シーンへの適用が容易になる。
図11を参照すると、図11は、本出願の実施例による顔特徴抽出モデル訓練装置を示すブロック図であり、当該顔特徴抽出モデル訓練装置は、上記の顔特徴抽出モデル訓練方法のいずれかを実行するために使用される。ここで、当該顔特徴抽出モデル訓練装置は、サーバまたは端末に構成されてもよい。
ここで、サーバは、独立したサーバであってもよいし、サーバクラスタであってもよい。当該端末は、携帯電話、タブレット、ラップトップ、デスクトップコンピュータ、パーソナルデジタルアシスタントやウェアラブルデバイスなどの電子機器であってもよい。
図11に示すように、顔特徴抽出モデル訓練装置400は、モデル訓練ユニット410と、データ出力ユニット420と、データ入力ユニット430と、モデル確定ユニット440と、を含む。
モデル訓練ユニット410は、顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得るために使用される。
データ出力ユニット420は、顔検証データを前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力するために使用される。
データ入力ユニット430は、各前記検証顔特徴データを予め設定された教師ネットワークに入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力するために使用される。
モデル確定ユニット440は、予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するために使用される。
図11に示すように、一実施例では、前記顔特徴抽出モデル訓練装置400はさらに、結果取得ユニット450と、画像スクリーニングユニット460と、画像タグ付けユニット470と、を含む。
結果取得ユニット450は、いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得るために使用される。
画像スクリーニングユニット460は、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得るために使用される。
画像タグ付けユニット470は、前記タグ付け対象となる画像セットにおける画像に対してタグ付け処理を行い、顔検証データを得るために使用される。
図12に示すように、一実施例では、前記モデル確定ユニット440は、精度算出サブユニット441と、特徴確定サブユニット442と、を含む。
精度算出サブユニット441は、各前記候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データに基づき、各前記候補顔特徴データに対応する精度を算出するために使用される。
特徴確定サブユニット442は、最大精度に対応する候補顔特徴データをターゲットサンプル特徴として確定するために使用される。
図12に示すように、一実施例では、前記モデル確定ユニット440はさらに、損失値確定サブユニット443と、モデル確定サブユニット444と、を含む。
損失値確定サブユニット443は、前記ターゲットサンプル特徴に基づき、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を算出するために使用される。
モデル確定サブユニット444は、前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するために使用される。
図12に示すように、一実施例では、前記損失値確定サブユニット443は、サブ損失値確定サブユニット4431と、損失値融合サブユニット4432と、を含む。
サブ損失値確定サブユニット4431は、第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定するために使用される。
損失値融合サブユニット4432は、損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定するために使用される。
前記第1損失関数は、

Figure 0006994588000022
であり、
ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mは各バッチの顔訓練データにおける画像数である;
前記第2損失関数は、

Figure 0006994588000023
であり、
ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データにおけるk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数である。
前記損失値融合式は、

Figure 0006994588000024
であり、
ここで、Jが前記損失値であり、wとwが重みである。
図13を参照すると、図13は、本出願の実施例による顔特徴抽出装置を示すブロック図であり、当該顔特徴抽出装置は、上記の顔特徴抽出方法を実行するために使用される。ここで、当該顔特徴抽出装置は、サーバまたは端末に構成されてもよい。
図13に示すように、当該顔特徴抽出装置500は、画像取得ユニット510と、画像処理ユニット520と、画像入力ユニット530と、を含む。
画像取得ユニット510は、ターゲット画像を取得するために使用される。
画像処理ユニット520は、前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得るために使用される。
画像入力ユニット530は、前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力するために使用される。ここで、前記顔特徴抽出モデルは、上記の顔特徴抽出モデル訓練方法を用いて訓練して得られたモデルである。
なお、説明の便宜上および簡略化のために、上記の顔特徴抽出モデル訓練装置および各ユニットの具体的な作業プロセスについては、上記の顔特徴抽出モデル訓練方法の実施例における対応するプロセスを参照することができ、ここで説明を省略しないことは、当業者にとって明らかである。
上記装置は、図14に示すようなコンピュータ機器上で実行され得るコンピュータプログラムの形態で実現されてもよい。
図14を参照すると、図14は、本出願の実施例によるコンピュータ機器を示すブロック図である。当該コンピュータ機器は、サーバまたは端末であってもよい。
図14を参照すると、当該コンピュータ機器は、システムバスを介して接続されたプロセッサ、メモリおよびネットワークインターフェースを含み、ここで、メモリが不揮発性記憶媒体および内部メモリを含んでもよい。
不揮発性記憶媒体には、オペレーティングシステムおよびコンピュータプログラムが記憶されてもよい。当該コンピュータプログラムは、実行されると、プロセッサに顔特徴抽出モデル訓練方法を実行させることができるプログラム命令を含む。
プロセッサは、算出および制御機能を提供し、コンピュータ機器全体の動作をサポートするために使用される。
内部メモリは、不揮発性記憶媒体に記憶されたコンピュータプログラムの動作環境を提供し、当該コンピュータプログラムがプロセッサによって実行されると、プロセッサに顔特徴抽出モデル訓練方法を実行させることができる。
当該ネットワークインターフェースは、割り当てられたタスクを送信するなどのネットワーク通信を行うために使用される。図14に示された構造は、単に本出願の解決手段に関連する構造の一部のブロック図であり、本出願の解決手段が適応されるコンピュータ機器の制限を構成するものではないことは、当業者にとって明らかであり、具体的なコンピュータ機器は、図示されたものよりも多くまたは少ない構成要素を含み、または特定の構成要素の組み合わせを含み、または異なるコンポーネント配置を有することができる。
理解されるように、プロセッサは、中央処理装置(CPU:Central Processing Unit)であってもよいし、他の汎用プロセッサ、デジタルシグナルプロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field-Programmable Gate Array)又は他のプログラマブルロジックデバイス、ディスクリートゲートまたはトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントなどであってもよい。ここで、汎用プロセッサはマイクロプロセッサであってもよいし、任意の従来のプロセッサなどであってもよい。
ここで、前記プロセッサは、メモリに記憶されたコンピュータプログラムを実行し、
顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得るステップと、顔検証データを前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力するステップと、各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力するステップと、予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するステップと、を実現するために使用される。
一実施例では、前記プロセッサは、前記顔検証データを前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力するステップを実現する前に、さらに、
いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることと、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることと、前記タグ付け対象となる画像セットにおける画像に対してタグ付け処理を行い、顔検証データを得ることと、を実現するために使用される。
一実施例では、前記プロセッサは、予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得ることを実現するときに、
各前記候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データに基づき、各前記候補顔特徴データに対応する精度を算出することと、最大精度に対応する候補顔特徴データをターゲットサンプル特徴として確定することと、を実現するために使用される。
一実施例では、前記プロセッサは、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定することを実現するときに、
前記ターゲットサンプル特徴に基づき、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を算出することと、前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定することと、を実現するために使用される。
一実施例では、前記プロセッサは、前記ターゲットサンプル特徴に基づき、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を算出することを実現するときに、
第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定することと、損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定することと、を実現するために使用される。
前記第1損失関数は、

Figure 0006994588000025
であり、
ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mが各バッチの顔訓練データにおける画像数である。
前記第2損失関数は、

Figure 0006994588000026
であり、
ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データにおけるk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数である。
前記損失値融合式は、

Figure 0006994588000027
であり、
ここで、Jが前記損失値であり、wとwが重みである。
ここで、別の実施例では、前記プロセッサは、メモリに記憶されたコンピュータプログラムを実行し、
ターゲット画像を取得するステップと、前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得るステップと、前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力するステップと、を実現するために使用される。ここで、前記顔特徴抽出モデルは、上記の顔特徴抽出モデル訓練方法を用いて訓練して得られたモデルである。
本出願の実施例はさらに、コンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ読み取り可能な記憶媒体には、プログラム命令を含むコンピュータプログラムが記憶されており、前記プロセッサは、前記プログラム命令を実行し、本出願の実施例による顔特徴抽出モデル訓練方法または顔特徴抽出方法を実現する。
ここで、前記コンピュータ読み取り可能な記憶媒体は、上記実施例に記載されるコンピュータ機器の内部記憶装置、例えば、前記コンピュータ機器のハードディスクまたはメモリであってもよいし、前記コンピュータ機器の外部記憶装置、例えば、前記コンピュータ機器に装備されたプラグインハードドライブ、スマートメディアカード(SMC:Smart Media(登録商標) Card)、セキュアデジタル(SD:Secure Digital)カード、フラッシュカード(Flash Card)などであってもよい。
上記は、本出願の具体的な実施形態に過ぎず、本出願の保護範囲を制限するものではなく、当業者であれば、本出願によって開示された技術的範囲内で様々な同等の修正または置換を容易に思いつくことができ、これらの修正または置換はいずれも本出願の保護範囲に含まれるべきである。従って、本出願の保護範囲は、特許請求の範囲の保護範囲に準じるべきである。
400 顔特徴抽出モデル訓練装置
410 モデル訓練ユニット
420 データ出力ユニット
430 データ入力ユニット
440 モデル確定ユニット
441 精度算出サブユニット
442 特徴確定サブユニット
443 損失値確定サブユニット
444 モデル確定サブユニット 450 結果取得ユニット
460 画像スクリーニングユニット
470 画像タグ付けユニット
500 顔特徴抽出装置
510 画像取得ユニット
520 画像処理ユニット
530 画像入力ユニット 4431 サブ損失値確定サブユニット
4432 損失値融合サブユニット

Claims (20)

  1. 顔特徴抽出モデル訓練方法であって、
    顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得ることと、
    顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力することと、
    各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力することと、
    予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得ることと、
    第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定することと、
    損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定することと、
    前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定すること、を含み
    前記第1損失関数は、

    Figure 0006994588000028
    であり、
    ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mが各バッチの顔訓練データにおける画像数であり、
    前記第2損失関数は、

    Figure 0006994588000029
    であり、
    ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データにおけるk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数であり、
    前記損失値融合式は、

    Figure 0006994588000030
    であり、
    ここで、Jが前記損失値であり、wとwが重みであることを特徴とする顔特徴抽出モデル訓練方法。
  2. 前記顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力する前に、前記方法はさらに、
    いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることと、
    前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることと、
    前記タグ付け対象となる画像セットにおける画像に対してタグ付け処理を行い、顔検証データを得ることと、を含むことを特徴とする請求項1に記載の顔特徴抽出モデル訓練方法。
  3. いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることは、
    前記顔サンプル画像セットにおける画像に対して最小信頼度分析を行い、各前記画像に対応する第1不確実性値を得ることと、
    前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、各前記画像に対応する第2不確実性値を得ることと、
    前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、各前記画像に対応する第3不確実性値を得て、それによって前記分析結果を得ることと、を含むことを特徴とする請求項2に記載の顔特徴抽出モデル訓練方法。
  4. 前記分析結果は、第1不確実性値、第2不確実性値および第3不確実性値を含み、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることは、
    第1不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第1スクリーニング画像セットを得ることと、
    第2不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第2スクリーニング画像セットを得ることと、
    第3不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第3スクリーニング画像セットを得ることと、
    前記第1スクリーニング画像セット、第2スクリーニング画像セットおよび第3スクリーニング画像セットに基づき、前記タグ付け対象となる画像セットを構成することと、を含む請求項2に記載の顔特徴抽出モデル訓練方法。
  5. 予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得ることは、
    各前記候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データに基づき、各前記候補顔特徴データに対応する精度を算出することと、
    最大精度に対応する候補顔特徴データをターゲットサンプル特徴として確定することと、を含むことを特徴とする請求項1に記載の顔特徴抽出モデル訓練方法。
  6. 顔特徴抽出方法であって、
    ターゲット画像を取得することと、
    前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得ることと、
    前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力することと、を含み、ここで、前記顔特徴抽出モデルが請求項1-5のいずれか一項に記載の顔特徴抽出モデル訓練方法訓練を用いて訓練して得られたモデルであることを特徴とする顔特徴抽出方法。
  7. 顔特徴抽出モデル訓練装置であって、
    顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得るためのモデル訓練ユニットと、
    顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力するためのデータ出力ユニットと、
    各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力するためのデータ入力ユニットと、
    予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得て、
    第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定し、
    損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定し、
    前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するためのモデル確定ユニットと、を含み、
    前記第1損失関数は、

    Figure 0006994588000031
    であり、
    ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mが各バッチの顔訓練データにおける画像数であり、
    前記第2損失関数は、

    Figure 0006994588000032
    であり、
    ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データにおけるk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数であり、
    前記損失値融合式は、

    Figure 0006994588000033
    であり、
    ここで、Jが前記損失値であり、wとwが重みであることを特徴とする顔特徴抽出モデル訓練装置。
  8. 顔特徴抽出装置であって、
    ターゲット画像を取得するための画像取得ユニットと、
    前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得るための画像処理ユニットと、
    前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力するための画像入力ユニットと、を含み、ここで、前記顔特徴抽出モデルが請求項1-5のいずれか一項に記載の顔特徴抽出モデル訓練方法を用いて訓練して得られたモデルであることを特徴とする顔特徴抽出モデル訓練装置。
  9. コンピュータ機器であって、メモリとプロセッサを含み、
    前記メモリは、コンピュータプログラムを記憶するために使用され、
    前記プロセッサは、前記コンピュータプログラムを実行し、かつ前記コンピュータプログラムを実行するときに、顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得るステップと、
    顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークにそれぞれ対応する検証顔特徴データを出力するステップと、
    各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力するステップと、
    予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得るステップと、
    第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定するステップと、
    損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定するステップと、
    前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するステップと、を実現するために使用され、
    前記第1損失関数は、

    Figure 0006994588000034
    であり、
    ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mが各バッチの顔訓練データにおける画像数であり、
    前記第2損失関数は、

    Figure 0006994588000035
    であり、
    ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データにおけるk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数であり、
    前記損失値融合式は、

    Figure 0006994588000036
    であり、
    ここで、Jが前記損失値であり、wとwが重みであることを特徴とするコンピュータ機器。
  10. 前記顔検証データを各前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力する前に、方法は、さらに、
    いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることと、
    前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることと、
    前記タグ付け対象となる画像セットにおける画像に対してタグ付け処理を行い、顔検証データを得ることと、を含むことを特徴とする請求項9に記載のコンピュータ機器。
  11. いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることは、
    前記顔サンプル画像セットにおける画像に対して最小信頼度分析を行い、各前記画像に対応する第1不確実性値を得ることと、
    前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、各前記画像に対応する第2不確実性値を得ることと、
    前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、各前記画像に対応する第3不確実性値を得て、それによって前記分析結果を得ることと、を含むことを特徴とする請求項10に記載のコンピュータ機器。
  12. 前記分析結果は、第1不確実性値、第2不確実性値および第3不確実性値を含み、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることは、
    第1不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第1スクリーニング画像セットを得ることと、
    第2不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第2スクリーニング画像セットを得ることと、
    第3不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第3スクリーニング画像セットを得ることと、
    前記第1スクリーニング画像セット、第2スクリーニング画像セットおよび第3スクリーニング画像セットに基づき、前記タグ付け対象となる画像セットを構成することと、を含むことを特徴とする請求項10に記載のコンピュータ機器。
  13. 予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得ることは、
    各前記候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データに基づき、各前記候補顔特徴データに対応する精度を算出することと、
    最大精度に対応する候補顔特徴データをターゲットサンプル特徴として確定することと、を含むことを特徴とする請求項9に記載のコンピュータ機器。
  14. コンピュータ機器であって、メモリとプロセッサを含み、
    前記メモリは、コンピュータプログラムを記憶するために使用され、
    前記プロセッサは、前記コンピュータプログラムを実行し、かつ前記コンピュータプログラムを実行するときに、
    ターゲット画像を取得するステップと、
    前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得るステップと、
    前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力するステップと、を実現するために使用され、ここで、前記顔特徴抽出モデルが請求項1-5のいずれか一項に記載の顔特徴抽出モデル訓練方法を用いて訓練して得られたモデルであることを特徴とするコンピュータ機器。
  15. コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ読み取り可能な記憶媒体にはコンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサによって実行されると、前記プロセッサに、
    顔訓練データを複数のオリジナル学生ネットワークにそれぞれ入力してモデル訓練を行い、各前記オリジナル学生ネットワークに対応する候補学生ネットワークを得るステップと、
    顔検証データを前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力するステップと、
    各前記検証顔特徴データを予め設定された教師ネットワークにそれぞれ入力し、各前記検証顔特徴データに対応する候補顔特徴データを出力するステップと、
    予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得るステップと、
    第1損失関数および第2損失関数に基づき、前記ターゲットサンプル特徴に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの第1サブ損失値および第2サブ損失値を確定するステップと、
    損失値融合式に基づき、前記第1サブ損失値および前記第2サブ損失値に応じて、前記ターゲットサンプル特徴に対応する候補学生ネットワークの損失値を確定するステップと、
    前記損失値が予め設定された損失閾値よりも小さい場合には、前記ターゲットサンプル特徴に対応する候補学生ネットワークを顔特徴抽出モデルとして確定するステップと、を実現させ、
    前記第1損失関数は、

    Figure 0006994588000037
    であり、
    ここで、Jが第1サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、uが顔訓練データにおけるk番目の画像のタグベクトルであり、mが各バッチの顔訓練データにおける画像数であり、
    前記第2損失関数は、

    Figure 0006994588000038
    であり、
    ここで、Jが第2サブ損失値であり、uが顔訓練データにおけるk番目の画像のターゲットサンプル特徴の特徴ベクトルであり、cが顔訓練データにおけるk番目の画像の中心であり、mが各バッチの顔訓練データにおける画像数であり、
    前記損失値融合式は、

    Figure 0006994588000039
    であり、
    ここで、Jが前記損失値であり、wとwが重みであることを特徴とするコンピュータ読み取り可能な記憶媒体。
  16. 顔検証データを前記候補学生ネットワークにそれぞれ入力し、各前記候補学生ネットワークに対応する検証顔特徴データを出力する前に、さらに、
    いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることと、
    前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることと、
    前記タグ付け対象となる画像セットにおける画像に対してタグ付け処理を行い、顔検証データを得ることと、を含むことを特徴とする請求項15に記載のコンピュータ読み取り可能な記憶媒体。
  17. いくつかのタグ無し画像を含む顔サンプル画像セットに対して不確実性分析を行い、分析結果を得ることは、
    前記顔サンプル画像セットにおける画像に対して最小信頼度分析を行い、各前記画像に対応する第1不確実性値を得ることと、
    前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、各前記画像に対応する第2不確実性値を得ることと、
    前記顔サンプル画像セットにおける画像に対してエッジサンプリング分析を行い、前記画像のそれぞれに対応する第3不確実性値を得て、それによって前記分析結果を得ることと、を含む請求項16に記載のコンピュータ読み取り可能な記憶媒体。
  18. 前記分析結果は、第1不確実性値、第2不確実性値および第3不確実性値を含み、前記分析結果に基づき、前記顔サンプル画像セットをスクリーニングし、タグ付け対象となる画像セットを得ることは、
    第1不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第1スクリーニング画像セットを得ることと、
    第2不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第2スクリーニング画像セットを得ることと、
    第3不確実性値に応じて、前記顔サンプル画像セットにおける画像をスクリーニングし、第3スクリーニング画像セットを得ることと、
    前記第1スクリーニング画像セット、第2スクリーニング画像セットおよび第3スクリーニング画像セットに基づき、前記タグ付け対象となる画像セットを構成することと、を含むことを特徴とする請求項16に記載のコンピュータ読み取り可能な記憶媒体。
  19. 予め設定された特徴スクリーニングルールに基づき、複数の前記候補顔特徴データをスクリーニングしてターゲットサンプル特徴を得ることは、
    各前記候補顔特徴データおよび予め設定された校正顔画像の校正顔特徴データに基づき、各前記候補顔特徴データに対応する精度を算出することと、
    最大精度に対応する候補顔特徴データをターゲットサンプル特徴として確定することと、を含むことを特徴とする請求項15に記載のコンピュータ読み取り可能な記憶媒体。
  20. コンピュータ読み取り可能な記憶媒体であって、
    ターゲット画像を取得することと、
    前記ターゲット画像に対して画像処理を行ってターゲット処理画像を得ることと、
    前記ターゲット処理画像を顔特徴抽出モデルに入力し、ターゲット顔特徴を出力することと、を含み、ここで、前記顔特徴抽出モデルが請求項1-5のいずれか一項に記載の顔特徴抽出モデル訓練方法を用いて訓練して得られたモデルであることを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2020560486A 2019-06-21 2019-11-29 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体 Active JP6994588B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201910542712.9 2019-06-21
CN201910542712 2019-06-21
CN201910606508.9A CN110472494A (zh) 2019-06-21 2019-07-05 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质
CN201910606508.9 2019-07-05
PCT/CN2019/122165 WO2020253127A1 (zh) 2019-06-21 2019-11-29 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021532434A JP2021532434A (ja) 2021-11-25
JP6994588B2 true JP6994588B2 (ja) 2022-01-14

Family

ID=68507127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560486A Active JP6994588B2 (ja) 2019-06-21 2019-11-29 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体

Country Status (6)

Country Link
US (1) US20230119593A1 (ja)
EP (1) EP3989104A4 (ja)
JP (1) JP6994588B2 (ja)
KR (1) KR102385463B1 (ja)
CN (1) CN110472494A (ja)
WO (1) WO2020253127A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472494A (zh) * 2019-06-21 2019-11-19 深圳壹账通智能科技有限公司 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质
US11443235B2 (en) * 2019-11-14 2022-09-13 International Business Machines Corporation Identifying optimal weights to improve prediction accuracy in machine learning techniques
CN111062995B (zh) * 2019-11-28 2024-02-23 重庆中星微人工智能芯片技术有限公司 生成人脸图像的方法、装置、电子设备和计算机可读介质
CN112561080B (zh) * 2020-12-18 2023-03-03 Oppo(重庆)智能科技有限公司 样本筛选方法、样本筛选装置及终端设备
CN113128522B (zh) * 2021-05-11 2024-04-05 四川云从天府人工智能科技有限公司 目标识别方法、装置、计算机设备和存储介质
CN112990161A (zh) * 2021-05-17 2021-06-18 江苏数兑科技有限公司 电子证照识别方法及装置
CN113469977B (zh) * 2021-07-06 2024-01-12 浙江霖研精密科技有限公司 一种基于蒸馏学习机制的瑕疵检测装置、方法、存储介质
CN113657468A (zh) * 2021-07-29 2021-11-16 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备和存储介质
CN114049289B (zh) * 2021-11-10 2024-03-05 合肥工业大学 基于对比学习与StyleGAN2的近红外-可见光人脸图像合成方法
CN116543426A (zh) * 2022-01-21 2023-08-04 小米科技(武汉)有限公司 图像处理方法、装置、电子设备以及存储介质
CN114842457B (zh) * 2022-06-29 2023-09-26 小米汽车科技有限公司 模型训练及特征提取方法、装置、电子设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241988A (zh) 2018-07-16 2019-01-18 北京市商汤科技开发有限公司 特征提取方法和装置、电子设备、存储介质、程序产品
CN109711544A (zh) 2018-12-04 2019-05-03 北京市商汤科技开发有限公司 模型压缩的方法、装置、电子设备及计算机存储介质
CN110472494A (zh) 2019-06-21 2019-11-19 深圳壹账通智能科技有限公司 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206064A1 (en) * 2014-01-19 2015-07-23 Jacob Levman Method for supervised machine learning
AU2014240213B2 (en) * 2014-09-30 2016-12-08 Canon Kabushiki Kaisha System and Method for object re-identification
KR102477190B1 (ko) * 2015-08-10 2022-12-13 삼성전자주식회사 얼굴 인식 방법 및 장치
CN106372581B (zh) * 2016-08-25 2020-09-04 中国传媒大学 构建及训练人脸识别特征提取网络的方法
CN108334934B (zh) * 2017-06-07 2021-04-13 赛灵思公司 基于剪枝和蒸馏的卷积神经网络压缩方法
CN111797928A (zh) * 2017-09-08 2020-10-20 第四范式(北京)技术有限公司 生成机器学习样本的组合特征的方法及系统
CN108062394A (zh) * 2017-12-18 2018-05-22 北京中关村科金技术有限公司 一种数据集的标注方法及相关装置
CN108764024B (zh) * 2018-04-09 2020-03-24 平安科技(深圳)有限公司 人脸识别模型的生成装置、方法及计算机可读存储介质
CN108875912A (zh) * 2018-05-29 2018-11-23 天津科技大学 一种用于图像识别的神经网络模型
CN110598840B (zh) * 2018-06-13 2023-04-18 富士通株式会社 知识迁移方法、信息处理设备以及存储介质
CN108875833B (zh) * 2018-06-22 2021-07-16 北京儒博科技有限公司 神经网络的训练方法、人脸识别方法及装置
CN109409196A (zh) * 2018-08-30 2019-03-01 深圳壹账通智能科技有限公司 基于人脸的性格预测方法、装置、电子设备
CN109145854A (zh) * 2018-08-31 2019-01-04 东南大学 一种基于级联卷积神经网络结构的人脸检测方法
CN109118119A (zh) * 2018-09-06 2019-01-01 多点生活(成都)科技有限公司 风控模型生成方法及装置
CN109447169B (zh) * 2018-11-02 2020-10-27 北京旷视科技有限公司 图像处理方法及其模型的训练方法、装置和电子系统
US11494637B2 (en) * 2019-03-28 2022-11-08 International Business Machines Corporation Layer-wise distillation for protecting pre-trained neural network models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241988A (zh) 2018-07-16 2019-01-18 北京市商汤科技开发有限公司 特征提取方法和装置、电子设备、存储介质、程序产品
CN109711544A (zh) 2018-12-04 2019-05-03 北京市商汤科技开发有限公司 模型压缩的方法、装置、电子设备及计算机存储介质
CN110472494A (zh) 2019-06-21 2019-11-19 深圳壹账通智能科技有限公司 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质

Also Published As

Publication number Publication date
WO2020253127A1 (zh) 2020-12-24
JP2021532434A (ja) 2021-11-25
US20230119593A1 (en) 2023-04-20
KR102385463B1 (ko) 2022-04-12
EP3989104A1 (en) 2022-04-27
KR20200145827A (ko) 2020-12-30
CN110472494A (zh) 2019-11-19
EP3989104A4 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
JP6994588B2 (ja) 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体
CN108898186B (zh) 用于提取图像的方法和装置
CN108830235B (zh) 用于生成信息的方法和装置
CN107679466B (zh) 信息输出方法和装置
CN108197618B (zh) 用于生成人脸检测模型的方法和装置
CN108269254B (zh) 图像质量评估方法和装置
CN107507153B (zh) 图像去噪方法和装置
EP2806374A1 (en) Method and system for automatic selection of one or more image processing algorithm
KR102002024B1 (ko) 객체 라벨링 처리 방법 및 객체 관리 서버
WO2020238353A1 (zh) 数据处理方法和装置、存储介质及电子装置
CN110956615B (zh) 图像质量评估模型训练方法、装置、电子设备及存储介质
CN111783505A (zh) 伪造人脸的识别方法、装置和计算机可读存储介质
Chen et al. No-reference screen content image quality assessment with unsupervised domain adaptation
WO2023040506A1 (zh) 一种基于模型的数据处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN112395979A (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN112633221A (zh) 一种人脸方向的检测方法及相关装置
CN111382791B (zh) 深度学习任务处理方法、图像识别任务处理方法和装置
CN111783812A (zh) 违禁图像识别方法、装置和计算机可读存储介质
US11687782B2 (en) Systems and methods for recognition of user-provided images
CN111651626B (zh) 图像分类方法、装置及可读存储介质
CN112101479B (zh) 一种发型识别方法及装置
CN115019057A (zh) 图像特征提取模型确定方法及装置、图像识别方法及装置
CN114038045A (zh) 一种跨模态人脸识别模型构建方法、装置及电子设备
CN114064973B (zh) 视频新闻分类模型建立方法、分类方法、装置及设备
CN116758295B (zh) 关键点检测方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 6994588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150