JP6855098B2 - 顔検出トレーニング方法、装置及び電子機器 - Google Patents
顔検出トレーニング方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP6855098B2 JP6855098B2 JP2019525952A JP2019525952A JP6855098B2 JP 6855098 B2 JP6855098 B2 JP 6855098B2 JP 2019525952 A JP2019525952 A JP 2019525952A JP 2019525952 A JP2019525952 A JP 2019525952A JP 6855098 B2 JP6855098 B2 JP 6855098B2
- Authority
- JP
- Japan
- Prior art keywords
- training sample
- loss value
- sample
- training
- face detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 683
- 238000001514 detection method Methods 0.000 title claims description 336
- 238000000034 method Methods 0.000 title claims description 83
- 239000013598 vector Substances 0.000 claims description 95
- 230000001815 facial effect Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2433—Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには異なるサンプルクラスの複数のトレーニングサンプルが含まれることと、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定することと、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定することと、
前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定することと、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出のトレーニング結果を出力することと、を含む。
今回の反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには異なるサンプルクラスの複数のトレーニングサンプルが含まれるサンプル取得モジュールと、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定するためのサンプル中心損失値確定モジュールと、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定するためのバッチサンプル中心損失値確定モジュールと、
少なくとも前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定するための検出目標損失値確定モジュールと、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達していないと、前記顔検出の目標損失値に基づき、顔検出モデルのネットワークパラメータを更新して、次回の反復に進むためのパラメータ更新モジュールと、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出のトレーニング結果を出力するための検出出力モジュールと、を含む。
前記メモリにはプログラムが記憶され、前記プロセッサーは前記プログラムを呼び出して、前記プログラムにより、
今回の反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには異なるサンプルクラスの複数のトレーニングサンプルが含まれ、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定し、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定し、
少なくとも前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定し、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達していないと、前記顔検出の目標損失値に基づき、顔検出モデルのネットワークパラメータを更新して、次回の反復に進み、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出の検出結果を出力する。
プロセッサー1は、中央処理装置CPU、又は特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、又は本発明の実施例を実施するように構成された1つ又は複数の集積回路とすることができる。
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類損失値に基づき、前記バッチデータトレーニングサンプルに対応する分類損失値を確定することができる。
今回の反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには異なるサンプルクラスの複数のトレーニングサンプルが含まれるサンプル取得モジュール100と、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定するためのサンプル中心損失値確定モジュール200と、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定するためのバッチサンプル中心損失値確定モジュール300と、
少なくとも前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定するための検出目標損失値確定モジュール400と、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達していないと、前記顔検出の目標損失値に基づき、顔検出モデルのネットワークパラメータを更新して、次回の反復に進むためのパラメータ更新モジュール500と、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出を出力するための検出出力モジュール600と、
を含むことができる。
前記バッチデータトレーニングサンプルに対応する中心損失値、前記バッチデータトレーニングサンプルに対応する分類損失値、及び前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値に基づき、顔検出の目標損失値を確定すること、を含んでもよい。
前記バッチデータトレーニングサンプルに対応する中心損失値と第1の設定重みとの積、前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値と第2の設定重みとの積、及び、前記バッチデータトレーニングサンプルに対応する分類損失値を合計して、顔検出の目標損失値を得ることを含んでもよい。
前回の反復の顔検出モデルで、トレーニングサンプル集合における各トレーニングサンプルに対応する目標損失値を確定することと、
トレーニングサンプル集合におけるポジティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ポジティブクラスのサンプルクラスのうち最大の目標損失値の第1の数のトレーニングサンプルを選択し、トレーニングサンプル集合におけるネガティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ネガティブクラスのサンプルクラスのうち最大の目標損失値の第2の数のトレーニングサンプルを選択し、前記第2の数に対する前記第1の数の比値が設定された比例に対応することと、
ポジティブクラスのサンプルクラスから選択されたトレーニングサンプルと、ネガティブクラスのサンプルクラスから選択されたトレーニングサンプルによって、今回の反復のバッチデータトレーニングサンプルを構成することとを含んでもよい。
前回の反復の顔検出モデルで、トレーニングサンプル集合における各トレーニングサンプルに対応する中心損失値、分類損失値、及び顔枠座標回帰損失値を取得し、その中、トレーニングサンプルに対応する分類損失値は当該トレーニングサンプルに対応する分類予測確率と分類目標確率に基づき確定し、トレーニングサンプルに対応する顔枠座標回帰損失値は当該トレーニングサンプルに対応する顔枠予測座標と顔枠目標座標に基づき確定することと、
トレーニングサンプル集合における各トレーニングサンプルに対応する中心損失値、分類損失値、及び顔枠座標回帰損失値に基づき、トレーニングサンプル集合における各トレーニングサンプルの目標損失値を確定することと、を含んでもよい。
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類予測確率と分類目標確率に基づき、前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類損失値を確定し、前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類損失値に基づき、前記バッチデータトレーニングサンプルに対応する分類損失値を確定するための、バッチサンプル分類損失値確定モジュール700をさらに含んでもよい。
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルの特徴ベクトル、及び前記バッチデータトレーニングサンプルにおける各サンプルクラスの中心特徴ベクトルを確定することと、
前記バッチデータトレーニングサンプルのうち一つのトレーニングサンプルに対して、当該トレーニングサンプルの特徴ベクトルと、前記バッチデータトレーニングサンプルにおける当該トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルとの距離を確定して、当該トレーニングサンプルに対応する中心損失値を得ること、を含んでもよい。
一つのサンプルクラスに対して、前記バッチデータトレーニングサンプルにおける当該サンプルクラスに属する各トレーニングサンプルを確定することと、
前記バッチデータトレーニングサンプルにおける当該サンプルクラスに属する各トレーニングサンプルの特徴ベクトルに基づき、当該サンプルクラスに属する各トレーニングサンプルの特徴ベクトルの平均値を確定して、前記バッチデータトレーニングサンプルにおける当該サンプルクラスの中心特徴ベクトルの更新変数を得ることと、
前記更新変数と設定された学習率に基づき、前記バッチデータトレーニングサンプルにおける当該サンプルクラスの中心特徴ベクトルを得ることと、を含んでもよい。
候補枠回帰器に基づき、各前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する顔枠予測座標を確定し、各トレーニングサンプルに対応する顔枠予測座標、及び各トレーニングサンプルに対応する顔枠目標座標に基づき、各トレーニングサンプルに対応する顔枠座標回帰損失値を確定し、各トレーニングサンプルに対応する顔枠座標回帰損失値に基づき、前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値を確定するための、バッチサンプル顔枠座標回帰損失値確定モジュール800をさらに含んでもよい。
顔検出の目標損失値に基づき、バックプロパゲーションにより、顔検出モデルにおけるネットワークパラメータを更新することを含んでもよい。
前記顔検出の目標損失値、及び前回の反復の顔検出モデルにおけるネットワークパラメータに基づき、顔検出のパラメータ更新値を確定することと、
当該顔検出のパラメータ更新値に基づき、前回の反復の顔検出モデルにおけるネットワークパラメータを更新することと、を含んでもよい。
異なる縮尺とアスペクト比をカバーする複数のアンカー枠を予め定義し、当該予め定義された前記複数のアンカー枠によって、トレーニングサンプルにおけるサブ枠を確定し、前記サブ枠によって候補枠を予測する。
前記メモリにはプログラムが記憶され、前記プロセッサーは前記プログラムを呼び出して、前記プログラムにより、
今回の反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには異なるサンプルクラスの複数のトレーニングサンプルが含まれ、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定し、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定し、
少なくとも前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定し、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達していないと、前記顔検出の目標損失値に基づき、顔検出モデルのネットワークパラメータを更新して、次回の反復に進み、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出のトレーニング結果を出力する。
200 サンプル中心損失値確定モジュール
300 バッチサンプル中心損失値確定モジュール
400 検出目標損失値確定モジュール
500 パラメータ更新モジュール
600 検出出力モジュール
700 バッチサンプル分類損失値確定モジュール
800 バッチサンプル顔枠座標回帰損失値確定モジュール
Claims (16)
- 顔検出トレーニング方法であって、
反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには、異なるサンプルクラスの複数のトレーニングサンプルが含まれることと、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定することと、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定することと、
前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定することと、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出のトレーニング結果を出力することと、
を含み、
前記複数のトレーニングサンプルのサンプルクラスには、ポジティブクラスとネガティブクラスが含まれ、
前記した反復のバッチデータトレーニングサンプルを取得することは、
前回の反復のモデルで、トレーニングサンプル集合における各トレーニングサンプルに対応する目標損失値を確定することと、
トレーニングサンプル集合におけるポジティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ポジティブクラスのサンプルクラスのうち最大の目標損失値の第1の数のトレーニングサンプルを選択し、トレーニングサンプル集合におけるネガティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ネガティブクラスのサンプルクラスのうち最大の目標損失値の第2の数のトレーニングサンプルを選択し、前記第2の数に対する前記第1の数の比値が設定比例に対応することと、
ポジティブクラスのサンプルクラスから選択されたトレーニングサンプルと、ネガティブクラスのサンプルクラスから選択されたトレーニングサンプルとによって、今回の反復のバッチデータトレーニングサンプルを構成することと、
を含む、
ことを特徴とする顔検出トレーニング方法。 - 前記方法は、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達していないと、前記顔検出の目標損失値に基づき、顔検出モデルのネットワークパラメータを更新して、次回の反復に進むこと、
をさらに含むことを特徴とする請求項1に記載の顔検出トレーニング方法。 - 前記した前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定することは、
前記バッチデータトレーニングサンプルに対応する中心損失値、前記バッチデータトレーニングサンプルに対応する分類損失値、及び前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値に基づき、顔検出の目標損失値を確定すること、
を含むことを特徴とする請求項1又は2に記載の顔検出トレーニング方法。 - 前記した前記バッチデータトレーニングサンプルに対応する中心損失値、前記バッチデータトレーニングサンプルに対応する分類損失値、及び前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値に基づき、顔検出の目標損失値を確定することは、
前記バッチデータトレーニングサンプルに対応する中心損失値と第1の設定重みとの積、前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値と第2の設定重みとの積、及び、前記バッチデータトレーニングサンプルに対応する分類損失値を合計して、顔検出の目標損失値を得ること、
を含むことを特徴とする請求項3に記載の顔検出トレーニング方法。 - 前記した前回の反復のモデルでトレーニングサンプル集合における各トレーニングサンプルに対応する目標損失値を確定することは、
前回の反復のモデルで、トレーニングサンプル集合における各トレーニングサンプルに対応する中心損失値、分類損失値、及び顔枠座標回帰損失値を取得し、その中、トレーニングサンプルに対応する分類損失値は、前記トレーニングサンプルに対応する分類予測確率と分類目標確率に基づき確定され、トレーニングサンプルに対応する顔枠座標回帰損失値は、前記トレーニングサンプルに対応する顔枠予測座標と顔枠目標座標に基づき確定されることと、
トレーニングサンプル集合における各トレーニングサンプルに対応する中心損失値、分類損失値、及び顔枠座標回帰損失値に基づき、トレーニングサンプル集合における各トレーニングサンプルの目標損失値を確定することと、
を含むことを特徴とする請求項1に記載の顔検出トレーニング方法。 - 前記バッチデータトレーニングサンプルに対応する分類損失値の確定処理は、
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類予測確率と分類目標確率に基づき、前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類損失値を確定することと、
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する分類損失値に基づき、前記バッチデータトレーニングサンプルに対応する分類損失値を確定することと、
を含むことを特徴とする請求項3に記載の顔検出トレーニング方法。 - 前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値の確定処理は、
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルに対応する顔枠予測座標を確定することと、
各トレーニングサンプルに対応する顔枠予測座標、及び各トレーニングサンプルに対応する顔枠目標座標に基づき、各トレーニングサンプルに対応する顔枠座標回帰損失値を確定することと、
各トレーニングサンプルに対応する顔枠座標回帰損失値に基づき、前記バッチデータトレーニングサンプルに対応する顔枠座標回帰損失値を確定することと、
を含むことを特徴とする請求項3に記載の顔検出トレーニング方法。 - 前記した各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定することは、
前記バッチデータトレーニングサンプルにおける各トレーニングサンプルの特徴ベクトル、及び前記バッチデータトレーニングサンプルにおける各サンプルクラスの中心特徴ベクトルを確定することと、
前記バッチデータトレーニングサンプルにおけるトレーニングサンプルに対して、前記トレーニングサンプルの特徴ベクトルと、前記バッチデータトレーニングサンプルにおける前記トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルとの距離を確定して、前記トレーニングサンプルに対応する中心損失値を得ることと、
を含むことを特徴とする請求項1に記載の顔検出トレーニング方法。 - 前記した前記バッチデータトレーニングサンプルにおける各サンプルクラスの中心特徴ベクトルを確定することは、
サンプルクラスに対して、前記バッチデータトレーニングサンプルにおける前記サンプルクラスに属する各トレーニングサンプルを確定することと、
前記バッチデータトレーニングサンプルにおける前記サンプルクラスに属する各トレーニングサンプルの特徴ベクトルに基づき、前記サンプルクラスに属する各トレーニングサンプルの特徴ベクトルの平均値を確定して、前記バッチデータトレーニングサンプルにおける前記サンプルクラスの中心特徴ベクトルの更新変数を得ることと、
前記更新変数と設定された学習率に基づき、前記バッチデータトレーニングサンプルにおける前記サンプルクラスの中心特徴ベクトルを得ることと、
を含むことを特徴とする請求項8に記載の顔検出トレーニング方法。 - 前記した前記顔検出の目標損失値に基づき、モデルにおけるネットワークパラメータを更新することは、
顔検出の目標損失値に基づき、バックプロパゲーションにより、顔検出モデルにおけるネットワークパラメータを更新すること、
を含むことを特徴とする請求項2から4のいずれか1項に記載の顔検出トレーニング方法。 - 前記した顔検出の目標損失値に基づき、バックプロパゲーションにより、顔検出モデルにおけるネットワークパラメータを更新することは、
前記顔検出の目標損失値、及び前回の反復の顔検出モデルにおけるネットワークパラメータに基づき、顔検出のパラメータ更新値を確定することと、
前記顔検出のパラメータ更新値に基づき、前回の反復の顔検出モデルにおけるネットワークパラメータを更新することと、
を含むことを特徴とする請求項10に記載の顔検出トレーニング方法。 - 前記方法は、
異なる縮尺とアスペクト比をカバーする複数のアンカー枠を予め定義することと、
予め定義された前記複数のアンカー枠によって、トレーニングサンプルにおけるサブ枠を確定し、前記サブ枠によって候補枠を予測することと、
をさらに含むことを特徴とする請求項1に記載の顔検出トレーニング方法。 - 反復の、異なるサンプルクラスの複数のトレーニングサンプルが含まれるバッチデータトレーニングサンプルを取得するためのサンプル取得モジュールと、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定するためのサンプル中心損失値確定モジュールと、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定するためのバッチサンプル中心損失値確定モジュールと、
前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定するための検出目標損失値確定モジュールと、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出のトレーニング結果を出力するための検出出力モジュールと、
を含み、
前記サンプル取得モジュールは、具体的に、
前回の反復の顔検出モデルで、トレーニングサンプル集合における各トレーニングサンプルに対応する目標損失値を確定し、
トレーニングサンプル集合におけるポジティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ポジティブクラスのサンプルクラスのうち最大の目標損失値の第1の数のトレーニングサンプルを選択し、トレーニングサンプル集合におけるネガティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ネガティブクラスのサンプルクラスのうち最大の目標損失値の第2の数のトレーニングサンプルを選択し、前記第2の数に対する前記第1の数の比値が設定比例に対応し、
ポジティブクラスのサンプルクラスから選択されたトレーニングサンプルと、ネガティブクラスのサンプルクラスから選択されたトレーニングサンプルとによって、今回の反復のバッチデータトレーニングサンプルを構成する、
ことを特徴とする顔検出トレーニング装置。 - 前記顔検出トレーニング装置は、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達していないと、前記顔検出の目標損失値に基づき、顔検出モデルのネットワークパラメータを更新して、次回の反復に進むためのパラメータ更新モジュールをさらに含むことを特徴とする請求項13に記載の顔検出トレーニング装置。 - メモリとプロセッサーを含む電子機器であって、
前記メモリにはプログラムが記憶され、前記プロセッサーは前記プログラムを呼び出して、前記プログラムにより、
反復のバッチデータトレーニングサンプルを取得し、前記バッチデータトレーニングサンプルには異なるサンプルクラスの複数のトレーニングサンプルが含まれ、
各トレーニングサンプルの特徴ベクトル、及び各トレーニングサンプルが属するサンプルクラスの中心特徴ベクトルに基づき、各トレーニングサンプルに対応する中心損失値を確定し、
前記各トレーニングサンプルに対応する中心損失値に基づき、前記バッチデータトレーニングサンプルに対応する中心損失値を確定し、
前記バッチデータトレーニングサンプルに対応する中心損失値に基づき、顔検出の目標損失値を確定し、
前記顔検出の目標損失値が設定されたトレーニング収束条件に達すると、顔検出のトレーニング結果を出力し、
前記複数のトレーニングサンプルのサンプルクラスには、ポジティブクラスとネガティブクラスが含まれ、
前記した反復のバッチデータトレーニングサンプルを取得することは、
前回の反復のモデルで、トレーニングサンプル集合における各トレーニングサンプルに対応する目標損失値を確定することと、
トレーニングサンプル集合におけるポジティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ポジティブクラスのサンプルクラスのうち最大の目標損失値の第1の数のトレーニングサンプルを選択し、トレーニングサンプル集合におけるネガティブクラスのサンプルクラスのうち各トレーニングサンプルの目標損失値に基づき、ネガティブクラスのサンプルクラスのうち最大の目標損失値の第2の数のトレーニングサンプルを選択し、前記第2の数に対する前記第1の数の比値が設定比例に対応することと、
ポジティブクラスのサンプルクラスから選択されたトレーニングサンプルと、ネガティブクラスのサンプルクラスから選択されたトレーニングサンプルとによって、今回の反復のバッチデータトレーニングサンプルを構成することと、
を含む、
ことを特徴とする電子機器。 - 命令を含むコンピュータ可読記憶媒体であって、前記命令がコンピュータで実行されるときに、コンピュータに請求項1から12のいずれか1項に記載の方法を実行させるコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710406726.9 | 2017-06-02 | ||
CN201710406726.9A CN108985135A (zh) | 2017-06-02 | 2017-06-02 | 一种人脸检测器训练方法、装置及电子设备 |
PCT/CN2018/079281 WO2018219016A1 (zh) | 2017-06-02 | 2018-03-16 | 一种人脸检测训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020501238A JP2020501238A (ja) | 2020-01-16 |
JP6855098B2 true JP6855098B2 (ja) | 2021-04-07 |
Family
ID=64426184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525952A Active JP6855098B2 (ja) | 2017-06-02 | 2018-03-16 | 顔検出トレーニング方法、装置及び電子機器 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10929644B2 (ja) |
JP (1) | JP6855098B2 (ja) |
KR (1) | KR102236046B1 (ja) |
CN (2) | CN110490177A (ja) |
MA (1) | MA48806A (ja) |
TW (1) | TWI665613B (ja) |
WO (1) | WO2018219016A1 (ja) |
Families Citing this family (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490177A (zh) * | 2017-06-02 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 一种人脸检测器训练方法及装置 |
CN108694401B (zh) * | 2018-05-09 | 2021-01-12 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
CN110889487A (zh) * | 2018-09-10 | 2020-03-17 | 富士通株式会社 | 神经网络架构搜索装置和方法及计算机可读记录介质 |
US11620555B2 (en) * | 2018-10-26 | 2023-04-04 | Samsung Electronics Co., Ltd | Method and apparatus for stochastic inference between multiple random variables via common representation |
CN111191782A (zh) * | 2018-11-14 | 2020-05-22 | 普天信息技术有限公司 | 卷积网络训练方法和装置 |
TWI684959B (zh) * | 2018-11-16 | 2020-02-11 | 國立雲林科技大學 | 口鼻異物遮蔽檢測方法及其系統 |
US10891845B2 (en) | 2018-11-28 | 2021-01-12 | National Yunlin University Of Science And Technology | Mouth and nose occluded detecting method and system thereof |
TWI705340B (zh) * | 2018-12-13 | 2020-09-21 | 財團法人工業技術研究院 | 相位圖像生成器的訓練方法及相位圖像分類器的訓練方法 |
CN111325223B (zh) * | 2018-12-13 | 2023-10-24 | 中国电信股份有限公司 | 深度学习模型的训练方法、装置和计算机可读存储介质 |
CN109829893B (zh) * | 2019-01-03 | 2021-05-25 | 武汉精测电子集团股份有限公司 | 一种基于注意力机制的缺陷目标检测方法 |
CN111477212B (zh) * | 2019-01-04 | 2023-10-24 | 阿里巴巴集团控股有限公司 | 内容识别、模型训练、数据处理方法、系统及设备 |
US10423860B1 (en) * | 2019-01-22 | 2019-09-24 | StradVision, Inc. | Learning method and learning device for object detector based on CNN to be used for multi-camera or surround view monitoring using image concatenation and target object merging network, and testing method and testing device using the same |
US10430691B1 (en) * | 2019-01-22 | 2019-10-01 | StradVision, Inc. | Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring |
CN109801636A (zh) * | 2019-01-29 | 2019-05-24 | 北京猎户星空科技有限公司 | 声纹识别模型的训练方法、装置、电子设备及存储介质 |
CN111522228B (zh) * | 2019-02-02 | 2023-09-22 | 北京京东乾石科技有限公司 | 一种飞行器的检测方法及装置 |
CN111626087A (zh) * | 2019-02-28 | 2020-09-04 | 北京市商汤科技开发有限公司 | 神经网络训练及眼睛睁闭状态检测方法、装置及设备 |
CN109948478B (zh) * | 2019-03-06 | 2021-05-11 | 中国科学院自动化研究所 | 基于神经网络的大规模非均衡数据的人脸识别方法、系统 |
CN109934198B (zh) * | 2019-03-22 | 2021-05-14 | 北京市商汤科技开发有限公司 | 人脸识别方法及装置 |
CN110070107B (zh) * | 2019-03-26 | 2020-12-25 | 华为技术有限公司 | 物体识别方法及装置 |
CN110033332A (zh) * | 2019-04-23 | 2019-07-19 | 杭州智趣智能信息技术有限公司 | 一种人脸识别方法、系统及电子设备和存储介质 |
CN110059707B (zh) * | 2019-04-25 | 2021-05-14 | 北京小米移动软件有限公司 | 图像特征点的优化方法、装置和设备 |
CN110414550B (zh) * | 2019-06-14 | 2022-07-29 | 北京迈格威科技有限公司 | 人脸识别模型的训练方法、装置、系统和计算机可读介质 |
CN110443280B (zh) * | 2019-07-05 | 2022-06-03 | 北京达佳互联信息技术有限公司 | 图像检测模型的训练方法、装置及存储介质 |
CN110443366B (zh) * | 2019-07-30 | 2022-08-30 | 上海商汤智能科技有限公司 | 神经网络的优化方法及装置、目标检测方法及装置 |
TWI712961B (zh) * | 2019-08-07 | 2020-12-11 | 瑞昱半導體股份有限公司 | 全連接卷積神經網路影像處理方法與電路系統 |
CN110432895B (zh) * | 2019-08-09 | 2022-02-11 | 上海鹰瞳医疗科技有限公司 | 训练数据处理、心电波形检测方法及电子设备 |
CN110490115B (zh) * | 2019-08-13 | 2021-08-13 | 北京达佳互联信息技术有限公司 | 人脸检测模型的训练方法、装置、电子设备及存储介质 |
CN110263774B (zh) * | 2019-08-19 | 2019-11-22 | 珠海亿智电子科技有限公司 | 一种人脸检测方法 |
CN110532985B (zh) * | 2019-09-02 | 2022-07-22 | 北京迈格威科技有限公司 | 目标检测方法、装置及系统 |
TWI719696B (zh) * | 2019-11-01 | 2021-02-21 | 財團法人工業技術研究院 | 臉部影像重建方法與系統 |
WO2021087985A1 (zh) * | 2019-11-08 | 2021-05-14 | 深圳市欢太科技有限公司 | 模型训练方法、装置、存储介质及电子设备 |
CN110956255B (zh) * | 2019-11-26 | 2023-04-07 | 中国医学科学院肿瘤医院 | 难样本挖掘方法、装置、电子设备及计算机可读存储介质 |
WO2021125434A1 (ko) * | 2019-12-19 | 2021-06-24 | 주식회사 노타 | 딥러닝 기반 실시간 온-디바이스 얼굴 인증을 위한 방법 및 장치 |
US11277626B2 (en) | 2020-02-21 | 2022-03-15 | Alibaba Group Holding Limited | Region of interest quality controllable video coding techniques |
CN111275011B (zh) * | 2020-02-25 | 2023-12-19 | 阿波罗智能技术(北京)有限公司 | 移动红绿灯检测方法、装置、电子设备和存储介质 |
US11388423B2 (en) | 2020-03-23 | 2022-07-12 | Alibaba Group Holding Limited | Region-of-interest based video encoding |
CN111563541B (zh) * | 2020-04-21 | 2023-04-18 | 北京百度网讯科技有限公司 | 图像检测模型的训练方法和装置 |
CN113673272B (zh) * | 2020-05-13 | 2023-04-28 | 北京君正集成电路股份有限公司 | 一种基于宠物检测的双层标注二级级联计算损失值的方法 |
CN111598185B (zh) * | 2020-05-27 | 2021-11-19 | 深圳市铁越电气有限公司 | 一种基于深度学习的训练数据平衡方法、设备和系统 |
CN111814553B (zh) * | 2020-06-08 | 2023-07-11 | 浙江大华技术股份有限公司 | 人脸检测方法、模型的训练方法及其相关装置 |
KR20230026398A (ko) * | 2020-06-12 | 2023-02-24 | 유니버시티 오브 워싱턴 | 근안 디스플레이들에서의 눈 추적 |
US20230116040A1 (en) * | 2020-06-29 | 2023-04-13 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method for recognizing dangerous driving behavior, electronic device and storage medium |
CN112070205A (zh) * | 2020-07-30 | 2020-12-11 | 华为技术有限公司 | 一种多损失模型获取方法以及装置 |
CN112016599B (zh) * | 2020-08-13 | 2023-09-15 | 驭势科技(浙江)有限公司 | 用于图像检索的神经网络训练方法、装置及电子设备 |
CN111930980B (zh) * | 2020-08-21 | 2023-07-07 | 深圳市升幂科技有限公司 | 图像检索模型的训练方法及图像检索方法、装置、及介质 |
CN111985439B (zh) * | 2020-08-31 | 2024-08-13 | 中移(杭州)信息技术有限公司 | 人脸检测方法、装置、设备和存储介质 |
CN112257781A (zh) * | 2020-10-22 | 2021-01-22 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种模型训练方法及装置 |
CN112541587A (zh) * | 2020-11-19 | 2021-03-23 | 西人马帝言(北京)科技有限公司 | 一种识别模型训练方法、装置、设备及计算机存储介质 |
KR20220073914A (ko) * | 2020-11-27 | 2022-06-03 | 연세대학교 산학협력단 | 경량화 신경망을 이용한 얼굴 인식 장치 및 방법 |
KR20220098503A (ko) * | 2021-01-04 | 2022-07-12 | 오드컨셉 주식회사 | 중복 이미지 검출 방법 및 장치 |
CN112766104A (zh) * | 2021-01-07 | 2021-05-07 | 湖北公众信息产业有限责任公司 | 保险新零售服务平台 |
CN112734740B (zh) * | 2021-01-18 | 2024-02-23 | 推想医疗科技股份有限公司 | 训练目标检测模型的方法、目标检测的方法及其装置 |
CN113822111B (zh) * | 2021-01-19 | 2024-05-24 | 北京京东振世信息技术有限公司 | 人群检测模型训练方法、装置以及人群计数方法、装置 |
KR102444495B1 (ko) * | 2021-01-21 | 2022-09-19 | 순천향대학교 산학협력단 | 영상 인식 검출기 및 그 동작방법 |
CN112861671B (zh) * | 2021-01-27 | 2022-10-21 | 电子科技大学 | 一种对深度伪造人脸图像和视频的鉴别方法 |
CN112890572B (zh) * | 2021-02-07 | 2021-08-17 | 广州一盒科技有限公司 | 一种食材烹调智能控制系统及方法 |
CN112884040B (zh) * | 2021-02-19 | 2024-04-30 | 北京小米松果电子有限公司 | 训练样本数据的优化方法、系统、存储介质及电子设备 |
CN112733808A (zh) * | 2021-02-22 | 2021-04-30 | 深圳市商汤科技有限公司 | 模型训练与图像处理方法、装置、电子设备和存储介质 |
CN112949855B (zh) * | 2021-02-26 | 2023-08-25 | 平安科技(深圳)有限公司 | 人脸识别模型训练方法、识别方法、装置、设备及介质 |
CN113057647B (zh) * | 2021-03-25 | 2022-04-22 | 山东省人工智能研究院 | 一种心电信号的质量评估方法 |
CN113221655B (zh) * | 2021-04-12 | 2022-09-30 | 重庆邮电大学 | 基于特征空间约束的人脸欺骗检测方法 |
CN113129337B (zh) * | 2021-04-14 | 2022-07-19 | 桂林电子科技大学 | 背景感知跟踪方法、计算机可读存储介质及计算机设备 |
CN113221530B (zh) * | 2021-04-19 | 2024-02-13 | 杭州火石数智科技有限公司 | 一种文本相似度匹配方法、装置、计算机设备和储存介质 |
CN113239975B (zh) * | 2021-04-21 | 2022-12-20 | 国网甘肃省电力公司白银供电公司 | 一种基于神经网络的目标检测方法和装置 |
CN113139462A (zh) * | 2021-04-23 | 2021-07-20 | 杭州魔点科技有限公司 | 无监督的人脸图像质量评估方法、电子设备和存储介质 |
CN113192646B (zh) * | 2021-04-25 | 2024-03-22 | 北京易华录信息技术股份有限公司 | 目标检测模型构建方法及不同目标间距离监控方法、装置 |
WO2022250970A1 (en) * | 2021-05-26 | 2022-12-01 | Nec Laboratories America, Inc. | Semi-automatic data collection and association for multi-camera tracking |
CN113326773A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
CN113191461B (zh) * | 2021-06-29 | 2021-09-17 | 苏州浪潮智能科技有限公司 | 一种图片识别方法、装置、设备及可读存储介质 |
CN113673357A (zh) * | 2021-07-27 | 2021-11-19 | 浙江大华技术股份有限公司 | 停车场寻车方法、设备及存储介质 |
CN113807237B (zh) * | 2021-09-15 | 2022-11-08 | 河南星环众志信息科技有限公司 | 活体检测模型的训练、活体检测方法、计算机设备及介质 |
CN114495228A (zh) * | 2022-01-26 | 2022-05-13 | 北京百度网讯科技有限公司 | 人脸检测器的训练方法及装置、设备、介质和产品 |
CN114743665A (zh) * | 2022-03-21 | 2022-07-12 | 平安科技(深圳)有限公司 | 患病风险估计网络的优化方法、装置、介质及设备 |
CN115661909B (zh) * | 2022-12-14 | 2024-09-17 | 深圳大学 | 人脸图像处理方法、设备及计算机可读存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6219142B1 (en) * | 1997-10-17 | 2001-04-17 | Southwest Sciences Incorporated | Method and apparatus for determining wave characteristics from wave phenomena |
JPH11161786A (ja) * | 1997-11-25 | 1999-06-18 | Toshiba Corp | パターン認識方法および記録媒体 |
US6466685B1 (en) * | 1998-07-14 | 2002-10-15 | Kabushiki Kaisha Toshiba | Pattern recognition apparatus and method |
KR100729273B1 (ko) * | 2005-02-04 | 2007-06-15 | 오병주 | Pca와 역전파 알고리즘을 이용한 얼굴인식 방법 |
US7471378B2 (en) * | 2005-06-30 | 2008-12-30 | Dbm Optical Technologies, Inc. | Method and system for determining a polarization dependent characteristics of optical and opto-electrical devices |
CN100587708C (zh) * | 2008-01-25 | 2010-02-03 | 华中科技大学 | 一种分类器集成方法 |
JP5207870B2 (ja) * | 2008-08-05 | 2013-06-12 | 日立コンピュータ機器株式会社 | 次元削減方法、パターン認識用辞書生成装置、及びパターン認識装置 |
JPWO2012098854A1 (ja) * | 2011-01-20 | 2014-06-09 | 日本電気株式会社 | 画像処理システム、画像処理方法および画像処理用プログラム |
CN102663370B (zh) * | 2012-04-23 | 2013-10-09 | 苏州大学 | 一种人脸识别的方法及系统 |
CN104680121B (zh) * | 2013-11-27 | 2022-06-03 | 腾讯科技(深圳)有限公司 | 一种人脸图像的处理方法及装置 |
US10462450B2 (en) * | 2014-04-28 | 2019-10-29 | Autodesk, Inc. | Combining two-dimensional images with depth data to detect junctions or edges |
CN104063865B (zh) * | 2014-06-27 | 2017-08-01 | 小米科技有限责任公司 | 分类模型创建方法、图像分割方法及相关装置 |
CN106326815B (zh) * | 2015-06-30 | 2019-09-13 | 芋头科技(杭州)有限公司 | 一种人脸图像识别方法 |
CN105069430B (zh) * | 2015-08-05 | 2016-09-14 | 杭州南江机器人股份有限公司 | 一种基于msnrd特征的多姿态人脸检测器的设计方法 |
KR102477190B1 (ko) * | 2015-08-10 | 2022-12-13 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
CN106485230B (zh) * | 2016-10-18 | 2019-10-25 | 中国科学院重庆绿色智能技术研究院 | 基于神经网络的人脸检测模型的训练、人脸检测方法及系统 |
CN106682734A (zh) * | 2016-12-30 | 2017-05-17 | 中国科学院深圳先进技术研究院 | 一种提升卷积神经网络泛化能力的方法及装置 |
CN110490177A (zh) * | 2017-06-02 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 一种人脸检测器训练方法及装置 |
-
2017
- 2017-06-02 CN CN201910834138.4A patent/CN110490177A/zh active Pending
- 2017-06-02 CN CN201710406726.9A patent/CN108985135A/zh active Pending
-
2018
- 2018-03-16 KR KR1020197026337A patent/KR102236046B1/ko active IP Right Grant
- 2018-03-16 MA MA048806A patent/MA48806A/fr unknown
- 2018-03-16 WO PCT/CN2018/079281 patent/WO2018219016A1/zh active Application Filing
- 2018-03-16 JP JP2019525952A patent/JP6855098B2/ja active Active
- 2018-04-20 TW TW107113594A patent/TWI665613B/zh active
-
2019
- 2019-04-23 US US16/392,270 patent/US10929644B2/en active Active
-
2020
- 2020-12-02 US US17/109,574 patent/US11594070B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20190116397A (ko) | 2019-10-14 |
CN110490177A (zh) | 2019-11-22 |
US20210089752A1 (en) | 2021-03-25 |
WO2018219016A1 (zh) | 2018-12-06 |
US10929644B2 (en) | 2021-02-23 |
US11594070B2 (en) | 2023-02-28 |
KR102236046B1 (ko) | 2021-04-02 |
EP3633549A4 (en) | 2021-03-10 |
US20190251333A1 (en) | 2019-08-15 |
MA48806A (fr) | 2020-04-08 |
CN108985135A (zh) | 2018-12-11 |
EP3633549A1 (en) | 2020-04-08 |
TW201832134A (zh) | 2018-09-01 |
TWI665613B (zh) | 2019-07-11 |
JP2020501238A (ja) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6855098B2 (ja) | 顔検出トレーニング方法、装置及び電子機器 | |
US20210012198A1 (en) | Method for training deep neural network and apparatus | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN110555481B (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
CN112150821B (zh) | 轻量化车辆检测模型构建方法、系统及装置 | |
CN108470354A (zh) | 视频目标跟踪方法、装置和实现装置 | |
Nandedkar et al. | A fuzzy min-max neural network classifier with compensatory neuron architecture | |
CN110782015A (zh) | 神经网络的网络结构优化器的训练方法、装置及存储介质 | |
CN110633745A (zh) | 一种基于人工智能的图像分类训练方法、装置及存储介质 | |
CN106951825A (zh) | 一种人脸图像质量评估系统以及实现方法 | |
CN111126482A (zh) | 一种基于多分类器级联模型的遥感影像自动分类方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN111222589A (zh) | 图像文本识别方法、装置、设备及计算机存储介质 | |
CN112052816B (zh) | 基于自适应图卷积对抗网络的人体行为预测方法及系统 | |
CN112417981A (zh) | 基于改进FasterR-CNN的复杂战场环境目标高效识别方法 | |
CN111967399A (zh) | 一种基于改进的Faster RCNN行为识别方法 | |
CN111429414B (zh) | 基于人工智能的病灶影像样本确定方法和相关装置 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
CN114120045B (zh) | 一种基于多门控混合专家模型的目标检测方法和装置 | |
CN112257840B (zh) | 一种神经网络处理方法以及相关设备 | |
CN107480627A (zh) | 行为识别方法、装置、存储介质和处理器 | |
CN114332711A (zh) | 面部动作识别及模型训练的方法、装置、设备和存储介质 | |
CN114399780A (zh) | 表格检测方法、表格检测模型训练方法及装置 | |
CN113221929A (zh) | 一种图像处理方法以及相关设备 | |
CN112183336A (zh) | 表情识别模型训练方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6855098 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |