JP6812086B2 - 網状パターン除去システムのトレーニング方法、網状パターン除去方法、装置、機器及び媒体 - Google Patents
網状パターン除去システムのトレーニング方法、網状パターン除去方法、装置、機器及び媒体 Download PDFInfo
- Publication number
- JP6812086B2 JP6812086B2 JP2019563812A JP2019563812A JP6812086B2 JP 6812086 B2 JP6812086 B2 JP 6812086B2 JP 2019563812 A JP2019563812 A JP 2019563812A JP 2019563812 A JP2019563812 A JP 2019563812A JP 6812086 B2 JP6812086 B2 JP 6812086B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- pattern
- error function
- reticulated
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 244
- 238000000034 method Methods 0.000 title claims description 95
- 230000006870 function Effects 0.000 claims description 341
- 238000004088 simulation Methods 0.000 claims description 81
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 description 18
- 238000011478 gradient descent method Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10008—Still image; Photographic image from scanner, fax or copier
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本出願は2018年4月20日に提出された、出願番号が201810360251.9で、名称が「網状パターン除去システムのトレーニング方法、網状パターン除去方法、装置、機器及び媒体」である中国特許出願を基礎にしてその優先権を主張する。
トレーニング対象のサンプルを抽出し、前記トレーニング対象のサンプルが、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルを含むことと、
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新することと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得することと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得することと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新し、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数とすることと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新し、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とすることであることとを含む。
トレーニング対象のサンプルを抽出するように構成され、前記トレーニング対象のサンプルが、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルを含むトレーニングサンプル取得モジュールと、
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新するように構成される第1の誤差関数取得モジュールと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得するように構成される第2の誤差関数取得モジュールと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得するように構成される判別結果取得モジュールと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得するように構成される第5の誤差関数取得モジュールと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新するように構成され、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数とする第6の誤差関数取得モジュールと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新するように構成され、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とする第7の誤差関数取得モジュールとを備える。
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出し、前記網状パターン抽出器が前記網状パターン除去システムトレーニング方法を用いて取得されることと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成し、前記敵対的生成ネットワークジェネレーターが前記網状パターン除去システムのトレーニング方法を用いて取得されることとを含む。
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出するように構成され、前記網状パターン抽出器が前記網状パターン除去システムのトレーニング方法を用いて取得される網状パターン位置抽出モジュールと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成するように構成され、前記敵対的生成ネットワークジェネレーターが前記網状パターン除去システムのトレーニング方法を用いて取得されるターゲット網状パターン除去画像生成モジュールとを備える。
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に応じて網状パターン抽出器のネットワークパラメータを更新することと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得することと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得することと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新し、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数とすることと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新し、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とすることとである。
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成し、前記敵対的生成ネットワークジェネレーターが上記網状パターン除去システムのトレーニング方法を用いて第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新して取得されることとである。
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新することと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得することと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得することと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新し、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数とすることと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新し、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とすることとである。
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出し、前記網状パターン抽出器が上記網状パターン除去システムトのレーニング方法を用いて第1の誤差関数に基づいて網状パターン抽出器におけるネットワークパラメータを更新して取得されることと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成し、前記敵対的生成ネットワークジェネレーターが前記網状パターン除去システムのトレーニング方法を用いて第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新して取得されることとである。
S10において、トレーニング対象のサンプルを抽出する。トレーニング対象のサンプルは、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルとを含む。
であり、MaxValueが網状パターン位置の全ての画素値のうちの最大値を表し、MinValueが網状パターン位置の全ての画素値のうちの最小値を表し、xが各画素値であり、yが正規化された画素値である。
であり、ここで、nが画素値の数であり、xiが二値化された網状パターン位置のi番目の画素値を表し、yiが予め設定されたラベル値とxiに対応するi番目の画素値を表す。
であり、ここで、nが画素値の数であり、xiが二値化された網状パターン位置のi番目の画素値を表し、yiが予め設定されたラベル値とxiに対応するi番目の画素値を表す。該e_lossが網状パターン抽出器によって抽出された網状パターン位置と予め設定されたラベル値との誤差に基づいて構築された誤差関数であり、該誤差関数が網状パターン抽出器によって抽出された網状パターン位置と実際状況との誤差を効果的に反映することができ、該誤差に基づいて構築された誤差関数に応じて網状パターン抽出器におけるネットワークパラメータに対して誤差逆伝送を行い、網状パターン抽出器におけるネットワークパラメータを更新することができる。誤差関数でネットワークパラメータを逆伝送及び更新する方法は勾配降下法を用い、ここでの勾配降下法はバッチ勾配降下法、小バッチ勾配降下法及び確率的勾配降下法に限定されない。勾配降下法を用いると誤差関数の最小値を見つけ、最小化された誤差関数を取得することができ、それによって網状パターン抽出器におけるネットワークパラメータの更新を効果的に実現し、これにより、ネットワークパラメータが更新された網状パターン抽出器の網状パターン位置の抽出効果がより良くなる。
を含み、ここで、nが画素値の数であり、xiがシミュレーション画像のi番目の画素値を表し、yiが網状パターンなしトレーニングサンプルとxiに対応するi番目の画素値を表す。好ましくは、計算しやすいために、ここでのxiとyiのそれぞれに表される画素値は全て正規化された後に誤差関数の演算が行われ、これにより、計算を簡略化し且つ網状パターン除去システムのトレーニングプロセスを速くすることができる。
1つの実施例において、シミュレーション画像と網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得する。ここで、該敵対的生成ネットワーク弁別装置は敵対的生成ネットワークジェネレーターに対応するネットワークモデルであり、敵対的生成ネットワークジェネレーターによって生成されたシミュレーション画像の真偽を判別することに用いられる。即ち敵対的生成ネットワーク弁別装置は、敵対的生成ネットワークの判別モデルを指す。敵対的生成ネットワーク弁別装置の判別結果に応じて第3の誤差関数(即ちgan_g_loss)と第4の誤差関数(即ちgan_d_loss)を取得し、gan_g_lossが、敵対的生成ネットワークジェネレーターがシミュレーション画像を生成することを反映する誤差関数であり、該誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータに対して誤差逆伝送を行い、ネットワークパラメータを更新することができ、gan_d_lossが、敵対的生成ネットワーク弁別装置がシミュレーション画像を判別することを反映する誤差関数であり、該誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータに対して誤差逆伝送を行い、敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新することができる。
であり、ここで、gan_g_lossは、敵対的生成ネットワーク弁別装置が敵対的生成ネットワークジェネレーターの出力を判別する時に誤差が発生することを記述する誤差関数である。gan_d_lossの計算式が
であり、ここで、gan_d_lossは、敵対的生成ネットワーク弁別装置が網状パターンなしトレーニングサンプルを判別する時に誤差が発生することを記述する誤差関数である。好ましくは、ステップS40における画素値は正規化された後に誤差関数の演算が行われ、これにより、計算を簡略化し且つ網状パターン除去システムのトレーニングプロセスを速くすることができる。
であり、ここで、nが画素値の数であり、aiが特徴Aにおけるi番目の画素値を表し、biが特徴Bにおけるi番目の画素値を表す。
好ましくは、第1の誤差関数取得モジュール20は、正規化ユニット21、画素差取得ユニット22、網状パターン位置二値化ユニット23と第1の誤差関数取得ユニット24を含む。
であり、MaxValueが網状パターン位置の全ての画素値のうちの最大値を表し、MinValueが網状パターン位置の全ての画素値のうちの最小値を表し、xが各画素値であり、yが正規化された画素値である。
であり、ここで、nが画素値の数であり、xiが二値化された網状パターン位置のi番目の画素値を表し、yiが予め設定されたラベル値とxiに対応するi番目の画素値を表す。
好ましくは、第2の誤差関数の計算式が
であり、ここで、nが画素値の数であり、xiがシミュレーション画像のi番目の画素値を表し、yiが網状パターンなしトレーニングサンプルとxiに対応するi番目の画素値を表す。
特徴A抽出ユニット51は、シミュレーション画像を予めトレーニングされた顔認識モデルに入力し、特徴Aを抽出するように構成される。
であり、ここで、nが画素値の数であり、aiが特徴Aにおけるi番目の画素値を表し、biが特徴Bにおけるi番目の画素値を表す。
Claims (12)
- 網状パターン除去システムのトレーニング方法であって、
トレーニング対象のサンプルを抽出し、前記トレーニング対象のサンプルが、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルを含むことと、
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新することと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得することと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得することと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新し、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数であることと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新し、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とすることとを含むことを特徴とする網状パターン除去システムのトレーニング方法。 - 前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新することは、
前記網状パターン位置の各画素値を取得し、各前記画素値を正規化し、正規化された画素値を取得し、ここで、正規化された画素値を取得する式が
であり、MaxValueが網状パターン位置の全ての画素値のうちの最大値を表し、MinValueが網状パターン位置の全ての画素値のうちの最小値を表し、xが各画素値であり、yが正規化された画素値であることと、
前記網状パターン位置の正規化された画素値と、対応する網状パターンなしトレーニングサンプルの正規化された画素値との画素差を取得することと、
前記画素差が予め設定された境界値より大きい場合、前記網状パターン位置に対応する前記正規化された画素値を1にし、前記画素値が前記予め設定された境界値より大きくない場合、前記網状パターン位置に対応する前記正規化された画素値を0にし、二値化された網状パターン位置を取得することと、
前記二値化された網状パターン位置の各画素値と予め設定されたラベル値に対応する各画素値に基づいて計算し、第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新し、ここで、第1の誤差関数の計算式が
であり、ここで、nが画素値の数であり、xiが前記二値化された網状パターン位置のi番目の画素値を表し、yiが予め設定されたラベル値と前記xiに対応するi番目の画素値を表すことであることと、を含むことを特徴とする請求項1に記載の網状パターン除去システムのトレーニング方法。 - 第2の誤差関数の計算式が
であり、ここで、nが画素値の数であり、xiが前記シミュレーション画像のi番目の画素値を表し、yiが前記網状パターンなしトレーニングサンプルと前記xiに対応するi番目の画素値を表すことを特徴とする請求項1に記載の網状パターン除去システムのトレーニング方法。 - 前記判別結果がD(G(X))とD(Y)であり、Xが前記敵対的生成ネットワークジェネレーターの入力を表し、Xがn個のxiから構成され、xiが敵対的生成ネットワークジェネレーターによって入力されたi番目の画素値を表し、G(X)が前記敵対的生成ネットワークジェネレーターの出力を表し、D(G(X))が前記敵対的生成ネットワーク弁別装置(判別した後)の出力における前記敵対的生成ネットワークジェネレーターの出力を表し、Yが前記敵対的生成ネットワーク弁別装置での前記網状パターンなしトレーニングサンプルの入力を表し、Yがn個のyiから構成され、yiが前記敵対的生成ネットワーク弁別装置に入力された前記網状パターンなしトレーニングサンプルのi番目の画素値を表し、D(Y)が前記敵対的生成ネットワーク弁別装置での前記網状パターンなしトレーニングサンプルの出力を表し、
- 予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することは、
前記シミュレーション画像を予めトレーニングされた前記顔認識モデルに入力し、特徴Aを抽出することと、
前記網状パターンなしトレーニングサンプルを予めトレーニングされた前記顔認識モデルに入力し、特徴Bを抽出することと、
前記特徴Aと前記特徴Bのユークリッド距離を計算し、第5の誤差関数を取得し、前記第5の誤差関数の計算式が
であり、ここで、nが画素値の数であり、aiが前記特徴Aにおけるi番目の画素値を表し、biが前記特徴Bにおけるi番目の画素値を表すこととを含むことを特徴とする請求項1に記載の網状パターン除去システムのトレーニング方法。 - 網状パターン除去方法であって、
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出し、前記網状パターン抽出器が請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第1の誤差関数に基づいて網状パターン抽出器におけるネットワークパラメータを更新して取得されることと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成し、前記敵対的生成ネットワークジェネレーターが請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新して取得されることとを含むことを特徴とする前記網状パターン除去方法。 - 網状パターン除去システムのトレーニング装置であって、
トレーニング対象のサンプルを抽出するように構成され、前記トレーニング対象のサンプルが、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルを含むトレーニングサンプル取得モジュールと、
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新するように構成される第1の誤差関数取得モジュールと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得するように構成される第2の誤差関数取得モジュールと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得するように構成される判別結果取得モジュールと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得するように構成される第5の誤差関数取得モジュールと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新するように構成され、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数である第6の誤差関数取得モジュールと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新するように構成され、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とする第7の誤差関数取得モジュールとを備えることを特徴とする網状パターン除去システムのトレーニング装置。 - 網状パターン除去装置であって、
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出するように構成され、前記網状パターン抽出器が請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第1の誤差関数に基づいて網状パターン抽出器におけるネットワークパラメータを更新して取得される網状パターン位置抽出モジュールと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成するように構成され、前記敵対的生成ネットワークジェネレーターが請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新して取得されるターゲット網状パターン除去画像生成モジュールと、を備えることを特徴とする網状パターン除去装置。 - メモリ、プロセッサ及び前記メモリに記憶され且つ前記プロセッサで実行可能なコンピュータ可読コマンドを備えるコンピュータ機器であって、前記コンピュータ可読コマンドが前記プロセッサによって実行される時に、以下のステップ:
トレーニング対象のサンプルを抽出し、前記トレーニング対象のサンプルが、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルを含むことと、
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新することと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得することと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得することと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新し、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数であることと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新し、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とすることと、
を実行することを特徴とするコンピュータ機器。 - メモリ、プロセッサ及び前記メモリに記憶され且つ前記プロセッサで実行可能なコンピュータ可読コマンドを備えるコンピュータ機器であって、前記コンピュータ可読コマンドが前記プロセッサによって実行される時に、以下のステップ:
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出し、前記網状パターン抽出器が請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第1の誤差関数に基づいて網状パターン抽出器におけるネットワークパラメータを更新して取得されることと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成し、前記敵対的生成ネットワークジェネレーターが請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新して取得されることであることと、
を実行することを特徴とするコンピュータ機器。 - コンピュータ可読コマンドを記憶するコンピュータ可読記憶媒体であって、前記コンピュータ可読コマンドがプロセッサによって実行される時に、以下のステップ:
トレーニング対象のサンプルを抽出し、前記トレーニング対象のサンプルが、サンプルの数が等しい網状パターン付きトレーニングサンプルと網状パターンなしトレーニングサンプルを含むことと、
前記網状パターン付きトレーニングサンプルを網状パターン抽出器に入力し、網状パターン位置を抽出し、前記網状パターン位置と予め設定されたラベル値に基づいて第1の誤差関数を取得し、そして前記第1の誤差関数に基づいて網状パターン抽出器のネットワークパラメータを更新することと、
前記網状パターン位置と前記網状パターン付きトレーニングサンプルを敵対的生成ネットワークジェネレーターに入力し、シミュレーション画像を生成し、そして前記シミュレーション画像と前記網状パターンなしトレーニングサンプルに基づいて第2の誤差関数を取得することと、
前記シミュレーション画像と前記網状パターンなしトレーニングサンプルを敵対的生成ネットワーク弁別装置に入力し、判別結果を取得し、そして前記判別結果に応じて第3の誤差関数と第4の誤差関数を取得することと、
予めトレーニングされた顔認識モデルを用いて前記シミュレーション画像の特徴Aと前記網状パターンなしトレーニングサンプルの特徴Bを抽出し、前記特徴Aと前記特徴Bに基づいて第5の誤差関数を取得することと、
第6の誤差関数を取得し、前記第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新し、ここで、第6の誤差関数=第2の誤差関数+第3の誤差関数+第5の誤差関数であることと、
第7の誤差関数を取得し、前記第7の誤差関数に基づいて敵対的生成ネットワーク弁別装置におけるネットワークパラメータを更新し、ここで、第7の誤差関数=第4の誤差関数+第5の誤差関数とすることであることと、
を実行することを特徴とするコンピュータ可読記憶媒体。 - コンピュータ可読コマンドを記憶するコンピュータ可読記憶媒体であって、前記コンピュータ可読コマンドがプロセッサによって実行される時に、以下のステップ:
網状パターン除去対象の画像を網状パターン抽出器に入力し、前記網状パターン除去対象の画像の網状パターン位置を抽出し、前記網状パターン抽出器が請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第1の誤差関数に基づいて網状パターン抽出器におけるネットワークパラメータを更新して取得されることと、
前記網状パターン除去対象の画像の網状パターン位置と前記網状パターン除去対象の画像を敵対的生成ネットワークジェネレーターに入力し、ターゲット網状パターン除去画像を生成し、前記敵対的生成ネットワークジェネレーターが請求項1〜5のいずれか1項に記載の網状パターン除去システムのトレーニング方法を用いて第6の誤差関数に基づいて敵対的生成ネットワークジェネレーターにおけるネットワークパラメータを更新して取得されることであることと、
を実行することを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810360251.9 | 2018-04-20 | ||
CN201810360251.9A CN108734673B (zh) | 2018-04-20 | 2018-04-20 | 去网纹系统训练方法、去网纹方法、装置、设备及介质 |
PCT/CN2018/092569 WO2019200702A1 (zh) | 2018-04-20 | 2018-06-25 | 去网纹系统训练方法、去网纹方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020522780A JP2020522780A (ja) | 2020-07-30 |
JP6812086B2 true JP6812086B2 (ja) | 2021-01-13 |
Family
ID=63939701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563812A Active JP6812086B2 (ja) | 2018-04-20 | 2018-06-25 | 網状パターン除去システムのトレーニング方法、網状パターン除去方法、装置、機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200125836A1 (ja) |
JP (1) | JP6812086B2 (ja) |
CN (1) | CN108734673B (ja) |
SG (1) | SG11201913728SA (ja) |
WO (1) | WO2019200702A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103271A (zh) * | 2016-02-23 | 2017-08-29 | 芋头科技(杭州)有限公司 | 一种人脸检测方法 |
KR102366777B1 (ko) * | 2019-04-01 | 2022-02-24 | 한국전자통신연구원 | 도메인 적응 기반 객체 인식 장치 및 그 방법 |
CN110175961B (zh) * | 2019-05-22 | 2021-07-27 | 艾特城信息科技有限公司 | 一种基于人脸图像分割对抗思想的去网纹方法 |
CN110647805B (zh) * | 2019-08-09 | 2023-10-31 | 平安科技(深圳)有限公司 | 一种网纹图像识别方法、装置及终端设备 |
CN110765843B (zh) * | 2019-09-03 | 2023-09-22 | 平安科技(深圳)有限公司 | 人脸验证方法、装置、计算机设备及存储介质 |
CN112836701A (zh) * | 2019-11-25 | 2021-05-25 | 中国移动通信集团浙江有限公司 | 人脸识别方法、装置及计算设备 |
CN111325317B (zh) * | 2020-01-21 | 2023-12-12 | 北京空间机电研究所 | 一种基于生成对抗网络的波前像差确定方法及装置 |
CN111695605B (zh) * | 2020-05-20 | 2024-05-10 | 平安科技(深圳)有限公司 | 基于oct图像的图像识别方法、服务器及存储介质 |
CN112785495A (zh) * | 2021-01-27 | 2021-05-11 | 驭势科技(南京)有限公司 | 图像处理模型训练方法、图像生成方法、装置和设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5777367B2 (ja) * | 2011-03-29 | 2015-09-09 | キヤノン株式会社 | パターン識別装置、パターン識別方法及びプログラム |
CN105760859B (zh) * | 2016-03-22 | 2018-12-21 | 中国科学院自动化研究所 | 基于多任务卷积神经网络的网纹人脸图像识别方法及装置 |
CN105930797B (zh) * | 2016-04-21 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 一种人脸验证方法及装置 |
CN106203333A (zh) * | 2016-07-08 | 2016-12-07 | 乐视控股(北京)有限公司 | 人脸识别方法及系统 |
CN106548159A (zh) * | 2016-11-08 | 2017-03-29 | 中国科学院自动化研究所 | 基于全卷积神经网络的网纹人脸图像识别方法与装置 |
CN107766844A (zh) * | 2017-11-13 | 2018-03-06 | 杭州有盾网络科技有限公司 | 一种网纹照人脸识别的方法、装置、设备 |
-
2018
- 2018-04-20 CN CN201810360251.9A patent/CN108734673B/zh active Active
- 2018-06-25 US US16/627,755 patent/US20200125836A1/en not_active Abandoned
- 2018-06-25 JP JP2019563812A patent/JP6812086B2/ja active Active
- 2018-06-25 WO PCT/CN2018/092569 patent/WO2019200702A1/zh active Application Filing
- 2018-06-25 SG SG11201913728SA patent/SG11201913728SA/en unknown
Also Published As
Publication number | Publication date |
---|---|
JP2020522780A (ja) | 2020-07-30 |
US20200125836A1 (en) | 2020-04-23 |
SG11201913728SA (en) | 2020-01-30 |
CN108734673B (zh) | 2019-11-15 |
CN108734673A (zh) | 2018-11-02 |
WO2019200702A1 (zh) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6812086B2 (ja) | 網状パターン除去システムのトレーニング方法、網状パターン除去方法、装置、機器及び媒体 | |
CN112037912B (zh) | 基于医疗知识图谱的分诊模型训练方法、装置及设备 | |
CN108764195B (zh) | 手写模型训练方法、手写字识别方法、装置、设备及介质 | |
EP3651043A1 (en) | Url attack detection method and apparatus, and electronic device | |
CN111679949A (zh) | 基于设备指标数据的异常检测方法及相关设备 | |
CN110659723B (zh) | 基于人工智能的数据处理方法、装置、介质及电子设备 | |
CN112132277A (zh) | 联邦学习模型训练方法、装置、终端设备及存储介质 | |
WO2022247005A1 (zh) | 图像中目标物识别方法、装置、电子设备及存储介质 | |
CN111275784B (zh) | 生成图像的方法和装置 | |
US20220222925A1 (en) | Artificial intelligence-based image processing method and apparatus, device, and storage medium | |
CN110672323B (zh) | 一种基于神经网络的轴承健康状态评估方法及装置 | |
CN110163111A (zh) | 基于人脸识别的叫号方法、装置、电子设备及存储介质 | |
CN113919513A (zh) | 一种联邦学习安全聚合方法、装置及电子设备 | |
CN114677565B (zh) | 特征提取网络的训练方法和图像处理方法、装置 | |
CN113298152B (zh) | 模型训练方法、装置、终端设备及计算机可读存储介质 | |
CN111985414B (zh) | 一种关节点位置确定方法及装置 | |
CN112257578A (zh) | 人脸关键点检测方法、装置、电子设备及存储介质 | |
CN113887408B (zh) | 活化人脸视频的检测方法、装置、设备及存储介质 | |
CN110598019A (zh) | 重复图像识别方法及装置 | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN110765843B (zh) | 人脸验证方法、装置、计算机设备及存储介质 | |
CN114565807A (zh) | 训练目标图像检索模型的方法和装置 | |
CN114330565A (zh) | 一种人脸识别方法及装置 | |
CN113011387A (zh) | 网络训练及人脸活体检测方法、装置、设备及存储介质 | |
CN111079930B (zh) | 数据集质量参数的确定方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6812086 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |