JP2022055302A - 遮蔽された画像の検出方法、装置、及び媒体 - Google Patents
遮蔽された画像の検出方法、装置、及び媒体 Download PDFInfo
- Publication number
- JP2022055302A JP2022055302A JP2021083271A JP2021083271A JP2022055302A JP 2022055302 A JP2022055302 A JP 2022055302A JP 2021083271 A JP2021083271 A JP 2021083271A JP 2021083271 A JP2021083271 A JP 2021083271A JP 2022055302 A JP2022055302 A JP 2022055302A
- Authority
- JP
- Japan
- Prior art keywords
- image
- original
- training
- network
- occluded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012549 training Methods 0.000 claims abstract description 186
- 238000001514 detection method Methods 0.000 claims abstract description 162
- 230000006870 function Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 28
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
(1)少量のマスクマーク付きの指により遮蔽された画像を利用して、遮蔽された画像の特徴を生成するように生成モデルを安定的にトレーニングすることができ、それにより、指による遮蔽を検出するモデルのトレーニングにおけるポジティブサンプルが足りないという問題を効果的に解決することができ、大量のポジティブサンプルの収集コストを節約する。
(2)遮蔽された画像の高レベル特徴を生成することは、画像生成詳細の不足によるノイズがモデルの精度に与える影響を効果的に回避することができる。したがって、生成された特徴をトレーニングに追加すると、検出の正確さが顕著に向上する。
(3)生成された特徴は指による遮蔽を検出するモデルの分類ネットワークのみに対して再最適化を行い、導入された余計なトレーニングのコストが小さい。そして、既存の指による遮蔽を検出するモデルを十分に利用し且つ少量のパラメータを微調整することができ、余計なオーバーヘッドが小さい。
(4)ネットワークモデルパラメータが少なく、大量の記憶及び計算リソースを節約することができる。
(5)この方法は、拡張性及び汎用性が高く、他の分類タスクへ容易に拡張することができる。
(1)ポジティブサンプルである(指により遮蔽された)画像の取得難易度が高く、大量の時間と労力を費やすことが必要である。
(2)ポジティブサンプルは簡単なデータ拡張技術を利用してデータ拡張を行うことが困難であり、すなわち、トリミング、変形、ノイズ付加などの手段を利用して元の画像により新たな画像を生成する時、画像を遮蔽する指部分を破壊して歪みを引き起こし、それにより、指により遮蔽された部分が実際の状況に合致しないことになる。
(3)ポジティブサンプルである画像は敵対的生成ネットワークを利用して生成しにくく、大量の詳細情報を失うとともに、大量のノイズを導入することになり、それにより、モデルの精度低下を引き起こす。これは、いくつかの応用シーンにおいて、指による遮蔽の検出はデータに対する要求が非常に高く、遮蔽された画像のデータ分布に対して非常に敏感であり、敵対的生成ネットワークの技術を用いれば指により遮蔽された画像を有りのままシミュレーションして生成することができないためである。
(4)従来の画像拡張生成アルゴリズムはネットワーク規模が大きく、そして、大量のトレーニングデータを必要とし、そのため、大量の記憶及び計算リソースを必要とし、大規模なトレーニングに不利である。特に、ポジティブサンプルである画像が取得しにくい場合には、このような画像拡張生成アルゴリズムを適用しない。
(1)少量のマスクマーク付きの指により遮蔽された画像を利用して、遮蔽された画像の特徴を生成するように生成モデルを安定的にトレーニングすることができ、それにより、指による遮蔽を検出するモデルのトレーニングにおけるポジティブサンプルが足りないという問題を効果的に解決することができ、大量のポジティブサンプルの収集コストを節約する。
(2)遮蔽された画像の高レベル特徴を直接生成することは、画像生成詳細の不足によるノイズがモデルの精度に与える影響を効果的に回避することができる。すなわち、生成された特徴をトレーニングに追加すると、検出の正確さが顕著に向上する。
(3)生成された特徴は指による遮蔽を検出するモデルの分類ネットワークのみに対して再最適化を行い、導入された余計なトレーニングのコストが小さい。そして、既存の指による遮蔽を検出するモデルを十分に利用し且つ少量のパラメータを微調整することができ、余計なオーバーヘッドが小さい。
(4)ネットワークモデルパラメータが少なく、大量の記憶及び計算リソースを節約することができる。
(5)この方法は、拡張性及び汎用性が高く、他の分類タスクへ容易に拡張することができる。
Claims (18)
- 遮蔽された画像の検出方法であって、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とするステップと、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力するステップであって、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであるステップと、
前記遮蔽された画像の検出モデルにおける画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮蔽された画像であるか否かを判断するステップと、
前記画像検出結果を出力するステップと、を含む、
ことを特徴とする遮蔽された画像の検出方法。 - 前記元の遮蔽された画像及び前記遮蔽されない画像を取得するステップと、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップと、
前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするステップと、をさらに含む、
ことを特徴とする請求項1に記載の方法。 - 前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップは、
前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するステップであって、前記指テンプレート画像は前記元の遮蔽された画像から指により遮蔽されない領域を除去した後の画像であり、前記指ではない画像は前記元の遮蔽された画像から指により遮蔽された領域を除去した後の画像であるステップと、
トレーニングデータグループを生成するステップであって、各グループのトレーニングデータは1枚の指テンプレート画像と、1枚の指ではない画像と、1枚の元の遮蔽された画像とを含み、毎回のトレーニングには、複数グループのトレーニングデータを用いて前記データ特徴拡張ネットワークをトレーニングするステップと、を含む、
ことを特徴とする請求項2に記載の方法。 - 前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するステップは、
前記元の遮蔽された画像に基づいて、前記元の遮蔽された画像における遮蔽された位置を示すマスクデータを取得するステップと、
前記元の遮蔽された画像及び前記マスクデータに基づいて、指テンプレート画像及び指ではない画像を生成するステップと、を含む、
ことを特徴とする請求項3に記載の方法。 - 前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップは、さらに、
前記指テンプレート画像及び前記指ではない画像を前記データ特徴拡張ネットワークに入力することにより、前記元の遮蔽された画像の生成特徴を合成するステップと、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出するステップであって、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含むステップと、
前記元の遮蔽された画像の生成特徴及び前記元の特徴を識別ネットワークに入力してトレーニングを行うステップと、
毎回のトレーニングにおける前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数を取得するステップと、
前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数がいずれかも収束した場合、前記データ特徴拡張ネットワークのトレーニングが完了したと決定するステップと、を含む、
ことを特徴とする請求項3に記載の方法。 - 前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするステップは、
前記マスクデータ及び前記遮蔽されない画像に基づいて、処理後の遮蔽されない画像を取得するステップであって、前記処理後の遮蔽されない画像は前記遮蔽されない画像から前記マスクデータに対応する領域を除去した後の画像であるステップと、
前記指テンプレート画像及び前記処理後の遮蔽されない画像を前記トレーニング後のデータ特徴拡張ネットワークに入力することにより、前記遮蔽されない画像の生成特徴を合成するステップと、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出するステップであって、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含むステップと、
前記遮蔽されない画像の生成特徴及び前記元の特徴を分類ネットワークに入力してトレーニングを行うステップであって、前記遮蔽された画像の検出モデルは前記分類ネットワークを含むステップと、
前記遮蔽された画像の検出モデルの損失関数が収束した場合、前記遮蔽された画像の検出モデルのトレーニングが完了したと決定するステップと、を含む、
ことを特徴とする請求項4に記載の方法。 - 前記遮蔽された画像の検出モデルは畳み込みニューラルネットワークモデルである、
ことを特徴とする請求項1に記載の方法。 - 前記データ特徴拡張ネットワークは敵対的生成ネットワークである、
ことを特徴とする請求項1に記載の方法。 - 遮蔽された画像の検出装置であって、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とするように構成される取得モジュールと、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力するように構成される入力モジュールと、
画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮断された画像であるか否かを判断するように構成される前記遮蔽された画像の検出モデルであって、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであるものと、
前記画像検出結果を出力するように構成される出力モジュールと、を含む、
ことを特徴とする遮蔽された画像の検出装置。 - 前記遮蔽された画像の検出モデルはトレーニングモジュールによってトレーニングされ、前記トレーニングモジュールは、
前記元の遮蔽された画像及び前記遮蔽されない画像を取得し、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングし、
前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするように構成される、
ことを特徴とする請求項9に記載の装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするように構成され、
前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成し、前記指テンプレート画像は前記元の遮蔽された画像から指により遮蔽されない領域を除去した後の画像であり、前記指ではない画像は前記元の遮蔽された画像から指により遮蔽された領域を除去した後の画像であり、
トレーニングデータグループを生成し、各グループのトレーニングデータは1枚の指テンプレート画像と、1枚の指ではない画像と、1枚の元の遮蔽された画像とを含み、毎回のトレーニングには、複数グループのトレーニングデータを用いて前記データ特徴拡張ネットワークをトレーニングする、
ことを特徴とする請求項10に記載の装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するように構成され、
前記元の遮蔽された画像に基づいて、前記元の遮蔽された画像における遮蔽された位置を示すマスクデータを取得し、
前記元の遮蔽された画像及び前記マスクデータに基づいて、指テンプレート画像及び指ではない画像を生成する、
ことを特徴とする請求項11に記載の装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするように構成され、
前記指テンプレート画像及び前記指ではない画像を前記データ特徴拡張ネットワークに入力することにより、前記元の遮蔽された画像の生成特徴を合成し、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出し、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含み、
前記元の遮蔽された画像の生成特徴及び前記元の特徴を識別ネットワークに入力してトレーニングを行い、
毎回のトレーニングにおける前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数を取得し、
前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数がいずれかも収束した場合、前記データ特徴拡張ネットワークのトレーニングが完了したと決定する、
ことを特徴とする請求項11に記載の装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするように構成され、
前記マスクデータ及び前記遮蔽されない画像に基づいて、処理後の遮蔽されない画像を取得し、前記処理後の遮蔽されない画像は前記遮蔽されない画像から前記マスクデータに対応する領域を除去した後の画像であり、
前記指テンプレート画像及び前記処理後の遮蔽されない画像を前記トレーニング後のデータ特徴拡張ネットワークに入力することにより、前記遮蔽されない画像の生成特徴を合成し、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出し、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含み、
前記遮蔽されない画像の生成特徴及び前記元の特徴を分類ネットワークに入力してトレーニングを行い、前記遮蔽された画像の検出モデルは前記分類ネットワークを含み、
前記遮蔽された画像の検出モデルの損失関数が収束した場合、前記遮蔽された画像の検出モデルのトレーニングが完了したと決定する、
ことを特徴とする請求項12に記載の装置。 - 前記遮蔽された画像の検出モデルは畳み込みニューラルネットワークモデルである、
ことを特徴とする請求項9に記載の装置。 - 前記データ特徴拡張ネットワークは敵対的生成ネットワークである、
ことを特徴とする請求項9に記載の装置。 - 遮蔽された画像の検出装置であって、
プロセッサと、
プロセッサが実行可能な命令を記憶するためのメモリと、を含み、
前記プロセッサは、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とし、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力し、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであり、
前記遮蔽された画像の検出モデルにおける画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮蔽された画像であるか否かを判断し、
前記画像検出結果を出力するように構成される、
ことを特徴とする遮蔽された画像の検出装置。 - 非一時的コンピュータ読み取り可能な記憶媒体であって、前記記憶媒体における命令がルータのプロセッサによって実行される場合、遮蔽された画像の検出方法を実行でき、前記方法は、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とするステップと、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力するステップであって、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであるステップと、
前記遮蔽された画像の検出モデルにおける画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮蔽された画像であるか否かを判断するステップと、
前記画像検出結果を出力するステップと、を含む、
非一時的コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011054873.2 | 2020-09-28 | ||
CN202011054873.2A CN112200040A (zh) | 2020-09-28 | 2020-09-28 | 遮挡图像检测方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022055302A true JP2022055302A (ja) | 2022-04-07 |
JP7167244B2 JP7167244B2 (ja) | 2022-11-08 |
Family
ID=74008537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021083271A Active JP7167244B2 (ja) | 2020-09-28 | 2021-05-17 | 遮蔽された画像の検出方法、装置、及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11961278B2 (ja) |
EP (1) | EP3975046B1 (ja) |
JP (1) | JP7167244B2 (ja) |
KR (1) | KR102545408B1 (ja) |
CN (1) | CN112200040A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220237405A1 (en) * | 2021-01-28 | 2022-07-28 | Macronix International Co., Ltd. | Data recognition apparatus and recognition method thereof |
CN113435358B (zh) * | 2021-06-30 | 2023-08-11 | 北京百度网讯科技有限公司 | 用于训练模型的样本生成方法、装置、设备、程序产品 |
CN113378980B (zh) * | 2021-07-02 | 2023-05-09 | 西安电子科技大学 | 基于自适应上下文注意力机制的口罩遮挡人脸恢复方法 |
CN117372705A (zh) * | 2022-06-28 | 2024-01-09 | 脸萌有限公司 | 模型训练方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019110474A (ja) * | 2017-12-19 | 2019-07-04 | セコム株式会社 | 不審者検知装置 |
JP2020038667A (ja) * | 2018-09-05 | 2020-03-12 | 株式会社ストラドビジョン | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 |
WO2020065908A1 (ja) * | 2018-09-28 | 2020-04-02 | 日本電気株式会社 | パターン認識装置、パターン認識方法およびパターン認識プログラム |
US20200279105A1 (en) * | 2018-12-31 | 2020-09-03 | Dathena Science Pte Ltd | Deep learning engine and methods for content and context aware data classification |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2816797A1 (en) * | 2013-06-19 | 2014-12-24 | BlackBerry Limited | Device for detecting a camera obstruction |
CN106910176B (zh) * | 2017-03-02 | 2019-09-13 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人脸图像去遮挡方法 |
US20190213798A1 (en) * | 2018-01-07 | 2019-07-11 | Unchartedvr Inc. | Hybrid hand and finger movement blending to create believable avatars |
US10552714B2 (en) * | 2018-03-16 | 2020-02-04 | Ebay Inc. | Generating a digital image using a generative adversarial network |
WO2020037678A1 (zh) * | 2018-08-24 | 2020-02-27 | 太平洋未来科技(深圳)有限公司 | 基于遮挡图像生成三维人脸图像方法、装置及电子设备 |
CN109409215A (zh) * | 2018-09-14 | 2019-03-01 | 广州大学 | 基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 |
CN110020592B (zh) * | 2019-02-03 | 2024-04-09 | 平安科技(深圳)有限公司 | 物体检测模型训练方法、装置、计算机设备及存储介质 |
CN109951635B (zh) * | 2019-03-18 | 2021-01-12 | Oppo广东移动通信有限公司 | 拍照处理方法、装置、移动终端以及存储介质 |
CN109948525A (zh) * | 2019-03-18 | 2019-06-28 | Oppo广东移动通信有限公司 | 拍照处理方法、装置、移动终端以及存储介质 |
US10747371B1 (en) * | 2019-06-28 | 2020-08-18 | Konica Minolta Business Solutions U.S.A., Inc. | Detection of finger press from live video stream |
JP2022548595A (ja) * | 2019-09-16 | 2022-11-21 | アシュラント インコーポレイテッド | モバイルデバイスの完全性状態を判断するために機械学習を利用してモバイルデバイスの画像を処理するためのシステム、方法、装置、およびコンピュータプログラム製品 |
CN111046956A (zh) * | 2019-12-13 | 2020-04-21 | 苏州科达科技股份有限公司 | 遮挡图像检测方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-28 CN CN202011054873.2A patent/CN112200040A/zh active Pending
-
2021
- 2021-05-14 KR KR1020210062695A patent/KR102545408B1/ko active IP Right Grant
- 2021-05-17 JP JP2021083271A patent/JP7167244B2/ja active Active
- 2021-05-28 EP EP21176559.9A patent/EP3975046B1/en active Active
- 2021-05-31 US US17/334,941 patent/US11961278B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019110474A (ja) * | 2017-12-19 | 2019-07-04 | セコム株式会社 | 不審者検知装置 |
JP2020038667A (ja) * | 2018-09-05 | 2020-03-12 | 株式会社ストラドビジョン | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 |
WO2020065908A1 (ja) * | 2018-09-28 | 2020-04-02 | 日本電気株式会社 | パターン認識装置、パターン認識方法およびパターン認識プログラム |
US20200279105A1 (en) * | 2018-12-31 | 2020-09-03 | Dathena Science Pte Ltd | Deep learning engine and methods for content and context aware data classification |
Non-Patent Citations (2)
Title |
---|
JIAYUAN DONG, 外3名: ""occlusion-aware gan for face de-occlusion in the wild"", 2020 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO(ICME), JPN6022025594, 10 July 2020 (2020-07-10), ISSN: 0004813115 * |
YU-AN CHEN, 外3名: ""occlusion-aware face inpainting via generative adversarial networks"", 2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING(ICIP), JPN6022025591, 20 September 2017 (2017-09-20), pages 1202 - 1206, XP033322719, ISSN: 0004813116, DOI: 10.1109/ICIP.2017.8296472 * |
Also Published As
Publication number | Publication date |
---|---|
KR20220043004A (ko) | 2022-04-05 |
US20220101028A1 (en) | 2022-03-31 |
KR102545408B1 (ko) | 2023-06-20 |
JP7167244B2 (ja) | 2022-11-08 |
EP3975046B1 (en) | 2024-04-17 |
US11961278B2 (en) | 2024-04-16 |
CN112200040A (zh) | 2021-01-08 |
EP3975046A1 (en) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101772177B1 (ko) | 사진을 획득하기 위한 방법 및 장치 | |
EP3179408A2 (en) | Picture processing method and apparatus, computer program and recording medium | |
JP7167244B2 (ja) | 遮蔽された画像の検出方法、装置、及び媒体 | |
CN104125396B (zh) | 图像拍摄方法和装置 | |
US20170287188A1 (en) | Method and apparatus for intelligently capturing image | |
US10115019B2 (en) | Video categorization method and apparatus, and storage medium | |
US9959484B2 (en) | Method and apparatus for generating image filter | |
CN109743504B (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
CN104219445B (zh) | 拍摄模式调整方法及装置 | |
CN109840939B (zh) | 三维重建方法、装置、电子设备及存储介质 | |
EP2998960A1 (en) | Method and device for video browsing | |
CN104301610B (zh) | 图像拍摄控制方法及装置 | |
WO2020114236A1 (zh) | 关键点检测方法、装置、电子设备及存储介质 | |
US11252341B2 (en) | Method and device for shooting image, and storage medium | |
CN108154466A (zh) | 图像处理方法及装置 | |
CN109376674B (zh) | 人脸检测方法、装置及存储介质 | |
CN105574834A (zh) | 图像处理方法及装置 | |
CN113506324B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN114565962A (zh) | 人脸图像处理方法及装置、电子设备和存储介质 | |
CN113422910A (zh) | 视频处理方法、装置、电子设备和存储介质 | |
CN111915021A (zh) | 图像处理模型的训练和使用方法、装置、服务器及介质 | |
CN110458962A (zh) | 一种图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7167244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |