JP7167244B2 - 遮蔽された画像の検出方法、装置、及び媒体 - Google Patents
遮蔽された画像の検出方法、装置、及び媒体 Download PDFInfo
- Publication number
- JP7167244B2 JP7167244B2 JP2021083271A JP2021083271A JP7167244B2 JP 7167244 B2 JP7167244 B2 JP 7167244B2 JP 2021083271 A JP2021083271 A JP 2021083271A JP 2021083271 A JP2021083271 A JP 2021083271A JP 7167244 B2 JP7167244 B2 JP 7167244B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- occluded
- original
- training
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
Description
(1)少量のマスクマーク付きの指により遮蔽された画像を利用して、遮蔽された画像の特徴を生成するように生成モデルを安定的にトレーニングすることができ、それにより、指による遮蔽を検出するモデルのトレーニングにおけるポジティブサンプルが足りないという問題を効果的に解決することができ、大量のポジティブサンプルの収集コストを節約する。
(2)遮蔽された画像の高レベル特徴を生成することは、画像生成詳細の不足によるノイズがモデルの精度に与える影響を効果的に回避することができる。したがって、生成された特徴をトレーニングに追加すると、検出の正確さが顕著に向上する。
(3)生成された特徴は指による遮蔽を検出するモデルの分類ネットワークのみに対して再最適化を行い、導入された余計なトレーニングのコストが小さい。そして、既存の指による遮蔽を検出するモデルを十分に利用し且つ少量のパラメータを微調整することができ、余計なオーバーヘッドが小さい。
(4)ネットワークモデルパラメータが少なく、大量の記憶及び計算リソースを節約することができる。
(5)この方法は、拡張性及び汎用性が高く、他の分類タスクへ容易に拡張することができる。
(1)ポジティブサンプルである(指により遮蔽された)画像の取得難易度が高く、大量の時間と労力を費やすことが必要である。
(2)ポジティブサンプルは簡単なデータ拡張技術を利用してデータ拡張を行うことが困難であり、すなわち、トリミング、変形、ノイズ付加などの手段を利用して元の画像により新たな画像を生成する時、画像を遮蔽する指部分を破壊して歪みを引き起こし、それにより、指により遮蔽された部分が実際の状況に合致しないことになる。
(3)ポジティブサンプルである画像は敵対的生成ネットワークを利用して生成しにくく、大量の詳細情報を失うとともに、大量のノイズを導入することになり、それにより、モデルの精度低下を引き起こす。これは、いくつかの応用シーンにおいて、指による遮蔽の検出はデータに対する要求が非常に高く、遮蔽された画像のデータ分布に対して非常に敏感であり、敵対的生成ネットワークの技術を用いれば指により遮蔽された画像を有りのままシミュレーションして生成することができないためである。
(4)従来の画像拡張生成アルゴリズムはネットワーク規模が大きく、そして、大量のトレーニングデータを必要とし、そのため、大量の記憶及び計算リソースを必要とし、大規模なトレーニングに不利である。特に、ポジティブサンプルである画像が取得しにくい場合には、このような画像拡張生成アルゴリズムを適用しない。
(1)少量のマスクマーク付きの指により遮蔽された画像を利用して、遮蔽された画像の特徴を生成するように生成モデルを安定的にトレーニングすることができ、それにより、指による遮蔽を検出するモデルのトレーニングにおけるポジティブサンプルが足りないという問題を効果的に解決することができ、大量のポジティブサンプルの収集コストを節約する。
(2)遮蔽された画像の高レベル特徴を直接生成することは、画像生成詳細の不足によるノイズがモデルの精度に与える影響を効果的に回避することができる。すなわち、生成された特徴をトレーニングに追加すると、検出の正確さが顕著に向上する。
(3)生成された特徴は指による遮蔽を検出するモデルの分類ネットワークのみに対して再最適化を行い、導入された余計なトレーニングのコストが小さい。そして、既存の指による遮蔽を検出するモデルを十分に利用し且つ少量のパラメータを微調整することができ、余計なオーバーヘッドが小さい。
(4)ネットワークモデルパラメータが少なく、大量の記憶及び計算リソースを節約することができる。
(5)この方法は、拡張性及び汎用性が高く、他の分類タスクへ容易に拡張することができる。
Claims (14)
- 遮蔽された画像の検出方法であって、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とするステップと、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力するステップであって、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであるステップと、
前記遮蔽された画像の検出モデルにおける画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮蔽された画像であるか否かを判断するステップと、
前記画像検出結果を出力するステップと、
前記元の遮蔽された画像及び前記遮蔽されない画像を取得するステップと、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップと、
前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするステップと、を含み、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップは、
前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するステップであって、前記指テンプレート画像は前記元の遮蔽された画像から指により遮蔽されない領域を除去した後の画像であり、前記指ではない画像は前記元の遮蔽された画像から指により遮蔽された領域を除去した後の画像であるステップと、
トレーニングデータグループを生成するステップであって、各グループのトレーニングデータは1枚の指テンプレート画像と、1枚の指ではない画像と、1枚の元の遮蔽された画像とを含み、毎回のトレーニングには、複数グループのトレーニングデータを用いて前記データ特徴拡張ネットワークをトレーニングするステップと、を含む、
ことを特徴とする遮蔽された画像の検出方法。 - 前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するステップは、
前記元の遮蔽された画像に基づいて、前記元の遮蔽された画像における遮蔽された位置を示すマスクデータを取得するステップと、
前記元の遮蔽された画像及び前記マスクデータに基づいて、指テンプレート画像及び指ではない画像を生成するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップは、さらに、
前記指テンプレート画像及び前記指ではない画像を前記データ特徴拡張ネットワークに入力することにより、前記元の遮蔽された画像の生成特徴を合成するステップと、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出するステップであって、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含むステップと、
前記元の遮蔽された画像の生成特徴及び前記元の特徴を識別ネットワークに入力してトレーニングを行うステップと、
毎回のトレーニングにおける前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数を取得するステップと、
前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数がいずれかも収束した場合、前記データ特徴拡張ネットワークのトレーニングが完了したと決定するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするステップは、
前記マスクデータ及び前記遮蔽されない画像に基づいて、処理後の遮蔽されない画像を取得するステップであって、前記処理後の遮蔽されない画像は前記遮蔽されない画像から前記マスクデータに対応する領域を除去した後の画像であるステップと、
前記指テンプレート画像及び前記処理後の遮蔽されない画像を前記トレーニング後のデータ特徴拡張ネットワークに入力することにより、前記遮蔽されない画像の生成特徴を合成するステップと、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出するステップであって、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含むステップと、
前記遮蔽されない画像の生成特徴及び前記元の特徴を分類ネットワークに入力してトレーニングを行うステップであって、前記遮蔽された画像の検出モデルは前記分類ネットワークを含むステップと、
前記遮蔽された画像の検出モデルの損失関数が収束した場合、前記遮蔽された画像の検出モデルのトレーニングが完了したと決定するステップと、を含む、
ことを特徴とする請求項2に記載の方法。 - 前記遮蔽された画像の検出モデルは畳み込みニューラルネットワークモデルである、
ことを特徴とする請求項1に記載の方法。 - 前記データ特徴拡張ネットワークは敵対的生成ネットワークである、
ことを特徴とする請求項1に記載の方法。 - 遮蔽された画像の検出装置であって、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とするように構成される取得モジュールと、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力するように構成される入力モジュールと、
画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮断された画像であるか否かを判断するように構成される前記遮蔽された画像の検出モデルであって、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであるものと、
前記画像検出結果を出力するように構成される出力モジュールと、を含み、
前記遮蔽された画像の検出モデルはトレーニングモジュールによってトレーニングされ、前記トレーニングモジュールは、
前記元の遮蔽された画像及び前記遮蔽されない画像を取得し、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングし、
前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするように構成され、
前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするように構成され、
前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成し、前記指テンプレート画像は前記元の遮蔽された画像から指により遮蔽されない領域を除去した後の画像であり、前記指ではない画像は前記元の遮蔽された画像から指により遮蔽された領域を除去した後の画像であり、
トレーニングデータグループを生成し、各グループのトレーニングデータは1枚の指テンプレート画像と、1枚の指ではない画像と、1枚の元の遮蔽された画像とを含み、毎回のトレーニングには、複数グループのトレーニングデータを用いて前記データ特徴拡張ネットワークをトレーニングする、
ことを特徴とする遮蔽された画像の検出装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するように構成され、
前記元の遮蔽された画像に基づいて、前記元の遮蔽された画像における遮蔽された位置を示すマスクデータを取得し、
前記元の遮蔽された画像及び前記マスクデータに基づいて、指テンプレート画像及び指ではない画像を生成する、
ことを特徴とする請求項7に記載の装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするように構成され、
前記指テンプレート画像及び前記指ではない画像を前記データ特徴拡張ネットワークに入力することにより、前記元の遮蔽された画像の生成特徴を合成し、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出し、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含み、
前記元の遮蔽された画像の生成特徴及び前記元の特徴を識別ネットワークに入力してトレーニングを行い、
毎回のトレーニングにおける前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数を取得し、
前記データ特徴拡張ネットワークの損失関数及び前記識別ネットワークの損失関数がいずれかも収束した場合、前記データ特徴拡張ネットワークのトレーニングが完了したと決定する、
ことを特徴とする請求項7に記載の装置。 - 前記トレーニングモジュールは、さらに、以下の方式により、前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするように構成され、
前記マスクデータ及び前記遮蔽されない画像に基づいて、処理後の遮蔽されない画像を取得し、前記処理後の遮蔽されない画像は前記遮蔽されない画像から前記マスクデータに対応する領域を除去した後の画像であり、
前記指テンプレート画像及び前記処理後の遮蔽されない画像を前記トレーニング後のデータ特徴拡張ネットワークに入力することにより、前記遮蔽されない画像の生成特徴を合成し、
前記元の遮蔽された画像を特徴ネットワークに入力することにより、前記元の遮蔽された画像の元の特徴を抽出し、前記遮蔽された画像の検出モデルは前記特徴ネットワークを含み、
前記遮蔽されない画像の生成特徴及び前記元の特徴を分類ネットワークに入力してトレーニングを行い、前記遮蔽された画像の検出モデルは前記分類ネットワークを含み、
前記遮蔽された画像の検出モデルの損失関数が収束した場合、前記遮蔽された画像の検出モデルのトレーニングが完了したと決定する、
ことを特徴とする請求項8に記載の装置。 - 前記遮蔽された画像の検出モデルは畳み込みニューラルネットワークモデルである、
ことを特徴とする請求項7に記載の装置。 - 前記データ特徴拡張ネットワークは敵対的生成ネットワークである、
ことを特徴とする請求項7に記載の装置。 - 遮蔽された画像の検出装置であって、
プロセッサと、
プロセッサが実行可能な命令を記憶するためのメモリと、を含み、
前記プロセッサは、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とし、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力し、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであり、
前記遮蔽された画像の検出モデルにおける画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮蔽された画像であるか否かを判断し、
前記画像検出結果を出力し、
前記元の遮蔽された画像及び前記遮蔽されない画像を取得し、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングし、
前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするように構成され、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングすることは、
前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成し、前記指テンプレート画像は前記元の遮蔽された画像から指により遮蔽されない領域を除去した後の画像であり、前記指ではない画像は前記元の遮蔽された画像から指により遮蔽された領域を除去した後の画像であることと、
トレーニングデータグループを生成し、各グループのトレーニングデータは1枚の指テンプレート画像と、1枚の指ではない画像と、1枚の元の遮蔽された画像とを含み、毎回のトレーニングには、複数グループのトレーニングデータを用いて前記データ特徴拡張ネットワークをトレーニングすることと、を含む、
ことを特徴とする遮蔽された画像の検出装置。 - 非一時的コンピュータ読み取り可能な記憶媒体であって、前記記憶媒体における命令がルータのプロセッサによって実行される場合、遮蔽された画像の検出方法を実行でき、前記方法は、
カメラによって画像を撮影した後、前記画像を取得して検出対象の画像とするステップと、
検出対象の画像をトレーニング後の遮蔽された画像の検出モデルに入力するステップであって、前記遮蔽された画像の検出モデルは元の遮蔽された画像、遮蔽されない画像を採用し、且つトレーニング後のデータ特徴拡張ネットワークを利用してトレーニングされたものであるステップと、
前記遮蔽された画像の検出モデルにおける画像に関する遮蔽特性に基づいて、前記検出対象の画像が遮蔽された画像であるか否かを判断するステップと、
前記画像検出結果を出力するステップと、
前記元の遮蔽された画像及び前記遮蔽されない画像を取得するステップと、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップと、
前記元の遮蔽された画像及び前記遮蔽されない画像に基づき、トレーニング後のデータ特徴拡張ネットワークを利用して、前記遮蔽された画像の検出モデルをトレーニングするステップと、を含み、
前記元の遮蔽された画像に基づいて前記データ特徴拡張ネットワークをトレーニングするステップは、
前記元の遮蔽された画像に基づいて、指テンプレート画像及び指ではない画像を生成するステップであって、前記指テンプレート画像は前記元の遮蔽された画像から指により遮蔽されない領域を除去した後の画像であり、前記指ではない画像は前記元の遮蔽された画像から指により遮蔽された領域を除去した後の画像であるステップと、
トレーニングデータグループを生成するステップであって、各グループのトレーニングデータは1枚の指テンプレート画像と、1枚の指ではない画像と、1枚の元の遮蔽された画像とを含み、毎回のトレーニングには、複数グループのトレーニングデータを用いて前記データ特徴拡張ネットワークをトレーニングするステップと、を含む、
非一時的コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011054873.2 | 2020-09-28 | ||
CN202011054873.2A CN112200040A (zh) | 2020-09-28 | 2020-09-28 | 遮挡图像检测方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022055302A JP2022055302A (ja) | 2022-04-07 |
JP7167244B2 true JP7167244B2 (ja) | 2022-11-08 |
Family
ID=74008537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021083271A Active JP7167244B2 (ja) | 2020-09-28 | 2021-05-17 | 遮蔽された画像の検出方法、装置、及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11961278B2 (ja) |
EP (1) | EP3975046B1 (ja) |
JP (1) | JP7167244B2 (ja) |
KR (1) | KR102545408B1 (ja) |
CN (1) | CN112200040A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220237405A1 (en) * | 2021-01-28 | 2022-07-28 | Macronix International Co., Ltd. | Data recognition apparatus and recognition method thereof |
CN113435358B (zh) * | 2021-06-30 | 2023-08-11 | 北京百度网讯科技有限公司 | 用于训练模型的样本生成方法、装置、设备、程序产品 |
CN113378980B (zh) * | 2021-07-02 | 2023-05-09 | 西安电子科技大学 | 基于自适应上下文注意力机制的口罩遮挡人脸恢复方法 |
CN117372705A (zh) * | 2022-06-28 | 2024-01-09 | 脸萌有限公司 | 模型训练方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019110474A (ja) | 2017-12-19 | 2019-07-04 | セコム株式会社 | 不審者検知装置 |
WO2020065908A1 (ja) | 2018-09-28 | 2020-04-02 | 日本電気株式会社 | パターン認識装置、パターン認識方法およびパターン認識プログラム |
US20200279105A1 (en) | 2018-12-31 | 2020-09-03 | Dathena Science Pte Ltd | Deep learning engine and methods for content and context aware data classification |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2816797A1 (en) * | 2013-06-19 | 2014-12-24 | BlackBerry Limited | Device for detecting a camera obstruction |
US10552714B2 (en) * | 2018-03-16 | 2020-02-04 | Ebay Inc. | Generating a digital image using a generative adversarial network |
US10311335B1 (en) * | 2018-09-05 | 2019-06-04 | StradVision, Inc. | Method and device for generating image data set to be used for learning CNN capable of detecting obstruction in autonomous driving circumstance, and testing method, and testing device using the same |
CN109951635B (zh) * | 2019-03-18 | 2021-01-12 | Oppo广东移动通信有限公司 | 拍照处理方法、装置、移动终端以及存储介质 |
WO2021055457A1 (en) * | 2019-09-16 | 2021-03-25 | Assurant, Inc. | System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status |
CN111046956A (zh) * | 2019-12-13 | 2020-04-21 | 苏州科达科技股份有限公司 | 遮挡图像检测方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-28 CN CN202011054873.2A patent/CN112200040A/zh active Pending
-
2021
- 2021-05-14 KR KR1020210062695A patent/KR102545408B1/ko active IP Right Grant
- 2021-05-17 JP JP2021083271A patent/JP7167244B2/ja active Active
- 2021-05-28 EP EP21176559.9A patent/EP3975046B1/en active Active
- 2021-05-31 US US17/334,941 patent/US11961278B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019110474A (ja) | 2017-12-19 | 2019-07-04 | セコム株式会社 | 不審者検知装置 |
WO2020065908A1 (ja) | 2018-09-28 | 2020-04-02 | 日本電気株式会社 | パターン認識装置、パターン認識方法およびパターン認識プログラム |
US20200279105A1 (en) | 2018-12-31 | 2020-09-03 | Dathena Science Pte Ltd | Deep learning engine and methods for content and context aware data classification |
Non-Patent Citations (2)
Title |
---|
Jiayuan Dong, 外3名,"occlusion-aware gan for face de-occlusion in the wild",2020 IEEE International Conference on Multimedia and Expo(ICME),2020年07月10日 |
Yu-An Chen, 外3名,"occlusion-aware face inpainting via generative adversarial networks",2017 IEEE International Conference on Image Processing(ICIP),2017年09月20日,p.1202-1206 |
Also Published As
Publication number | Publication date |
---|---|
US11961278B2 (en) | 2024-04-16 |
EP3975046B1 (en) | 2024-04-17 |
KR102545408B1 (ko) | 2023-06-20 |
JP2022055302A (ja) | 2022-04-07 |
CN112200040A (zh) | 2021-01-08 |
EP3975046A1 (en) | 2022-03-30 |
US20220101028A1 (en) | 2022-03-31 |
KR20220043004A (ko) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7167244B2 (ja) | 遮蔽された画像の検出方法、装置、及び媒体 | |
KR101772177B1 (ko) | 사진을 획득하기 위한 방법 및 장치 | |
US20170304735A1 (en) | Method and Apparatus for Performing Live Broadcast on Game | |
EP3179408A2 (en) | Picture processing method and apparatus, computer program and recording medium | |
JP6335289B2 (ja) | 画像フィルタを生成する方法及び装置 | |
EP2998960B1 (en) | Method and device for video browsing | |
WO2016192325A1 (zh) | 视频文件的标识处理方法及装置 | |
US11551465B2 (en) | Method and apparatus for detecting finger occlusion image, and storage medium | |
WO2020114236A1 (zh) | 关键点检测方法、装置、电子设备及存储介质 | |
KR20180037235A (ko) | 정보 처리 방법 및 장치 | |
KR20140089829A (ko) | 전자 장치에서 움직이는 사진 제어 장치 및 방법 | |
CN106412417A (zh) | 拍摄图像的方法及装置 | |
CN113506324B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
US11252341B2 (en) | Method and device for shooting image, and storage medium | |
CN113315903B (zh) | 图像获取方法和装置、电子设备、存储介质 | |
CN114565962A (zh) | 人脸图像处理方法及装置、电子设备和存储介质 | |
WO2023077755A1 (zh) | 行人信息确定方法、装置、车辆、电子设备及存储介质 | |
EP3945717A1 (en) | Take-off capture method and electronic device, and storage medium | |
CN114511754A (zh) | 样本图像生成方法、装置、电子设备及存储介质 | |
CN112784107A (zh) | 在视频中提取图片的方法、装置及存储介质 | |
CN110458962A (zh) | 一种图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7167244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |