JP2022500791A - 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022500791A JP2022500791A JP2021516440A JP2021516440A JP2022500791A JP 2022500791 A JP2022500791 A JP 2022500791A JP 2021516440 A JP2021516440 A JP 2021516440A JP 2021516440 A JP2021516440 A JP 2021516440A JP 2022500791 A JP2022500791 A JP 2022500791A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- area
- prediction
- image
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 26
- 238000004590 computer program Methods 0.000 title claims description 23
- 238000001514 detection method Methods 0.000 claims abstract description 131
- 238000000034 method Methods 0.000 claims abstract description 96
- 238000012549 training Methods 0.000 claims abstract description 87
- 238000012545 processing Methods 0.000 claims abstract description 85
- 230000008569 process Effects 0.000 claims abstract description 47
- 238000005070 sampling Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 18
- 238000012935 Averaging Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 22
- 230000000694 effects Effects 0.000 abstract description 15
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- REQCZEXYDRLIBE-UHFFFAOYSA-N procainamide Chemical compound CCN(CC)CCNC(=O)C1=CC=C(N)C=C1 REQCZEXYDRLIBE-UHFFFAOYSA-N 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示の一方面によれば、均衡化サブネットワークと検出サブネットワークとを含む検出ネットワークの前記均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、前記サンプル画像の均衡化特徴画像を取得することと、前記検出サブネットワークにより前記均衡化特徴画像に対して目標検出処理を行い、前記均衡化特徴画像内の目標オブジェクトの複数の予測領域を取得することと、前記複数の予測領域のそれぞれの、前記サンプル画像において目標オブジェクトの予測領域と対応のラベル付き領域との共通領域と和集合領域との面積比であるIoUを決定することと、各前記予測領域のIoUに基づいて、前記複数の予測領域をサンプリングして、目標領域を取得することと、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングすることと、を含む画像処理方法を提供する。
可能な一実現形態では、各前記予測領域のIoUに基づいて、複数の予測領域をサンプリングして、目標領域を取得することは、各前記予測領域のIoUに基づいて、前記複数の予測領域に対して分類処理を行い、複数の種別の予測領域を取得することと、前記種別ごとに予測領域のサンプリング処理をそれぞれ行い、前記目標領域を取得することと、を含む。
可能な一実現形態では、検出ネットワークの均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、均衡化特徴画像を取得することは、サンプル画像に対して特徴抽出処理を行い、複数の第1特徴マップを取得し、前記複数の第1特徴マップのうち少なくとも1つの第1特徴マップの解像度は他の第1特徴マップの解像度と異なることと、前記複数の第1特徴マップに対して均衡化処理を行い、第2特徴マップを取得することと、前記第2特徴マップ及び前記複数の第1特徴マップに基づいて、複数の均衡化特徴画像を取得することと、を含む。
可能な一実現形態では、前記複数の第1特徴マップに対して均衡化処理を行い、第2特徴マップを取得することは、前記複数の第1特徴マップのそれぞれに対して拡大縮小処理を行い、予め設定された解像度の複数の第3特徴マップを取得することと、前記複数の第3特徴マップに対して平均化処理を行い、第4特徴マップを取得することと、前記第4特徴マップに対して特徴抽出処理を行い、前記第2特徴マップを取得することと、を含む。
可能な一実現形態では、前記第2特徴マップ及び前記複数の第1特徴マップに基づいて、複数の均衡化特徴画像を取得することは、前記第2特徴マップに対して拡大縮小処理を行い、各前記第1特徴マップに対応する特徴マップであって、対応の前記第1特徴マップと解像度が同じである第5特徴マップをそれぞれ取得することと、各前記第1特徴マップと対応の前記第5特徴マップとをそれぞれスキップ接続して、前記均衡化特徴画像を取得することと、を含む。
可能な一実現形態では、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングすることは、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定することと、前記認識損失及び前記位置損失に基づいて前記検出ネットワークのネットワークパラメータを調整することと、トレーニング条件が満たされる場合、トレーニング後の検出ネットワークを取得することと、を含む。
可能な一実現形態では、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定することは、前記目標領域と前記ラベル付き領域との間の位置誤差を決定することと、前記位置誤差が予め設定された閾値未満である場合、前記位置誤差に基づいて前記位置損失を決定することと、を含む。
可能な一実現形態では、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定することは、前記目標領域と前記ラベル付き領域との間の位置誤差を決定することと、前記位置誤差が予め設定された閾値以上である場合、予め設定された値に基づいて前記位置損失を決定することと、を含む。
本開示の別の方面によれば、前記画像処理方法によってトレーニングした検出ネットワークに検出対象画像を入力して処理し、目標オブジェクトの位置情報を取得することを含む画像処理方法を提供する。
本開示の別の方面によれば、均衡化サブネットワークと検出サブネットワークとを含む検出ネットワークの前記均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、前記サンプル画像の均衡化特徴画像を取得するために用いられる均衡化モジュールと、検出サブネットワークにより前記均衡化特徴画像に対して目標検出処理を行い、前記均衡化特徴画像内の目標オブジェクトの複数の予測領域を取得するための検出モジュールと、前記複数の予測領域のそれぞれの、前記サンプル画像において目標オブジェクトの予測領域と対応のラベル付き領域との共通領域と和集合領域との面積比であるIoUをそれぞれ決定するために用いられる決定モジュールと、各前記予測領域のIoUに基づいて、複数の予測領域をサンプリングして、目標領域を取得するために用いられるサンプリングモジュールと、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングするために用いられるトレーニングモジュールと、を含む画像処理装置を提供する。
可能な一実現形態では、前記サンプリングモジュールは、さらに、各前記予測領域のIoUに基づいて、前記複数の予測領域に対して分類処理を行い、複数の種別の予測領域を取得し、各種別ごとに前記予測領域のサンプリング処理をそれぞれ行い、前記目標領域を取得するように構成される。
可能な一実現形態では、前記均衡化モジュールは、さらに、サンプル画像に対して特徴抽出処理を行い、複数の第1特徴マップを取得し、前記複数の第1特徴マップのうち少なくとも1つの第1特徴マップの解像度は他の第1特徴マップの解像度と異なり、前記複数の第1特徴マップに対して均衡化処理を行い、第2特徴マップを取得し、前記第2特徴マップ及び前記複数の第1特徴マップに基づいて、複数の均衡化特徴画像を取得するように構成される。
可能な一実現形態では、前記均衡化モジュールは、さらに、前記複数の第1特徴マップのそれぞれに対して拡大縮小処理を行い、予め設定された解像度の複数の第3特徴マップを取得し、前記複数の第3特徴マップに対して平均化処理を行い、第4特徴マップを取得し、前記第4特徴マップに対して特徴抽出処理を行い、前記第2特徴マップを取得するように構成される。
可能な一実現形態では、前記均衡化モジュールは、さらに、前記第2特徴マップに対して拡大縮小処理を行い、各前記第1特徴マップに対応する特徴マップであって、対応の前記第1特徴マップと解像度が同じである第5特徴マップをそれぞれ取得し、各前記第1特徴マップと対応の前記第5特徴マップとをそれぞれスキップ接続して、前記均衡化特徴画像を取得するように構成される。
可能な一実現形態では、前記トレーニングモジュールは、さらに、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定し、前記認識損失及び前記位置損失に基づいて前記検出ネットワークのネットワークパラメータを調整し、トレーニング条件が満たされる場合、トレーニング後の検出ネットワークを取得するように構成される。
可能な一実現形態では、前記トレーニングモジュールは、さらに、前記目標領域と前記ラベル付き領域との間の位置誤差を決定し、前記位置誤差が予め設定された閾値未満である場合、前記位置誤差に基づいて前記位置損失を決定するように構成される。
可能な一実現形態では、前記トレーニングモジュールは、さらに、前記目標領域と前記ラベル付き領域との間の位置誤差を決定し、前記位置誤差が予め設定された閾値以上である場合、予め設定された値に基づいて前記位置損失を決定するように構成される。
均衡化サブネットワークと検出サブネットワークとを含む検出ネットワークの前記均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、前記サンプル画像の均衡化特徴画像を取得するために用いられる均衡化モジュール11と、検出サブネットワークにより前記均衡化特徴画像に対して目標検出処理を行い、前記均衡化特徴画像内の目標オブジェクトの複数の予測領域を取得するための検出モジュール12と、前記複数の予測領域のそれぞれの、前記サンプル画像において目標オブジェクトの予測領域と対応のラベル付き領域との共通領域と和集合領域との面積比であるIoUをそれぞれ決定するために用いられる決定モジュール13と、各前記予測領域のIoUに基づいて、複数の予測領域をサンプリングして、目標領域を取得するために用いられるサンプリングモジュール14と、前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングするために用いられるトレーニングモジュール15と、を含む。
Claims (21)
- 均衡化サブネットワークと検出サブネットワークとを含む検出ネットワークの前記均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、前記サンプル画像の均衡化特徴画像を取得することと、
前記検出サブネットワークにより前記均衡化特徴画像に対して目標検出処理を行い、前記均衡化特徴画像内の目標オブジェクトの複数の予測領域を取得することと、
前記複数の予測領域のそれぞれの、前記サンプル画像において目標オブジェクトの予測領域と対応のラベル付き領域との共通領域と和集合領域との面積比であるIoUを決定することと、
各前記予測領域のIoUに基づいて、前記複数の予測領域をサンプリングして、目標領域を取得することと、
前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングすることと、を含むことを特徴とする画像処理方法。 - 各前記予測領域のIoUに基づいて、複数の予測領域をサンプリングして、目標領域を取得することは、
各前記予測領域のIoUに基づいて、前記複数の予測領域に対して分類処理を行い、複数の種別の予測領域を取得することと、
各種別ごとに前記予測領域のサンプリング処理をそれぞれ行い、前記目標領域を取得することと、を含むことを特徴とする請求項1に記載の方法。 - 検出ネットワークの均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、均衡化特徴画像を取得することは、
サンプル画像に対して特徴抽出処理を行い、複数の第1特徴マップを取得し、前記複数の第1特徴マップのうち少なくとも1つの第1特徴マップの解像度は他の第1特徴マップの解像度と異なることと、
前記複数の第1特徴マップに対して均衡化処理を行い、第2特徴マップを取得することと、
前記第2特徴マップ及び前記複数の第1特徴マップに基づいて、複数の均衡化特徴画像を取得することと、を含むことを特徴とする請求項1に記載の方法。 - 前記複数の第1特徴マップに対して均衡化処理を行い、第2特徴マップを取得することは、
前記複数の第1特徴マップのそれぞれに対して拡大縮小処理を行い、予め設定された解像度の複数の第3特徴マップを取得することと、
前記複数の第3特徴マップに対して平均化処理を行い、第4特徴マップを取得することと、
前記第4特徴マップに対して特徴抽出処理を行い、前記第2特徴マップを取得することと、を含むことを特徴とする請求項3に記載の方法。 - 前記第2特徴マップ及び前記複数の第1特徴マップに基づいて、複数の均衡化特徴画像を取得することは、
前記第2特徴マップに対して拡大縮小処理を行い、各前記第1特徴マップに対応する特徴マップであって、対応の前記第1特徴マップと解像度が同じである第5特徴マップをそれぞれ取得することと、
各前記第1特徴マップと対応の前記第5特徴マップとをそれぞれスキップ接続して、前記均衡化特徴画像を取得することと、を含むことを特徴とする請求項3又は請求項4に記載の方法。 - 前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングすることは、
前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定することと、
前記認識損失及び前記位置損失に基づいて前記検出ネットワークのネットワークパラメータを調整することと、
トレーニング条件が満たされる場合、トレーニング後の検出ネットワークを取得することと、を含むことを特徴とする請求項1に記載の方法。 - 前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定することは、
前記目標領域と前記ラベル付き領域との間の位置誤差を決定することと、
前記位置誤差が予め設定された閾値未満である場合、前記位置誤差に基づいて前記位置損失を決定することと、を含むことを特徴とする請求項6に記載の方法。 - 前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定することは、
前記目標領域と前記ラベル付き領域との間の位置誤差を決定することと、
前記位置誤差が予め設定された閾値以上である場合、予め設定された値に基づいて前記位置損失を決定することと、を含むことを特徴とする請求項6又は請求項7に記載の方法。 - 請求項1〜8のいずれか1項に記載の方法によってトレーニングした検出ネットワークに検出対象画像を入力して処理し、目標オブジェクトの位置情報を取得することを含むことを特徴とする画像処理方法。
- 均衡化サブネットワークと検出サブネットワークとを含む検出ネットワークの前記均衡化サブネットワークによりサンプル画像に対して特徴均衡化処理を行い、前記サンプル画像の均衡化特徴画像を取得するために用いられる均衡化モジュールと、
検出サブネットワークにより前記均衡化特徴画像に対して目標検出処理を行い、前記均衡化特徴画像内の目標オブジェクトの複数の予測領域を取得するために用いられる検出モジュールと、
前記複数の予測領域のそれぞれの、前記サンプル画像において目標オブジェクトの予測領域と対応のラベル付き領域との共通領域と和集合領域との面積比であるIoUをそれぞれ決定するために用いられる決定モジュールと、
各前記予測領域のIoUに基づいて、複数の予測領域をサンプリングして、目標領域を取得するために用いられるサンプリングモジュールと、
前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークをトレーニングするために用いられるトレーニングモジュールと、を含むことを特徴とする画像処理装置。 - 前記サンプリングモジュールは、さらに、
各前記予測領域のIoUに基づいて、前記複数の予測領域に対して分類処理を行い、複数の種別の予測領域を取得し、
各種別ごとに前記予測領域のサンプリング処理をそれぞれ行い、前記目標領域を取得するように構成されることを特徴とする請求項10に記載の方法。 - 前記均衡化モジュールは、さらに、
サンプル画像に対して特徴抽出処理を行い、複数の第1特徴マップを取得し、前記複数の第1特徴マップのうち少なくとも1つの第1特徴マップの解像度は他の第1特徴マップの解像度と異なり、
前記複数の第1特徴マップに対して均衡化処理を行い、第2特徴マップを取得し、
前記第2特徴マップ及び前記複数の第1特徴マップに基づいて、複数の均衡化特徴画像を取得するように構成されることを特徴とする請求項10に記載の方法。 - 前記均衡化モジュールは、さらに、
前記複数の第1特徴マップのそれぞれに対して拡大縮小処理を行い、予め設定された解像度の複数の第3特徴マップを取得し、
前記複数の第3特徴マップに対して平均化処理を行い、第4特徴マップを取得し、
前記第4特徴マップに対して特徴抽出処理を行い、前記第2特徴マップを取得するように構成されることを特徴とする請求項12に記載の方法。 - 前記均衡化モジュールは、さらに、
前記第2特徴マップに対して拡大縮小処理を行い、各前記第1特徴マップに対応する特徴マップであって、対応の前記第1特徴マップと解像度が同じである第5特徴マップをそれぞれ取得し、
各前記第1特徴マップと対応の前記第5特徴マップとをそれぞれスキップ接続して、前記均衡化特徴画像を取得するように構成されることを特徴とする請求項12又は請求項13に記載の方法。 - 前記トレーニングモジュールは、さらに、
前記目標領域及び前記ラベル付き領域に基づいて、前記検出ネットワークの認識損失と位置損失とを決定し、
前記認識損失及び前記位置損失に基づいて前記検出ネットワークのネットワークパラメータを調整し、
トレーニング条件が満たされる場合、トレーニング後の検出ネットワークを取得するように構成されることを特徴とする請求項10に記載の方法。 - 前記トレーニングモジュールは、さらに、
前記目標領域と前記ラベル付き領域との間の位置誤差を決定し、
前記位置誤差が予め設定された閾値未満である場合、前記位置誤差に基づいて前記位置損失を決定するように構成されることを特徴とする請求項15に記載の方法。 - 前記トレーニングモジュールは、さらに、
前記目標領域と前記ラベル付き領域との間の位置誤差を決定し、
前記位置誤差が予め設定された閾値以上である場合、予め設定された値に基づいて前記位置損失を決定するように構成されることを特徴とする請求項15又は請求項16に記載の方法。 - 請求項10〜17のいずれか1項に記載の装置によってトレーニングした検出ネットワークに検出対象画像を入力して処理し、目標オブジェクトの位置情報を取得するために用いられる取得モジュールを含むことを特徴とする画像処理装置。
- プロセッサと、
プロセッサにより実行可能な命令を記憶するためのメモリと、を含み、
前記プロセッサは、請求項1から請求項9のいずれか1項に記載の方法を実行するように構成されることを特徴とする電子機器。 - コンピュータプログラム命令が記憶されているコンピュータ読み取り可能記憶媒体であって、前記コンピュータプログラム命令は、プロセッサにより実行されると、請求項1から請求項9のいずれか1項に記載の方法を実現させることを特徴とするコンピュータ読み取り可能記憶媒体。
- コンピュータ読み取り可能コードを含み、前記コンピュータ読み取り可能コードは、電子機器において実行されると、前記電子機器のプロセッサに請求項1から請求項9のいずれか1項に記載の方法を実現するための命令を実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910103611.1A CN109829501B (zh) | 2019-02-01 | 2019-02-01 | 图像处理方法及装置、电子设备和存储介质 |
CN201910103611.1 | 2019-02-01 | ||
PCT/CN2019/121696 WO2020155828A1 (zh) | 2019-02-01 | 2019-11-28 | 图像处理方法及装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022500791A true JP2022500791A (ja) | 2022-01-04 |
Family
ID=66863324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021516440A Pending JP2022500791A (ja) | 2019-02-01 | 2019-11-28 | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210209392A1 (ja) |
JP (1) | JP2022500791A (ja) |
CN (1) | CN109829501B (ja) |
SG (1) | SG11202102977SA (ja) |
TW (1) | TWI728621B (ja) |
WO (1) | WO2020155828A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829501B (zh) * | 2019-02-01 | 2021-02-19 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110298413B (zh) * | 2019-07-08 | 2021-07-16 | 北京字节跳动网络技术有限公司 | 图像特征提取方法、装置、存储介质及电子设备 |
CN110659600B (zh) * | 2019-09-19 | 2022-04-29 | 北京百度网讯科技有限公司 | 物体检测方法、装置及设备 |
CN111178346B (zh) * | 2019-11-22 | 2023-12-08 | 京东科技控股股份有限公司 | 文字区域的定位方法、装置、设备及存储介质 |
US11842509B2 (en) * | 2019-12-24 | 2023-12-12 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN111104920B (zh) * | 2019-12-27 | 2023-12-01 | 深圳市商汤科技有限公司 | 视频处理方法及装置、电子设备和存储介质 |
SG10201913754XA (en) * | 2019-12-30 | 2020-12-30 | Sensetime Int Pte Ltd | Image processing method and apparatus, electronic device, and storage medium |
CN111310764B (zh) * | 2020-01-20 | 2024-03-26 | 上海商汤智能科技有限公司 | 网络训练、图像处理方法及装置、电子设备和存储介质 |
CN113781665A (zh) * | 2020-07-28 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 一种标注信息的审核方法和装置 |
CN112016443B (zh) * | 2020-08-26 | 2022-04-26 | 深圳市商汤科技有限公司 | 同行识别方法及装置、电子设备和存储介质 |
CN111950570B (zh) * | 2020-08-26 | 2023-11-21 | Oppo广东移动通信有限公司 | 目标图像提取方法、神经网络训练方法及装置 |
CN111768408B (zh) * | 2020-09-01 | 2020-11-27 | 安翰科技(武汉)股份有限公司 | 胃肠标记物自动识别方法及识别系统 |
CN112184635A (zh) * | 2020-09-10 | 2021-01-05 | 上海商汤智能科技有限公司 | 目标检测方法、装置、存储介质及设备 |
TWI761948B (zh) * | 2020-09-14 | 2022-04-21 | 倍利科技股份有限公司 | 由檢測影像取得輪廓的定位方法 |
CN112183627A (zh) * | 2020-09-28 | 2021-01-05 | 中星技术股份有限公司 | 生成预测密度图网络的方法和车辆年检标数量检测方法 |
CN112308046A (zh) * | 2020-12-02 | 2021-02-02 | 龙马智芯(珠海横琴)科技有限公司 | 图像的文本区域定位方法、装置、服务器及可读存储介质 |
CN112801116B (zh) * | 2021-01-27 | 2024-05-21 | 商汤集团有限公司 | 图像的特征提取方法及装置、电子设备和存储介质 |
CN112906502B (zh) * | 2021-01-29 | 2023-08-01 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、装置、设备以及存储介质 |
CN113011435A (zh) * | 2021-02-04 | 2021-06-22 | 精英数智科技股份有限公司 | 目标对象的图像处理方法、装置及电子设备 |
CN112818932A (zh) * | 2021-02-26 | 2021-05-18 | 北京车和家信息技术有限公司 | 图像处理方法、障碍物检测方法、装置、介质及车辆 |
CN113486957A (zh) * | 2021-07-07 | 2021-10-08 | 西安商汤智能科技有限公司 | 神经网络训练和图像处理方法及装置 |
CN113506325B (zh) * | 2021-07-15 | 2024-04-12 | 清华大学 | 图像处理方法及装置、电子设备和存储介质 |
CN113674218A (zh) * | 2021-07-28 | 2021-11-19 | 中国科学院自动化研究所 | 焊缝特征点提取方法、装置、电子设备与存储介质 |
CN113469302A (zh) * | 2021-09-06 | 2021-10-01 | 南昌工学院 | 一种视频图像的多圆形目标识别方法和系统 |
CN113762393B (zh) * | 2021-09-08 | 2024-04-30 | 杭州网易智企科技有限公司 | 模型训练方法、注视点检测方法、介质、装置和计算设备 |
CN113902898A (zh) * | 2021-09-29 | 2022-01-07 | 北京百度网讯科技有限公司 | 目标检测模型的训练、目标检测方法、装置、设备和介质 |
CN114463860B (zh) * | 2021-12-14 | 2023-05-23 | 浙江大华技术股份有限公司 | 检测模型的训练方法、活体检测方法及相关装置 |
CN115359308B (zh) * | 2022-04-06 | 2024-02-13 | 北京百度网讯科技有限公司 | 模型训练、难例识别方法、装置、设备、存储介质及程序 |
CN115359058B (zh) * | 2022-10-20 | 2023-04-07 | 江苏时代新能源科技有限公司 | 电池隔膜的翻折检测方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017520864A (ja) * | 2014-04-09 | 2017-07-27 | エントルピー インコーポレーテッドEntrupy Inc. | 微視的差異からの機械学習を使用する物体の真贋鑑定 |
US20180096457A1 (en) * | 2016-09-08 | 2018-04-05 | Carnegie Mellon University | Methods and Software For Detecting Objects in Images Using a Multiscale Fast Region-Based Convolutional Neural Network |
JP2018534694A (ja) * | 2015-11-04 | 2018-11-22 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | 物体検出のためのサブカテゴリ認識機能付き畳み込みニューラルネットワーク |
JP2019500110A (ja) * | 2015-12-18 | 2019-01-10 | ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア | 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106164982B (zh) * | 2014-04-25 | 2019-05-03 | 谷歌技术控股有限责任公司 | 基于影像的电子设备定位 |
US9836839B2 (en) * | 2015-05-28 | 2017-12-05 | Tokitae Llc | Image analysis systems and related methods |
CN105654067A (zh) * | 2016-02-02 | 2016-06-08 | 北京格灵深瞳信息技术有限公司 | 一种车辆检测方法及装置 |
US10325351B2 (en) * | 2016-03-11 | 2019-06-18 | Qualcomm Technologies, Inc. | Systems and methods for normalizing an image |
US9787894B1 (en) * | 2016-03-30 | 2017-10-10 | Motorola Mobility Llc | Automatic white balance using histograms from subsampled image |
CN106529565B (zh) * | 2016-09-23 | 2019-09-13 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
CN106874894B (zh) * | 2017-03-28 | 2020-04-14 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
CN107169421B (zh) * | 2017-04-20 | 2020-04-28 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107609525B (zh) * | 2017-09-19 | 2020-05-22 | 吉林大学 | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 |
CN108062754B (zh) * | 2018-01-19 | 2020-08-25 | 深圳大学 | 基于密集网络图像的分割、识别方法和装置 |
US20190251627A1 (en) * | 2018-02-11 | 2019-08-15 | Loopring Project Ltd | Methods and systems for digital asset transaction |
CN108764164B (zh) * | 2018-05-30 | 2020-12-08 | 华中科技大学 | 一种基于可变形卷积网络的人脸检测方法及系统 |
CN108764202B (zh) * | 2018-06-06 | 2023-04-18 | 平安科技(深圳)有限公司 | 机场异物识别方法、装置、计算机设备及存储介质 |
CN109829501B (zh) * | 2019-02-01 | 2021-02-19 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
-
2019
- 2019-02-01 CN CN201910103611.1A patent/CN109829501B/zh active Active
- 2019-11-28 WO PCT/CN2019/121696 patent/WO2020155828A1/zh active Application Filing
- 2019-11-28 JP JP2021516440A patent/JP2022500791A/ja active Pending
- 2019-11-28 SG SG11202102977SA patent/SG11202102977SA/en unknown
- 2019-12-25 TW TW108147606A patent/TWI728621B/zh active
-
2021
- 2021-03-23 US US17/209,384 patent/US20210209392A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017520864A (ja) * | 2014-04-09 | 2017-07-27 | エントルピー インコーポレーテッドEntrupy Inc. | 微視的差異からの機械学習を使用する物体の真贋鑑定 |
JP2018534694A (ja) * | 2015-11-04 | 2018-11-22 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | 物体検出のためのサブカテゴリ認識機能付き畳み込みニューラルネットワーク |
JP2019500110A (ja) * | 2015-12-18 | 2019-01-10 | ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア | 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 |
US20180096457A1 (en) * | 2016-09-08 | 2018-04-05 | Carnegie Mellon University | Methods and Software For Detecting Objects in Images Using a Multiscale Fast Region-Based Convolutional Neural Network |
Also Published As
Publication number | Publication date |
---|---|
TWI728621B (zh) | 2021-05-21 |
US20210209392A1 (en) | 2021-07-08 |
TW202030694A (zh) | 2020-08-16 |
SG11202102977SA (en) | 2021-04-29 |
CN109829501A (zh) | 2019-05-31 |
WO2020155828A1 (zh) | 2020-08-06 |
CN109829501B (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022500791A (ja) | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
KR102593020B1 (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
KR102421820B1 (ko) | 키포인트 검출 방법, 장치, 전자 기기 및 기억 매체 | |
US11301726B2 (en) | Anchor determination method and apparatus, electronic device, and storage medium | |
CN110378976B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
WO2021051650A1 (zh) | 人脸和人手关联检测方法及装置、电子设备和存储介质 | |
JP2022522596A (ja) | 画像識別方法及び装置、電子機器並びに記憶媒体 | |
CN110009090B (zh) | 神经网络训练与图像处理方法及装置 | |
KR20210102180A (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
JP2021517649A (ja) | 位置姿勢推定方法、装置、電子機器及び記憶媒体 | |
CN108010060B (zh) | 目标检测方法及装置 | |
JP2022522551A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP2022506637A (ja) | 画像処理方法および装置、ネットワークトレーニング方法および装置 | |
KR20220062107A (ko) | 광 강도 조절 방법, 장치, 전자 기기 및 기억 매체 | |
JP2022515274A (ja) | 検出器の配置方法、検出器の配置装置及び非一時的コンピュータ可読記憶媒体 | |
CN113841179A (zh) | 图像生成方法及装置、电子设备及存储介质 | |
CN111523599B (zh) | 目标检测方法及装置、电子设备和存储介质 | |
JP2022524254A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
WO2022141969A1 (zh) | 图像分割方法及装置、电子设备、存储介质和程序 | |
CN113283343A (zh) | 人群定位方法及装置、电子设备和存储介质 | |
KR20210113617A (ko) | 네트워크 트레이닝 방법 및 장치, 이미지 처리 방법 및 장치 | |
CN111008606B (zh) | 图像预测方法及装置、电子设备和存储介质 | |
CN113435390A (zh) | 人群定位方法及装置、电子设备和存储介质 | |
CN112200201A (zh) | 一种目标检测方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220819 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221011 |