JP2022522242A - 画像処理方法及び装置、電子機器、並びにコンピュータ可読記憶媒体 - Google Patents
画像処理方法及び装置、電子機器、並びにコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2022522242A JP2022522242A JP2021565759A JP2021565759A JP2022522242A JP 2022522242 A JP2022522242 A JP 2022522242A JP 2021565759 A JP2021565759 A JP 2021565759A JP 2021565759 A JP2021565759 A JP 2021565759A JP 2022522242 A JP2022522242 A JP 2022522242A
- Authority
- JP
- Japan
- Prior art keywords
- target
- shielded
- image
- shielding
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 50
- 238000010586 diagram Methods 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims description 130
- 238000000034 method Methods 0.000 claims description 26
- 230000000295 complement effect Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 6
- 238000002372 labelling Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は出願番号202010093403.0であり、出願日が2020年2月14日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全てが参照によって本開示に組み込まれる。
前記第1サンプル画像で前記第2サンプル画像の一部を遮蔽し、前記第1サンプル画像、遮蔽後の第2サンプル画像を前記訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の輪郭が変わらないことを保持する目的で調整するステップを含む。
目標画像を取得するように構成される画像取得モジュール810と、
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するように構成される遮蔽特定モジュール820であって、隣接する目標対象のモーダルマスクが繋がっている遮蔽特定モジュールと、
前記目標画像内の任意の被遮蔽目標対象に対して、前記遮蔽関係に基づき、前記目標画像から該被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するように構成される対象選別モジュール830と、
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報及び被遮蔽部分の輪郭内における各画素点の画像情報を特定するように構成されるマスク処理モジュール840であって、1つの目標対象のモーダルマスクは該目標対象の、他の目標対象に遮蔽されていないマスク情報を含むマスク処理モジュールと、を含んでもよい。
前記目標画像から隣接する対象対を選別し、ここで1つの隣接する対象対は2つの隣接する目標対象を含み、
前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完し、
各目標対象の補完後の全体輪郭及び補完前の全体輪郭に基づき、前記隣接する対象対内の2つの隣接する目標対象の間の遮蔽関係を特定するように構成される。
第1ニューラルネットワークにより、前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するように構成される。
前記目標遮蔽対象のモーダルマスクの和集合を特定し、
前記第1ニューラルネットワークにより、前記和集合に対応する画像、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するように構成される。
第1サンプル対象のモーダルマスクに対応する第1サンプル画像及び第2サンプル対象のモーダルマスクに対応する第2サンプル画像を取得し、
前記第2サンプル画像で前記第1サンプル画像の一部を遮蔽し、前記第1サンプル画像、前記第2サンプル画像、遮蔽後の第1サンプル画像を訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の前記第2サンプル画像に遮蔽された輪郭を補完する目的で調整するように構成される。
前記被遮蔽目標対象のモーダルマスク及び前記被遮蔽目標対象の被遮蔽部分の輪郭情報に基づき、前記被遮蔽目標対象の非モーダルマスクを特定し、ここで1つの目標対象の非モーダルマスクは、該目標対象の他の目標対象に遮蔽されていないマスク情報及び該目標対象の他の目標対象に遮蔽されたマスク情報を含み、
前記目標遮蔽対象のモーダルマスクの和集合を特定し、
前記和集合と前記被遮蔽目標対象の非モーダルマスクとの第1共通部分を特定し、
前記第1共通部分に対応する画像で部分目標画像を遮蔽し、ここで前記部分目標画像は、前記目標画像において前記被遮蔽目標対象を中心として、前記被遮蔽目標対象周囲の画素点を含む部分であり、
前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するように構成される。
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定し、ここで隣接する目標対象のモーダルマスクが繋がっており、
前記目標画像内の任意の被遮蔽目標対象に対して、前記遮蔽関係に基づき、前記目標画像から該被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別し、
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報及び被遮蔽部分の輪郭内における各画素点の画像情報を特定し、ここで目標対象のモーダルマスクは該目標対象の、他の目標対象に遮蔽されていないマスク情報を含む。
例えば、本願は以下の項目を提供する。
(項目1)
目標画像を取得するステップと、
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するステップであって、隣接する目標対象のモーダルマスクが繋がっているステップと、
前記目標画像内の任意の被遮蔽目標対象に対して、前記遮蔽関係に基づき、前記目標画像から該被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するステップと、
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報及び被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップであって、1つの目標対象のモーダルマスクは該目標対象の、他の目標対象に遮蔽されていないマスク情報を含むステップと、を含む、画像処理方法。
(項目2)
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するステップは、
前記目標画像から隣接する対象対を選別するステップであって、1つの隣接する対象対は2つの隣接する目標対象を含むステップと、
前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するステップと、
各目標対象の補完後の全体輪郭及び補完前の全体輪郭に基づき、前記隣接する対象対内の2つの隣接する目標対象の間の遮蔽関係を特定するステップと、を含む、
項目1に記載の画像処理方法。
(項目3)
前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するステップは、第1ニューラルネットワークにより実行される、
項目2に記載の画像処理方法。
(項目4)
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するステップは、
前記目標遮蔽対象のモーダルマスクの和集合を特定するステップと、
前記第1ニューラルネットワークにより、前記和集合に対応する画像、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するステップと、を含む、
項目3に記載の画像処理方法。
(項目5)
前記第1ニューラルネットワークは、
第1サンプル対象のモーダルマスクに対応する第1サンプル画像及び第2サンプル対象のモーダルマスクに対応する第2サンプル画像を取得するステップと、
前記第2サンプル画像で前記第1サンプル画像の一部を遮蔽し、前記第1サンプル画像、前記第2サンプル画像、遮蔽後の第1サンプル画像を訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の前記第2サンプル画像に遮蔽された輪郭を補完する目的で調整するステップと、を用いて訓練して得られる、
項目3に記載の画像処理方法。
(項目6)
前記第1ニューラルネットワークの訓練は、さらに、
前記第1サンプル画像で前記第2サンプル画像の一部を遮蔽し、前記第1サンプル画像、遮蔽後の第2サンプル画像を前記訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の輪郭が変わらないことを保持する目的で調整するステップを含む、
項目5に記載の画像処理方法。
(項目7)
前記遮蔽関係に基づき、前記目標画像から前記被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するステップは、
前記遮蔽関係に基づき、前記目標画像から、前記被遮蔽目標対象との遮蔽関係を有する少なくとも1つの階層の目標遮蔽対象を選別するステップであって、第1階層の目標遮蔽対象は前記被遮蔽目標対象を遮蔽し、他の階層の目標遮蔽対象は1個前の階層の目標遮蔽対象を遮蔽するステップを含む、
項目1に記載の画像処理方法。
(項目8)
前記目標画像から、前記被遮蔽目標対象との遮蔽関係を有する少なくとも1つの階層の目標遮蔽対象を選別するステップは、
前記遮蔽関係に基づき、前記目標画像に対応する遮蔽方向図を作成するステップであって、前記遮蔽方向図内のノードは他の目標対象と隣接する目標対象であり、前記遮蔽方向図内のリンクは、2つの隣接する目標対象内の1つの目標対象から被遮蔽目標対象へ指すステップと、
前記遮蔽方向図に基づき、1つの被遮蔽目標対象に対応するノードの全階層の親ノードを特定するステップと、
特定された各階層の親ノードに対応する目標対象を、前記被遮蔽目標対象の各階層の目標遮蔽対象とするステップと、を含む、
項目7に記載の画像処理方法。
(項目9)
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップは、
前記被遮蔽目標対象のモーダルマスク及び前記被遮蔽目標対象の被遮蔽部分の輪郭情報に基づき、前記被遮蔽目標対象の非モーダルマスクを特定するステップであって、1つの目標対象の非モーダルマスクは、該目標対象の他の目標対象に遮蔽されていないマスク情報及び該目標対象の他の目標対象に遮蔽されたマスク情報を含むステップと、
前記目標遮蔽対象のモーダルマスクの和集合を特定するステップと、
前記和集合と前記被遮蔽目標対象の非モーダルマスクとの第1共通部分を特定するステップと、
前記第1共通部分に対応する画像で部分目標画像を遮蔽するステップであって、前記部分目標画像は、前記目標画像において前記被遮蔽目標対象を中心として、前記被遮蔽目標対象周囲の画素点を含む部分であるステップと、
前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップと、を含む、
項目1に記載の画像処理方法。
(項目10)
前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップは、第2ニューラルネットワークにより実行される、
項目9に記載の画像処理方法。
(項目11)
前記第2ニューラルネットワークは、
第3サンプル対象のモーダルマスクに対応する第3サンプル画像及び第4サンプル対象のモーダルマスクに対応する第4サンプル画像を取得するステップと、
前記第4サンプル画像で前記第3サンプル画像の一部を遮蔽した後、前記第3サンプル対象のモーダルマスクと前記第4サンプル対象のモーダルマスクとの第2共通部分を特定するステップと、
遮蔽された前記第3サンプル画像、前記第2共通部分に対応する画像に基づき、訓練対象である第2ニューラルネットワークのネットワークパラメータを、前記第3サンプル画像の被遮蔽部分の各画素点の画像情報を補完する目的で調整するステップと、を用いて訓練して得られる、
項目10に記載の画像処理方法。
(項目12)
遮蔽された前記第3サンプル画像、前記第2共通部分に対応する画像に基づき、訓練対象である第2ニューラルネットワークのネットワークパラメータを、前記第3サンプル画像の被遮蔽部分の各画素点の画像情報を補完する目的で調整するステップは、
前記第3サンプル対象に対応する第5サンプル画像を取得するステップであって、前記第5サンプル画像は前記第3サンプル対象を画像の中心とした画像であり、前記第3サンプル対象及び前記第3サンプル対象周囲の画素点を含むステップと、
前記第2共通部分に対応する画像で前記第5サンプル画像の一部を遮蔽するステップと、
遮蔽された前記第3サンプル画像及び遮蔽された前記第5サンプル画像に基づき、前記訓練対象である第2ニューラルネットワークのネットワークパラメータを、前記第3サンプル画像の被遮蔽部分の各画素点の画像情報を補完する目的で調整するステップと、を含む、
項目11に記載の画像処理方法。
(項目13)
目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するように構成される遮蔽特定モジュールであって、隣接する目標対象のモーダルマスクが繋がっている遮蔽特定モジュールと、
前記目標画像内の任意の被遮蔽目標対象に対して、前記遮蔽関係に基づき、前記目標画像から該被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するように構成される対象選別モジュールと、
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報及び被遮蔽部分の輪郭内における各画素点の画像情報を特定するように構成されるマスク処理モジュールであって、1つの目標対象のモーダルマスクは該目標対象の、他の目標対象に遮蔽されていないマスク情報を含むマスク処理モジュールと、を含む、画像処理装置。
(項目14)
前記遮蔽特定モジュールは、
前記目標画像から隣接する対象対を選別し、1つの隣接する対象対は2つの隣接する目標対象を含み、
前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完し、
各目標対象の補完後の全体輪郭及び補完前の全体輪郭に基づき、前記隣接する対象対内の2つの隣接する目標対象の間の遮蔽関係を特定するように構成される、
項目13に記載の画像処理装置。
(項目15)
前記遮蔽特定モジュールは、前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完する場合、
第1ニューラルネットワークにより、前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するように構成される、
項目14に記載の画像処理装置。
(項目16)
前記マスク処理モジュールは、前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定する場合、
前記目標遮蔽対象のモーダルマスクの和集合を特定し、
前記第1ニューラルネットワークにより、前記和集合に対応する画像、前記被遮蔽目標対象のモーダルマスクに基づいて前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するように構成される、
項目15に記載の画像処理装置。
(項目17)
さらに、前記第1ニューラルネットワークを訓練するネットワーク訓練モジュールを含み、前記ネットワーク訓練モジュールは、
第1サンプル対象のモーダルマスクに対応する第1サンプル画像及び第2サンプル対象のモーダルマスクに対応する第2サンプル画像を取得し、
前記第2サンプル画像で前記第1サンプル画像の一部を遮蔽し、前記第1サンプル画像、前記第2サンプル画像、遮蔽後の第1サンプル画像を訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の前記第2サンプル画像に遮蔽された輪郭を補完する目的で調整するように構成される、
項目15に記載の画像処理装置。
(項目18)
前記マスク処理モジュールは、前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定する場合、
前記被遮蔽目標対象のモーダルマスク及び前記被遮蔽目標対象の被遮蔽部分の輪郭情報に基づき、前記被遮蔽目標対象の非モーダルマスクを特定し、目標対象の非モーダルマスクは、該目標対象の他の目標対象に遮蔽されていないマスク情報及び該目標対象の他の目標対象に遮蔽されたマスク情報を含み、
前記目標遮蔽対象のモーダルマスクの和集合を特定し、
前記和集合と前記被遮蔽目標対象の非モーダルマスクとの第1共通部分を特定し、
前記第1共通部分に対応する画像で部分目標画像を遮蔽し、前記部分目標画像は、前記目標画像において前記被遮蔽目標対象を中心として、前記被遮蔽目標対象周囲の画素点を含む部分であり、
前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するように構成される、
項目13に記載の画像処理装置。
(項目19)
プロセッサ、記憶媒体及びバスを含む電子機器であって、前記記憶媒体には前記プロセッサにより実行可能な機械可読命令が記憶されており、前記電子機器が稼働する時、前記プロセッサと前記記憶媒体はバスを介して通信し、前記プロセッサは、項目1から12のいずれか1項に記載の画像処理方法を実行するように前記機械可読命令を実行する、電子機器。
(項目20)
プロセッサに、項目1から12のいずれか1項に記載の画像処理方法を実行させるコンピュータプログラムが記憶されている、コンピュータ可読記憶媒体。
Claims (20)
- 目標画像を取得するステップと、
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するステップであって、隣接する目標対象のモーダルマスクが繋がっているステップと、
前記目標画像内の任意の被遮蔽目標対象に対して、前記遮蔽関係に基づき、前記目標画像から該被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するステップと、
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報及び被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップであって、1つの目標対象のモーダルマスクは該目標対象の、他の目標対象に遮蔽されていないマスク情報を含むステップと、を含む、画像処理方法。 - 前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するステップは、
前記目標画像から隣接する対象対を選別するステップであって、1つの隣接する対象対は2つの隣接する目標対象を含むステップと、
前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するステップと、
各目標対象の補完後の全体輪郭及び補完前の全体輪郭に基づき、前記隣接する対象対内の2つの隣接する目標対象の間の遮蔽関係を特定するステップと、を含む、
請求項1に記載の画像処理方法。 - 前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するステップは、第1ニューラルネットワークにより実行される、
請求項2に記載の画像処理方法。 - 前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するステップは、
前記目標遮蔽対象のモーダルマスクの和集合を特定するステップと、
前記第1ニューラルネットワークにより、前記和集合に対応する画像、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するステップと、を含む、
請求項3に記載の画像処理方法。 - 前記第1ニューラルネットワークは、
第1サンプル対象のモーダルマスクに対応する第1サンプル画像及び第2サンプル対象のモーダルマスクに対応する第2サンプル画像を取得するステップと、
前記第2サンプル画像で前記第1サンプル画像の一部を遮蔽し、前記第1サンプル画像、前記第2サンプル画像、遮蔽後の第1サンプル画像を訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の前記第2サンプル画像に遮蔽された輪郭を補完する目的で調整するステップと、を用いて訓練して得られる、
請求項3に記載の画像処理方法。 - 前記第1ニューラルネットワークの訓練は、さらに、
前記第1サンプル画像で前記第2サンプル画像の一部を遮蔽し、前記第1サンプル画像、遮蔽後の第2サンプル画像を前記訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の輪郭が変わらないことを保持する目的で調整するステップを含む、
請求項5に記載の画像処理方法。 - 前記遮蔽関係に基づき、前記目標画像から前記被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するステップは、
前記遮蔽関係に基づき、前記目標画像から、前記被遮蔽目標対象との遮蔽関係を有する少なくとも1つの階層の目標遮蔽対象を選別するステップであって、第1階層の目標遮蔽対象は前記被遮蔽目標対象を遮蔽し、他の階層の目標遮蔽対象は1個前の階層の目標遮蔽対象を遮蔽するステップを含む、
請求項1に記載の画像処理方法。 - 前記目標画像から、前記被遮蔽目標対象との遮蔽関係を有する少なくとも1つの階層の目標遮蔽対象を選別するステップは、
前記遮蔽関係に基づき、前記目標画像に対応する遮蔽方向図を作成するステップであって、前記遮蔽方向図内のノードは他の目標対象と隣接する目標対象であり、前記遮蔽方向図内のリンクは、2つの隣接する目標対象内の1つの目標対象から被遮蔽目標対象へ指すステップと、
前記遮蔽方向図に基づき、1つの被遮蔽目標対象に対応するノードの全階層の親ノードを特定するステップと、
特定された各階層の親ノードに対応する目標対象を、前記被遮蔽目標対象の各階層の目標遮蔽対象とするステップと、を含む、
請求項7に記載の画像処理方法。 - 前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップは、
前記被遮蔽目標対象のモーダルマスク及び前記被遮蔽目標対象の被遮蔽部分の輪郭情報に基づき、前記被遮蔽目標対象の非モーダルマスクを特定するステップであって、1つの目標対象の非モーダルマスクは、該目標対象の他の目標対象に遮蔽されていないマスク情報及び該目標対象の他の目標対象に遮蔽されたマスク情報を含むステップと、
前記目標遮蔽対象のモーダルマスクの和集合を特定するステップと、
前記和集合と前記被遮蔽目標対象の非モーダルマスクとの第1共通部分を特定するステップと、
前記第1共通部分に対応する画像で部分目標画像を遮蔽するステップであって、前記部分目標画像は、前記目標画像において前記被遮蔽目標対象を中心として、前記被遮蔽目標対象周囲の画素点を含む部分であるステップと、
前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップと、を含む、
請求項1に記載の画像処理方法。 - 前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するステップは、第2ニューラルネットワークにより実行される、
請求項9に記載の画像処理方法。 - 前記第2ニューラルネットワークは、
第3サンプル対象のモーダルマスクに対応する第3サンプル画像及び第4サンプル対象のモーダルマスクに対応する第4サンプル画像を取得するステップと、
前記第4サンプル画像で前記第3サンプル画像の一部を遮蔽した後、前記第3サンプル対象のモーダルマスクと前記第4サンプル対象のモーダルマスクとの第2共通部分を特定するステップと、
遮蔽された前記第3サンプル画像、前記第2共通部分に対応する画像に基づき、訓練対象である第2ニューラルネットワークのネットワークパラメータを、前記第3サンプル画像の被遮蔽部分の各画素点の画像情報を補完する目的で調整するステップと、を用いて訓練して得られる、
請求項10に記載の画像処理方法。 - 遮蔽された前記第3サンプル画像、前記第2共通部分に対応する画像に基づき、訓練対象である第2ニューラルネットワークのネットワークパラメータを、前記第3サンプル画像の被遮蔽部分の各画素点の画像情報を補完する目的で調整するステップは、
前記第3サンプル対象に対応する第5サンプル画像を取得するステップであって、前記第5サンプル画像は前記第3サンプル対象を画像の中心とした画像であり、前記第3サンプル対象及び前記第3サンプル対象周囲の画素点を含むステップと、
前記第2共通部分に対応する画像で前記第5サンプル画像の一部を遮蔽するステップと、
遮蔽された前記第3サンプル画像及び遮蔽された前記第5サンプル画像に基づき、前記訓練対象である第2ニューラルネットワークのネットワークパラメータを、前記第3サンプル画像の被遮蔽部分の各画素点の画像情報を補完する目的で調整するステップと、を含む、
請求項11に記載の画像処理方法。 - 目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の隣接する目標対象の間の遮蔽関係を特定するように構成される遮蔽特定モジュールであって、隣接する目標対象のモーダルマスクが繋がっている遮蔽特定モジュールと、
前記目標画像内の任意の被遮蔽目標対象に対して、前記遮蔽関係に基づき、前記目標画像から該被遮蔽目標対象との遮蔽関係を有する目標遮蔽対象を選別するように構成される対象選別モジュールと、
前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報及び被遮蔽部分の輪郭内における各画素点の画像情報を特定するように構成されるマスク処理モジュールであって、1つの目標対象のモーダルマスクは該目標対象の、他の目標対象に遮蔽されていないマスク情報を含むマスク処理モジュールと、を含む、画像処理装置。 - 前記遮蔽特定モジュールは、
前記目標画像から隣接する対象対を選別し、1つの隣接する対象対は2つの隣接する目標対象を含み、
前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完し、
各目標対象の補完後の全体輪郭及び補完前の全体輪郭に基づき、前記隣接する対象対内の2つの隣接する目標対象の間の遮蔽関係を特定するように構成される、
請求項13に記載の画像処理装置。 - 前記遮蔽特定モジュールは、前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完する場合、
第1ニューラルネットワークにより、前記隣接する対象対内の一つの目標対象の、前記隣接する対象対内の別の目標対象に遮蔽された輪郭をそれぞれ補完するように構成される、
請求項14に記載の画像処理装置。 - 前記マスク処理モジュールは、前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定する場合、
前記目標遮蔽対象のモーダルマスクの和集合を特定し、
前記第1ニューラルネットワークにより、前記和集合に対応する画像、前記被遮蔽目標対象のモーダルマスクに基づいて前記被遮蔽目標対象の被遮蔽部分の輪郭情報を特定するように構成される、
請求項15に記載の画像処理装置。 - さらに、前記第1ニューラルネットワークを訓練するネットワーク訓練モジュールを含み、前記ネットワーク訓練モジュールは、
第1サンプル対象のモーダルマスクに対応する第1サンプル画像及び第2サンプル対象のモーダルマスクに対応する第2サンプル画像を取得し、
前記第2サンプル画像で前記第1サンプル画像の一部を遮蔽し、前記第1サンプル画像、前記第2サンプル画像、遮蔽後の第1サンプル画像を訓練対象である第1ニューラルネットワークに入力し、前記訓練対象である第1ニューラルネットワークのネットワークパラメータを、前記第1サンプル画像の前記第2サンプル画像に遮蔽された輪郭を補完する目的で調整するように構成される、
請求項15に記載の画像処理装置。 - 前記マスク処理モジュールは、前記目標遮蔽対象のモーダルマスク、前記被遮蔽目標対象のモーダルマスクに基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定する場合、
前記被遮蔽目標対象のモーダルマスク及び前記被遮蔽目標対象の被遮蔽部分の輪郭情報に基づき、前記被遮蔽目標対象の非モーダルマスクを特定し、目標対象の非モーダルマスクは、該目標対象の他の目標対象に遮蔽されていないマスク情報及び該目標対象の他の目標対象に遮蔽されたマスク情報を含み、
前記目標遮蔽対象のモーダルマスクの和集合を特定し、
前記和集合と前記被遮蔽目標対象の非モーダルマスクとの第1共通部分を特定し、
前記第1共通部分に対応する画像で部分目標画像を遮蔽し、前記部分目標画像は、前記目標画像において前記被遮蔽目標対象を中心として、前記被遮蔽目標対象周囲の画素点を含む部分であり、
前記第1共通部分に対応する画像及び遮蔽後の前記部分目標画像に基づき、前記被遮蔽目標対象の被遮蔽部分の輪郭内における各画素点の画像情報を特定するように構成される、
請求項13に記載の画像処理装置。 - プロセッサ、記憶媒体及びバスを含む電子機器であって、前記記憶媒体には前記プロセッサにより実行可能な機械可読命令が記憶されており、前記電子機器が稼働する時、前記プロセッサと前記記憶媒体はバスを介して通信し、前記プロセッサは、請求項1から12のいずれか1項に記載の画像処理方法を実行するように前記機械可読命令を実行する、電子機器。
- プロセッサに、請求項1から12のいずれか1項に記載の画像処理方法を実行させるコンピュータプログラムが記憶されている、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010093403.0 | 2020-02-14 | ||
CN202010093403.0A CN111340030B (zh) | 2020-02-14 | 2020-02-14 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
PCT/CN2021/072772 WO2021159925A1 (zh) | 2020-02-14 | 2021-01-19 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022522242A true JP2022522242A (ja) | 2022-04-14 |
Family
ID=71186014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021565759A Pending JP2022522242A (ja) | 2020-02-14 | 2021-01-19 | 画像処理方法及び装置、電子機器、並びにコンピュータ可読記憶媒体 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2022522242A (ja) |
CN (1) | CN111340030B (ja) |
WO (1) | WO2021159925A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340030B (zh) * | 2020-02-14 | 2021-12-21 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
CN111768468B (zh) * | 2020-06-30 | 2023-08-04 | 北京百度网讯科技有限公司 | 图像填充方法、装置、设备及存储介质 |
CN112162672A (zh) * | 2020-10-19 | 2021-01-01 | 腾讯科技(深圳)有限公司 | 信息流的显示处理方法、装置、电子设备及存储介质 |
CN113256656A (zh) * | 2021-05-28 | 2021-08-13 | 北京达佳互联信息技术有限公司 | 图像分割方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124973A (ja) * | 2017-01-27 | 2018-08-09 | 株式会社デンソーアイティーラボラトリ | 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法 |
WO2018173108A1 (ja) * | 2017-03-21 | 2018-09-27 | 富士通株式会社 | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102208022A (zh) * | 2010-03-31 | 2011-10-05 | 富士通株式会社 | 遮挡字符恢复装置及其方法、遮挡字符识别装置及其方法 |
CN102831584B (zh) * | 2012-08-02 | 2015-04-22 | 中山大学 | 一种数据驱动的物体图像修复系统及方法 |
AU2012244275A1 (en) * | 2012-10-30 | 2014-05-15 | Canon Kabushiki Kaisha | Method, apparatus and system for determining a boundary of an obstacle which occludes an object in an image |
US9373183B2 (en) * | 2012-11-15 | 2016-06-21 | Honeywell International Inc. | Removing an occlusion from an image |
CN105513112B (zh) * | 2014-10-16 | 2018-11-16 | 北京畅游天下网络技术有限公司 | 图像处理方法和装置 |
US10311312B2 (en) * | 2017-08-31 | 2019-06-04 | TuSimple | System and method for vehicle occlusion detection |
CN107730457B (zh) * | 2017-08-28 | 2020-02-14 | 广东数相智能科技有限公司 | 一种图像补全方法、装置、电子设备及存储介质 |
CN108986041A (zh) * | 2018-06-13 | 2018-12-11 | 浙江大华技术股份有限公司 | 一种图像恢复方法、装置、电子设备及可读存储介质 |
CN110033487A (zh) * | 2019-02-25 | 2019-07-19 | 上海交通大学 | 基于深度联想感知算法的受遮挡蔬果采收方法 |
CN111340030B (zh) * | 2020-02-14 | 2021-12-21 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备、计算机可读存储介质 |
-
2020
- 2020-02-14 CN CN202010093403.0A patent/CN111340030B/zh active Active
-
2021
- 2021-01-19 JP JP2021565759A patent/JP2022522242A/ja active Pending
- 2021-01-19 WO PCT/CN2021/072772 patent/WO2021159925A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124973A (ja) * | 2017-01-27 | 2018-08-09 | 株式会社デンソーアイティーラボラトリ | 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法 |
WO2018173108A1 (ja) * | 2017-03-21 | 2018-09-27 | 富士通株式会社 | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111340030A (zh) | 2020-06-26 |
CN111340030B (zh) | 2021-12-21 |
WO2021159925A1 (zh) | 2021-08-19 |
KR20210144887A (ko) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022522242A (ja) | 画像処理方法及び装置、電子機器、並びにコンピュータ可読記憶媒体 | |
CN109376667B (zh) | 目标检测方法、装置及电子设备 | |
CN112560999B (zh) | 一种目标检测模型训练方法、装置、电子设备及存储介质 | |
KR102220174B1 (ko) | 머신러닝 학습 데이터 증강장치 및 증강방법 | |
CN110675407B (zh) | 一种图像实例分割方法、装置、电子设备及存储介质 | |
CN109657545B (zh) | 一种基于多任务学习的行人检测方法 | |
CN109472193A (zh) | 人脸检测方法及装置 | |
CN111476192B (zh) | 基于智慧交通的截取图像合成方法及大数据云服务器 | |
CN110784755A (zh) | 一种弹幕信息的显示方法、装置、终端和存储介质 | |
CN111523390B (zh) | 一种图像识别的方法及增强现实ar图标识别的系统 | |
CN112200077A (zh) | 基于智慧交通的人工智能图像处理方法及系统 | |
CN110795592B (zh) | 图片处理方法、装置及设备 | |
CN112132130A (zh) | 一种面向全场景的实时性车牌检测方法及系统 | |
CN109934072B (zh) | 人员统计方法及装置 | |
CN117253110A (zh) | 一种基于扩散模型的目标检测模型泛化能力提升方法 | |
CN111178200A (zh) | 一种仪表盘指示灯的识别方法及计算设备 | |
US11778167B1 (en) | Method and system for preprocessing optimization of streaming video data | |
CN112714299B (zh) | 一种图像展示方法及装置 | |
CN112861678B (zh) | 一种图像识别方法及装置 | |
CN112085025B (zh) | 物体分割方法、装置、设备 | |
CN114173059A (zh) | 一种视频编辑系统、方法及装置 | |
KR102668641B1 (ko) | 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체 | |
CN112733730B (zh) | 采油作业现场吸烟人员识别处理方法及系统 | |
CN112634460B (zh) | 基于Haar-like特征的户外全景图生成方法及装置 | |
CN112399236B (zh) | 一种视频查重方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211104 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220608 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221227 |