JP7033674B2 - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents
画像処理方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP7033674B2 JP7033674B2 JP2020573341A JP2020573341A JP7033674B2 JP 7033674 B2 JP7033674 B2 JP 7033674B2 JP 2020573341 A JP2020573341 A JP 2020573341A JP 2020573341 A JP2020573341 A JP 2020573341A JP 7033674 B2 JP7033674 B2 JP 7033674B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- map
- feature
- feature map
- binocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 26
- 238000000034 method Methods 0.000 claims description 202
- 230000004927 fusion Effects 0.000 claims description 142
- 238000012545 processing Methods 0.000 claims description 121
- 230000008569 process Effects 0.000 claims description 113
- 238000000605 extraction Methods 0.000 claims description 46
- 238000004590 computer program Methods 0.000 claims description 28
- 238000005457 optimization Methods 0.000 claims description 21
- 238000007499 fusion processing Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本願は、2019年01月22日に提出された、出願番号が201910060238.6であり、名称が「画像処理方法及び装置、電子機器並びに記憶媒体」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
画像処理方法であって、前記方法は、
両眼画像を取得することであって、前記両眼画像は、同一の対象に対して同一のシーンで撮られた第1画像及び第2画像を含む、ことと、
前記両眼画像の第1特徴マップ、前記両眼画像の第1奥行きマップ、及び前記両眼画像の画像特徴と奥行き特徴を融合した第2特徴マップを取得することと、
前記両眼画像、前記両眼画像の第1特徴マップ、第1奥行きマップ及び前記第2特徴マップに対して特徴融合処理を行い、前記両眼画像の融合特徴マップを得ることと、
前記両眼画像の融合特徴マップに対して最適化処理を行い、ボケ除去処理された両眼画像を得ることと、を含む、画像処理方法。
(項目2)
前記両眼画像の第1特徴マップを取得することは、
前記第1画像及び第2画像に対してそれぞれ第1畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得ることと、
前記第1画像及び第2画像の前記第1中間特徴マップに対してそれぞれ第2畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する複数のスケールの第2中間特徴マップを得ることと、
前記第1画像及び第2画像の各スケールの第2中間特徴マップに対してそれぞれ残差処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1特徴マップを得ることと、を含むことを特徴とする
項目1に記載の方法。
(項目3)
前記第1画像及び第2画像に対してそれぞれ第1畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得ることは、
第1所定畳み込みカーネル及び第1畳み込みステップ幅を利用して前記第1画像及び第2画像に対してそれぞれ畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得ることを含むことを特徴とする
項目2に記載の方法。
(項目4)
前記第1画像及び第2画像の前記第1中間特徴マップに対してそれぞれ第2畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する複数のスケールの第2中間特徴マップを得ることは、
それぞれ所定の複数の異なる第1膨張率で、前記第1画像及び第2画像の前記第1中間特徴マップに対して畳み込み処理を行い、該複数の第1膨張率にそれぞれ対応する第2中間特徴マップを得ることを含むことを特徴とする
項目2又は3に記載の方法。
(項目5)
前記第1画像及び第2画像の各スケールの第2中間特徴マップに対してそれぞれ残差処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1特徴マップを得ることは、
前記第1画像の複数のスケールの第2中間特徴マップをそれぞれ接続して第1接続特徴マップを得て、第2画像の複数のスケールの第2中間特徴マップをそれぞれ接続して第2接続特徴マップを得ることと、
前記第1接続特徴マップ及び第2接続特徴マップに対してそれぞれ畳み込み処理を行うことと、
前記第1画像の第1中間特徴マップと畳み込み処理された第1接続特徴マップに対して加算処理を行い、前記第1画像の第1特徴マップを得て、前記第2画像の第1中間特徴マップと畳み込み処理された第2接続特徴マップに対して加算処理を行い、前記第2画像の第1特徴マップを得ることと、を含むことを特徴とする
項目2から4のうちいずれか一項に記載の方法。
(項目6)
前記両眼画像の第1奥行きマップ、及び前記両眼画像の画像特徴と奥行き特徴を融合した第2特徴マップを取得することは、
前記第1画像と第2画像を組み合わせ、組み合わせビューを形成することと、
前記組み合わせビューに対して少なくとも1層の第3畳み込み処理を行い、第1中間奥行き特徴マップを得ることと、
前記第1中間奥行き特徴マップに対して第4畳み込み処理を行い、複数のスケールの第2中間奥行き特徴マップを得ることと、
前記第2中間奥行き特徴マップと前記第1中間奥行き特徴マップに対して残差処理を行い、前記第1画像及び第2画像の第1奥行きマップをそれぞれ得て、いずれか1層の第3畳み込み処理により、前記第2特徴マップを得ることと、を含むことを特徴とする
項目1から5のうちいずれか一項に記載の方法。
(項目7)
前記組み合わせビューに対して少なくとも1層の第3畳み込み処理を行い、第1中間奥行き特徴マップを得ることは、
第2所定畳み込みカーネル及び第2畳み込みステップ幅を利用して前記組み合わせビューに対して少なくとも1回の畳み込み処理を行い、前記第1中間奥行き特徴マップを得ることを含むことを特徴とする
項目6に記載の方法。
(項目8)
前記第1中間奥行き特徴マップに対して第4畳み込み処理を行い、複数のスケールの第2中間奥行き特徴マップを得ることは、
それぞれ所定の複数の異なる第2膨張率で、前記第1中間奥行き特徴マップに対して畳み込み処理を行い、該複数の第2膨張率にそれぞれ対応する第2中間奥行き特徴マップを得ることを含むことを特徴とする
項目6又は7に記載の方法。
(項目9)
前記両眼画像、前記両眼画像の第1特徴マップ、第1奥行きマップ及び前記第2特徴マップに対して特徴融合処理を行い、前記両眼画像の融合特徴マップを得ることは、
前記両眼画像における第1画像の第1奥行きマップに基づいて、第2画像に対して、キャリブレーション処理を行い、前記第1画像のマスクマップを得て、前記両眼画像における第2画像の第1奥行きマップに基づいて、第1画像に対して、キャリブレーション処理を行い、前記第2画像のマスクマップを得ることと、
前記両眼画像における各画像に対応するキャリブレーションマップ及びマスクマップに基づいて、前記両眼画像における各画像の中間融合特徴をそれぞれ得ることと、
前記両眼画像における各画像の第1奥行きマップ及び第2特徴マップに基づいて、前記両眼画像における各画像の奥行き特徴融合マップを得ることと、
前記両眼画像における各画像の第1画像の第1特徴マップ、第1画像の中間融合特徴マップ及び第1画像の奥行き特徴融合マップの接続結果に基づいて、対応的に各画像の前記融合特徴マップを得ることと、を含むことを特徴とする
項目1から8のうちいずれか一項に記載の方法。
(項目10)
前記両眼画像における第1画像の第1奥行きマップに基づいて、第2画像に対して、キャリブレーション処理を行い、前記第1画像のマスクマップを得て、前記両眼画像における第2画像の第1奥行きマップに基づいて、第1画像に対して、キャリブレーション処理を行い、前記第2画像のマスクマップを得ることは、
両眼画像における第1画像の第1奥行きマップを利用して第2画像に対してアライメント処理を行い、前記第1画像のキャリブレーションマップを得て、前記第2画像の第1奥行きマップを利用して前記第1画像に対してアライメント処理を行い、前記第2画像のキャリブレーションマップを得ることと、
両眼画像における各画像と対応するキャリブレーションマップとの差異に基づいて、前記第1画像及び第2画像のマスクマップをそれぞれ得ることと、を含むことを特徴とする
項目9に記載の方法。
(項目11)
前記両眼画像における各画像に対応する前記キャリブレーションマップ及びマスクマップに基づいて、前記両眼画像における各画像の中間融合特徴をそれぞれ得ることは、
第1所定の方式で、第1画像のキャリブレーションマップ及び前記第1画像のマスクマップに基づいて、前記第1画像の中間融合特徴マップを得ることと、
第2所定の方式で、前記第2画像のキャリブレーションマップ及び前記第2画像のマスクマップに基づいて、前記第2画像の中間融合特徴マップを得ることと、を含むことを特徴とする
項目9に記載の方法。
(項目12)
前記第1所定の方式の表現式は、
前記第2所定の方式の表現式は、
項目11に記載の方法。
(項目13)
前記両眼画像の融合特徴マップに対して最適化処理を行い、ボケ除去処理された両眼画像を得ることは、
前記両眼画像の融合特徴マップに対してそれぞれ畳み込み処理を行い、前記ボケ除去処理された両眼画像を得ることを含むことを特徴とする
項目1から12のうちいずれか一項に記載の方法。
(項目14)
画像処理装置であって、前記装置は、
両眼画像を取得するように構成される取得モジュールであって、前記両眼画像は、同一の対象に対して同一のシーンで撮られた第1画像及び第2画像を含む、取得モジュールと、
前記両眼画像の第1特徴マップ、前記両眼画像の第1奥行きマップ、及び前記両眼画像の画像特徴と奥行き特徴を融合した第2特徴マップを取得するように構成される特徴抽出モジュールと、
前記両眼画像、前記両眼画像の第1特徴マップ、第1奥行きマップ及び前記第2特徴マップに対して特徴融合処理を行い、前記両眼画像の融合特徴マップを得るように構成される特徴融合モジュールと、
前記両眼画像の融合特徴マップに対して最適化処理を行い、ボケ除去処理された両眼画像を得るように構成される最適化モジュールと、を備える、画像処理装置。
(項目15)
前記特徴抽出モジュールは、
前記第1画像及び第2画像に対してそれぞれ第1畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得て、
前記第1画像及び第2画像の前記第1中間特徴マップに対してそれぞれ第2畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する複数のスケールの第2中間特徴マップを得て、
前記第1画像及び第2画像の各スケールの第2中間特徴マップに対してそれぞれ残差処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1特徴マップを得るように構成される画像特徴抽出モジュールを備えることを特徴とする
項目14に記載の装置。
(項目16)
前記画像特徴抽出モジュール更に、第1所定畳み込みカーネル及び第1畳み込みステップ幅を利用して前記第1画像及び第2画像に対してそれぞれ畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得るように構成されることを特徴とする
項目15に記載の装置。
(項目17)
前記画像特徴抽出モジュールは更に、それぞれ所定の複数の異なる第1膨張率で、前記第1画像及び第2画像の前記第1中間特徴マップに対して畳み込み処理を行い、該複数の第1膨張率にそれぞれ対応する第2中間特徴マップを得るように構成されることを特徴とする
項目15又は16に記載の装置。
(項目18)
前記画像特徴抽出モジュールは更に、前記第1画像の複数のスケールの第2中間特徴マップをそれぞれ接続して第1接続特徴マップを得て、第2画像の複数のスケールの第2中間特徴マップをそれぞれ接続して第2接続特徴マップを得て、
前記第1接続特徴マップ及び第2接続特徴マップに対してそれぞれ畳み込み処理を行い、
前記第1画像の第1中間特徴マップと畳み込み処理された第1接続特徴マップに対して加算処理を行い、前記第1画像の第1特徴マップを得て、前記第2画像の第1中間特徴マップと畳み込み処理された第2接続特徴マップに対して加算処理を行い、前記第2画像の第1特徴マップを得るように構成されることを特徴とする
項目15から17のうちいずれか一項に記載の装置。
(項目19)
前記特徴抽出モジュールは、
前記第1画像と第2画像を組み合わせ、組み合わせビューを形成し、
前記組み合わせビューに対して少なくとも1層の第3畳み込み処理を行い、第1中間奥行き特徴マップを得て、
前記第1中間奥行き特徴マップに対して第4畳み込み処理を行い、複数のスケールの第2中間奥行き特徴マップを得て、
前記第2中間奥行き特徴マップと前記第1中間奥行き特徴マップに対して残差処理を行い、前記第1画像及び第2画像の第1奥行きマップをそれぞれ得て、いずれか1層の第3畳み込み処理により、前記第2特徴マップを得るように構成される奥行き特徴抽出モジュールを更に備えることを特徴とする
項目14から18のうちいずれか一項に記載の装置。
(項目20)
前記奥行き特徴抽出モジュールは更に、第2所定畳み込みカーネル及び第2畳み込みステップ幅を利用して前記組み合わせビューに対して少なくとも1回の畳み込み処理を行い、前記第1中間奥行き特徴マップを得るように構成されることを特徴とする
項目19に記載の装置。
(項目21)
前記奥行き特徴抽出モジュールは更に、それぞれ所定の複数の異なる第2膨張率で、前記第1中間奥行き特徴マップに対して畳み込み処理を行い、該複数の第2膨張率にそれぞれ対応する第2中間奥行き特徴マップを得るように構成されることを特徴とする
項目19又は20に記載の装置。
(項目22)
前記特徴融合モジュールは更に、前記両眼画像における第1画像の第1奥行きマップに基づいて、第2画像に対して、キャリブレーション処理を行い、前記第1画像のマスクマップを得て、前記両眼画像における第2画像の第1奥行きマップに基づいて、第1画像に対して、キャリブレーション処理を行い、前記第2画像のマスクマップを得て、
前記両眼画像における各画像に対応するキャリブレーションマップ及びマスクマップに基づいて、前記両眼画像における各画像の中間融合特徴をそれぞれ得て、
前記両眼画像における各画像の第1奥行きマップ及び第2特徴マップに基づいて、前記両眼画像における各画像の奥行き特徴融合マップを得て、
前記両眼画像における各画像の第1画像の第1特徴マップ、第1画像の中間融合特徴マップ及び第1画像の奥行き特徴融合マップの接続結果に基づいて、対応的に各画像の前記融合特徴マップを得るように構成されることを特徴とする
項目14から21のうちいずれか一項に記載の装置。
(項目23)
前記特徴融合モジュールは更に、両眼画像における第1画像の第1奥行きマップを利用して第2画像に対してアライメント処理を行い、前記第1画像のキャリブレーションマップを得て、前記第2画像の第1奥行きマップを利用して前記第1画像に対してアライメント処理を行い、前記第2画像のキャリブレーションマップを得て、
両眼画像における各画像と対応するキャリブレーションマップとの差異に基づいて、前記第1画像及び第2画像のマスクマップをそれぞれ得るように構成されることを特徴とする
項目22に記載の装置。
(項目24)
前記特徴融合モジュールは更に、第1所定の方式で、第1画像のキャリブレーションマップ及び前記第1画像のマスクマップに基づいて、前記第1画像の中間融合特徴マップを得て、
第2所定の方式で、前記第2画像のキャリブレーションマップ及び前記第2画像のマスクマップに基づいて、前記第2画像の中間融合特徴マップを得るように構成されることを特徴とする
項目22に記載の装置。
(項目25)
前記第1所定の方式の表現式は、
前記第2所定の方式の表現式は、
項目24に記載の装置。
(項目26)
前記最適化モジュールは更に、前記両眼画像の融合特徴マップに対してそれぞれ畳み込み処理を行い、前記ボケ除去処理された両眼画像を得るように構成されることを特徴とする
項目14から23のうちいずれか一項に記載の装置。
(項目27)
電子機器であって、前記電子機器は、
プロセッサと、
プロセッサによる実行可能な命令を記憶するためのメモリとを備え、
前記プロセッサは、項目1から13のうちいずれか一項に記載の方法を実行するように構成される、電子機器。
(項目28)
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体には、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサに、項目1から13のうちいずれか一項に記載の方法を実現させる、コンピュータ可読記憶媒体。
(項目29)
コンピュータプログラム製品であって、コンピュータプログラム命令を含み、前記コンピュータプログラム命令がプロセッサにより実行される場合、項目1から13のうちいずれか一項に記載の方法を実現させる、コンピュータプログラム製品。
ここで、基線は、第1画像と第2画像を取得する2つのカメラ間の距離を表す。焦点距離は、2つのカメラの焦点距離を指す。上記方式により、第1画像の第1奥行きマップに基づいて、該第1奥行きマップに対応する第1画素ズレ特徴を決定し、第2画像の第1奥行きマップに基づいて、該第1奥行きマップに対応する第2画素ズレ特徴を決定することができる。ここの画素ズレ特徴は、第1奥行きマップにおける各画素点の奥行き特徴に対応する画素値の偏差を指す。本願の実施例は、該偏差を利用して画像に対してアライメント処理を行うことができる。つまり、第1画像の第1奥行きマップに対応する第1画素ズレ特徴を第2画像に作用することで、第1画像のキャリブレーションマップを得て、第2画像の第1奥行きマップに対応する第2画素ズレ特徴を第1画像に作用することで、第2画像のキャリブレーションマップを得る。
前記第1画像の融合特徴マップに対して畳み込み処理を行い、前記最適化された第1画像を得て、前記第2画像の融合特徴マップに対して畳み込み処理を行い、前記最適化された第2画像を得ることを含む。
前記第2所定の方式の表現式は、
ただし、
Claims (17)
- 画像処理方法であって、前記方法は、
両眼画像を取得することであって、前記両眼画像は、同一の対象に対して同一のシーンで撮られた第1画像及び第2画像を含む、ことと、
前記両眼画像の第1特徴マップ、前記両眼画像の第1奥行きマップ、及び前記両眼画像の画像特徴と奥行き特徴を融合した第2特徴マップを取得することと、
前記両眼画像、前記両眼画像の第1特徴マップ、第1奥行きマップ及び前記第2特徴マップに対して特徴融合処理を行い、前記両眼画像の融合特徴マップを得ることと、
前記両眼画像の融合特徴マップに対して最適化処理を行い、ボケ除去処理された両眼画像を得ることと、を含む、画像処理方法。 - 前記両眼画像の第1特徴マップを取得することは、
前記第1画像及び第2画像に対してそれぞれ第1畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得ることと、
前記第1画像及び第2画像の前記第1中間特徴マップに対してそれぞれ第2畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する複数のスケールの第2中間特徴マップを得ることと、
前記第1画像及び第2画像の各スケールの第2中間特徴マップに対してそれぞれ残差処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1特徴マップを得ることと、を含むことを特徴とする
請求項1に記載の方法。 - 前記第1画像及び第2画像に対してそれぞれ第1畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得ることは、
第1所定畳み込みカーネル及び第1畳み込みステップ幅を利用して前記第1画像及び第2画像に対してそれぞれ畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1中間特徴マップを得ることを含むことを特徴とする
請求項2に記載の方法。 - 前記第1画像及び第2画像の前記第1中間特徴マップに対してそれぞれ第2畳み込み処理を行い、前記第1画像及び第2画像にそれぞれ対応する複数のスケールの第2中間特徴マップを得ることは、
それぞれ所定の複数の異なる第1膨張率で、前記第1画像及び第2画像の前記第1中間特徴マップに対して畳み込み処理を行い、該複数の第1膨張率にそれぞれ対応する第2中間特徴マップを得ることを含むことを特徴とする
請求項2又は3に記載の方法。 - 前記第1画像及び第2画像の各スケールの第2中間特徴マップに対してそれぞれ残差処理を行い、前記第1画像及び第2画像にそれぞれ対応する第1特徴マップを得ることは、
前記第1画像の複数のスケールの第2中間特徴マップをそれぞれ接続して第1接続特徴マップを得て、第2画像の複数のスケールの第2中間特徴マップをそれぞれ接続して第2接続特徴マップを得ることと、
前記第1接続特徴マップ及び第2接続特徴マップに対してそれぞれ畳み込み処理を行うことと、
前記第1画像の第1中間特徴マップと畳み込み処理された第1接続特徴マップに対して加算処理を行い、前記第1画像の第1特徴マップを得て、前記第2画像の第1中間特徴マップと畳み込み処理された第2接続特徴マップに対して加算処理を行い、前記第2画像の第1特徴マップを得ることと、を含むことを特徴とする
請求項2から4のうちいずれか一項に記載の方法。 - 前記両眼画像の第1奥行きマップ、及び前記両眼画像の画像特徴と奥行き特徴を融合した第2特徴マップを取得することは、
前記第1画像と第2画像を組み合わせ、組み合わせビューを形成することと、
前記組み合わせビューに対して少なくとも1層の第3畳み込み処理を行い、第1中間奥行き特徴マップを得ることと、
前記第1中間奥行き特徴マップに対して第4畳み込み処理を行い、複数のスケールの第2中間奥行き特徴マップを得ることと、
前記第2中間奥行き特徴マップと前記第1中間奥行き特徴マップに対して残差処理を行い、前記第1画像及び第2画像の第1奥行きマップをそれぞれ得て、いずれか1層の第3畳み込み処理により、前記第2特徴マップを得ることと、を含むことを特徴とする
請求項1から5のうちいずれか一項に記載の方法。 - 前記組み合わせビューに対して少なくとも1層の第3畳み込み処理を行い、第1中間奥行き特徴マップを得ることは、
第2所定畳み込みカーネル及び第2畳み込みステップ幅を利用して前記組み合わせビューに対して少なくとも1回の畳み込み処理を行い、前記第1中間奥行き特徴マップを得ることを含むことを特徴とする
請求項6に記載の方法。 - 前記第1中間奥行き特徴マップに対して第4畳み込み処理を行い、複数のスケールの第2中間奥行き特徴マップを得ることは、
それぞれ所定の複数の異なる第2膨張率で、前記第1中間奥行き特徴マップに対して畳み込み処理を行い、該複数の第2膨張率にそれぞれ対応する第2中間奥行き特徴マップを得ることを含むことを特徴とする
請求項6又は7に記載の方法。 - 前記両眼画像、前記両眼画像の第1特徴マップ、第1奥行きマップ及び前記第2特徴マップに対して特徴融合処理を行い、前記両眼画像の融合特徴マップを得ることは、
前記両眼画像における第1画像の第1奥行きマップに基づいて、第2画像に対して、キャリブレーション処理を行い、前記第1画像のマスクマップを得て、前記両眼画像における第2画像の第1奥行きマップに基づいて、第1画像に対して、キャリブレーション処理を行い、前記第2画像のマスクマップを得ることと、
前記両眼画像における各画像に対応するキャリブレーションマップ及びマスクマップに基づいて、前記両眼画像における各画像の中間融合特徴をそれぞれ得ることと、
前記両眼画像における各画像の第1奥行きマップ及び第2特徴マップに基づいて、前記両眼画像における各画像の奥行き特徴融合マップを得ることと、
前記両眼画像における各画像の第1画像の第1特徴マップ、第1画像の中間融合特徴マップ及び第1画像の奥行き特徴融合マップの接続結果に基づいて、対応的に各画像の前記融合特徴マップを得ることと、を含むことを特徴とする
請求項1から8のうちいずれか一項に記載の方法。 - 前記両眼画像における第1画像の第1奥行きマップに基づいて、第2画像に対して、キャリブレーション処理を行い、前記第1画像のマスクマップを得て、前記両眼画像における第2画像の第1奥行きマップに基づいて、第1画像に対して、キャリブレーション処理を行い、前記第2画像のマスクマップを得ることは、
両眼画像における第1画像の第1奥行きマップを利用して第2画像に対してアライメント処理を行い、前記第1画像のキャリブレーションマップを得て、前記第2画像の第1奥行きマップを利用して前記第1画像に対してアライメント処理を行い、前記第2画像のキャリブレーションマップを得ることと、
両眼画像における各画像と対応するキャリブレーションマップとの差異に基づいて、前記第1画像及び第2画像のマスクマップをそれぞれ得ることと、を含むことを特徴とする
請求項9に記載の方法。 - 前記両眼画像における各画像に対応する前記キャリブレーションマップ及びマスクマップに基づいて、前記両眼画像における各画像の中間融合特徴をそれぞれ得ることは、
第1所定の方式で、第1画像のキャリブレーションマップ及び前記第1画像のマスクマップに基づいて、前記第1画像の中間融合特徴マップを得ることと、
第2所定の方式で、前記第2画像のキャリブレーションマップ及び前記第2画像のマスクマップに基づいて、前記第2画像の中間融合特徴マップを得ることと、を含むことを特徴とする
請求項9に記載の方法。 - 前記両眼画像の融合特徴マップに対して最適化処理を行い、ボケ除去処理された両眼画像を得ることは、
前記両眼画像の融合特徴マップに対してそれぞれ畳み込み処理を行い、前記ボケ除去処理された両眼画像を得ることを含むことを特徴とする
請求項1から12のうちいずれか一項に記載の方法。 - 画像処理装置であって、前記装置は、
両眼画像を取得するように構成される取得モジュールであって、前記両眼画像は、同一の対象に対して同一のシーンで撮られた第1画像及び第2画像を含む、取得モジュールと、
前記両眼画像の第1特徴マップ、前記両眼画像の第1奥行きマップ、及び前記両眼画像の画像特徴と奥行き特徴を融合した第2特徴マップを取得するように構成される特徴抽出モジュールと、
前記両眼画像、前記両眼画像の第1特徴マップ、第1奥行きマップ及び前記第2特徴マップに対して特徴融合処理を行い、前記両眼画像の融合特徴マップを得るように構成される特徴融合モジュールと、
前記両眼画像の融合特徴マップに対して最適化処理を行い、ボケ除去処理された両眼画像を得るように構成される最適化モジュールと、を備える、画像処理装置。 - 電子機器であって、前記電子機器は、
プロセッサと、
プロセッサによる実行可能な命令を記憶するためのメモリとを備え、
前記プロセッサは、請求項1から13のうちいずれか一項に記載の方法を実行するように構成される、電子機器。 - コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体には、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサに、請求項1から13のうちいずれか一項に記載の方法を実現させる、コンピュータ可読記憶媒体。
- コンピュータプログラムであって、コンピュータプログラム命令を含み、前記コンピュータプログラム命令がプロセッサに、請求項1から13のうちいずれか一項に記載の方法を実現させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910060238.6 | 2019-01-22 | ||
CN201910060238.6A CN109829863B (zh) | 2019-01-22 | 2019-01-22 | 图像处理方法及装置、电子设备和存储介质 |
PCT/CN2019/113749 WO2020151281A1 (zh) | 2019-01-22 | 2019-10-28 | 图像处理方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021530056A JP2021530056A (ja) | 2021-11-04 |
JP7033674B2 true JP7033674B2 (ja) | 2022-03-10 |
Family
ID=66861908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573341A Active JP7033674B2 (ja) | 2019-01-22 | 2019-10-28 | 画像処理方法及び装置、電子機器並びに記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210319538A1 (ja) |
JP (1) | JP7033674B2 (ja) |
KR (1) | KR20210028218A (ja) |
CN (1) | CN109829863B (ja) |
SG (1) | SG11202106271XA (ja) |
TW (1) | TWI706379B (ja) |
WO (1) | WO2020151281A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829863B (zh) * | 2019-01-22 | 2021-06-25 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109977847B (zh) * | 2019-03-22 | 2021-07-16 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN110060215B (zh) * | 2019-04-16 | 2021-09-10 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
WO2020238120A1 (en) * | 2019-05-30 | 2020-12-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for single-modal or multi-modal style transfer and system for random stylization using the same |
CN110543849B (zh) * | 2019-08-30 | 2022-10-04 | 北京市商汤科技开发有限公司 | 检测器的配置方法及装置、电子设备和存储介质 |
CN111986075B (zh) * | 2020-08-12 | 2022-08-09 | 兰州交通大学 | 一种目标边缘清晰化的风格迁移方法 |
CN112101302B (zh) * | 2020-11-05 | 2021-04-27 | 杭州追猎科技有限公司 | 非法张贴物检测方法、系统和电子设备 |
US11669986B2 (en) * | 2021-04-16 | 2023-06-06 | Adobe Inc. | Generating enhanced three-dimensional object reconstruction models from sparse set of object images |
KR102554665B1 (ko) * | 2021-12-20 | 2023-07-12 | 포항공과대학교 산학협력단 | 역커널 기반 디포커스 블러 제거 방법 및 장치 |
KR102664276B1 (ko) * | 2022-12-02 | 2024-05-10 | 고려대학교 산학협력단 | 수직-수평 분할을 통한 단일 영상 잔상 제거 방법 및 이를 위한 네트워크 시스템 |
CN116862800B (zh) * | 2023-07-11 | 2024-01-30 | 哈尔滨工业大学 | 一种大视场单透镜空变模糊图像复原方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766623A (zh) | 2019-10-12 | 2020-02-07 | 北京工业大学 | 一种基于深度学习的立体图像修复方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8380630B2 (en) * | 2000-07-06 | 2013-02-19 | David Paul Felsher | Information record infrastructure, system and method |
US20140198977A1 (en) * | 2012-03-21 | 2014-07-17 | Texas Instruments Incorporated | Enhancement of Stereo Depth Maps |
CN105516579B (zh) * | 2014-09-25 | 2019-02-05 | 联想(北京)有限公司 | 一种图像处理方法、装置和电子设备 |
JP6929047B2 (ja) * | 2016-11-24 | 2021-09-01 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
US10409614B2 (en) * | 2017-04-24 | 2019-09-10 | Intel Corporation | Instructions having support for floating point and integer data types in the same register |
US10489877B2 (en) * | 2017-04-24 | 2019-11-26 | Intel Corporation | Compute optimization mechanism |
CN107392868A (zh) * | 2017-07-21 | 2017-11-24 | 深圳大学 | 基于全卷积神经网络的压缩双目图像质量增强方法及装置 |
CN108269280A (zh) * | 2018-01-05 | 2018-07-10 | 厦门美图之家科技有限公司 | 一种深度图像的处理方法及移动终端 |
CN108596040A (zh) * | 2018-03-29 | 2018-09-28 | 中山大学 | 一种基于双目视觉的串联通道融合行人检测方法 |
CN108765333B (zh) * | 2018-05-24 | 2021-08-10 | 华南理工大学 | 一种基于深度卷积神经网络的深度图完善方法 |
CN108846820A (zh) * | 2018-07-10 | 2018-11-20 | 深圳市唯特视科技有限公司 | 一种基于尺度递归网络的深度图像去模糊方法 |
CN109118430B (zh) * | 2018-08-24 | 2023-05-09 | 深圳市商汤科技有限公司 | 超分辨率图像重建方法及装置、电子设备及存储介质 |
CN109829863B (zh) * | 2019-01-22 | 2021-06-25 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
-
2019
- 2019-01-22 CN CN201910060238.6A patent/CN109829863B/zh active Active
- 2019-10-28 KR KR1020217002881A patent/KR20210028218A/ko not_active Application Discontinuation
- 2019-10-28 SG SG11202106271XA patent/SG11202106271XA/en unknown
- 2019-10-28 WO PCT/CN2019/113749 patent/WO2020151281A1/zh active Application Filing
- 2019-10-28 JP JP2020573341A patent/JP7033674B2/ja active Active
- 2019-12-24 TW TW108147449A patent/TWI706379B/zh active
-
2021
- 2021-06-11 US US17/345,042 patent/US20210319538A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766623A (zh) | 2019-10-12 | 2020-02-07 | 北京工业大学 | 一种基于深度学习的立体图像修复方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20210028218A (ko) | 2021-03-11 |
WO2020151281A9 (zh) | 2020-09-10 |
US20210319538A1 (en) | 2021-10-14 |
SG11202106271XA (en) | 2021-07-29 |
JP2021530056A (ja) | 2021-11-04 |
CN109829863A (zh) | 2019-05-31 |
CN109829863B (zh) | 2021-06-25 |
TWI706379B (zh) | 2020-10-01 |
TW202029125A (zh) | 2020-08-01 |
WO2020151281A1 (zh) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7033674B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP6944051B2 (ja) | キーポイント検出方法及び装置、電子機器並びに記憶媒体 | |
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
JP6852150B2 (ja) | 生体検知方法および装置、システム、電子機器、記憶媒体 | |
JP6986167B2 (ja) | 画像生成方法および装置、電子機器並びに記憶媒体 | |
JP7178514B2 (ja) | 場面深度とカメラ運動を予測する方法及び装置、機器、媒体並びにプログラム | |
TW202042175A (zh) | 圖像處理方法及裝置、電子設備和電腦可讀儲存媒體 | |
JP7026257B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP2021531566A (ja) | 画像処理方法および装置、電子機器ならびに記憶媒体 | |
JP2021533436A (ja) | 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム | |
TWI769523B (zh) | 圖像處理方法、電子設備和電腦可讀儲存介質 | |
JP2022532322A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP2022540072A (ja) | 位置姿勢決定方法及び装置、電子機器並びに記憶媒体 | |
CN111401230B (zh) | 姿态估计方法及装置、电子设备和存储介质 | |
CN111340048A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
TWI778313B (zh) | 圖像處理方法、電子設備和儲存介質 | |
CN111325786B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN109840890B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
JP2022547082A (ja) | 画像再構成方法及び装置、電子機器並びに記憶媒体 | |
CN109635926B (zh) | 用于神经网络的注意力特征获取方法、装置及存储介质 | |
CN113506321B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN115457024A (zh) | 冷冻电镜图像处理方法、装置、电子设备及存储介质 | |
CN114549983A (zh) | 计算机视觉模型训练方法及装置、电子设备和存储介质 | |
CN112200201A (zh) | 一种目标检测方法及装置、电子设备和存储介质 | |
CN109543544B (zh) | 跨光谱图像匹配方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7033674 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |