JP2020524355A - 単眼画像の深度回復方法及び装置、コンピュータ機器 - Google Patents
単眼画像の深度回復方法及び装置、コンピュータ機器 Download PDFInfo
- Publication number
- JP2020524355A JP2020524355A JP2020520708A JP2020520708A JP2020524355A JP 2020524355 A JP2020524355 A JP 2020524355A JP 2020520708 A JP2020520708 A JP 2020520708A JP 2020520708 A JP2020520708 A JP 2020520708A JP 2020524355 A JP2020524355 A JP 2020524355A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- monocular
- gradient
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000000605 extraction Methods 0.000 claims abstract description 59
- 238000011084 recovery Methods 0.000 claims abstract description 27
- 238000004590 computer program Methods 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims description 59
- 238000004364 calculation method Methods 0.000 claims description 38
- 230000004927 fusion Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 15
- 238000012886 linear function Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2018年5月23日に出願された、出願番号201810502947.0、発明の名称「単眼画像の深度回復方法及び装置、コンピュータ機器」の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップと、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップと、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するステップと、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するステップと、を含む。
前記単眼画像を第1のニューラルネットワークに入力して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップを含む。
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む。
前記特徴画像を第2のニューラルネットワークに入力しデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップを含む。
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するステップを含む。
前記特徴画像及び前記シーン構造マップを第3のニューラルネットワークに入力し勾配感知処理を行い、領域強化の特徴画像を取得するステップを含む。
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得するステップと、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む。
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップと、を含む。
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップと、を含む。
前記領域強化の特徴画像に対して畳み込み計算を行い、前記単眼画像の深度画像を取得するステップを含む。
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される特徴抽出モジュールと、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成されるシーン構造推定モジュールと、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するように構成される勾配感知モジュールと、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するように構成される深度推定モジュールと、を備える。
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む。
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するように構成される確立モジュールを備える。
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得するステップと、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む。
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップと、を含む。
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップと、を含む。
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される特徴抽出モジュール501と、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成されるシーン構造推定モジュール502と、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するように構成される勾配感知モジュール503と、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するように構成される深度推定モジュール504と、を備える。
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される特徴抽出モジュール501と、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成されるシーン構造推定モジュール502と、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するように構成される勾配感知モジュール503と、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するように構成される深度推定モジュール504と、を備える。
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む。
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するように構成される確立モジュール505を備える。
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得すると、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む。
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップと、を含む。
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップと、を含む。
本願の実施形態の技術手段によれば、前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得し、前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得し、前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得し、前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得する。前記の単眼画像の深度回復方法および装置は、少量のデータを用いてより良い深度推定結果を得ることができるだけでなく、勾配感知処理によってより多くの深度詳細を得ることもできる。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
単眼画像の深度回復方法であって、
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップと、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップと、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するステップと、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するステップと、を含む単眼画像の深度回復方法。
(項目2)
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップは、
前記単眼画像を第1のニューラルネットワークに入力して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップを含む項目1に記載の方法。
(項目3)
前記第1のニューラルネットワークによって実行される特徴抽出は、
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む項目2に記載の方法。
(項目4)
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップは、
前記特徴画像を第2のニューラルネットワークに入力しデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップを含む項目1に記載の方法。
(項目5)
前記特徴画像を第2のニューラルネットワークに入力する前に、さらに、
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するステップを含む項目4に記載の方法。
(項目6)
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得する前記ステップは、
前記特徴画像及び前記シーン構造マップを第3のニューラルネットワークに入力し勾配感知処理を行い、領域強化の特徴画像を取得するステップを含む項目1に記載の方法。
(項目7)
前記第3のニューラルネットワークによって実行される勾配感知処理は、
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得するステップと、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む項目6に記載の方法。
(項目8)
前記実際の勾配情報及び前記予測勾配情報に基づき類似度分析を行い、マスクを取得するステップは、
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップとを含む項目7に記載の方法。
(項目9)
前記マスク及び前記特徴画像に対して残差フィルタ処理を行うステップは、
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップと、を含む項目7に記載の方法。
(項目10)
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するステップは、
前記領域強化の特徴画像に対して畳み込み計算を行い、前記単眼画像の深度画像を取得するステップを含む項目1に記載の方法。
(項目11)
単眼画像の深度回復装置であって、
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される特徴抽出モジュールと、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成されるシーン構造推定モジュールと、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するように構成される勾配感知モジュールと、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するように構成される深度推定モジュールと、を備える単眼画像の深度回復装置。
(項目12)
前記特徴抽出モジュールは、前記単眼画像を第1のニューラルネットワークに入力して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される項目11に記載の装置。
(項目13)
前記第1のニューラルネットワークによって実行される特徴抽出は、
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む項目12に記載の装置。
(項目14)
前記シーン構造推定モジュールは、前記特徴画像を第2のニューラルネットワークに入力しデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成される項目11に記載の装置。
(項目15)
前記装置は、さらに、
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するように構成される確立モジュールを備える項目14に記載の装置。
(項目16)
前記勾配感知モジュールは、前記特徴画像及び前記シーン構造マップを第3のニューラルネットワークに入力し勾配感知処理を行い、領域強化の特徴画像を取得するように構成される項目11に記載の装置。
(項目17)
前記第3のニューラルネットワークによって実行される勾配感知処理は、
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得すると、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む項目16に記載の装置。
(項目18)
前記実際の勾配情報及び前記予測勾配情報に基づき類似度分析を行い、マスクを取得するステップは、
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップとを含む項目17に記載の装置。
(項目19)
前記マスク及び前記特徴画像に対して残差フィルタ処理を行うステップは、
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップとを含む項目17に記載の装置。
(項目20)
前記深度推定モジュールは、前記領域強化の特徴画像に対して畳み込み計算を行い、前記単眼画像の深度画像を取得するように構成される項目11に記載の装置。
(項目21)
コンピュータ実行可能コマンドを記憶したメモリと、前記メモリ内のコンピュータ実行可能コマンドを実行する時に、項目1〜10中のいずれか1項に記載の方法のステップを実現するプロセッサーとを備えるコンピュータ機器。
(項目22)
コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、前記プロセッサーが前記コンピュータプログラムを実行する時に、項目1〜10中のいずれか1項に記載の方法を実現するコンピュータ可読記憶媒体。
(項目23)
コンピュータコマンドを含むコンピュータプログラムであって、機器のプロセッサーで前記コンピュータコマンドを実行する時に、項目1〜10中のいずれか1項に記載の方法を実現するコンピュータプログラム。
Claims (23)
- 単眼画像の深度回復方法であって、
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップと、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップと、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するステップと、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するステップと、を含む単眼画像の深度回復方法。 - 前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップは、
前記単眼画像を第1のニューラルネットワークに入力して特徴抽出を行い、前記単眼画像の特徴画像を取得するステップを含む請求項1に記載の方法。 - 前記第1のニューラルネットワークによって実行される特徴抽出は、
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む請求項2に記載の方法。 - 前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップは、
前記特徴画像を第2のニューラルネットワークに入力しデカップリングを行い、前記特徴画像のシーン構造マップを取得するステップを含む請求項1に記載の方法。 - 前記特徴画像を第2のニューラルネットワークに入力する前に、さらに、
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するステップを含む請求項4に記載の方法。 - 前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得する前記ステップは、
前記特徴画像及び前記シーン構造マップを第3のニューラルネットワークに入力し勾配感知処理を行い、領域強化の特徴画像を取得するステップを含む請求項1に記載の方法。 - 前記第3のニューラルネットワークによって実行される勾配感知処理は、
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得するステップと、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む請求項6に記載の方法。 - 前記実際の勾配情報及び前記予測勾配情報に基づき類似度分析を行い、マスクを取得するステップは、
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップとを含む請求項7に記載の方法。 - 前記マスク及び前記特徴画像に対して残差フィルタ処理を行うステップは、
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップと、を含む請求項7に記載の方法。 - 前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するステップは、
前記領域強化の特徴画像に対して畳み込み計算を行い、前記単眼画像の深度画像を取得するステップを含む請求項1に記載の方法。 - 単眼画像の深度回復装置であって、
前記単眼画像に対して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される特徴抽出モジュールと、
前記特徴画像に対してデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成されるシーン構造推定モジュールと、
前記特徴画像と前記シーン構造マップに対して勾配感知処理を行い、領域強化の特徴画像を取得するように構成される勾配感知モジュールと、
前記領域強化の特徴画像に基づき深度推定を行い、前記単眼画像の深度画像を取得するように構成される深度推定モジュールと、を備える単眼画像の深度回復装置。 - 前記特徴抽出モジュールは、前記単眼画像を第1のニューラルネットワークに入力して特徴抽出を行い、前記単眼画像の特徴画像を取得するように構成される請求項11に記載の装置。
- 前記第1のニューラルネットワークによって実行される特徴抽出は、
前記単眼画像に対してマルチスケールの特徴抽出を行い、前記単眼画像のマルチスケール特徴情報を取得するステップと、
前記マルチスケール特徴情報に対して残差調整を行い、調整されたマルチスケール特徴情報を取得するステップと、
前記調整されたマルチスケール特徴情報に対して特徴融合を行い、前記特徴画像を取得するステップと、を含む請求項12に記載の装置。 - 前記シーン構造推定モジュールは、前記特徴画像を第2のニューラルネットワークに入力しデカップリングを行い、前記特徴画像のシーン構造マップを取得するように構成される請求項11に記載の装置。
- 前記装置は、さらに、
少なくとも1つの畳み込み層と正規化線形関数とを含む前記第2のニューラルネットワークを予め確立するように構成される確立モジュールを備える請求項14に記載の装置。 - 前記勾配感知モジュールは、前記特徴画像及び前記シーン構造マップを第3のニューラルネットワークに入力し勾配感知処理を行い、領域強化の特徴画像を取得するように構成される請求項11に記載の装置。
- 前記第3のニューラルネットワークによって実行される勾配感知処理は、
前記シーン構造マップに基づき前記シーン構造マップの実際の勾配画像を取得するステップと、
前記特徴画像に基づき前記特徴画像に対応する予測勾配画像を取得するステップと、
前記実際の勾配画像と前記予測勾配画像に基づき類似度分析を行い、マスクを取得すると、
前記マスク及び前記特徴画像に対して残差フィルタ処理を行い、領域強化の特徴画像を取得するステップと、を含む請求項16に記載の装置。 - 前記実際の勾配情報及び前記予測勾配情報に基づき類似度分析を行い、マスクを取得するステップは、
前記実際の勾配画像と前記予測勾配画像との間の類似度を算出するステップと、
予め設定された閾値よりも大きい類似度を有する実際の勾配画像を前記マスクとして用いるステップとを含む請求項17に記載の装置。 - 前記マスク及び前記特徴画像に対して残差フィルタ処理を行うステップは、
前記マスクと前記特徴画像との積を算出し、融合画像を取得するステップと、
前記融合画像に対して、畳み込み計算、正規化線形計算、畳み込み計算を順に含む前処理を行い、前処理された画像を取得するステップと、
前記特徴画像と前記前処理された画像を重ね合わせて、領域強化の特徴画像を取得するステップとを含む請求項17に記載の装置。 - 前記深度推定モジュールは、前記領域強化の特徴画像に対して畳み込み計算を行い、前記単眼画像の深度画像を取得するように構成される請求項11に記載の装置。
- コンピュータ実行可能コマンドを記憶したメモリと、前記メモリ内のコンピュータ実行可能コマンドを実行する時に、請求項1〜10中のいずれか1項に記載の方法のステップを実現するプロセッサーとを備えるコンピュータ機器。
- コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、前記プロセッサーが前記コンピュータプログラムを実行する時に、請求項1〜10中のいずれか1項に記載の方法を実現するコンピュータ可読記憶媒体。
- コンピュータコマンドを含むコンピュータプログラムであって、機器のプロセッサーで前記コンピュータコマンドを実行する時に、請求項1〜10中のいずれか1項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810502947.0 | 2018-05-23 | ||
CN201810502947.0A CN108932734B (zh) | 2018-05-23 | 2018-05-23 | 单目图像的深度恢复方法及装置、计算机设备 |
PCT/CN2018/116276 WO2019223262A1 (zh) | 2018-05-23 | 2018-11-19 | 单目图像的深度恢复方法及装置、计算机设备 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020524355A true JP2020524355A (ja) | 2020-08-13 |
JP2020524355A5 JP2020524355A5 (ja) | 2021-03-18 |
JP6850399B2 JP6850399B2 (ja) | 2021-03-31 |
Family
ID=64449119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520708A Active JP6850399B2 (ja) | 2018-05-23 | 2018-11-19 | 単眼画像の深度回復方法及び装置、コンピュータ機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11004221B2 (ja) |
JP (1) | JP6850399B2 (ja) |
CN (1) | CN108932734B (ja) |
SG (1) | SG11201912423WA (ja) |
WO (1) | WO2019223262A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6971934B2 (ja) * | 2018-08-10 | 2021-11-24 | 株式会社東芝 | 画像処理装置 |
CN109948689B (zh) * | 2019-03-13 | 2022-06-03 | 北京达佳互联信息技术有限公司 | 一种视频生成方法、装置、电子设备及存储介质 |
CN110515463B (zh) * | 2019-08-29 | 2023-02-28 | 南京泛在地理信息产业研究院有限公司 | 一种手势交互式视频场景中基于单目视觉的3d模型嵌入方法 |
CN112446909B (zh) * | 2019-08-30 | 2022-02-01 | 上海商汤临港智能科技有限公司 | 一种深度图像补全方法及装置、计算机可读存储介质 |
CN110992304B (zh) * | 2019-10-30 | 2023-07-07 | 浙江力邦合信智能制动系统股份有限公司 | 二维图像深度测量方法及其在车辆安全监测中的应用 |
US20210366139A1 (en) * | 2020-05-21 | 2021-11-25 | Samsung Electronics Co., Ltd. | Method and apparatus for generating depth image |
US12014507B2 (en) | 2021-06-10 | 2024-06-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for training a prediction system |
CN114143517A (zh) * | 2021-10-26 | 2022-03-04 | 深圳华侨城卡乐技术有限公司 | 一种基于重叠区域的融合蒙板计算方法、系统及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120002871A1 (en) * | 2010-07-01 | 2012-01-05 | Miao Hu | Method of Estimating Depths from a Single Image Displayed on Display |
JP2012525190A (ja) * | 2009-04-29 | 2012-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 単眼の内視鏡画像からのリアルタイム深度推定 |
CN103413347A (zh) * | 2013-07-05 | 2013-11-27 | 南京邮电大学 | 基于前景背景融合的单目图像深度图提取方法 |
CN105374039A (zh) * | 2015-11-16 | 2016-03-02 | 辽宁大学 | 基于轮廓锐度的单目图像深度信息估计方法 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2729106A1 (en) * | 2008-06-24 | 2009-12-30 | Thomson Licensing | System and method for depth extraction of images with motion compensation |
US8982187B2 (en) * | 2011-09-19 | 2015-03-17 | Himax Technologies Limited | System and method of rendering stereoscopic images |
US9471988B2 (en) * | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
CN106157307B (zh) * | 2016-06-27 | 2018-09-11 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106768325A (zh) * | 2016-11-21 | 2017-05-31 | 清华大学 | 多光谱光场视频采集装置 |
US11315292B2 (en) * | 2017-03-02 | 2022-04-26 | Arizona Board Of Regents On Behalf Of Arizona State University | Live-cell computed tomography |
US10504282B2 (en) * | 2018-03-21 | 2019-12-10 | Zoox, Inc. | Generating maps without shadows using geometry |
-
2018
- 2018-05-23 CN CN201810502947.0A patent/CN108932734B/zh active Active
- 2018-11-19 SG SG11201912423WA patent/SG11201912423WA/en unknown
- 2018-11-19 JP JP2020520708A patent/JP6850399B2/ja active Active
- 2018-11-19 WO PCT/CN2018/116276 patent/WO2019223262A1/zh active Application Filing
-
2019
- 2019-12-21 US US16/724,287 patent/US11004221B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012525190A (ja) * | 2009-04-29 | 2012-10-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 単眼の内視鏡画像からのリアルタイム深度推定 |
US20120002871A1 (en) * | 2010-07-01 | 2012-01-05 | Miao Hu | Method of Estimating Depths from a Single Image Displayed on Display |
CN103413347A (zh) * | 2013-07-05 | 2013-11-27 | 南京邮电大学 | 基于前景背景融合的单目图像深度图提取方法 |
CN105374039A (zh) * | 2015-11-16 | 2016-03-02 | 辽宁大学 | 基于轮廓锐度的单目图像深度信息估计方法 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200143552A1 (en) | 2020-05-07 |
SG11201912423WA (en) | 2020-01-30 |
JP6850399B2 (ja) | 2021-03-31 |
WO2019223262A1 (zh) | 2019-11-28 |
US11004221B2 (en) | 2021-05-11 |
CN108932734B (zh) | 2021-03-09 |
CN108932734A (zh) | 2018-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6850399B2 (ja) | 単眼画像の深度回復方法及び装置、コンピュータ機器 | |
US11145083B2 (en) | Image-based localization | |
JP2020524355A5 (ja) | ||
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
US11308347B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
CN110637305B (zh) | 通过渲染许多3d视图来学习重构3d形状 | |
KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
CN110264509A (zh) | 确定图像捕捉设备的位姿的方法、装置及其存储介质 | |
WO2018089163A1 (en) | Methods and systems of performing object pose estimation | |
EP3343506A1 (en) | Method and device for joint segmentation and 3d reconstruction of a scene | |
CN112154486B (zh) | 用于多用户增强现实购物的系统和方法 | |
US11315313B2 (en) | Methods, devices and computer program products for generating 3D models | |
CN110598771A (zh) | 一种基于深度语义分割网络的视觉目标识别方法和装置 | |
CN113592015A (zh) | 定位以及训练特征匹配网络的方法和装置 | |
JP6955081B2 (ja) | オブジェクト姿勢を決定するための電子デバイス、システムおよび方法 | |
Sharma et al. | A novel 3d-unet deep learning framework based on high-dimensional bilateral grid for edge consistent single image depth estimation | |
Liu et al. | Depth estimation of traffic scenes from image sequence using deep learning | |
Schwarz et al. | Tracking planes with time of flight cameras and j-linkage | |
CN112449701B (zh) | 学习模板表示库 | |
Madhavan et al. | Implementation of Customized Adaptive Algorithms for Visualization of Stereoscopic Face Mask | |
Liu et al. | Check for updates Depth Estimation of Traffic Scenes from Image Sequence Using Deep Learning | |
Rodriguez et al. | Moments-based stereo camera egomotion analysis and results for long-range trajectories | |
CN116051832A (zh) | 车辆的三维标注方法和装置 | |
Abdellaoui et al. | New matching method for human body tracking | |
Mitchell et al. | A robust structure and motion replacement for bundle adjustment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201120 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20210202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6850399 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |