JP7449977B2 - 可変焦点カメラの深度推定方法 - Google Patents
可変焦点カメラの深度推定方法 Download PDFInfo
- Publication number
- JP7449977B2 JP7449977B2 JP2022080377A JP2022080377A JP7449977B2 JP 7449977 B2 JP7449977 B2 JP 7449977B2 JP 2022080377 A JP2022080377 A JP 2022080377A JP 2022080377 A JP2022080377 A JP 2022080377A JP 7449977 B2 JP7449977 B2 JP 7449977B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- focus
- image features
- dimensional
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 67
- 238000013527 convolutional neural network Methods 0.000 claims description 61
- 230000006870 function Effects 0.000 claims description 45
- 238000010801 machine learning Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 230000003068 static effect Effects 0.000 claims description 3
- 238000007792 addition Methods 0.000 claims 1
- 238000011176 pooling Methods 0.000 description 39
- 238000010606 normalization Methods 0.000 description 33
- 230000004913 activation Effects 0.000 description 27
- 230000002776 aggregation Effects 0.000 description 14
- 238000004220 aggregation Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000013213 extrapolation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- VHYFNPMBLIVWCW-UHFFFAOYSA-N 4-Dimethylaminopyridine Chemical compound CN(C)C1=CC=NC=C1 VHYFNPMBLIVWCW-UHFFFAOYSA-N 0.000 description 2
- 238000000137 annealing Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Automatic Focus Adjustment (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
Description
・カメラの時系列の焦点位置を指定する所定の焦点計画に従って異なる焦点位置においてシーンの画像シーケンスをカメラで捕捉すること。
・畳み込みニューラルネットワークであるかこれを包含する機械学習アルゴリズムにより、所定数の捕捉画像の画像特徴を抽出して、抽出された画像特徴を記憶すること。
・捕捉された所定数の画像から画像特徴を抽出及び記憶した後に、機械学習アルゴリズムにより、画像特徴がまだ抽出されていない捕捉画像を処理し、捕捉画像が現在処理画像を表すこと。
・処理は更に、事前捕捉画像から記憶された画像特徴を現在処理画像の画像特徴と整合することを包含する。
・現在処理画像の画像特徴に整合された処理画像の少なくとも幾つか、好ましくは全ての処理画像の画像特徴を表す少なくとも一つの多次元テンソルを生成すること。
・所定の焦点計画で指定された焦点位置と、生成された少なくとも一つの多次元テンソルとを使用して、二次元深度マップを生成すること。
として表現され得る。
本明細書において、修正線形活性化関数(ReLu)は、負の値をゼロに設定してゼロを含む正の値を無変化にする畳み込みニューラルネットワークの活性化関数を指すものとして理解され得る。
として表現され得る。
ここで、アップサンプリング(Up,UP,Up-sample)演算は、画像又は画像特徴又は画像特徴テンソル又は特徴マップの幅及び/又は高さ次元を増加させる演算を指し、増加演算は、元の画像又は元の画像特徴テンソル又は元の特徴マップの値を内挿又は外挿してアップサンプリング値を得ることに基づく/これを包含する。
αは補正定数であって、好ましくは、αはチャネルの数又はチャネル次元サイズであるCより大きく、x、yは空間画素座標であり、tは時間、つまり画像特徴が抽出された捕捉画像の時間的位置/時点/タイムスタンプ/タイムインデックスであって、t∈[0,K-1]であり、Kは事前捕捉画像の数、例えば捕捉画像の所定数を示し、d∈[0,N-1]は、符号化される所与の画像の焦点面位置/焦点位置/焦点位置インデックスであって、Nは画像の総数、例えば、焦点計画での画像の数、あるいは焦点計画での画像の数と焦点計画の画像から導出された画像の数との和であり、この導出画像は、焦点計画に従って捕捉された画像の内挿又は外挿により導出され、i∈[0,C/2]は、符号化の為にチャネルの数を奇数及び偶数チャネルに分割するのに使用されるインデックスである。
上式において、c∈[1,C]はチャネルインデックスであり、Ek c,x,yは過去のK個の画像/事前捕捉画像の画像特徴/特徴テンソルの符号化を示す、つまりk∈[1,K]は、過去のK個/事前捕捉/記憶画像の画像特徴/特徴テンソルについてのインデックスを示す。
上式において、EF’は畳み込みニューラルネットワークによるEFの再形成により得られた二次元行列であり、i,jは行列要素を示し、EPF’は、畳み込みニューラルネットワークによりEPFを再形成することによって得られた三次元テンソルであり、k,i’,jは三次元テンソルの要素であってkは過去のK個/事前捕捉/記憶画像の画像特徴テンソルを示すインデックスである。ここでインデックスi及びi’は、例えば[0,(H*W)-1]の範囲を有して、インデックスjは[0,C,-1]の範囲を有し、H,Wは特徴テンソルの高さ及び幅次元であってCはチャネルの数である。
ての処理画像の画像特徴を表す少なくとも一つの多次元テンソルの一例であり、nは[0,N-1]範囲のインデックスであってmは[0,M-1]範囲のインデックスであり、Nは固有焦点位置の数であってMは上に定義されている。
特徴に整合された事前処理画像特徴の幾つかのみを表し得る、つまり上に特定されたインデックス範囲が例示的に過ぎないことが可能である。
を使用して少なくとも一つの多次元焦点確率マップを現実の物理的距離に再マッピングすることとを包含し得る。
・必要に応じて、処理された捕捉画像の元の空間解像度へのEPFaの任意のアップサンプリング
・チャネル数を1まで減少させる畳み込み
・多次元焦点確率マップを取得するソフトマックス演算による正規化
・一方のブランチ430,440,450では、入力画像101のサイズ/元の空間分解能にアップサンプリング(UP)が行われてから、畳み込み層(Conv)と、バッチ正規化(BN)と、修正線形活性化関数(ReLu)と、更なる畳み込み層(Conv)と、チャネルの数を1まで減少させる更なるバッチ正規化(BN)演算と、最終ソフトマックス演算とのシーケンスが続いて、中間焦点確率マップ280,290,300が得られる。
・他方のブランチ431,441,451は、三次元空間ピラミッドプーリングブロックの出力をメモリブロック250,260,270の出力と統合する三次元(3D)マルチスケール集約ブロック340,370,400を包含する。明確に記すと、示されている例示的アーキテクチャでは、メモリブロック250の出力が三次元空間ピラミッドプーリングブロック330の出力と統合され、メモリブロック260の出力が三次元空間ピラミッドプーリングブロック360の出力と統合され、メモリブロック270の出力が三次元空間ピラミッドプーリングブロック390の出力と統合される。
αは補正定数であって、好ましくは、αはCより大きく、チャネルの数又はチャネル次元サイズx,yは空間画素座標であり、tは時間つまり画像特徴が抽出された捕捉画像の時間的位置/時点/タイムスタンプ/タイムインデックスであって、t∈[0,K-1]であり、Kは事前捕捉画像の数、例えば捕捉画像の所定数であり、d∈[0,N-1]は符号化される所与の画像の焦点面位置/焦点位置/焦点位置インデックスであり、Nは画像又は焦点位置の総数、例えば焦点計画での画像の数、あるいは焦点計画での画像数と焦点計画の画像から導出された画像の数との和であり、この導出画像は、焦点計画に従って捕捉された画像の内挿又は外挿入により導出され、i∈[0,C/2]はチャネルの数を符号化の為の偶数及び奇数チャネルに分割するのに使用されるインデックスである。
徴との間の類似度スコアである。
の特性を持つ正規化類似度スコアである。
この正規化類似度スコアSim’は、現在処理画像から抽出された画像特徴を処理する第1四次元(4D)符号化ブロック4110に続くブランチ4120から受理されるとともに、事前捕捉画像から抽出及び記憶された画像特徴、例えば所定数の捕捉画像、例えば過去のK個の画像から抽出及び記憶された画像特徴を処理する第2四次元(4D)符号化ブロック4190に続く(第1、上方)ブランチ4130から受理された入力を処理した後のパッチ別類似度ブロック4150の出力4151である/これを表す。
された全ての処理済み焦点位置の画像特徴を表す少なくとも一つの多次元テンソルについての例である。前に指摘したように、全ての処理画像の全ての画像特徴でなく、現在処理画像の画像特徴に整合された処理画像/事前捕捉/過去画像のうち少なくとも画像特徴を表す多次元テンソルを生成することも可能である。
れるものとして理解され、キーは、4D位置符号化ブロック4190に続く上方ブランチ4140でのバッチ正規化(BN)を含む二次元畳み込み層(Conv)を包含するシーケンス4131を適用した後の事前処理記憶画像の画像特徴の四次元テンソルEPFkey∈
・カメラの時系列の焦点位置を指定する所定の焦点計画に従って異なる焦点位置においてシーンの画像シーケンスをカメラで捕捉すること(801)であって、焦点計画は、複数の固有及び/又は非固有、例えば二重の焦点位置の組み合わせを包含し得る。
・畳み込みニューラルネットワークを包含する機械学習アルゴリズムにより、所定数の捕捉画像の画像特徴を抽出して(802)、抽出された画像特徴を記憶することであって、畳み込みニューラルネットワークは、例えば、図2a,2b,2c,2d,2e,3a,3b,3c,3d,4a,4b,4cに例示的に記載されているような構成を包含し、記憶は、メモリブロック240,250,260,270内に、例えば特徴記憶プール4010に特徴を記憶することを包含し得る。
・所定数の捕捉画像から画像特徴を抽出及び記憶した後に、機械学習アルゴリズムにより、画像特徴がまだ抽出されていない捕捉画像を処理することであって、捕捉画像は現在処理画像、例えば入力画像101を表す。
・処理は、機械学習アルゴリズムにより現在処理画像から画像特徴を抽出することと、抽出された画像特徴を記憶することとを包含する。
・処理は更に、事前捕捉画像から記憶された画像特徴を現在処理画像の画像特徴と整合することを包含し、例えば、図3a,4a,4b,4cに例示的に記載されているようにメモリブロックの特徴整合ヘッドにより整合が実行される。
・処理は更に、上に記載したように、現在処理画像の画像特徴に整合された全ての処理
テンソルを生成することを包含する。
・所定の焦点計画で指定された焦点位置と、生成された少なくとも一つの多次元テンソルとを使用して、二次元深度マップを生成すること。
700 画像ストリーム、複数の画像
710 焦点計画
720 畳み込みニューラルネットワークを包含する機械学習アルゴリズム
730 焦点確率マップ
740 現実の物理的距離への再マッピング
750 推定/抽出による深度マップ
100 畳み込みニューラルネットワークの二次元符号器
101 入力画像/現在処理画像
102 二次元畳み込み/畳み込みブロック/層
103,104,105,106 二次元残差畳み込み/畳み込みブロック/層
107 二次元空間ピラミッドプーリングブロック/層
108,109,110 二次元マルチスケール特徴集約ブロック/層
111,112,113,114 畳み込みニューラルネットワークのブロック/層のシーケンス
111a,112a,113a,114a 畳み込み/畳み込み層/ブロック/演算
111b,112b,113b,114b バッチ正規化層/ブロック/演算
111c,112c,113c,114c 修正線形活性化関数層/ブロック/演算
115,116,117,118 出力/抽出された特徴/特徴テンソル
119,120,121 2D畳み込みの層/畳み込みブロック/層のブロック/層シーケンス
122 2D畳み込み/畳み込みブロック/層のプーリングブロック/層
123 二次元畳み込み層とバッチ正規化と修正線形活性化関数演算とのシーケンス
124,127 二次元畳み込み層とバッチ正規化とのシーケンス
125 加算層/ブロック/演算
126 修正線形活性化関数演算
128,129 2D残差畳み込み/畳み込みブロック/層のブランチ
130 アップサンプリング層/ブロック/演算
131,133 二次元畳み込み層とバッチ正規化と修正線形活性化関数演算とのシーケンス
132 連結層/ブロック/演算
134,135,136,137,138 2D空間ピラミッドプーリングブロック/層のブランチ
139 加算層/ブロック/演算
200 復号器/復号層
201,202,203,204 入力特徴/特徴テンソル
240,250,260,270 メモリブロック
340,370,400 三次元マルチスケール特徴集約ブロック/層
320,350,380,410 3D残差畳み込み/畳み込みブロック/層
330,360,390,420 3D空間ピラミッドプーリングブロック/層
430,431,440,441,450,451,461 3D空間ピラミッドプーリングブロック/層の出力ブランチ
280,290,300 中間焦点確率マップ
310 最終焦点確率マップ
501,502 3D残差畳み込みのブランチ/畳み込みブロック/層のブランチ
503 二次元畳み込み層とバッチ正規化と修正線形活性化関数演算とのシーケンス
504,505 二次元畳み込み層とバッチ正規化とのシーケンス
506 加算層/ブロック/演算
507 修正線形活性化関数演算
508 アップサンプリング層/ブロック/演算
509,511 二次元畳み込み層とバッチ正規化と修正線形活性化関数演算とのシーケンス
510 連結層/ブロック/演算
512,513,514,515,516 3D空間ピラミッドプーリングブロック/層のブランチ
518 加算層/ブロック/演算
4000 現在処理画像の画像特徴
4010 事前処理画像/特徴記憶プールから画像特徴/特徴を記憶するコンピュータ可読メモリ
4020 特徴整合ブロック
4030 時系列的に最後の焦点位置、つまり現在焦点位置に整合された各焦点位置の/各焦点面の画像特徴
4040 現在処理画像の画像特徴
4050 事前処理画像の画像特徴
4060 特徴整合ヘッド
4070 特徴結合演算子/ブロック/層
4080 時系列的に最後の焦点位置つまり現在焦点位置に整合された各焦点位置の/各焦点面の画像特徴
4090 現在処理画像の画像特徴
4100 事前処理画像の画像特徴
4110,4190 4D位置符号化ブロック/層/演算
4121,4131,4141 バッチ正規化を含む二次元畳み込み層のシーケンス
4120 4D位置符号化ブロック4110のブランチ
4130,4140 4D位置符号化ブロック4190のブランチ
4142 再形成層/ブロック/演算
4143 行列乗算層/ブロック/演算
4150 パッチ別類似度ブロック/層/演算
4160 焦点位置分類の為のブロック/層/演算
4170 減算和演算/層
4180 時系列的に最後の焦点位置つまり現在焦点位置に整合された各焦点位置の/各焦点面の画像特徴
800 異なる焦点位置でカメラにより撮影された複数の画像から深度情報を抽出する為の方法
801,802,803,804,805,806,807 方法ステップ
600 訓練サンプル画像のシーケンス
610 既知/予想/グラウンドトゥルース深度マップのシーケンス
620 焦点計画
630 畳み込みニューラルネットワークを包含する機械学習アルゴリズム
640 得られた焦点確率マップのシーケンス
660 損失関数
670 推定/予測深度マップを得る為の現実の物理的距離への再マッピング演算
Claims (15)
- 異なる焦点位置でカメラにより撮影された複数の画像から深度情報を抽出する為のコンピュータ実装方法(800)であって、
前記カメラの時系列の焦点位置を指定する所定の焦点計画による異なる焦点位置においてシーンの画像シーケンスをカメラで捕捉すること(800)と、
畳み込みニューラルネットワークを包含する機械学習アルゴリズムにより、所定数の事前捕捉画像の画像特徴を抽出して(802)、抽出された前記画像特徴を記憶することと、
所定数の前記事前捕捉画像から画像特徴を抽出及び記憶した後に、前記機械学習アルゴリズムにより、画像特徴がまだ抽出されていない前記事前捕捉画像を処理すること(803)であって、前記事前捕捉画像が現在処理画像を表し、
前記処理が、前記機械学習アルゴリズムにより前記現在処理画像からの画像特徴を抽出すること(804)と、抽出された前記画像特徴を記憶することとを包含し、
前記処理が更に、前記事前捕捉画像から記憶された画像特徴を前記現在処理画像の前記画像特徴と整合すること(805)を包含する、
ことと、
前記現在処理画像の前記画像特徴に整合された前記処理画像の少なくとも幾つかの前記画像特徴を表す少なくとも一つの多次元テンソルを生成すること(806)と、
前記所定の焦点計画で指定された前記焦点位置と、生成された少なくとも一つの前記多次元テンソルとを使用して二次元深度マップを生成すること(807)と、
を包含する方法。 - 幅次元Wと高さ次元Hとチャネル次元Cとを包含する三次元特徴テンソルとして前記画像特徴が抽出され、前記チャネル次元が、前記畳み込みニューラルネットワークの一以上の層により画像から抽出された特徴マップの数を表し、抽出された画像特徴の記憶が、抽出された前記画像特徴を三次元特徴テンソルのリストとして記憶することを包含する、請求項1に記載の方法。
- 前記事前捕捉画像から記憶された前記画像特徴と前記現在処理画像の前記画像特徴との整合が、前記事前捕捉画像から記憶された前記画像特徴に、そして前記現在処理画像からの前記画像特徴に四次元符号化を適用することを包含し、前記四次元符号化が、前記事前捕捉画像からの前記画像特徴に、そして前記現在処理画像からの前記画像特徴に時間、空間、焦点位置の情報を埋め込むことを包含する、請求項1または2に記載の方法。
- 前記四次元符号化が非線形である、及び/又は、前記現在処理画像からの前記画像特徴への、そして前記事前捕捉画像から記憶された前記画像特徴の各々への追加を介して、前記四次元符号化が適用される、請求項3に記載の方法。
- 前記四次元符号化が三角関数の使用に基づく、請求項3に記載の方法。
- 前記所定の焦点計画で指定された前記焦点位置と、生成された少なくとも一つの前記多次元テンソルとを使用して二次元深度マップを生成するステップが、前記機械学習アルゴリズムにより、少なくとも一つの多次元焦点確率マップを生成することと、前記所定の焦点計画で指定された前記焦点位置を使用して少なくとも一つの前記多次元焦点確率マップを現実の物理的距離に再マッピングすることとを包含する、請求項1または2に記載の方法。
- 少なくとも一つの前記多次元焦点確率マップが、幅次元Wと高さ次元Hと焦点位置次元Nとを有する三次元テンソルであって前記焦点位置次元が焦点位置の数を表し、前記幅及び高さ次元のサイズが入力画像の幅及び高さ次元のサイズと等しく、前記入力画像が、所定数の前記事前捕捉画像の画像又は前記現在処理画像のいずれかである、請求項6に記載の方法。
- 前記所定の焦点計画で指定された前記焦点位置を使用した現実の物理的距離への少なくとも一つの前記多次元焦点確率マップの再マッピングが、少なくとも一つの前記多次元焦点確率マップの各画素と前記焦点計画の前記焦点位置との間のドット積を計算することを包含する、請求項6に記載の方法。
- 前記現在処理画像の前記画像特徴に整合された全ての処理画像の前記画像特徴を表す、生成された少なくとも一つの前記多次元テンソルが、幅次元Wと、高さ次元Hと、前記畳み込みニューラルネットワークの一以上の層により前記処理画像から抽出された特徴マップの数を表すチャネル次元であるチャネル次元Cと、焦点位置の数を表す焦点位置次元である焦点位置次元Nとを包含する四次元テンソルである、請求項1または2に記載の方法。
- 前記所定数の捕捉画像の画像特徴の抽出と前記現在処理画像の画像特徴の抽出とが更に、前記機械学習アルゴリズムにより画像特徴を異なるスケールで抽出することを包含し、前記スケールが、入力画像の高さの分数として、及び/又は、入力画像の幅の分数として規定され、前記入力画像が前記所定数の捕捉画像の画像又は前記現在処理画像のいずれかである、請求項1または2に記載の方法。
- 前記所定数の捕捉画像から抽出された前記画像特徴と前記現在処理画像から抽出された前記画像特徴とが、循環バッファ、例えば前記所定数の捕捉画像からの前記画像特徴を少なくとも保持できる循環バッファのコンピュータ可読メモリに記憶される、及び/又は、前記所定数の捕捉画像が、前記焦点計画により指定された異なる焦点位置の数と少なくとも等しいか前記数より大きい、請求項1または2に記載の方法。
- 前記畳み込みニューラルネットワークが、複数の異なるシーンについて異なる焦点位置を焦点とする複数の画像を包含する訓練サンプルで訓練された訓練済み畳み込みニューラルネットワークであり、前記シーンが静的又は動的であり、損失関数を使用して前記畳み込みニューラルネットワークにより生成された推定による深度マップを対応の既知グラウンドトゥルース深度マップと比較することにより、前記畳み込みニューラルネットワークパラメータが最適化される、請求項1または2に記載の方法。
- コンピュータメモリと、
一以上のプロセッサ、例えばCPU及び/又はGPUと、
を具備して、
異なる焦点位置でカメラにより撮影された複数の画像から深度情報を抽出する為に請求項1または2に記載の方法を実行するように前記一以上のプロセッサに指示する命令を前記コンピュータメモリが記憶する、
コンピューティングシステム。 - 前記コンピューティングシステムが、異なる焦点位置を含むシーンの画像を捕捉する為に構成されたカメラを具備するポータブルモバイルデバイス、例えばスマートフォンである、請求項13に記載のコンピューティングシステム。
- コンピュータシステムによる実行時に、異なる焦点位置でカメラにより撮影された複数の画像から深度情報を抽出する為に請求項13に記載の方法を実施するコンピュータ実行可能命令を記憶する為のコンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21382458.4A EP4092572A1 (en) | 2021-05-20 | 2021-05-20 | Method for depth estimation for a variable focus camera |
EP21382458.4 | 2021-05-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022179397A JP2022179397A (ja) | 2022-12-02 |
JP7449977B2 true JP7449977B2 (ja) | 2024-03-14 |
Family
ID=76197385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022080377A Active JP7449977B2 (ja) | 2021-05-20 | 2022-05-16 | 可変焦点カメラの深度推定方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20220383525A1 (ja) |
EP (1) | EP4092572A1 (ja) |
JP (1) | JP7449977B2 (ja) |
KR (1) | KR20220157329A (ja) |
CN (1) | CN115375532A (ja) |
AU (1) | AU2022203080B2 (ja) |
CA (1) | CA3157444A1 (ja) |
CL (1) | CL2022001304A1 (ja) |
TW (1) | TWI791405B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109561257B (zh) * | 2019-01-18 | 2020-09-18 | 深圳看到科技有限公司 | 画面对焦方法、装置、终端及对应的存储介质 |
US12017355B2 (en) * | 2021-06-08 | 2024-06-25 | Fanuc Corporation | Grasp learning using modularized neural networks |
US11809521B2 (en) * | 2021-06-08 | 2023-11-07 | Fanuc Corporation | Network modularization to learn high dimensional robot tasks |
US11983920B2 (en) * | 2021-12-20 | 2024-05-14 | International Business Machines Corporation | Unified framework for multigrid neural network architecture |
JP2024104391A (ja) * | 2023-01-24 | 2024-08-05 | 浜松ホトニクス株式会社 | 焦点位置推定方法、焦点位置推定プログラム、焦点位置推定システム、モデル生成方法、モデル生成プログラム、モデル生成システム及び焦点位置推定モデル |
CN116386027B (zh) * | 2023-04-03 | 2023-10-24 | 南方海洋科学与工程广东省实验室(珠海) | 一种基于人工智能算法的海洋三维旋涡识别系统及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9530213B2 (en) * | 2013-01-02 | 2016-12-27 | California Institute Of Technology | Single-sensor system for extracting depth information from image blur |
TWI554103B (zh) * | 2014-11-13 | 2016-10-11 | 聚晶半導體股份有限公司 | 影像擷取裝置及其數位變焦方法 |
TWI640199B (zh) * | 2016-06-24 | 2018-11-01 | 聚晶半導體股份有限公司 | 影像擷取裝置及其攝影構圖的方法 |
US10755428B2 (en) * | 2017-04-17 | 2020-08-25 | The United States Of America, As Represented By The Secretary Of The Navy | Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model |
CN109803090B (zh) * | 2019-01-25 | 2021-09-28 | 睿魔智能科技(深圳)有限公司 | 无人拍摄自动变焦方法及系统、无人摄像机及存储介质 |
CN110400341B (zh) * | 2019-07-03 | 2021-09-21 | 北京华捷艾米科技有限公司 | 一种3d结构光深度相机和移动终端 |
CN112102388B (zh) * | 2020-09-18 | 2024-03-26 | 中国矿业大学 | 基于巡检机器人单目图像获取深度图像的方法及装置 |
-
2021
- 2021-05-20 EP EP21382458.4A patent/EP4092572A1/en active Pending
-
2022
- 2022-05-02 CA CA3157444A patent/CA3157444A1/en active Pending
- 2022-05-09 AU AU2022203080A patent/AU2022203080B2/en active Active
- 2022-05-16 US US17/663,643 patent/US20220383525A1/en active Pending
- 2022-05-16 JP JP2022080377A patent/JP7449977B2/ja active Active
- 2022-05-18 CN CN202210539052.0A patent/CN115375532A/zh active Pending
- 2022-05-18 CL CL2022001304A patent/CL2022001304A1/es unknown
- 2022-05-19 TW TW111118758A patent/TWI791405B/zh active
- 2022-05-20 KR KR1020220062283A patent/KR20220157329A/ko unknown
Non-Patent Citations (3)
Title |
---|
Hyeongwoo Kim et al.,Video Depth-From-Defocus,[online],2016年,https://ieeexplore.ieee.org/document/7785111 |
Maxim Maximov et al.,Focus on defocus: bridging the synthetic toreal domain gap for depth estimation - Supplementary Material -,[online],2020年,https://openaccess.thecvf.com/content_CVPR_2020/supplemental/Maximov_Focus_on_Defocus_CVPR_2020_supplemental.pdf |
Maxim Maximov et al.,Focus on defocus: bridging the synthetic toreal domain gap for depth estimation,[online],2020年,https://ieeexplore.ieee.org/document/9157368 |
Also Published As
Publication number | Publication date |
---|---|
TWI791405B (zh) | 2023-02-01 |
US20220383525A1 (en) | 2022-12-01 |
CL2022001304A1 (es) | 2023-01-13 |
JP2022179397A (ja) | 2022-12-02 |
EP4092572A1 (en) | 2022-11-23 |
TW202247100A (zh) | 2022-12-01 |
AU2022203080B2 (en) | 2024-02-22 |
KR20220157329A (ko) | 2022-11-29 |
CA3157444A1 (en) | 2022-11-20 |
CN115375532A (zh) | 2022-11-22 |
AU2022203080A1 (en) | 2022-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7449977B2 (ja) | 可変焦点カメラの深度推定方法 | |
Guizilini et al. | 3d packing for self-supervised monocular depth estimation | |
US10353271B2 (en) | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF | |
CN108352074B (zh) | 光学流估计的图像处理系统和方法 | |
CN107895150B (zh) | 基于嵌入式系统小规模卷积神经网络模块的人脸检测和头部姿态角评估 | |
WO2021093432A1 (en) | System, device and method for video frame interpolation using structured neural network | |
CN108961327A (zh) | 一种单目深度估计方法及其装置、设备和存储介质 | |
WO2024021194A1 (zh) | 激光雷达点云分割方法、装置、设备及存储介质 | |
CN112750133A (zh) | 计算机视觉训练系统和用于训练计算机视觉系统的方法 | |
KR20130112311A (ko) | 고밀도 삼차원 영상 재구성 장치 및 방법 | |
CN114119992B (zh) | 基于图像与点云融合的多模态三维目标检测方法及装置 | |
CN116152334A (zh) | 图像处理方法及相关设备 | |
CN116703996A (zh) | 基于实例级自适应深度估计的单目三维目标检测算法 | |
CN114742875A (zh) | 基于多尺度特征提取和自适应聚合的双目立体匹配方法 | |
Huang et al. | ES-Net: An efficient stereo matching network | |
CN113255511A (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
Zhang et al. | NeuFlow: Real-time, High-accuracy Optical Flow Estimation on Robots Using Edge Devices | |
CN116957999A (zh) | 深度图优化方法、装置、设备及存储介质 | |
CN116342800A (zh) | 一种多模态位姿优化的语义三维重建方法及系统 | |
CN115097935A (zh) | 一种手部定位方法和vr设备 | |
CN116128792A (zh) | 图像处理方法及相关设备 | |
CN110490235B (zh) | 一种面向2d图像的车辆对象视点预测与三维模型恢复方法及装置 | |
CN114119999A (zh) | 基于深度学习的迭代6d位姿估计方法及装置 | |
He et al. | SCIR-Net: Structured color image representation based 3D object detection network from point clouds | |
CN112634331A (zh) | 一种光流预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7449977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |