JP7401663B2 - デュアルカメラおよびデュアルピクセルからのジョイント深度予測 - Google Patents
デュアルカメラおよびデュアルピクセルからのジョイント深度予測 Download PDFInfo
- Publication number
- JP7401663B2 JP7401663B2 JP2022522358A JP2022522358A JP7401663B2 JP 7401663 B2 JP7401663 B2 JP 7401663B2 JP 2022522358 A JP2022522358 A JP 2022522358A JP 2022522358 A JP2022522358 A JP 2022522358A JP 7401663 B2 JP7401663 B2 JP 7401663B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- scene
- depth information
- joint
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009977 dual effect Effects 0.000 title description 55
- 238000013528 artificial neural network Methods 0.000 claims description 143
- 238000000034 method Methods 0.000 claims description 113
- 238000003860 storage Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 37
- 238000012549 training Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 26
- 238000013527 convolutional neural network Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010012586 Device interaction Diseases 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本出願は、その全体が参照により本明細書に組み込まれる、2019年10月14日出願の米国仮特許出願第62/914,988号の優先権を主張する。
以下の実施形態は、開示されたANN実装形態を使用し得る例示的なコンピューティングデバイスおよびシステムのアーキテクチャおよび動作の態様、ならびにその特徴および利点について説明する。
A. 例示的なANN
人工ニューラルネットワーク(ANN)は、個々に並列に、および中央制御なしで動作するいくつかの単純なユニットが、複雑な問題を解決するために結合することができる計算モデルである。ANNは、隣接する層のノード間の接続を有する、いくつかの層に配列されたいくつかのノードとして表される。
ANNをトレーニングすることは、ANNに、何らかの形式の監視トレーニングデータ、すなわち、入力値と所望の、またはグラウンドトゥルースの出力値の組を提供することを伴い得る。たとえば、ANNが画像処理タスクを実行することを可能にする監視トレーニングは、トレーニング画像と、トレーニング画像の所望の出力(たとえば、所望のセグメンテーション)を表す対応するグラウンドトゥルースマスクとを含む画像の対を提供することを伴い得る。ANN300の場合、このトレーニングデータは、m組の入力値と出力値との対を含み得る。より形式的には、トレーニングデータは、以下のように表され得る。
フィードフォワードパスを開始するために、隠れ層336内の各ノードへの正味入力が計算される。正味入力から、これらのノードの出力は、活性化関数を適用することによって見つけることができる。ノードH1の場合、正味入力netH1は、以下のとおりである。
netH1=w1X1+w2X2+b1 (4)
この入力に活性化関数(ここではロジスティック関数)を適用することにより、ノードH1の出力、outH1は、次のように決定される。
netO1=w5 outH1+w6 outH2+b2 (6)
Δ=ΔO1+ΔO2
上述したように、逆伝搬の目標は、重みが将来のフィードフォワード反復においてより少ない誤差に寄与するように重みを更新するために、Δ(すなわち、損失関数に基づいて決定される総誤差)を使用することである。一例として、重みw5を考える。この目標は、w5の変化がΔにどのくらい影響を及ぼすかを決定することを伴う。これは、偏導関数
畳み込みニューラルネットワーク(CNN)は、CNNがノードのいくつかの層からなり、それらの間に重み付けされた接続、および層ごとのバイアスが可能であるという点で、ANNと同様である。重みおよびバイアスは、上述のフィードフォワードおよび逆伝搬手順によって更新されてもよい。損失関数を使用して、フィードフォワード処理の出力値を所望の出力値と比較してもよい。
102 プロセッサ
104 メモリ
104A ファームウェア
104B カーネル
104C アプリケーション
106 ネットワークインターフェース
108 入出力ユニット
110 システムバス
200 クラウドベースのサーバクラスタ
202 サーバデバイス
204 データストレージ
206 ルータ
208 ローカルクラスタネットワーク
210 通信リンク
212 ネットワーク
300 ANN
302 初期入力値
304 入力層
306 隠れ層
308 隠れ層
310 出力層
312 最終出力値
330 ANN
332 初期入力値
334 入力層
336 隠れ層
338 出力層
340 最終出力値
400 CNN
402 初期入力値
404 入力層
406 畳み込み層
408 RELU層
410 プーリング層
412 分類層
414 最終出力値
420 行列
422 フィルタ
424 出力
500 システム
502 コンピューティングシステム
508 出力層
510 モバイルデバイス
600 システム
602 マルチカメラ深度情報
604 シングルカメラ深度情報
606 ニューラルネットワークを使用した深度予測
608 ステレオ前処理
610 ステレオ較正
612 デュアルピクセル
614 緑サブピクセル
700 ジョイント深度推定アーキテクチャ
702 デュアルピクセル入力
704 ニューラルネットワーク
706 デュアルピクセル深度
708 デュアルピクセル信頼度
710 差分ボリューム入力
712 ニューラルネットワーク
714 コストボリューム深度
716 コストボリューム信頼度
720 最終深度マップ
730 実装
732 深度予測
736 深度予測
734 信頼度
738 信頼度
740 ジョイント深度マップ
800 ジョイント深度推定アーキテクチャ
802 デュアルピクセル入力
804 ニューラルネットワーク
806 共有デコーダ
808 差分ボリューム入力
810 最終深度
900 入力画像
902 おもちゃの犬
904 人の足
906 椅子
908 ジョイント深度推定
910 修正画像
1100 コンピュータプログラム製品
1102 信号担持媒体
1104 プログラミング命令
1106 非一時的コンピュータ可読媒体
1108 コンピュータ記録可能媒体
1110 通信媒体
Claims (18)
- コンピューティングシステムにおいて、第1のソースからのシーンを表す第1の組の深度情報と、第2のソースからの前記シーンを表す第2の組の深度情報とを取得するステップと、
前記コンピューティングシステムにおいて、ニューラルネットワークを使用して、前記シーン内の要素のそれぞれの深度を伝達するジョイント深度マップを決定するステップであって、前記ニューラルネットワークが、前記第1の組の深度情報と前記第2の組の深度情報との組合せに基づいて、前記ジョイント深度マップを決定し、前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定するステップが、前記第1の組の深度情報に関連付けられた第1の信頼度と、前記第2の組の深度情報に関連付けられた第2の信頼度とに基づいて、前記ジョイント深度マップを決定するステップを含む、ステップと、
前記ジョイント深度マップに基づいて前記シーンを表す画像を修正するステップと
を含む方法。 - 前記第1のソースからの前記シーンを表す前記第1の組の深度情報と、前記第2のソースからの前記シーンを表す前記第2の組の深度情報とを取得するステップが、
単一のカメラから前記シーンを表す前記第1の組の深度情報を受信するステップであって、前記第1の組の深度情報が、前記シーンを表す1つまたは複数のデュアルピクセル画像に対応する、ステップ
を含む、請求項1に記載の方法。 - 前記第1のソースからの前記シーンを表す前記第1の組の深度情報と、前記第2のソースからの前記シーンを表す前記第2の組の深度情報とを取得するステップが、
前記1つまたは複数のデュアルピクセル画像に基づく前記シーンの第1の深度推定を受信するステップ
を含む、請求項2に記載の方法。 - 前記第1のソースからの前記シーンを表す前記第1の組の深度情報と、前記第2のソースからの前記シーンを表す前記第2の組の深度情報とを取得するステップが、
1対のステレオカメラからの前記シーンを表す前記第2の組の深度情報を受信するステップであって、前記第2の組の深度情報が、前記シーンを表す1組または複数組のステレオ画像に対応する、ステップ
を含む、請求項1に記載の方法。 - 前記第1のソースからの前記シーンを表す前記第1の組の深度情報と、前記第2のソースからの前記シーンを表す前記第2の組の深度情報とを取得するステップが、
前記シーンを表す前記1組または複数組のステレオ画像に基づく前記シーンの第2の深度推定を受信するステップ
を含む、請求項4に記載の方法。 - 前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定するステップが、
前記ニューラルネットワークによって、第1の重みを前記第1の組の深度情報に割り当て、第2の重みを前記第2の組の深度情報に割り当てるステップと、
前記第1の組の深度情報に割り当てられた前記第1の重みと、前記第2の組の深度情報に割り当てられた前記第2の重みとに基づいて、前記ジョイント深度マップを決定するステップと
を含む、請求項1に記載の方法。 - 前記ニューラルネットワークによって、前記第1の重みを前記第1の組の深度情報に割り当て、前記第2の重みを前記第2の組の深度情報に割り当てるステップが、前記シーンの前記画像をキャプチャしたカメラと前記シーンの前景の要素との間の距離に基づく、請求項6に記載の方法。
- 前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定するステップが、
前記ニューラルネットワークがデコーダを使用して前記ジョイント深度マップを決定するように、前記ニューラルネットワークへの入力として、前記第1の組の深度情報および前記第2の組の深度情報を提供するステップ
を含む、請求項1に記載の方法。 - 前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定するステップが、
前記ニューラルネットワークが、前記第1の組の深度情報に関連付けられた前記第1の信頼度と、前記第2の組の深度情報に関連付けられた前記第2の信頼度とを使用して前記ジョイント深度マップを決定するように、前記第1の組の深度情報と前記第2の組の深度情報とを前記ニューラルネットワークへの入力として提供するステップ
を含む、請求項1に記載の方法。 - 前記ジョイント深度マップに基づいて前記シーンを表す前記画像を修正するステップが、
前記ジョイント深度マップに基づいて、前記画像の1つまたは複数の背景部分に部分的なぼかしを適用するステップ
を含む、請求項1に記載の方法。 - 複数のソースと、
第1のソースからのシーンを表す第1の組の深度情報と、第2のソースからの前記シーンを表す第2の組の深度情報とを取得することと、
ニューラルネットワークを使用して、前記シーン内の要素のそれぞれの深度を伝達するジョイント深度マップを決定することであって、前記ニューラルネットワークが、前記第1の組の深度情報と前記第2の組の深度情報との組合せに基づいて、前記ジョイント深度マップを決定し、前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定することが、前記第1の組の深度情報に関連付けられた第1の信頼度と、前記第2の組の深度情報に関連付けられた第2の信頼度とに基づいて、前記ジョイント深度マップを決定することを含む、決定することと、
前記ジョイント深度マップに基づいて前記シーンを表す画像を修正することと
を行うように構成されている、コンピューティングシステムと
を含むシステム。 - 前記コンピューティングシステムが、前記第1の組の深度情報が前記シーンを表す1つまたは複数のデュアルピクセル画像に対応するように、単一のカメラから前記シーンを表す前記第1の組の深度情報を受信するように構成されている、請求項11に記載のシステム。
- 前記第1の組の深度情報が、前記1つまたは複数のデュアルピクセル画像に基づく前記シーンの第1の深度推定を含む、請求項12に記載のシステム。
- 前記コンピューティングシステムが、前記第2の組の深度情報が前記シーンを表す1組または複数組のステレオ画像に対応するように、1対のステレオカメラからの前記シーンを表す前記第2の組の深度情報を受信するように構成されている、請求項11に記載のシステム。
- 前記第2の組の深度情報が、前記1組または複数組のステレオ画像に基づく前記シーンの第2の深度推定を含み、前記シーンの前記第2の深度推定が、差分ボリューム技法を使用して決定される、請求項14に記載のシステム。
- 前記コンピューティングシステムが、前記ニューラルネットワークを使用して、前記ニューラルネットワークによる前記第1の組の深度情報および前記第2の組の深度情報に対するデコーダの適用に基づいて、前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定するように構成されている、請求項11に記載のシステム。
- 前記コンピューティングシステムが、
前記ジョイント深度マップに基づいて、前記画像の1つまたは複数の背景部分に部分的なぼかしを適用することによって、前記シーンを表す前記画像を修正するように構成されている、請求項11に記載のシステム。 - 命令を記憶するように構成された非一時的コンピュータ可読記録媒体であって、前記命令が、1つまたは複数のプロセッサを含むコンピューティングシステムによって実行されると、前記コンピューティングシステムに、
第1のソースからのシーンを表す第1の組の深度情報と、第2のソースからの前記シーンを表す第2の組の深度情報とを取得することと、
ニューラルネットワークを使用して、前記シーン内の要素のそれぞれの深度を伝達するジョイント深度マップを決定することであって、前記ニューラルネットワークが、前記第1の組の深度情報と前記第2の組の深度情報との組合せに基づいて、前記ジョイント深度マップを決定し、前記シーン内の要素のそれぞれの深度を伝達する前記ジョイント深度マップを決定することが、前記第1の組の深度情報に関連付けられた第1の信頼度と、前記第2の組の深度情報に関連付けられた第2の信頼度とに基づいて、前記ジョイント深度マップを決定することを含む、決定することと、
前記ジョイント深度マップに基づいて前記シーンを表す画像を修正することと
を含む動作を実行させる、
非一時的コンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962914988P | 2019-10-14 | 2019-10-14 | |
US62/914,988 | 2019-10-14 | ||
PCT/US2020/030108 WO2021076185A1 (en) | 2019-10-14 | 2020-04-27 | Joint depth prediction from dual-cameras and dual-pixels |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022551958A JP2022551958A (ja) | 2022-12-14 |
JP7401663B2 true JP7401663B2 (ja) | 2023-12-19 |
Family
ID=75538586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522358A Active JP7401663B2 (ja) | 2019-10-14 | 2020-04-27 | デュアルカメラおよびデュアルピクセルからのジョイント深度予測 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220343525A1 (ja) |
EP (1) | EP4038575A4 (ja) |
JP (1) | JP7401663B2 (ja) |
KR (1) | KR20220052359A (ja) |
CN (1) | CN114556422A (ja) |
WO (1) | WO2021076185A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11941080B2 (en) * | 2021-05-20 | 2024-03-26 | Retrocausal, Inc. | System and method for learning human activities from video demonstrations using video augmentation |
US20230188691A1 (en) * | 2021-12-14 | 2023-06-15 | Robert John Hergert | Active dual pixel stereo system for depth extraction |
KR20240020854A (ko) * | 2022-08-09 | 2024-02-16 | 삼성전자주식회사 | 깊이 맵을 획득하기 위한 전자 장치 및 방법 |
CN115423724B (zh) * | 2022-11-03 | 2023-03-21 | 中国石油大学(华东) | 强化学习参数优化的水下图像增强方法、装置及介质 |
CN116721143B (zh) * | 2023-08-04 | 2023-10-20 | 南京诺源医疗器械有限公司 | 3d医学图像的深度信息处理装置及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190289281A1 (en) | 2018-03-13 | 2019-09-19 | Magic Leap, Inc. | Image-enhanced depth sensing via depth sensor control |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101214536B1 (ko) * | 2010-01-12 | 2013-01-10 | 삼성전자주식회사 | 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라 |
KR101820456B1 (ko) * | 2011-06-27 | 2018-01-22 | 에스케이플래닛 주식회사 | 깊이 맵 생성 방법 및 장치 |
TW201432622A (zh) * | 2012-11-07 | 2014-08-16 | Koninkl Philips Nv | 產生一關於一影像之深度圖 |
US9619933B2 (en) * | 2014-06-16 | 2017-04-11 | Occipital, Inc | Model and sizing information from smartphone acquired image sequences |
US10019657B2 (en) * | 2015-05-28 | 2018-07-10 | Adobe Systems Incorporated | Joint depth estimation and semantic segmentation from a single image |
-
2020
- 2020-04-27 KR KR1020227009942A patent/KR20220052359A/ko not_active Application Discontinuation
- 2020-04-27 US US17/640,114 patent/US20220343525A1/en active Pending
- 2020-04-27 JP JP2022522358A patent/JP7401663B2/ja active Active
- 2020-04-27 CN CN202080072361.0A patent/CN114556422A/zh active Pending
- 2020-04-27 WO PCT/US2020/030108 patent/WO2021076185A1/en unknown
- 2020-04-27 EP EP20876415.9A patent/EP4038575A4/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190289281A1 (en) | 2018-03-13 | 2019-09-19 | Magic Leap, Inc. | Image-enhanced depth sensing via depth sensor control |
Also Published As
Publication number | Publication date |
---|---|
KR20220052359A (ko) | 2022-04-27 |
EP4038575A4 (en) | 2023-11-15 |
CN114556422A (zh) | 2022-05-27 |
EP4038575A1 (en) | 2022-08-10 |
WO2021076185A1 (en) | 2021-04-22 |
US20220343525A1 (en) | 2022-10-27 |
JP2022551958A (ja) | 2022-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7401663B2 (ja) | デュアルカメラおよびデュアルピクセルからのジョイント深度予測 | |
US10535141B2 (en) | Differentiable jaccard loss approximation for training an artificial neural network | |
US11074714B2 (en) | Eye tracking method and system | |
US10755173B2 (en) | Video deblurring using neural networks | |
KR102574141B1 (ko) | 이미지 디스플레이 방법 및 디바이스 | |
Jiang et al. | Learning to see moving objects in the dark | |
WO2022166412A1 (zh) | 基于协同分割与数据增强的自监督三维重建方法及系统 | |
ES2967691T3 (es) | Ajuste de una representación digital de una región de cabeza | |
US20170148222A1 (en) | Real-time mobile device capture and generation of art-styled ar/vr content | |
IL271519B2 (en) | A method and system for performing simultaneous localization and mapping using complex image transformation | |
US20220327769A1 (en) | Neural light transport | |
CN112884682A (zh) | 一种基于匹配与融合的立体图像颜色校正方法及系统 | |
JP7444179B2 (ja) | 画像処理システム、画像処理方法および画像処理プログラム | |
JP7452698B2 (ja) | 画像間の空間的関係をラベリングする強化学習モデル | |
US20230419600A1 (en) | Volumetric performance capture with neural rendering | |
CN116157805A (zh) | 利用神经嵌入的相机图像或视频处理流水线 | |
CN109978928B (zh) | 一种基于加权投票的双目视觉立体匹配方法及其系统 | |
Orozco et al. | HDR multiview image sequence generation: Toward 3D HDR video | |
JP7291389B2 (ja) | 対象識別方法、情報処理装置、情報処理プログラム、および照明装置 | |
JP2023003763A (ja) | 学習装置、画像処理装置、学習処理方法、及びプログラム | |
JP2018081378A (ja) | 画像処理装置、撮像装置、画像処理方法および画像処理プログラム | |
US20240046434A1 (en) | Image processing method and image processing apparatus performing the same | |
Aydin | RAW Bayer Domain Image Alignment | |
CN118230109A (zh) | 基于u-net网络的多聚焦监控图像融合方法 | |
Nazzar | Automated detection of defects in 3D movies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7401663 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |