JP2021531581A - 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 - Google Patents
画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 Download PDFInfo
- Publication number
- JP2021531581A JP2021531581A JP2021502893A JP2021502893A JP2021531581A JP 2021531581 A JP2021531581 A JP 2021531581A JP 2021502893 A JP2021502893 A JP 2021502893A JP 2021502893 A JP2021502893 A JP 2021502893A JP 2021531581 A JP2021531581 A JP 2021531581A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- images
- image
- current
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000008569 process Effects 0.000 claims abstract description 37
- 239000011159 matrix material Substances 0.000 claims abstract description 34
- 238000010586 diagram Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 14
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
−すなわち、画像の行列に属する画像が、例えばプレノプティックカメラなどのメインレンズシステムに加えてマイクロレンズアレイを使用して単一のカメラから同時にキャプチャされたサブアパーチャ画像であるビデオ内のレンズレットベースのビデオとしても知られるプレノプティックビデオ、または
−すなわち、画像の行列に属する画像が、典型的には、いくつかのカメラを含むカメラアレイ(カメラリグとしても知られる)を使用して、複数のカメラアングルから同時にキャプチャされたビデオ内のマルチビュービデオ、のいずれかにある。
−N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
−N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
−N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
−候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを含む。
−N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
−N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
−N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
−候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを実施するように構成されたプロセッサまたは専用コンピューティングマシンを含む。
−ステップS400で、N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップが判定され、
−深度がまだ推定されていない現在の画像100ci内の少なくとも現在の画素100cpに対して、
−ステップS410で、N個の深度マップのセットのうちの1つの深度マップ内の現在の画素100cpに関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かが判断され、
−ステップS420で、候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、現在の画素100cpに対する推定された深度であるとして候補深度が選択される。
−ステップS410a1、現在の画像100ci以外のN個の画像のセットの他の画像における理論位置502tlが判定される。理論位置は、現在の画素100cpに関連付けられたオブジェクトポイント510の他の画像における投影および候補深度に対応する。
−ステップS410a2、N個の深度マップのセット内の他の画像に関連付けられた深度マップに基づいて、理論位置502tlに関連付けられた深度値が取得される、および
−ステップS410a3、現在の画像100ciにおいて、理論位置502tlおよび深度値に関連付けられた他のオブジェクトポイント520の現在の画像100ciにおける投影に対応する別の理論位置501atlが判定される。
−P<Pmaxであり、Pmaxが、現在の画素100cpの近傍で取られた、現在の画像100ci内の画素の総数である場合、現在の画像100ciのP画素の空間パッチと、
−現在の画像100ciに関連付けられた深度マップ内の現在の画素100cpに関連付けられた候補深度を提供する、N個の画像のセット内の現在の画像100ciとは少なくとも別の画像におけるP画素の空間パッチの少なくとも投影と、の間のマッチング技術を実施する。ステップS400は、反復的に実施され、ステップS400の各新しい反復は、ステップS400の前の反復において使用された前の値Pよりも低い新しい値Pで実行される。
−最小値のセット内の最小値m1、例えば、信頼値は−m1に等しい、または
−最小値のセット内の最小値m1と最後から3番目の最小値m3との組み合わせ、例えば、信頼値は
−||.||2は、L2ノルム(二乗成分の和の平方根)であり、(i’,j’,z’)は、ビュー#cと#c’との間のホモグラフィー
・PC型装置、DSP(デジタル信号プロセッサ)、またはマイクロコントローラなどの再プログラム可能なコンピューティングマシンによって実行されるプログラムコード命令のセットの実行による。このプログラムコード命令は、取り外し可能(例えば、フロッピーディスク、CD−ROMまたはDVD−ROM)または取り外し不可能な非一時的コンピュータ可読キャリア媒体に記憶することができる、または
・FPGA(フィールドプログラマブルゲートアレイ)、ASIC(特定用途向け集積回路)、または任意の専用ハードウェア構成要素など、専用のマシンまたは構成要素による。
−N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
−N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
−N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
−候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを含む。
−N個の深度マップのセットを提供するN個の画像のセット内の画像に対する深度マップを判定することと、
−N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
−N個の深度マップのセットのうちの1つの深度マップ内の現在の画素に関連付けられた深度値に対応する候補深度が、N個の深度マップのセットの他の深度マップ(複数可)と整合するか否かを判断することと、
−候補深度がN個の深度マップのセットの他の深度マップ(複数可)と整合すると判断された場合、候補深度を現在の画素に対する推定された深度であるとして選択することと、を含む、プロセスを実施するように構成されたプロセッサまたは専用コンピューティングマシンを含む。
−現在の画像とは異なるN個の画像のセットの別の画像における理論位置を判定することであって、理論位置は、現在の画素に関連付けられたオブジェクトポイントの他の画像における投影および候補深度に対応する、判定することと、
−N個の深度マップのセット内の他の画像に関連付けられた深度マップに基づいて、理論位置に関連付けられた深度値を取得することと、
−現在の画像において、理論位置および深度値に関連付けられた別のオブジェクトポイントの現在の画像における投影に対応する別の理論位置を判定することと、を含み、
現在の画素と他の理論位置との間の現在の画像内の距離が所定の閾値を下回るとき、現在の画素の候補深度が整合すると判断される。
−P≦Pmaxであり、Pmaxが、現在の画素の近傍で取られた、現在の画像内の画素の総数である場合、現在の画像のP画素の空間パッチと、
−現在の画像に関連付けられた深度マップ内の現在の画素に関連付けられた候補深度を提供する、N個の画像のセット内の現在の画像とは少なくとも別の画像におけるP画素の空間パッチの少なくとも投影と、の間でマッチング技術を実施する。深度マップを判定することは、反復的に実施され、深度マップを判定することの各新しい反復は、深度マップを判定することの前の反復において使用された前の値Pよりも低い新しい値Pで実行される。
−最小値のセット内の最小値、または
−最小値のセット内の最小値と少なくとも最後から3番目の最小値との組み合わせ、の関数である。
−平均二乗誤差、
−平均絶対差、または
−ゼロ平均正規化相互相関、を含むグループに属するノルムの関数である。
Claims (12)
- ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するための方法であって、前記M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
−N個の深度マップのセットを提供する前記N個の画像のセット内の前記画像に対する深度マップを判定することと、
−前記N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
−前記N個の深度マップのセットのうちの1つの深度マップ内の前記現在の画素に関連付けられた深度値に対応する候補深度が、前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合するか否かを判断することと、
−前記候補深度が前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合すると判断された場合、前記候補深度を前記現在の画素に対する前記推定された深度であるとして選択することと、を含む、プロセスを含み、
前記プロセスは、反復的に実施され、前記プロセスの各新しい反復は、前記プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される、方法。 - ライトフィールドコンテンツのM個の画像(M>2)の行列内の画素の深度を推定するためのデバイスであって、前記M個の画像の中から取られたN個の画像(2<N≦M)の少なくとも1つのセットに対して、
−N個の深度マップのセットを提供する前記N個の画像のセット内の前記画像に対する深度マップを判定することと、
−前記N個の画像のセットの現在の画像内の少なくとも1つの現在の画素に対して、
−前記N個の深度マップのセットのうちの1つの深度マップ内の前記現在の画素に関連付けられた深度値に対応する候補深度が、前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合するか否かを判断することと、
−前記候補深度が前記N個の深度マップのセットの前記他の深度マップ(複数可)と整合すると判断された場合、前記候補深度を前記現在の画素に対する前記推定された深度であるとして選択することと、を含む、プロセスを実施するように構成されたプロセッサまたは専用コンピューティングマシンを含み、
前記プロセスは、反復的に実施され、前記プロセスの各新しい反復は、前記プロセスの前の反復において使用された前のN値よりも低い新しいN値で実行される、デバイス。 - N<Mであり、前記N個の画像のセットは、前記M個の画像の中から取られたN個の画像の複数のセットに属し、前記プロセスの各反復は、N個の画像のセットごとに実行される、請求項1に記載の方法、または請求項2に記載のデバイス。
- 前記現在の画素の候補深度が整合するか否かを前記判断することは、前記現在の画素の前記候補深度と前記N個の深度マップのセットの前記他の深度マップ(複数可)との間の幾何学的整合性を判定することを含む、請求項1もしくは3に記載の方法、または請求項2もしくは3に記載のデバイス。
- 幾何学的整合性を前記判定することは、
−前記現在の画像とは異なる前記N個の画像のセットの別の画像における理論位置を判定することであって、前記理論位置は、前記現在の画素に関連付けられたオブジェクトポイントの前記他の画像における投影および前記候補深度に対応する、判定することと、
−前記N個の深度マップのセット内の前記他の画像に関連付けられた深度マップに基づいて、前記理論位置に関連付けられた深度値を取得することと、
−前記現在の画像において、前記理論位置および前記深度値に関連付けられた別のオブジェクトポイントの前記現在の画像における投影に対応する別の理論位置を判定することと、を含み、
前記現在の画素と前記他の理論位置との間の前記現在の画像内の距離が所定の閾値を下回るとき、前記現在の画素の前記候補深度が整合すると判断される、請求項4に記載の方法、または請求項4に記載のデバイス。 - N>3であり、別の画像における理論位置を前記判定することは、理論位置の対応するセットを提供する、前記現在の画像以外の前記N個の画像のセットのすべての他の画像に対して実施され、前記理論位置に関連付けられた深度値を前記取得することは、深度値の対応するセットを提供する、前記理論位置のセット内のすべての前記理論位置に対して実施され、前記現在の画像において、別の理論位置を前記判定することは、前記理論位置のセット内のすべての前記理論位置に対して、および前記現在の画像内の他の理論位置のセットを提供する、前記深度値のセット内のすべての前記関連する深度値に対して実施され、前記現在の画素と前記他の理論位置との間の距離が前記所定の閾値を下回るとき、前記現在の画素の前記候補深度は整合すると判断される、請求項5に記載の方法、または請求項5に記載のデバイス。
- 前記現在の画素の候補深度が整合するか否かを前記判断することは、前記現在の画素と前記理論位置(複数可)との間の写真整合性を判定することをさらに含む、請求項4〜6のいずれかに記載の方法、または請求項4〜6のいずれかに記載のデバイス。
- 前記N個の画像のセット内の前記画像に対する深度マップを前記判定することは、少なくとも前記現在の画素に対して、
−P≦Pmaxであり、Pmaxが、前記現在の画素の近傍で取られた、前記現在の画像内の画素の総数である場合、前記現在の画像のP画素の空間パッチと、
−前記現在の画像に関連付けられた深度マップ内の前記現在の画素に関連付けられた前記候補深度を提供する、前記N個の画像のセット内の前記現在の画像とは少なくとも別の画像における前記P画素の空間パッチの少なくとも投影と、の間でマッチング技術を実施し、
深度マップを前記判定することは、反復的に実施され、深度マップを前記判定することの各新しい反復は、深度マップを前記判定することの前の反復において使用された前の値Pよりも低い新しい値Pで実行される、請求項1もしくは請求項3〜7のいずれかに記載の方法、または請求項2〜7のいずれかに記載のデバイス。 - P<Pmaxであり、P画素の前記空間パッチは、P画素の複数の空間パッチに属し、深度マップを前記判定することの所与の反復に対して、前記マッチング技術が、前記現在の画素に関連付けられた中間深度値のセットおよび対応する信頼値のセットを提供する、P画素の前記複数の空間パッチに属するP画素の各空間パッチに対して連続的に実施され、前記現在の画像に関連付けられた前記深度マップ内の前記現在の画素に関連付けられた前記候補深度は、前記中間深度値のセット内のより高い信頼値の中間深度値である、請求項8に記載の方法、または請求項8に記載のデバイス。
- 前記マッチング技術は、コスト関数の最小化を実施し、前記マッチング技術の前記連続的な実施は、前記コスト関数の最小値のセットをさらに提供し、前記信頼値は、少なくとも、
−前記最小値のセット内の最小値、または
−前記最小値のセット内の前記最小値と少なくとも最後から3番目の最小値との組み合わせ、の関数である、請求項9に記載の方法、または請求項9に記載のデバイス。 - 前記プログラムがコンピュータまたはプロセッサ上で実行されるとき、請求項1または3〜9のうちの少なくとも1つに記載の方法を実装するためのプログラムコード命令を含むことを特徴とする、コンピュータプログラム製品。
- 請求項11に記載のコンピュータプログラム製品を記憶する、非一時的コンピュータ可読キャリア媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18305989.8A EP3598390A1 (en) | 2018-07-19 | 2018-07-19 | Method for estimating a depth for pixels, corresponding device and computer program product |
EP18305989.8 | 2018-07-19 | ||
PCT/EP2019/069246 WO2020016299A1 (en) | 2018-07-19 | 2019-07-17 | Method for estimating a depth for pixels, corresponding device and computer program product |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021531581A true JP2021531581A (ja) | 2021-11-18 |
JPWO2020016299A5 JPWO2020016299A5 (ja) | 2022-07-20 |
JP7423595B2 JP7423595B2 (ja) | 2024-01-29 |
Family
ID=63165309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502893A Active JP7423595B2 (ja) | 2018-07-19 | 2019-07-17 | 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11257236B2 (ja) |
EP (2) | EP3598390A1 (ja) |
JP (1) | JP7423595B2 (ja) |
CN (1) | CN112771574B (ja) |
WO (1) | WO2020016299A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010021843A (ja) * | 2008-07-11 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
WO2014196374A1 (ja) * | 2013-06-05 | 2014-12-11 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2017102708A (ja) * | 2015-12-02 | 2017-06-08 | 日本放送協会 | オブジェクト追跡装置及びそのプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7123742B2 (en) * | 2002-04-06 | 2006-10-17 | Chang Kenneth H P | Print user interface system and its applications |
ATE507542T1 (de) * | 2007-07-03 | 2011-05-15 | Koninkl Philips Electronics Nv | Berechnung einer tiefenkarte |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
EP3869797B1 (en) * | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
EP3216006B1 (en) * | 2015-04-28 | 2020-06-10 | Huawei Technologies Co., Ltd. | An image processing apparatus and method |
EP3736771A1 (en) * | 2015-12-23 | 2020-11-11 | Gauss Surgical, Inc. | Method for estimating blood component quantities in surgical textiles |
CN109997170B (zh) * | 2016-10-18 | 2023-08-11 | 弗托斯传感与算法公司 | 用于从视图中获得距离信息的设备和方法 |
CN107038719A (zh) * | 2017-03-22 | 2017-08-11 | 清华大学深圳研究生院 | 基于光场图像角度域像素的深度估计方法及系统 |
CN107545586B (zh) * | 2017-08-04 | 2020-02-28 | 中国科学院自动化研究所 | 基于光场极线平面图像局部的深度获取方法及系统 |
CN108242063B (zh) * | 2018-02-06 | 2020-06-19 | 清华大学深圳研究生院 | 一种基于gpu加速的光场图像深度估计方法 |
EP4216164A1 (en) * | 2019-01-28 | 2023-07-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Localization of elements in the space |
US10911735B2 (en) * | 2019-02-22 | 2021-02-02 | Avalon Holographics Inc. | Layered scene decomposition CODEC with asymptotic resolution |
-
2018
- 2018-07-19 EP EP18305989.8A patent/EP3598390A1/en not_active Withdrawn
-
2019
- 2019-07-17 CN CN201980047547.8A patent/CN112771574B/zh active Active
- 2019-07-17 EP EP19740570.7A patent/EP3824436A1/en active Pending
- 2019-07-17 WO PCT/EP2019/069246 patent/WO2020016299A1/en active Application Filing
- 2019-07-17 JP JP2021502893A patent/JP7423595B2/ja active Active
- 2019-07-17 US US17/261,375 patent/US11257236B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010021843A (ja) * | 2008-07-11 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
WO2014196374A1 (ja) * | 2013-06-05 | 2014-12-11 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2017102708A (ja) * | 2015-12-02 | 2017-06-08 | 日本放送協会 | オブジェクト追跡装置及びそのプログラム |
Non-Patent Citations (1)
Title |
---|
KATJA WOLFF ET AL.: "Point Cloud Noise and Outlier Removal for Image-Based 3D Reconstruction", 2016 FOURTH INTERNATIONAL CONFERENCE ON 3D VISION (3DV), JPN6023027939, 25 October 2016 (2016-10-25), US, ISSN: 0005100512 * |
Also Published As
Publication number | Publication date |
---|---|
CN112771574A (zh) | 2021-05-07 |
EP3598390A1 (en) | 2020-01-22 |
CN112771574B (zh) | 2024-03-26 |
US20210279902A1 (en) | 2021-09-09 |
WO2020016299A1 (en) | 2020-01-23 |
US11257236B2 (en) | 2022-02-22 |
EP3824436A1 (en) | 2021-05-26 |
JP7423595B2 (ja) | 2024-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7173772B2 (ja) | 深度値推定を用いた映像処理方法及び装置 | |
JP7403528B2 (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
Concha et al. | Using superpixels in monocular SLAM | |
US8611641B2 (en) | Method and apparatus for detecting disparity | |
KR102135770B1 (ko) | 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치 | |
US20110150321A1 (en) | Method and apparatus for editing depth image | |
CN111066065A (zh) | 用于混合深度正则化的系统和方法 | |
US9025862B2 (en) | Range image pixel matching method | |
US20130100256A1 (en) | Generating a depth map | |
JP2018534698A (ja) | Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム | |
KR20160130793A (ko) | 화상 표시 방법 및 장치 | |
US9460513B1 (en) | Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras | |
KR20130104691A (ko) | 영상 처리 장치 및 방법 | |
KR20090062440A (ko) | 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치 | |
US20200288102A1 (en) | Image processing method and apparatus | |
GB2565354A (en) | Method and corresponding device for generating a point cloud representing a 3D object | |
WO2014093906A1 (en) | Model based video projection | |
KR101086274B1 (ko) | 깊이정보 추출 장치 및 추출 방법 | |
DK3189493T3 (en) | PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP | |
US20140369622A1 (en) | Image completion based on patch offset statistics | |
US20120050485A1 (en) | Method and apparatus for generating a stereoscopic image | |
US10346949B1 (en) | Image registration | |
US11475629B2 (en) | Method for 3D reconstruction of an object | |
JP2021531581A (ja) | 画素の深度を推定するための方法、対応するデバイス、およびコンピュータプログラム製品 | |
RU2777277C1 (ru) | Способ оценки глубины для пикселей, соответствующее устройство и компьютерный программный продукт |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7423595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |