JP6446997B2 - スケール及び深度空間に変換することによるライトフィールドの処理 - Google Patents
スケール及び深度空間に変換することによるライトフィールドの処理 Download PDFInfo
- Publication number
- JP6446997B2 JP6446997B2 JP2014216328A JP2014216328A JP6446997B2 JP 6446997 B2 JP6446997 B2 JP 6446997B2 JP 2014216328 A JP2014216328 A JP 2014216328A JP 2014216328 A JP2014216328 A JP 2014216328A JP 6446997 B2 JP6446997 B2 JP 6446997B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- scale
- domain
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- General Engineering & Computer Science (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Computer Graphics (AREA)
- Image Generation (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Description
[ライトフィールド]
以下の具体例では、ライトフィールドを何れか所与の方向の空間内の任意のポイントにおける放射輝度として表現する。ライトフィールドは、所与のリファレンス面上の位置(u,v)において観察され、図1に示されるように、位置(x,y)のポイントソースから到来するライトレイの放射輝度を表す4次元関数としてパラメータ化可能である。ライトフィールドをI(x,y,u,v)として記す。
[(深度)ドメイン]
図3A〜3Dに示されるようなライトフィールドの2次元スライスI(x,u)のいくつかの具体例を見る場合、一様に離間した視点によるライトフィールドの特性に固有のライン構成を観察することが可能であり、ここで、(x,u)ドメインのラインの角度はシーン内の異なる深度に対応する。図3Aは、異なる深度にある2つのオブジェクト210,220を示す。オブジェクト220はオブジェクト210の前方である。それは、視点uに応じてオブジェクト210を塞ぐかもしれないし、又はそうでないかもしれない。
[(スケール)ドメイン]
図3Dに戻って、各レイ219,229の幅は、3次元シーンの対応するオブジェクト210,220の空間的な範囲(すなわち、サイズ)に対応する。異なるサイズのオブジェクトは、シーンのスケール空間表現を用いることによって処理することができる。
[(イメージ,スケール,深度)ドメインへの変換]
ここで、上述した具体例に基づき(イメージ,ビュー)ドメインから(イメージ,スケール,深度)ドメインへの変換の具体例を検討する。本例では、キャプチャされたマルチビューイメージは、I(x,u)によって(イメージ,ビュー)ドメインにおいて表現される。(イメージ,ビュー)ドメイン表現I(x,u)を(イメージ,スケール,深度)ドメイン表現L(x;σ,φ)に変換することを所望する。便宜上、L(x;σ,φ)はまた、I(x,u)のスケール・深度変換(又はスケール・深度空間)として参照されてもよい。
…, φm}について、Rσ,φにより畳み込まれる710。この式では、nはスケールのオクターブ毎のサンプルの個数であり、(k+1)はオクターブの個数であり、mは深度ドメインにおけるサンプルの個数である。他のファクタpもまた利用可能であるが、ダウンサンプリングファクタは2として選択される。図7Aにおいて、これは2つのループ722,724により実現される。
を有する場合(オクルージョンがない場合)、
[正規化された2次導関数Ray−Gaussian変換からの深度推定]
図2に戻って、スケール・深度変換が、異なる目的を実現するため異なる方法により処理290されることが可能である。1つの適用では、3次元シーンの(イメージ,スケール,深度)ドメイン表現は、3次元シーンにおける深度を推定するため処理される。以下の具体例は、スライスにおける位置、幅(σに基づく)及び角度(φに基づく)と共に(x,u)空間においてレイを検出することに基づく。
・レイの中心の位置xp
・レイの幅2σp
・レイの角度φp
角度φpから、カメラキャリブレーションパラメータをdp=fb/tan(φp)として利用することによって(ただし、fはカメラ焦点長さであり、bはカメラ間距離である)、当該レイの深度dp(すなわち、3次元シーンにおける対応するポイントの深度)を取得できる。プレノプティックカメラについて、レイトレーシング又は波伝搬を用いてプレノプティックイメージ形成をシミュレートすることによって、より正確な角度・深度値の割り当てを評価できる。この第2アプローチは、深度推定において光パラメータのより正確な利用を含む。
[1次導関数Ray−Gaussian変換からの3D特徴検出]
3次元シーンにおいてエッジを検出し、正規化された1次導関数Ray−Gaussian変換
・エッジの位置xq
・エッジのスケールσq
・エッジの角度φq
エッジは、通常は有用なイメージ特徴である。各エッジ特徴に割り当てられた深度値を取得するため、本方法は3D特徴検出を効果的に実行する。図8の破線のボックスにおいて、エッジ特徴検出方法のフローチャートが示される。これは、図2に示される処理の他の例である。ここで、変換ステップ980は、正規化された1次Ray−Gaussian変換
[実験結果]
スタンフォードデータベースからの“トラック”ライトフィールド上の深度推定及び3D特徴検出方法を評価した。これは、カメラガントリにより取得された(x,y,u,v)ライトフィールドであり、水平方向と垂直方向との双方のカメラのずれによるイメージを含む。トータルで16×16のイメージがある。図10Aにおいて、1つのイメージのグレイスケールバージョンが示される。以下の結果は、ライトフィールドのグレイスケールバージョンについて示されるが、ここで説明されるアプローチはまた、マルチカラーチャネルからの結果を集約するのに利用可能である。
[プレノプティックイメージングシステム]
図11は、上述したアプローチにより用いるのに適したライトフィールドイメージをキャプチャすることが可能なプレノプティックイメージングシステムの図である。システムは、シーン110のプレノプティックイメージをキャプチャする。プレノプティックイメージは、本来的にシーン110のマルチビューイメージである。プレノプティックイメージングシステムは、光学モジュール1105が複数の要素及び/又は非レンズ要素(ミラーなど)を含みことが可能であることが理解されるが、図11において単一のレンズ要素により表される画像形成光学モジュール1105を含む。光学モジュール1105は、シーン110の従来の光学イメージ1160を形成する。光学モジュール1105はまた、プライマリイメージングモジュール、サブシステム又はシステムとして参照されてもよい。光学イメージ1160は、光学モジュール1105のイメージプレーン1125において形成される。光学モジュール1105は、瞳1117及び瞳面1115により特徴付けされ、図11において、単一のレンズ要素と共置される物理的な開口絞りにより表される。より複雑な光学モジュール1105では、瞳1117及び瞳面1115は、光学モジュール内の何れの光要素とも共置される必要はない。
[Appendix:1次元ガウスカーネルの性質(従来技術)]
以下の性質は、1次元ガウスカーネルについて示される。2次元以上への拡張は容易である。1次元ガウスカーネルについて、
任意のa∈(−1,1)について、
1120 マイクロイメージングアレイ
1130 検出アレイ
1180 プロセッサ
Claims (20)
- 3次元シーンのライトフィールドイメージを処理する方法であって、当該方法は、コンピュータシステム上で実行され、
前記3次元シーンのライトフィールドイメージの(イメージ,ビュー)ドメイン表現にアクセスするステップと、
前記(イメージ,ビュー)ドメイン表現を(イメージ,スケール,深度)ドメイン表現に変換するため、スケール・深度変換を適用するステップと、
前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップと、
を有する方法。 - 前記スケール・深度変換の(スケール)部分は、ガウスカーネル又はそれの導関数の1つに基づく、請求項1記載の方法。
- 前記スケール・深度変換の(深度)部分は、前記(イメージ,ビュー)ドメインにおいて異なる曲線を生成する前記3次元シーンにおける異なる深度のポイントに基づく、請求項1記載の方法。
- 前記スケール・深度変換の(深度)部分は、前記(イメージ,ビュー)ドメインにおいて異なる角度によりレイを生成する前記3次元シーンにおける異なる深度のポイントに基づく、請求項3記載の方法。
- 前記スケール・深度変換は、Ray−Gaussianカーネル
- 前記スケール・深度変換を適用するステップは、
σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}について、前記Ray−Gaussianカーネル又はそれの導関数により前記(イメージ,ビュー)ドメイン表現を畳み込むステップと、
pにより前記(イメージ,ビュー)ドメイン表現をダウンサンプリングし、σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}について、前記Ray−Gaussianカーネル又はそれの導関数により畳み込むステップを(k−1)回繰り返すステップと、
を有し、
nはスケールのダウンサンプリング範囲毎のサンプル数であり、mは深度ドメインにおけるサンプル数であり、pはダウンサンプリングファクタである、請求項5記載の方法。 - 前記スケール・深度変換を適用するステップは、
σ∈{σ1, …,σn}及びφ∈{φ1, …, φm}について、前記Ray−Gaussianカーネル又はそれの導関数により前記(イメージ,ビュー)ドメイン表現を畳み込むステップと、
pにより前記(イメージ,ビュー)ドメイン表現のイメージ部分をダウンサンプリングし、σ∈{σ1, …,σn}及びφ∈{φ1’, …, φm’}について、前記Ray−Gaussianカーネル又はそれの導関数により畳み込むステップを(k−1)回繰り返すステップと、
を有し、
nはスケールのダウンサンプリング範囲毎のサンプル数であり、mは深度ドメインにおけるサンプル数であり、pはダウンサンプリングファクタである、請求項5記載の方法。 - 前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記(イメージ,スケール,深度)ドメイン表現に基づき前記3次元シーンにおける深度を推定するステップを含む、請求項1記載の方法。
- 前記スケール・深度変換は、正規化された2次導関数Ray−Gaussian変換であり、
前記3次元シーンにおける深度を推定するステップは、前記正規化された2次Ray−Gaussian変換の極値を検出し、前記極値に基づき深度を推定するステップを含む、請求項8記載の方法。 - 前記3次元シーンにおいて深度を推定するステップは更に、前記極値に基づきオクルージョンを検出するステップを含む、請求項9記載の方法。
- 正規化された1次導関数Ray−Gaussian変換を前記(イメージ,ビュー)ドメイン表現に更に適用するステップと、
前記正規化された1次Ray−Gaussian変換の極値を検出するステップと、
前記正規化された1次Ray−Gaussian変換の極値に基づき前記3次元シーンにおけるエッジを推定するステップと、
前記推定されたエッジに基づき前記深度の推定を改善するステップと、
を更に有する、請求項9記載の方法。 - 前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記(イメージ,スケール,深度)ドメイン表現の処理に基づき前記3次元シーンにおいて3次元特徴を抽出するステップを含む、請求項1記載の方法。
- 前記スケール・深度変換は、正規化された1次導関数Ray−Gaussian変換であり、
前記3次元シーンにおいて3次元特徴を抽出するステップは、前記正規化された1次導関数Ray−Gaussian変換の極値を検出し、前記極値に基づき3次元特徴を抽出するステップを含む、請求項12記載の方法。 - 前記3次元シーンのライトフィールドイメージは、一定に離間した視点から撮影される、請求項1記載の方法。
- 前記3次元シーンのライトフィールドイメージは、プレノプティックイメージングシステムによりキャプチャされる、請求項1記載の方法。
- 前記(スケール)ドメイン及び前記(深度)ドメインはそれぞれ、1次元である、請求項1記載の方法。
- 前記ライトフィールドイメージは、前記(スケール)ドメインと前記(深度)ドメインとの間の確定的関係を有し、
前記(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記確定的関係を利用する、請求項1記載の方法。 - 前記3次元シーンのライトフィールドイメージは、プレノプティックイメージングシステムによりキャプチャされ、
前記(スケール)ドメインと前記(深度)ドメインとの間の確定的関係は、前記プレノプティックイメージングシステムにより決定される、請求項17記載の方法。 - 前記(イメージ,スケール,深度)ドメイン表現を処理するステップは、前記(イメージ,スケール,深度)ドメイン上でサーチするステップを含み、
前記(スケール)ドメインと前記(深度)ドメインとの間の確定的関係は、前記サーチの計算複雑さを低減する、請求項17記載の方法。 - 3次元シーンのライトフィールドイメージを処理する方法を実現するようコンピュータシステムに指示するためのコンピュータプログラムコードを含む非一時的な有形なコンピュータ可読媒体であって、
前記方法は、
前記3次元シーンのライトフィールドイメージの(イメージ,ビュー)ドメイン表現にアクセスするステップと、
前記(イメージ,ビュー)ドメイン表現を(イメージ,スケール,深度)ドメイン表現に変換するため、スケール・深度変換を適用するステップと、
前記3次元シーンの(イメージ,スケール,深度)ドメイン表現を処理するステップと、
を有する媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/064,090 | 2013-10-25 | ||
US14/064,090 US9460515B2 (en) | 2013-10-25 | 2013-10-25 | Processing of light fields by transforming to scale and depth space |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015084223A JP2015084223A (ja) | 2015-04-30 |
JP6446997B2 true JP6446997B2 (ja) | 2019-01-09 |
Family
ID=51690829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014216328A Expired - Fee Related JP6446997B2 (ja) | 2013-10-25 | 2014-10-23 | スケール及び深度空間に変換することによるライトフィールドの処理 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9460515B2 (ja) |
EP (1) | EP2866202B1 (ja) |
JP (1) | JP6446997B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10327627B2 (en) | 2013-01-18 | 2019-06-25 | Ricoh Company, Ltd. | Use of plenoptic otoscope data for aiding medical diagnosis |
US9565996B2 (en) | 2013-01-18 | 2017-02-14 | Ricoh Company, Ltd. | Plenoptic otoscope |
US9460515B2 (en) * | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
US9569853B2 (en) * | 2013-10-25 | 2017-02-14 | Ricoh Company, Ltd. | Processing of light fields by transforming to scale and depth space |
US10117579B2 (en) | 2014-11-14 | 2018-11-06 | Ricoh Company, Ltd. | Simultaneous capture of filtered images of the eye |
EP3106912A1 (en) | 2015-06-17 | 2016-12-21 | Thomson Licensing | An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image |
EP3145168A1 (en) | 2015-09-17 | 2017-03-22 | Thomson Licensing | An apparatus and a method for generating data representing a pixel beam |
EP3144887A1 (en) * | 2015-09-17 | 2017-03-22 | Thomson Licensing | A method and an apparatus for generating data representative of a pixel beam |
US9955861B2 (en) | 2015-10-16 | 2018-05-01 | Ricoh Company, Ltd. | Construction of an individual eye model using a plenoptic camera |
US10098529B2 (en) | 2015-10-28 | 2018-10-16 | Ricoh Company, Ltd. | Optical design of a light field otoscope |
US10194139B2 (en) | 2016-02-22 | 2019-01-29 | Ricoh Company, Ltd. | Disparity-to-depth calibration for plenoptic imaging systems |
US10136116B2 (en) | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
EP3220351A1 (en) | 2016-03-14 | 2017-09-20 | Thomson Licensing | Method and device for processing lightfield data |
CN113014906B (zh) | 2016-04-12 | 2023-06-30 | 奎蒂安特有限公司 | 3d场景重建方法、系统及计算机程序存储介质 |
US10089788B2 (en) | 2016-05-25 | 2018-10-02 | Google Llc | Light-field viewpoint and pixel culling for a head mounted display device |
EP3273686A1 (en) * | 2016-07-21 | 2018-01-24 | Thomson Licensing | A method for generating layered depth data of a scene |
US10296780B2 (en) | 2017-03-07 | 2019-05-21 | Ricoh Company, Ltd. | Automatic eardrum registration from light field data |
US10275644B2 (en) | 2017-03-08 | 2019-04-30 | Ricoh Company, Ltd | Automatic classification of eardrum shape |
US10776995B2 (en) * | 2017-10-17 | 2020-09-15 | Nvidia Corporation | Light fields as better backgrounds in rendering |
CN112470191A (zh) | 2018-05-02 | 2021-03-09 | 奎蒂安特有限公司 | 用于处理具有几乎无限细节的场景的编解码器 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4658372A (en) | 1983-05-13 | 1987-04-14 | Fairchild Camera And Instrument Corporation | Scale-space filtering |
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
RU2216781C2 (ru) * | 2001-06-29 | 2003-11-20 | Самсунг Электроникс Ко., Лтд | Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта |
US7199793B2 (en) * | 2002-05-21 | 2007-04-03 | Mok3, Inc. | Image-based modeling and photo editing |
US7382897B2 (en) | 2004-04-27 | 2008-06-03 | Microsoft Corporation | Multi-image feature matching using multi-scale oriented patches |
US20080219579A1 (en) * | 2007-03-05 | 2008-09-11 | Aksyuk Vladimir A | Methods and Apparatus for Compressed Imaging Using Modulation in Pupil Plane |
ES2372515B2 (es) * | 2008-01-15 | 2012-10-16 | Universidad De La Laguna | Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales. |
EP3876510A1 (en) | 2008-05-20 | 2021-09-08 | FotoNation Limited | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8244058B1 (en) * | 2008-05-30 | 2012-08-14 | Adobe Systems Incorporated | Method and apparatus for managing artifacts in frequency domain processing of light-field images |
US8363973B2 (en) * | 2008-10-01 | 2013-01-29 | Fuji Xerox Co., Ltd. | Descriptor for image corresponding point matching |
US8315476B1 (en) * | 2009-01-20 | 2012-11-20 | Adobe Systems Incorporated | Super-resolution with the focused plenoptic camera |
ATE551841T1 (de) | 2009-04-22 | 2012-04-15 | Raytrix Gmbh | Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten |
JP2011248671A (ja) * | 2010-05-27 | 2011-12-08 | Kddi Corp | 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法 |
US8749694B2 (en) | 2010-08-27 | 2014-06-10 | Adobe Systems Incorporated | Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing |
JP5206853B2 (ja) * | 2011-09-08 | 2013-06-12 | カシオ計算機株式会社 | 補間画像生成装置、再構成画像生成装置、補間画像生成方法及びプログラム |
US8941750B2 (en) * | 2011-12-27 | 2015-01-27 | Casio Computer Co., Ltd. | Image processing device for generating reconstruction image, image generating method, and storage medium |
US9460515B2 (en) * | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
-
2013
- 2013-10-25 US US14/064,090 patent/US9460515B2/en not_active Expired - Fee Related
-
2014
- 2014-10-01 EP EP14187353.9A patent/EP2866202B1/en active Active
- 2014-10-23 JP JP2014216328A patent/JP6446997B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20150117756A1 (en) | 2015-04-30 |
EP2866202A2 (en) | 2015-04-29 |
JP2015084223A (ja) | 2015-04-30 |
EP2866202A3 (en) | 2015-12-02 |
US9460515B2 (en) | 2016-10-04 |
EP2866202B1 (en) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6446997B2 (ja) | スケール及び深度空間に変換することによるライトフィールドの処理 | |
US10755428B2 (en) | Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model | |
US9569853B2 (en) | Processing of light fields by transforming to scale and depth space | |
US10136116B2 (en) | Object segmentation from light field data | |
Yoon et al. | Light-field image super-resolution using convolutional neural network | |
US9092890B2 (en) | Occlusion-aware reconstruction of three-dimensional scenes from light field images | |
CN110476185B (zh) | 景深信息估算方法和装置 | |
KR101893047B1 (ko) | 이미지 처리 방법 및 이미지 처리 장치 | |
Yoon et al. | Learning a deep convolutional network for light-field image super-resolution | |
Tosic et al. | Light field scale-depth space transform for dense depth estimation | |
Kuhn et al. | A tv prior for high-quality scalable multi-view stereo reconstruction | |
US9338437B2 (en) | Apparatus and method for reconstructing high density three-dimensional image | |
JP6655379B2 (ja) | 焦点スタックから適応スライス画像を生成する方法および装置 | |
Fleischmann et al. | Lens-based depth estimation for multi-focus plenoptic cameras | |
Lee et al. | Improving focus measurement via variable window shape on surface radiance distribution for 3D shape reconstruction | |
CN110443228B (zh) | 一种行人匹配方法、装置、电子设备及存储介质 | |
Anisimov et al. | Rapid light field depth estimation with semi-global matching | |
Marto et al. | Structure from plenoptic imaging | |
Chen et al. | Depth-guided deep filtering network for efficient single image bokeh rendering | |
Sakurikar et al. | Dense view interpolation on mobile devices using focal stacks | |
KR100927236B1 (ko) | 영상 복원 방법, 영상 복원 장치 및 영상 복원 방법을 실행하는 프로그램이 기록된 컴퓨터에서 판독될 수 있는 기록매체 | |
Muniraj et al. | Subpixel based defocused points removal in photon-limited volumetric dataset | |
JP7099538B2 (ja) | 画像処理装置および画像処理方法 | |
Ma | Computational depth from defocus via active quasi-random pattern projections | |
Mao et al. | A robust framework for multi-view stereopsis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171010 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181119 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6446997 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |