JP7184748B2 - 場面の積層深度データを生成するための方法 - Google Patents
場面の積層深度データを生成するための方法 Download PDFInfo
- Publication number
- JP7184748B2 JP7184748B2 JP2019501966A JP2019501966A JP7184748B2 JP 7184748 B2 JP7184748 B2 JP 7184748B2 JP 2019501966 A JP2019501966 A JP 2019501966A JP 2019501966 A JP2019501966 A JP 2019501966A JP 7184748 B2 JP7184748 B2 JP 7184748B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- content
- occlusion information
- scene
- lightfield
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000012545 processing Methods 0.000 claims description 13
- 238000004220 aggregation Methods 0.000 claims 2
- 230000002776 aggregation Effects 0.000 claims 2
- 230000004931 aggregating effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、積層深度データに関し、より正確には、光照射野コンテンツのプロパティを利用する積層フォーマットに関し、それらの光照射野コンテンツは、映像かピクチャかを問わない。
ステレオ又はマルチビューシステムでは、データをフォーマットする際、場面の水平寸法のみが考慮される。例えば、カメラが水平に位置合わせされるカメラリグから構成される取得システムの事例では、3Dビュー間の水平視差しか抽出することができない。深度画像ベースのレンダリング技法は、捕捉されたものの間の中間ビューを補間することでよく知られているが、それは常に水平方向におけるものである。
- 選択された中央画像
- 選択された中央画像と関連付けられた深度マップ
- オクルージョン画像
- 深度オクルージョンマップ
本発明の第1の態様によれば、場面の積層深度データを生成するためのコンピュータ実装方法であって、
- 場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 光照射野コンテンツからの画像のビュー方向とは異なる第1の方向において、光照射野コンテンツからの画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 光照射野コンテンツからの画像のビュー方向及び第1の方向とは異なる少なくとも第2の方向において、光照射野コンテンツからの画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 場面の積層深度データを生成するために、光照射野コンテンツからの画像、深度マップ、第1のオクルージョン情報セット及び第2のオクルージョン情報セットを集約することと
を含む、方法が提供される。
- 場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 光照射野コンテンツからの画像のビュー方向とは異なる第1の方向において、光照射野コンテンツからの画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 光照射野コンテンツからの画像のビュー方向及び第1の方向とは異なる少なくとも第2の方向において、光照射野コンテンツからの画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 場面の積層深度データを生成するために、光照射野コンテンツからの画像、深度マップ、第1のオクルージョン情報セット及び第2のオクルージョン情報セットを集約することと
を行うように構成されたプロセッサを含む、装置に関係する。
ここでは、単なる例示として、以下の図面を参照して、本発明の実施形態を説明する。
当業者によって理解されるように、本原理の態様は、システム、方法又はコンピュータ可読媒体として具体化することができる。それに従って、本原理の態様は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)又は本明細書ではすべてを「回路」、「モジュール」若しくは「システム」と一般的に呼ぶことができるソフトウェア態様とハードウェア態様とを組み合わせた実施形態の形態を取ることができる。その上、本原理の態様は、コンピュータ可読記憶媒体の形態を取ることができる。1つ又は複数のコンピュータ可読記憶媒体のいかなる組合せも利用することができる。
[付記1]
場面の積層深度データを生成するためのコンピュータ実装方法であって、
- 前記場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 前記場面の前記積層深度データを生成するために、前記されたコンテンツからの前記画像、前記深度マップ、前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットを集約することと
を含む、方法。
[付記2]
前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされ、前記第3の情報セットが、前記場面の前記積層深度データを生成するために、前記光照射野コンテンツからの前記画像及び前記深度マップと集約される、付記1に記載の方法。
[付記3]
前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1及び前記第2のそれぞれの方向において、前記光照射野コンテンツからの前記画像を前記光照射野コンテンツからの別の隣接画像と比較することにある、付記1又は2に記載の方法。
[付記4]
場面の積層深度データを生成するための装置であって、
- 前記場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 前記場面の前記積層深度データを生成するために、前記光照射野コンテンツからの前記画像、前記深度マップ、前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットを集約することと
を行うように構成されたプロセッサを含む、装置。
[付記5]
前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされ、前記第3の情報セットが、前記場面の前記積層深度データを生成するために、前記光照射野コンテンツからの前記画像及び前記深度マップと集約される、付記4に記載の装置。
[付記6]
前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1及び前記第2のそれぞれの方向において、前記コンテンツ光照射野の前記画像を前記光照射野コンテンツからの別の隣接画像と比較することにある、付記4又は5に記載の装置。
[付記7]
場面を表す光照射野コンテンツを処理するための方法であって、前記場面の前記光照射野コンテンツと関連付けられた前記場面の積層深度データに基づいて前記光照射野コンテンツを処理することを含む、方法であり、前記積層深度データが、前記光照射野コンテンツからの画像の深度マップと、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットであって、前記光照射野コンテンツからの前記画像のビュー方向とは異なる第1の方向において演算された第1のオクルージョン情報セットと、前記光照射野コンテンツからの前記画像と関連付けられた第2のオクルージョン情報セットであって、少なくとも前記光照射野コンテンツからの前記画像のビュー方向とは異なる第2の方向において演算された少なくとも第2のオクルージョン情報セットとを含む、方法。
[付記8]
場面の積層深度データの生成が可能な第1の装置によって、前記場面の前記積層深度データの処理が可能な第2の装置に送信される信号であって、前記場面の前記積層深度データを含むメッセージを伝える信号であり、前記積層深度データが、前記場面の光照射野コンテンツからの画像の深度マップと、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットであって、前記光照射野コンテンツからの前記画像のビュー方向とは異なる第1の方向において演算された第1のオクルージョン情報セットと、前記光照射野コンテンツからの前記画像と関連付けられた第2のオクルージョン情報セットであって、前記光照射野コンテンツからの前記画像のビュー方向とは異なる第2の方向において演算された少なくとも第2のオクルージョン情報セットとを含み、前記第2の装置による前記捕捉画像の前記処理が、前記積層深度データに基づく、信号。
[付記9]
プログラムがプロセッサによって実行されると、付記1から3のいずれか一項に記載の場面の積層深度データを生成するための方法を実装するためのプログラムコード命令を含むことを特徴とするコンピュータプログラム。
Claims (3)
- 場面の積層深度データを生成するためのコンピュータ実装方法であって、
光照射野コンテンツから場面の画像を取得することと、
- 視差推定を実行して前記場面の第1及び第2深度マップを取得することであって、前記画像が、所定のビュー方向に従って見られる、実行することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記第1深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記第2深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することであって、前記画像のエリアにおいて一致しない前記第1及び第2深度マップを分析することによって前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされる、演算することと、
- 前記光照射野コンテンツからの前記画像、前記第1及び第2深度マップ、及び前記第3のオクルージョン情報セットの集約に基づいて前記場面の前記積層深度データを生成することとを含み、
前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1の方向及び前記第2の方向のそれぞれにおいて、前記光照射野コンテンツからの前記画像を前記光照射野コンテンツからの別の隣接画像と比較することを含む、
方法。 - 場面の積層深度データを生成するための装置であって、
光照射野コンテンツから場面の画像を取得することと、
- 視差推定を実行して前記場面の第1及び第2深度マップを取得することであって、前記画像が、所定のビュー方向に従って見られる、実行することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記第1深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記第2深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することであって、前記画像のエリアにおいて一致しない前記第1及び第2深度マップを分析することによって前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされる、演算することと、
- 前記光照射野コンテンツからの前記画像、前記第1及び第2深度マップ、及び前記第3のオクルージョン情報セットの集約に基づいて前記場面の前記積層深度データを生成することと
を行うように構成されたプロセッサを含み、
前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1の方向及び前記第2の方向のそれぞれにおいて、前記光照射野コンテンツからの前記画像を前記光照射野コンテンツからの別の隣接画像と比較することを含む、
装置。 - 場面を表す光照射野コンテンツを処理するための方法であって、
前記光照射野コンテンツと関連付けられた前記場面の積層深度データに基づいて前記光照射野コンテンツを処理することを含み、前記積層深度データが、前記光照射野コンテンツからの前記場面の画像と、前記場面の第1及び第2深度マップと、第1のオクルージョン情報セットとを含み、
前記第1及び第2深度マップは視差推定に基づいて決定され、
前記第1のオクルージョン情報セットは、前記画像のエリアにおいて一致しない前記第1及び第2深度マップの分析に基づき第2のオクルージョン情報セット及び少なくとも第3のオクルージョン情報セットをマージすることから生成され、
前記第2のオクルージョン情報セットは、前記画像と関連付けられるとともに、前記画像のビュー方向とは異なる第1の方向において、前記第1深度マップを用い、前記光照射野コンテンツからの前記第1の方向における前記画像と隣接画像との比較に基づいて演算され、
前記少なくとも第3のオクルージョン情報セットは、前記画像と関連付けられるとともに、前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記第2深度マップを用い、前記第2の方向における前記画像と前記隣接画像との比較に基づいて演算される、
方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022131864A JP2022174085A (ja) | 2016-07-21 | 2022-08-22 | 場面の積層深度データを生成するための方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305933.0A EP3273686A1 (en) | 2016-07-21 | 2016-07-21 | A method for generating layered depth data of a scene |
EP16305933.0 | 2016-07-21 | ||
PCT/EP2017/068525 WO2018015555A1 (en) | 2016-07-21 | 2017-07-21 | A method for generating layered depth data of a scene |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022131864A Division JP2022174085A (ja) | 2016-07-21 | 2022-08-22 | 場面の積層深度データを生成するための方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019527425A JP2019527425A (ja) | 2019-09-26 |
JP2019527425A5 JP2019527425A5 (ja) | 2020-08-27 |
JP7184748B2 true JP7184748B2 (ja) | 2022-12-06 |
Family
ID=56683857
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019501966A Active JP7184748B2 (ja) | 2016-07-21 | 2017-07-21 | 場面の積層深度データを生成するための方法 |
JP2022131864A Pending JP2022174085A (ja) | 2016-07-21 | 2022-08-22 | 場面の積層深度データを生成するための方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022131864A Pending JP2022174085A (ja) | 2016-07-21 | 2022-08-22 | 場面の積層深度データを生成するための方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11127146B2 (ja) |
EP (2) | EP3273686A1 (ja) |
JP (2) | JP7184748B2 (ja) |
KR (3) | KR20230106714A (ja) |
CN (2) | CN109644280B (ja) |
BR (1) | BR112019001046A2 (ja) |
WO (1) | WO2018015555A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3273686A1 (en) * | 2016-07-21 | 2018-01-24 | Thomson Licensing | A method for generating layered depth data of a scene |
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
EP3416371A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
EP3598389A1 (en) * | 2018-07-19 | 2020-01-22 | Thomson Licensing | Method for detecting occlusions in an image, corresponding device and computer program product |
US11363249B2 (en) * | 2019-02-22 | 2022-06-14 | Avalon Holographics Inc. | Layered scene decomposition CODEC with transparency |
CN115202174B (zh) * | 2022-07-14 | 2023-11-10 | 浙江理工大学 | 基于光场图像的全息体视图获取方法、系统和应用 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015178217A1 (ja) | 2014-05-21 | 2015-11-26 | ソニー株式会社 | 画像処理装置および方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6252974B1 (en) * | 1995-03-22 | 2001-06-26 | Idt International Digital Technologies Deutschland Gmbh | Method and apparatus for depth modelling and providing depth information of moving objects |
US7561620B2 (en) * | 2004-08-03 | 2009-07-14 | Microsoft Corporation | System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding |
TR201810139T4 (tr) * | 2006-03-31 | 2018-08-27 | Koninklijke Philips Nv | Çoklu görünümler için etkili görüntü alıcısı. |
US7940268B2 (en) * | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
RU2497196C2 (ru) * | 2007-10-11 | 2013-10-27 | Конинклейке Филипс Электроникс Н.В. | Способ и устройство для обработки карты глубины |
RU2503062C2 (ru) * | 2008-08-26 | 2013-12-27 | Конинклейке Филипс Электроникс Н.В. | Способ и система для кодирования сигнала трехмерного видео, кодер для кодирования сигнала трехмерного видео, кодированный сигнал трехмерного видео, способ и система для декодирования сигнала трехмерного видео, декодер для декодирования сигнала трехмерного видео |
EP2180449A1 (en) * | 2008-10-21 | 2010-04-28 | Koninklijke Philips Electronics N.V. | Method and device for providing a layered depth model of a scene |
RU2011121550A (ru) * | 2008-10-28 | 2012-12-10 | Конинклейке Филипс Электроникс Н.В. | Генерация окклюзионных данных для свойств изображения |
US9438879B2 (en) * | 2009-02-17 | 2016-09-06 | Koninklijke Philips N.V. | Combining 3D image and graphical data |
CN102549507B (zh) * | 2009-10-02 | 2014-08-20 | 皇家飞利浦电子股份有限公司 | 选择视点用于在3d视频中生成附加视图 |
US9197799B2 (en) * | 2009-10-19 | 2015-11-24 | Pixar | Super light field lens with focus control and non spherical lenslet arrays |
US9030530B2 (en) * | 2009-12-15 | 2015-05-12 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
KR20120049636A (ko) | 2010-11-09 | 2012-05-17 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
KR20120129313A (ko) * | 2011-05-19 | 2012-11-28 | 한국전자통신연구원 | 차이 정보를 사용한 3차원 영상 정보 전송 시스템 및 방법 |
IN2014CN02708A (ja) * | 2011-09-28 | 2015-08-07 | Pelican Imaging Corp | |
US9237330B2 (en) * | 2012-02-21 | 2016-01-12 | Intellectual Ventures Fund 83 Llc | Forming a stereoscopic video |
ITTO20120413A1 (it) * | 2012-05-08 | 2013-11-09 | Sisvel Technology Srl | Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione. |
WO2014015460A1 (en) * | 2012-07-23 | 2014-01-30 | Thomson Licensing | 3d video representation using information embedding |
US9092890B2 (en) * | 2012-12-20 | 2015-07-28 | Ricoh Company, Ltd. | Occlusion-aware reconstruction of three-dimensional scenes from light field images |
JP6150277B2 (ja) * | 2013-01-07 | 2017-06-21 | 国立研究開発法人情報通信研究機構 | 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム |
US9460515B2 (en) * | 2013-10-25 | 2016-10-04 | Ricoh Co., Ltd. | Processing of light fields by transforming to scale and depth space |
KR102156402B1 (ko) * | 2013-11-05 | 2020-09-16 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
KR20160106045A (ko) | 2013-11-22 | 2016-09-09 | 비디노티 에스아 | 광필드 처리방법 |
KR101561525B1 (ko) * | 2013-12-30 | 2015-10-20 | 재단법인대구경북과학기술원 | 스테레오 깊이 영상 생성 장치 및 방법 |
US10567464B2 (en) * | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US10136116B2 (en) * | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
EP3273686A1 (en) * | 2016-07-21 | 2018-01-24 | Thomson Licensing | A method for generating layered depth data of a scene |
-
2016
- 2016-07-21 EP EP16305933.0A patent/EP3273686A1/en not_active Withdrawn
-
2017
- 2017-07-21 JP JP2019501966A patent/JP7184748B2/ja active Active
- 2017-07-21 BR BR112019001046-7A patent/BR112019001046A2/pt unknown
- 2017-07-21 KR KR1020237021910A patent/KR20230106714A/ko not_active Application Discontinuation
- 2017-07-21 CN CN201780051484.4A patent/CN109644280B/zh active Active
- 2017-07-21 WO PCT/EP2017/068525 patent/WO2018015555A1/en unknown
- 2017-07-21 US US16/319,090 patent/US11127146B2/en active Active
- 2017-07-21 KR KR1020197004739A patent/KR102381462B1/ko active IP Right Grant
- 2017-07-21 EP EP17743318.2A patent/EP3488608A1/en active Pending
- 2017-07-21 KR KR1020227010349A patent/KR102551274B1/ko active IP Right Grant
- 2017-07-21 CN CN202311314322.9A patent/CN117596411A/zh active Pending
-
2021
- 2021-09-17 US US17/478,791 patent/US11803980B2/en active Active
-
2022
- 2022-08-22 JP JP2022131864A patent/JP2022174085A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015178217A1 (ja) | 2014-05-21 | 2015-11-26 | ソニー株式会社 | 画像処理装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102551274B1 (ko) | 2023-07-05 |
JP2019527425A (ja) | 2019-09-26 |
CN109644280A (zh) | 2019-04-16 |
CN117596411A (zh) | 2024-02-23 |
US20190385323A1 (en) | 2019-12-19 |
KR20190032440A (ko) | 2019-03-27 |
US20220005216A1 (en) | 2022-01-06 |
JP2022174085A (ja) | 2022-11-22 |
WO2018015555A1 (en) | 2018-01-25 |
KR20220045242A (ko) | 2022-04-12 |
EP3488608A1 (en) | 2019-05-29 |
EP3273686A1 (en) | 2018-01-24 |
BR112019001046A2 (pt) | 2019-04-30 |
CN109644280B (zh) | 2023-10-31 |
KR102381462B1 (ko) | 2022-04-01 |
US11803980B2 (en) | 2023-10-31 |
US11127146B2 (en) | 2021-09-21 |
KR20230106714A (ko) | 2023-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7184748B2 (ja) | 場面の積層深度データを生成するための方法 | |
US10540773B2 (en) | System and method for infinite smoothing of image sequences | |
Feng et al. | Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications | |
US9237330B2 (en) | Forming a stereoscopic video | |
JP5887267B2 (ja) | 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 | |
Cheng et al. | Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays | |
US8611642B2 (en) | Forming a steroscopic image using range map | |
WO2013074561A1 (en) | Modifying the viewpoint of a digital image | |
TWI547901B (zh) | 模擬立體圖像顯示方法及顯示設備 | |
Jang et al. | Efficient disparity map estimation using occlusion handling for various 3D multimedia applications | |
KR20130107840A (ko) | 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법 | |
JP7285834B2 (ja) | 三次元再構成方法および三次元再構成装置 | |
Yang et al. | Dynamic 3D scene depth reconstruction via optical flow field rectification | |
Knorr et al. | An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion | |
Cooke et al. | Image-based rendering for teleconference systems | |
Lee et al. | Automatic 2d-to-3d conversion using multi-scale deep neural network | |
KR20110025083A (ko) | 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법 | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
Lin et al. | Spatio-temporally consistent multi-view video synthesis for autostereoscopic displays | |
JP2024062935A (ja) | 立体視表示コンテンツを生成する方法および装置 | |
Kim et al. | A study on real-time implementation of the view interpolation system | |
Choi et al. | Multi-View Stereoscopic Image Synthesis Algorithm for 3DTV | |
Kang et al. | Efficient disparity map generation for moving multi-camera system using TOF depth sensor | |
Lee et al. | Generation of Multiple Depth Images from a Single Depth Map Using Multi-baseline Information | |
Civit Rovira | Multiple-camera capture system implementation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210901 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220822 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220822 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220908 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7184748 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |