JP7184748B2 - 場面の積層深度データを生成するための方法 - Google Patents

場面の積層深度データを生成するための方法 Download PDF

Info

Publication number
JP7184748B2
JP7184748B2 JP2019501966A JP2019501966A JP7184748B2 JP 7184748 B2 JP7184748 B2 JP 7184748B2 JP 2019501966 A JP2019501966 A JP 2019501966A JP 2019501966 A JP2019501966 A JP 2019501966A JP 7184748 B2 JP7184748 B2 JP 7184748B2
Authority
JP
Japan
Prior art keywords
image
content
occlusion information
scene
lightfield
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019501966A
Other languages
English (en)
Other versions
JP2019527425A (ja
JP2019527425A5 (ja
Inventor
ドワイヤン,ディディエ
ボワソン,ギヨーム
シーバウド,シルヴァイン
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2019527425A publication Critical patent/JP2019527425A/ja
Publication of JP2019527425A5 publication Critical patent/JP2019527425A5/ja
Priority to JP2022131864A priority Critical patent/JP2022174085A/ja
Application granted granted Critical
Publication of JP7184748B2 publication Critical patent/JP7184748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)

Description

技術分野
本発明は、積層深度データに関し、より正確には、光照射野コンテンツのプロパティを利用する積層フォーマットに関し、それらの光照射野コンテンツは、映像かピクチャかを問わない。
背景
ステレオ又はマルチビューシステムでは、データをフォーマットする際、場面の水平寸法のみが考慮される。例えば、カメラが水平に位置合わせされるカメラリグから構成される取得システムの事例では、3Dビュー間の水平視差しか抽出することができない。深度画像ベースのレンダリング技法は、捕捉されたものの間の中間ビューを補間することでよく知られているが、それは常に水平方向におけるものである。
マルチビュー画像では、画像間には大量の冗長性がある。積層深度映像フォーマット又はLDVは、マルチビュー画像をフォーマットするための周知のフォーマッティングソリューションであり、画像間の冗長情報の量を低減する。LDVでは、参照中央画像が選択され、中央画像の領域が主にオクルードされたマルチビュー画像の他の画像によってもたらされた情報が提供される。次いで、LDVフォーマットは、マルチビュー画像を処理するために必要な情報を表す4つの層から構成される。
- 選択された中央画像
- 選択された中央画像と関連付けられた深度マップ
- オクルージョン画像
- 深度オクルージョンマップ
従って、冗長ではない情報のみがレンダリングデバイスに送信される。これらの情報は、深度オクルージョンマップから生成されるオクルージョンマスクに含まれる。
マルチビューコンテキストにおいて使用される他のフォーマットに当てはまるように、LDVフォーマットは、単一の水平オクルージョン層を含み、従って、広い軸間距離で見られる複雑な場面で起こり得る複数層ディスオクルージョンをあらわにする視点のレンダリングに失敗する。
本発明は、前述事項を念頭において考案された。
発明の概要
本発明の第1の態様によれば、場面の積層深度データを生成するためのコンピュータ実装方法であって、
- 場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 光照射野コンテンツからの画像のビュー方向とは異なる第1の方向において、光照射野コンテンツからの画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 光照射野コンテンツからの画像のビュー方向及び第1の方向とは異なる少なくとも第2の方向において、光照射野コンテンツからの画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 場面の積層深度データを生成するために、光照射野コンテンツからの画像、深度マップ、第1のオクルージョン情報セット及び第2のオクルージョン情報セットを集約することと
を含む、方法が提供される。
本発明の実施形態による方法は、光学デバイスによって直接取得される光照射野コンテンツに限定されない。これらのコンテンツは、所定の場面記述に対してコンピュータによって完全に又は部分的にシミュレーションされたコンピュータグラフィックス画像(CGI)であり得る。光照射野コンテンツの別の供給源は、光学デバイス又はCGIから得られた修正済みの(例えば、カラーグレーディング済みの)光照射野コンテンツである撮影後のデータであり得る。また、現在では、映画産業において、光学取得デバイスを使用して取得されたデータとCGIデータとの両方が混ざったデータを有することは一般的である。
本発明の実施形態による方法は、あらゆる方向における視差を提供し、考慮される画像のビュー方向とは異なる多数の方向における視点の変更を可能にする、光照射野コンテンツの使用に依存する。
光照射野コンテンツの使用に依存するそのような方法は、広い軸間距離で見られる複雑な場面で起こり得る複数層ディスオクルージョンをあらわにする視点のレンダリングを可能にする。
上記で言及される方法に従って生成される積層深度データは、光照射野コンテンツからの画像、前記画像と関連付けられた深度マップ、前記画像と関連付けられた第1のオクルージョン情報セット及び第2のオクルージョン情報セットを少なくとも含む。
本発明の実施形態では、光出願されたコンテンツは、映像コンテンツであり得る。
積層深度データを生成するための方法の実施形態によれば、第1のオクルージョン情報セット及び第2のオクルージョン情報セットは、第3のオクルージョン情報セットを生成するために共にマージされ、前記第3の情報セットは、場面の積層深度データを生成するために、光照射野コンテンツからの画像及び深度マップと集約される。
第1及び第2のオクルージョン情報セットをマージすることにより、送信データの量及び受信機側における処理データの量を低減することができる。第1及び第2のオクルージョン情報セットをマージすることにより、第3のオクルージョン情報セットが生成され、第3のオクルージョン情報セットは、独特のオクルージョン情報の形態を取り得、2つの考慮される方向におけるオクルージョン情報を表す。
積層深度データを生成するための方法の実施形態によれば、第1及び第2のオクルージョン情報セットを演算することは、第1及び第2のそれぞれの方向において、コンテンツ光照射野の画像を光照射野コンテンツからの別の隣接画像と比較することにある。
例えば、第1の方向が光照射野コンテンツからの画像のビュー方向に対して水平方向であると考慮すると、第1のオクルージョン情報セットは、水平方向において、光出願されたコンテンツの画像を光照射野コンテンツからの隣接画像と比較することによって得られる。
例えば、第2の方向が光照射野コンテンツからの画像のビュー方向に対して垂直方向であると考慮すると、第2のオクルージョン情報セットは、垂直方向において、光出願されたコンテンツの画像を光照射野コンテンツからの隣接画像と比較することによって得られる。
本発明の別の目的は、場面の積層深度データを生成するための装置であって、
- 場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 光照射野コンテンツからの画像のビュー方向とは異なる第1の方向において、光照射野コンテンツからの画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 光照射野コンテンツからの画像のビュー方向及び第1の方向とは異なる少なくとも第2の方向において、光照射野コンテンツからの画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 場面の積層深度データを生成するために、光照射野コンテンツからの画像、深度マップ、第1のオクルージョン情報セット及び第2のオクルージョン情報セットを集約することと
を行うように構成されたプロセッサを含む、装置に関係する。
場面の積層深度データを生成するための装置の実施形態によれば、第1のオクルージョン情報セット及び第2のオクルージョン情報セットは、第3のオクルージョン情報セットを生成するために共にマージされ、前記第3の情報セットは、場面の積層深度データを生成するために、光照射野コンテンツからの画像及び深度マップと集約される。
場面の積層深度データを生成するための装置の実施形態によれば、第1及び第2のオクルージョン情報セットを演算することは、第1及び第2のそれぞれの方向において、コンテンツ光照射野の画像を光照射野コンテンツからの別の隣接画像と比較することにある。
本発明の別の目的は、場面を表す光照射野コンテンツを処理するための方法であって、場面の光照射野コンテンツと関連付けられた場面の積層深度データに基づいて前記光照射野コンテンツを処理することを含む、方法であり、積層深度データが、光照射野コンテンツからの画像の深度マップと、光照射野コンテンツからの画像と関連付けられた第1のオクルージョン情報セットであって、光照射野コンテンツからの画像のビュー方向とは異なる第1の方向において演算された第1のオクルージョン情報セットと、光照射野コンテンツからの画像と関連付けられた第2のオクルージョン情報セットであって、光照射野コンテンツからの画像のビュー方向とは異なる第2の方向において演算された少なくとも第2のオクルージョン情報セットとを含む、方法に関係する。
本発明の別の目的は、場面の積層深度データの生成が可能な第1の装置によって、場面の前記積層深度データの処理が可能な第2の装置に送信される信号であって、場面の積層深度データを含むメッセージを伝える信号であり、前記積層深度データが、場面の光照射野コンテンツからの画像の深度マップと、光照射野コンテンツからの画像と関連付けられた第1のオクルージョン情報セットであって、光照射野コンテンツからの画像のビュー方向とは異なる第1の方向において演算された第1のオクルージョン情報セットと、光照射野コンテンツからの画像と関連付けられた第2のオクルージョン情報セットであって、光照射野コンテンツからの画像のビュー方向とは異なる第2の方向において演算された少なくとも第2のオクルージョン情報セットとを含み、第2の装置による捕捉画像の処理が、前記積層深度データに基づく、信号に関係する。
本発明の要素によって実装されるいくつかのプロセスは、コンピュータ実装することができる。それに従って、そのような要素は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)又は本明細書ではすべてを「回路」、「モジュール」若しくは「システム」と一般的に呼ぶことができるソフトウェア態様とハードウェア態様とを組み合わせた実施形態の形態を取ることができる。その上、そのような要素は、コンピュータ使用可能プログラムコードがその媒体で具体化される任意の有形表現媒体で具体化されるコンピュータプログラム製品の形態を取ることができる。
本発明の要素はソフトウェアにおいて実装できるため、本発明は、任意の適切なキャリア媒体上のプログラム可能装置に提供するためのコンピュータ可読コードとして具体化することができる。有形キャリア媒体は、フロッピーディスク、CD-ROM、ハードディスクドライブ、磁気テープデバイス又はソリッドステートメモリデバイス及び同様のものなどの記憶媒体を含み得る。一時的なキャリア媒体は、電気信号、電子信号、光信号、音響信号、磁気信号又は電磁信号(例えば、マイクロ波若しくはRF信号)などの信号を含み得る。
図面の簡単な説明
ここでは、単なる例示として、以下の図面を参照して、本発明の実施形態を説明する。
プレノプティックカメラを概略的に表す。 カメラリグの概略図を表す。 少なくとも5つのカメラを含むカメラのアレイの水平方向に位置合わせされた3つのカメラC1、C2、C3及びこれらのカメラによって取得された空間の部分を表す。 少なくとも5つのカメラを含むカメラのアレイの垂直方向に位置合わせされた3つのカメラC4、C2、C5及びこれらのカメラによって取得された空間の部分を示す。 本開示の実施形態による、場面の積層深度データを得るための装置の例を示す概略ブロック図である。 本発明の実施形態による、場面の積層深度データを生成するためのプロセスを説明するためのフローチャートである。 本発明の第1の実施形態に従って生成された場面の積層深度データを表す。 本発明の第2の実施形態に従って生成された場面の積層深度データを表す。
詳細な説明
当業者によって理解されるように、本原理の態様は、システム、方法又はコンピュータ可読媒体として具体化することができる。それに従って、本原理の態様は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)又は本明細書ではすべてを「回路」、「モジュール」若しくは「システム」と一般的に呼ぶことができるソフトウェア態様とハードウェア態様とを組み合わせた実施形態の形態を取ることができる。その上、本原理の態様は、コンピュータ可読記憶媒体の形態を取ることができる。1つ又は複数のコンピュータ可読記憶媒体のいかなる組合せも利用することができる。
プレノプティックカメラは、メインレンズとセンサとの間にマイクロレンズアレイを配置することによって、センサと交差する各光線束に沿って進む光の量を測定することができる。そのようなカメラによって取得されたデータは、光照射野データ又は光照射野コンテンツと呼ばれる。これらの光照射野データは、異なる視点から場面の画像を再構築するために後処理することができる。光照射野データは、各々が異なるリフォーカス深度を有する画像の集合体を含むフォーカルスタックを生成するために使用することができる。その結果、ユーザは、画像の焦点を変更することができる。従来のカメラと比べて、プレノプティックカメラは、後処理によって異なる視点及びリフォーカス深度からの場面の画像の再構築を達成するための追加の情報を得ることができる。
従って、積層深度映像のコンテキストにおける光照射野データのこれらの特異性の使用が可能である。
図1Aは、プレノプティックカメラ100を概略的に表す図である。光照射野カメラは、四次元(又は4D)光照射野データの記録が可能である。プレノプティックカメラ100は、メインレンズ101、マイクロレンズアレイ102及び画像センサ104を含む。
図1Bは、カメラリグ110の概略図を表す。カメラリグ110は、多数のセンサ114を含み、その各々は、レンズ112と関連付けられる。
図1Aに示されるようなプレノプティックカメラ100の例では、メインレンズ101は、メインレンズ101の物体フィールドの物体(図示せず)から光を受信し、メインレンズ101の画像フィールドに光を通す。マイクロレンズアレイ102は、二次元アレイ状に配置された多数のマイクロレンズ103を含む。
光照射野カメラによって捕捉されたデータは、異なる視点から場面の画像を再構築するために後処理することができる。光照射野カメラは、わずかに変更した視点から同じ場面の部分ビューの集合体の捕捉が可能であるため、それらの異なる部分ビューを組み合わせることによって、焦点面がカスタマイズされた画像を作成することができる。
図2A及び図2Bは、水平方向に位置合わせされた3つのカメラC1、C2、C3及び垂直方向に位置合わせされた3つのカメラC4、C2、C5を含むカメラのアレイ並びにこれらのカメラによって取得された空間の部分を表す。当然ながら、カメラの数は5つに限定されず、カメラのアレイに埋め込まれた5つ未満のカメラ又は5つを超えるカメラが存在し得る。
図2Aでは、カメラC1、C2、C3は、水平軸に沿って位置合わせされる。画面20の第1のエリア200は、カメラC1からは見えるが、カメラC2、C3からは見えず、画面20の第2のエリア201は、カメラC3からは見えるが、カメラC2、C1からは見えない。
図2Aの参照202は、カメラC1から見えた場面の画像である。画像202の第1の部分2020は、カメラC1とカメラC2の両方から見えたものである。画像202の第2の部分2021は、カメラC1からは見え、カメラC2からはオクルードされたものである。
図2Aの参照203は、カメラC2から見えた場面の画像である。
図2Aの参照204は、カメラC3から見えた場面の画像である。画像204の第1の部分2040は、カメラC3とカメラC2の両方から見えたものである。画像204の第2の部分2041は、カメラC3からは見え、カメラC2からはオクルードされたものである。
図2Bでは、カメラC4、C2、C5は、水平軸に沿って位置合わせされる。画面20の第1のエリア210は、カメラC4からは見えるが、カメラC2からは見えず、画面20の第2のエリア211は、カメラC5からは見えるが、カメラC2からは見えない。
図2Bの参照212は、カメラC4から見えた場面の画像である。画像212の第1の部分2120は、カメラC4とカメラC2の両方から見えたものである。画像212の第2の部分2121は、カメラC4からは見え、カメラC2からはオクルードされたものである。
図2Bの参照203は、カメラC2から見えた場面の画像である。
図2Bの参照214は、カメラC5から見えた場面の画像である。画像214の第1の部分2140は、カメラC5とカメラC2の両方から見えたものである。画像214の第2の部分2141は、カメラC5からは見え、カメラC2からはオクルードされたものである。
図3は、本開示の実施形態による、場面の積層深度データを生成するための装置の例を示す概略ブロック図である。
装置300は、プロセッサ301、格納ユニット302、入力デバイス303、表示デバイス304及びインタフェースユニット305を含み、それらは、バス306によって接続される。当然ながら、コンピュータ装置300の構成要素は、バス接続以外の接続によって接続することができる。
プロセッサ301は、装置300の動作を制御する。格納ユニット302は、プロセッサ301によって実行される少なくとも1つのプログラムや、光照射野カメラによって捕捉され提供された4D光照射野画像のデータ、プロセッサ301によって実行される演算によって使用されたパラメータ、プロセッサ301によって実行される演算の中間データなどを含む様々なデータを格納する。プロセッサ301は、いかなる公知の適切なハードウェア若しくはソフトウェア、又は、ハードウェアとソフトウェアの組合せによっても形成することができる。例えば、プロセッサ301は、処理回路などの専用ハードウェアによって又はそのメモリに格納されたプログラムを実行するCPU(中央処理装置)などのプログラム可能処理ユニットによって形成することができる。
格納ユニット302は、いかなる適切な記憶装置又はコンピュータ可読方式でプログラム、データ若しくは同様のものの格納が可能な手段によっても形成することができる。格納ユニット302の例は、半導体メモリデバイス、並びに、読取及び書込ユニットにロードされた磁気、光又は光磁気記録媒体などの非一時的なコンピュータ可読記憶媒体を含む。プログラムは、図5を参照して以下で説明されるように、本開示の実施形態による、画像のぼやけ度を表す登録エラーマップを得るためのプロセスをプロセッサ301に実行させる。
入力デバイス303は、コマンドを入力して、リフォーカス表面を定義するために使用される対象物体の三次元(又は3D)モデルに対するユーザの選択を行うためにユーザが使用するためのキーボード、マウスなどのポインティングデバイス又は同様のものによって形成することができる。出力デバイス304は、例えば、グラフィカルユーザインタフェース(GUI)など、本開示の実施形態に従って生成される画像を表示するための表示デバイスによって形成することができる。入力デバイス303及び出力デバイス304は、例えば、タッチスクリーンパネルによって一体化して形成することができる。
インタフェースユニット305は、装置300と外部の装置との間のインタフェースを提供する。インタフェースユニット305は、ケーブル又は無線通信を介して外部の装置と通信可能であり得る。実施形態では、外部の装置は、光照射野カメラであり得る。この事例では、光照射野カメラによって捕捉される4D光照射野画像のデータは、光照射野カメラからインタフェースユニット305を通じて装置300に入力し、次いで、格納ユニット302に格納することができる。
この実施形態では、装置300は、光照射野カメラから分離され、ケーブル又は無線通信を介して互いに通信可能なものとして例示的に論じられているが、装置300は、そのような光照射野カメラと統合できることに留意すべきである。この後者の事例では、装置300は、例えば、光照射野カメラを埋め込むタブレット又はスマートフォンなどのポータブルデバイスであり得る。
図4は、本開示の実施形態による、場面の積層深度データを生成するためのプロセスを説明するためのフローチャートである。
ステップ401では、装置300のプロセッサ301は、光照射野カメラによって捕捉され提供されるか又は装置300の格納ユニット302に格納された場面の光照射野コンテンツを回収する。この後者の事例では、光照射野コンテンツは、例えば、所定の場面記述に対してコンピュータによって完全に又は部分的にシミュレーションされたコンピュータグラフィックス画像(CGI)である。
ステップ402では、装置300のプロセッサ301は、回収された光照射野コンテンツの少なくとも1つの視点に対する深度マップを演算する。光照射野コンテンツからの考慮される視点は、場面の所定のビュー方向に相当する。所定の画像に対し、深度についての情報は、ビュー間視差に関連する。ビュー間視差は、光照射野コンテンツを取得するために使用された実際の又は仮想の光照射野カメラの光学系の焦点距離及び軸間距離に応じた倍率に対する深度の逆関数である。ビュー間視差は、例えば、“A precise real-time stereo algorithm”, V. Drazic, N. Sabater, Proceedings of the 27th Conference on Image and Vision Computing New Zealandで説明されるような対応分析を実行することによって、ピクセル数に基づいて階層的に推定される。演算済みの深度マップにおいてスムーズな深度変動と共に鮮明な縁を提示するため、適切な正則化コストを使用して深度マップの演算の間に、又は、例えば、バイラテラルフィルタリングを用いて後処理として、正則化を実行することができる。
深度マップは、利用可能なあらゆるビュー方向に対して演算される。例えば、図2A及び2Bで表されるように、光照射野コンテンツがカメラのアレイによって取得される際は、考慮される画像は、カメラC2によって取得された画像202である。左から右への視差推定は、カメラC2の左側に位置するカメラC1によって取得された画像202に対応する深度マップを得るために実行される。右から左への視差推定は、カメラC2の右側に位置するカメラC3によって取得された画像204に対応する深度マップを得るために実行される。
次いで、上から下への視差推定は、カメラC2の上側に位置するカメラC4によって取得された画像212に対応する深度マップを得るために実行される。下から上への視差推定は、カメラC2の下側に位置するカメラC5によって取得された画像214に対応する深度マップを得るために実行される。
ステップ403では、プロセッサ301は、画像203のビュー方向とは異なる第1の方向において、画像203と関連付けられた第1のオクルージョン情報セットを演算する。
オクルージョンは、例えば、画像202及び203などの2つの隣接画像と関連付けられた深度マップを比較することによって検出される。オクルージョンは、2つの隣接画像203及び202と関連付けられた深度マップが一致しないエリアで起こる。これらは、カメラC1からは見え、カメラC2からはオクルードされた画像202の第2の部分2021に相当する。画像202の部分2021に相当する深度マップのそのような部分は、対応分析によって推定された深度は信頼できないため、空としてラベル付けされ、次いで、例えば、深度勾配及び湾曲を保存する背景伝播に基づく従来の方法で埋められる。
ステップ403の間、画像203及び204などの2つの隣接画像と関連付けられた深度マップを比較することによって、別のオクルージョン情報セットを演算することができる。
ステップ404では、プロセッサ301は、画像203のビュー方向及び第1の方向とは異なる第2の方向において、画像203と関連付けられた第2のオクルージョン情報セットを演算する。
例えば、画像212及び203などの2つの隣接画像と関連付けられた深度マップが演算される。オクルージョンは、2つの隣接画像203及び212と関連付けられた深度マップが一致しないエリアで起こる。これらは、カメラC4からは見え、カメラC2からはオクルードされた画像212の第2の部分2121に相当する。
ステップ404の間、画像213及び214などの2つの隣接画像と関連付けられた深度マップを比較することによって、別のオクルージョン情報セットを演算することができる。
プロセッサ301は、画像203のビュー方向及び第1の方向とは異なる他の方向において、画像203と関連付けられた2つを超えるオクルージョン情報セットを演算することができる。ステップ405では、プロセッサ301は、場面の積層深度データを生成する。上記で言及される方法に従って生成される積層深度データは、光照射野コンテンツからの画像、前記画像と関連付けられた深度マップ、前記画像と関連付けられた第1のオクルージョン情報セット及び第2のオクルージョン情報セットを少なくとも含む。
本発明の実施形態では、光出願されたコンテンツは、映像コンテンツであり得る。
図5Aで表される第1の実施形態では、場面の積層深度データは、画像203、画像203と関連付けられた深度マップ50、オクルージョンマスク51の形態の第1のオクルージョン情報セット及びオクルージョンマスク52の形態の第2のオクルージョン情報セットを集約することによって生成される。図5Bで表される第2の実施形態では、場面の積層深度データは、画像203、画像203と関連付けられた深度マップ50及びオクルージョンマスク53の形態の第3のオクルージョン情報セットを集約することによって生成される。
この第3のオクルージョン情報セットは、第1のオクルージョン情報及び第2のオクルージョン情報セットをマージすることによって演算される。
例えば、第3のオクルージョン情報セットは、第1及び第2のオクルージョン情報の平均値を含み得る。2つを超えるオクルージョン情報セットが利用可能な事例では、プロセッサ301は、例えば、関連信頼基準に基づいて、積層深度データを生成するために使用されるオクルージョン情報セットとして、それらのうちの1つを選択することができる。
次いで、ステップ406では、レンダリングデバイス又は処理デバイスに向けて積層深度データが送信される。
本発明は、上記では、特定の実施形態に関して説明されているが、本発明は、特定の実施形態に限定されず、変更形態は、当業者には明らかであり、本発明の範囲内にある。
多くのさらなる変更形態及び変形形態は、前述の例示的な実施形態を参照する際にそれら自体を当業者に示唆し、前述の例示的な実施形態は、単なる例示として提供され、本発明の範囲を制限することを意図せず、本発明の範囲は、添付の請求項によってのみ決定される。特に、異なる実施形態からの異なる特徴は、適切な場合に、交換可能であり得る。
[付記1]
場面の積層深度データを生成するためのコンピュータ実装方法であって、
- 前記場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 前記場面の前記積層深度データを生成するために、前記されたコンテンツからの前記画像、前記深度マップ、前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットを集約することと
を含む、方法。
[付記2]
前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされ、前記第3の情報セットが、前記場面の前記積層深度データを生成するために、前記光照射野コンテンツからの前記画像及び前記深度マップと集約される、付記1に記載の方法。
[付記3]
前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1及び前記第2のそれぞれの方向において、前記光照射野コンテンツからの前記画像を前記光照射野コンテンツからの別の隣接画像と比較することにある、付記1又は2に記載の方法。
[付記4]
場面の積層深度データを生成するための装置であって、
- 前記場面を表す光照射野コンテンツからの画像の深度マップを演算することであって、前記画像が、所定のビュー方向に従って見られる、演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
- 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することと、
- 前記場面の前記積層深度データを生成するために、前記光照射野コンテンツからの前記画像、前記深度マップ、前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットを集約することと
を行うように構成されたプロセッサを含む、装置。
[付記5]
前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされ、前記第3の情報セットが、前記場面の前記積層深度データを生成するために、前記光照射野コンテンツからの前記画像及び前記深度マップと集約される、付記4に記載の装置。
[付記6]
前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1及び前記第2のそれぞれの方向において、前記コンテンツ光照射野の前記画像を前記光照射野コンテンツからの別の隣接画像と比較することにある、付記4又は5に記載の装置。
[付記7]
場面を表す光照射野コンテンツを処理するための方法であって、前記場面の前記光照射野コンテンツと関連付けられた前記場面の積層深度データに基づいて前記光照射野コンテンツを処理することを含む、方法であり、前記積層深度データが、前記光照射野コンテンツからの画像の深度マップと、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットであって、前記光照射野コンテンツからの前記画像のビュー方向とは異なる第1の方向において演算された第1のオクルージョン情報セットと、前記光照射野コンテンツからの前記画像と関連付けられた第2のオクルージョン情報セットであって、少なくとも前記光照射野コンテンツからの前記画像のビュー方向とは異なる第2の方向において演算された少なくとも第2のオクルージョン情報セットとを含む、方法。
[付記8]
場面の積層深度データの生成が可能な第1の装置によって、前記場面の前記積層深度データの処理が可能な第2の装置に送信される信号であって、前記場面の前記積層深度データを含むメッセージを伝える信号であり、前記積層深度データが、前記場面の光照射野コンテンツからの画像の深度マップと、前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットであって、前記光照射野コンテンツからの前記画像のビュー方向とは異なる第1の方向において演算された第1のオクルージョン情報セットと、前記光照射野コンテンツからの前記画像と関連付けられた第2のオクルージョン情報セットであって、前記光照射野コンテンツからの前記画像のビュー方向とは異なる第2の方向において演算された少なくとも第2のオクルージョン情報セットとを含み、前記第2の装置による前記捕捉画像の前記処理が、前記積層深度データに基づく、信号。
[付記9]
プログラムがプロセッサによって実行されると、付記1から3のいずれか一項に記載の場面の積層深度データを生成するための方法を実装するためのプログラムコード命令を含むことを特徴とするコンピュータプログラム。

Claims (3)

  1. 場面の積層深度データを生成するためのコンピュータ実装方法であって、
    光照射野コンテンツから場面の画像を取得することと、
    視差推定を実行して前記場面の第1及び第2深度マップを取得することであって、前記画像が、所定のビュー方向に従って見られる、実行することと、
    - 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記第1深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
    - 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記第2深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することであって、前記画像のエリアにおいて一致しない前記第1及び第2深度マップを分析することによって前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされる、演算することと、
    記光照射野コンテンツからの前記画像、前記第1及び第2深度マップ、及び前記第3のオクルージョン情報セット集約に基づいて前記場面の前記積層深度データを生成することとを含
    前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1の方向及び前記第2の方向のそれぞれにおいて、前記光照射野コンテンツからの前記画像を前記光照射野コンテンツからの別の隣接画像と比較することを含む、
    方法。
  2. 場面の積層深度データを生成するための装置であって、
    光照射野コンテンツから場面の画像を取得することと、
    視差推定を実行して前記場面の第1及び第2深度マップを取得することであって、前記画像が、所定のビュー方向に従って見られる、実行することと、
    - 前記光照射野コンテンツからの前記画像の前記ビュー方向とは異なる第1の方向において、前記第1深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた第1のオクルージョン情報セットを演算することと、
    - 前記光照射野コンテンツからの前記画像の前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記第2深度マップを用いて前記光照射野コンテンツからの前記画像と関連付けられた少なくとも第2のオクルージョン情報セットを演算することであって、前記画像のエリアにおいて一致しない前記第1及び第2深度マップを分析することによって前記第1のオクルージョン情報セット及び前記第2のオクルージョン情報セットが、第3のオクルージョン情報セットを生成するために共にマージされる、演算することと、
    記光照射野コンテンツからの前記画像、前記第1及び第2深度マップ、及び前記第3のオクルージョン情報セット集約に基づいて前記場面の前記積層深度データを生成することと
    を行うように構成されたプロセッサを含
    前記第1及び前記第2のオクルージョン情報セットを演算することが、前記第1の方向及び前記第2の方向のそれぞれにおいて、前記光照射野コンテンツからの前記画像を前記光照射野コンテンツからの別の隣接画像と比較することを含む、
    装置。
  3. 場面を表す光照射野コンテンツを処理するための方法であって、
    記光照射野コンテンツと関連付けられた前記場面の積層深度データに基づいて前記光照射野コンテンツを処理することを含、前記積層深度データが、前記光照射野コンテンツからの前記場面の像と前記場面の第1及び第2深度マップと、第1のオクルージョン情報セットとを含み、
    前記第1及び第2深度マップは視差推定に基づいて決定され、
    前記第1のオクルージョン情報セットは、前記画像のエリアにおいて一致しない前記第1及び第2深度マップの分析に基づき第2のオクルージョン情報セット及び少なくとも第3のオクルージョン情報セットをマージすることから生成され、
    前記のオクルージョン情報セット前記画像と関連付けられるとともに、前記画像のビュー方向とは異なる第1の方向において、前記第1深度マップを用い、前記光照射野コンテンツからの前記第1の方向における前記画像と隣接画像との比較に基づいて演算され、
    前記少なくとものオクルージョン情報セット前記画像と関連付けられるとともに、前記ビュー方向及び前記第1の方向とは異なる少なくとも第2の方向において、前記第2深度マップを用い、前記第2の方向における前記画像と前記隣接画像との比較に基づいて演算される、
    法。
JP2019501966A 2016-07-21 2017-07-21 場面の積層深度データを生成するための方法 Active JP7184748B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022131864A JP2022174085A (ja) 2016-07-21 2022-08-22 場面の積層深度データを生成するための方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16305933.0A EP3273686A1 (en) 2016-07-21 2016-07-21 A method for generating layered depth data of a scene
EP16305933.0 2016-07-21
PCT/EP2017/068525 WO2018015555A1 (en) 2016-07-21 2017-07-21 A method for generating layered depth data of a scene

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022131864A Division JP2022174085A (ja) 2016-07-21 2022-08-22 場面の積層深度データを生成するための方法

Publications (3)

Publication Number Publication Date
JP2019527425A JP2019527425A (ja) 2019-09-26
JP2019527425A5 JP2019527425A5 (ja) 2020-08-27
JP7184748B2 true JP7184748B2 (ja) 2022-12-06

Family

ID=56683857

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019501966A Active JP7184748B2 (ja) 2016-07-21 2017-07-21 場面の積層深度データを生成するための方法
JP2022131864A Pending JP2022174085A (ja) 2016-07-21 2022-08-22 場面の積層深度データを生成するための方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022131864A Pending JP2022174085A (ja) 2016-07-21 2022-08-22 場面の積層深度データを生成するための方法

Country Status (7)

Country Link
US (2) US11127146B2 (ja)
EP (2) EP3273686A1 (ja)
JP (2) JP7184748B2 (ja)
KR (3) KR20230106714A (ja)
CN (2) CN109644280B (ja)
BR (1) BR112019001046A2 (ja)
WO (1) WO2018015555A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
EP3416381A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
EP3416371A1 (en) * 2017-06-12 2018-12-19 Thomson Licensing Method for displaying, on a 2d display device, a content derived from light field data
EP3598389A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for detecting occlusions in an image, corresponding device and computer program product
US11363249B2 (en) * 2019-02-22 2022-06-14 Avalon Holographics Inc. Layered scene decomposition CODEC with transparency
CN115202174B (zh) * 2022-07-14 2023-11-10 浙江理工大学 基于光场图像的全息体视图获取方法、系统和应用

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015178217A1 (ja) 2014-05-21 2015-11-26 ソニー株式会社 画像処理装置および方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252974B1 (en) * 1995-03-22 2001-06-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
TR201810139T4 (tr) * 2006-03-31 2018-08-27 Koninklijke Philips Nv Çoklu görünümler için etkili görüntü alıcısı.
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
RU2497196C2 (ru) * 2007-10-11 2013-10-27 Конинклейке Филипс Электроникс Н.В. Способ и устройство для обработки карты глубины
RU2503062C2 (ru) * 2008-08-26 2013-12-27 Конинклейке Филипс Электроникс Н.В. Способ и система для кодирования сигнала трехмерного видео, кодер для кодирования сигнала трехмерного видео, кодированный сигнал трехмерного видео, способ и система для декодирования сигнала трехмерного видео, декодер для декодирования сигнала трехмерного видео
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
RU2011121550A (ru) * 2008-10-28 2012-12-10 Конинклейке Филипс Электроникс Н.В. Генерация окклюзионных данных для свойств изображения
US9438879B2 (en) * 2009-02-17 2016-09-06 Koninklijke Philips N.V. Combining 3D image and graphical data
CN102549507B (zh) * 2009-10-02 2014-08-20 皇家飞利浦电子股份有限公司 选择视点用于在3d视频中生成附加视图
US9197799B2 (en) * 2009-10-19 2015-11-24 Pixar Super light field lens with focus control and non spherical lenslet arrays
US9030530B2 (en) * 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
KR20120049636A (ko) 2010-11-09 2012-05-17 삼성전자주식회사 영상 처리 장치 및 방법
KR20120129313A (ko) * 2011-05-19 2012-11-28 한국전자통신연구원 차이 정보를 사용한 3차원 영상 정보 전송 시스템 및 방법
IN2014CN02708A (ja) * 2011-09-28 2015-08-07 Pelican Imaging Corp
US9237330B2 (en) * 2012-02-21 2016-01-12 Intellectual Ventures Fund 83 Llc Forming a stereoscopic video
ITTO20120413A1 (it) * 2012-05-08 2013-11-09 Sisvel Technology Srl Metodo per la generazione e ricostruzione di un flusso video tridimensionale, basato sull'utilizzo della mappa delle occlusioni, e corrispondente dispositivo di generazione e ricostruzione.
WO2014015460A1 (en) * 2012-07-23 2014-01-30 Thomson Licensing 3d video representation using information embedding
US9092890B2 (en) * 2012-12-20 2015-07-28 Ricoh Company, Ltd. Occlusion-aware reconstruction of three-dimensional scenes from light field images
JP6150277B2 (ja) * 2013-01-07 2017-06-21 国立研究開発法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
US9460515B2 (en) * 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
KR102156402B1 (ko) * 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
KR20160106045A (ko) 2013-11-22 2016-09-09 비디노티 에스아 광필드 처리방법
KR101561525B1 (ko) * 2013-12-30 2015-10-20 재단법인대구경북과학기술원 스테레오 깊이 영상 생성 장치 및 방법
US10567464B2 (en) * 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10136116B2 (en) * 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015178217A1 (ja) 2014-05-21 2015-11-26 ソニー株式会社 画像処理装置および方法

Also Published As

Publication number Publication date
KR102551274B1 (ko) 2023-07-05
JP2019527425A (ja) 2019-09-26
CN109644280A (zh) 2019-04-16
CN117596411A (zh) 2024-02-23
US20190385323A1 (en) 2019-12-19
KR20190032440A (ko) 2019-03-27
US20220005216A1 (en) 2022-01-06
JP2022174085A (ja) 2022-11-22
WO2018015555A1 (en) 2018-01-25
KR20220045242A (ko) 2022-04-12
EP3488608A1 (en) 2019-05-29
EP3273686A1 (en) 2018-01-24
BR112019001046A2 (pt) 2019-04-30
CN109644280B (zh) 2023-10-31
KR102381462B1 (ko) 2022-04-01
US11803980B2 (en) 2023-10-31
US11127146B2 (en) 2021-09-21
KR20230106714A (ko) 2023-07-13

Similar Documents

Publication Publication Date Title
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
US10540773B2 (en) System and method for infinite smoothing of image sequences
Feng et al. Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications
US9237330B2 (en) Forming a stereoscopic video
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
Cheng et al. Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays
US8611642B2 (en) Forming a steroscopic image using range map
WO2013074561A1 (en) Modifying the viewpoint of a digital image
TWI547901B (zh) 模擬立體圖像顯示方法及顯示設備
Jang et al. Efficient disparity map estimation using occlusion handling for various 3D multimedia applications
KR20130107840A (ko) 실감 파노라마 영상 생성을 위한 3d 데이터 포맷 생성/소비 장치 및 방법
JP7285834B2 (ja) 三次元再構成方法および三次元再構成装置
Yang et al. Dynamic 3D scene depth reconstruction via optical flow field rectification
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
Cooke et al. Image-based rendering for teleconference systems
Lee et al. Automatic 2d-to-3d conversion using multi-scale deep neural network
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
Knorr et al. From 2D-to stereo-to multi-view video
Lin et al. Spatio-temporally consistent multi-view video synthesis for autostereoscopic displays
JP2024062935A (ja) 立体視表示コンテンツを生成する方法および装置
Kim et al. A study on real-time implementation of the view interpolation system
Choi et al. Multi-View Stereoscopic Image Synthesis Algorithm for 3DTV
Kang et al. Efficient disparity map generation for moving multi-camera system using TOF depth sensor
Lee et al. Generation of Multiple Depth Images from a Single Depth Map Using Multi-baseline Information
Civit Rovira Multiple-camera capture system implementation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220822

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220908

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7184748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150