JP2018518866A - 全方向視差ライトフィールド表示システム用の方法および装置 - Google Patents

全方向視差ライトフィールド表示システム用の方法および装置 Download PDF

Info

Publication number
JP2018518866A
JP2018518866A JP2017554570A JP2017554570A JP2018518866A JP 2018518866 A JP2018518866 A JP 2018518866A JP 2017554570 A JP2017554570 A JP 2017554570A JP 2017554570 A JP2017554570 A JP 2017554570A JP 2018518866 A JP2018518866 A JP 2018518866A
Authority
JP
Japan
Prior art keywords
hogel
module
light field
display
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017554570A
Other languages
English (en)
Other versions
JP6866299B2 (ja
Inventor
ファルケンバーグ,アンドレアス
グラジオシ,ダニロ・ブラッコ
エル−ゴロウリー,フセイン・エス
Original Assignee
オステンド・テクノロジーズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オステンド・テクノロジーズ・インコーポレーテッド filed Critical オステンド・テクノロジーズ・インコーポレーテッド
Publication of JP2018518866A publication Critical patent/JP2018518866A/ja
Application granted granted Critical
Publication of JP6866299B2 publication Critical patent/JP6866299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/0443Digital holography, i.e. recording holograms with digital recording means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • G03H1/08Synthesising holograms, i.e. holograms synthesized from objects or objects from holograms
    • G03H1/0808Methods of numerical synthesis, e.g. coherent ray tracing [CRT], diffraction specific
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/26Processes or apparatus specially adapted to produce multiple sub- holograms or to obtain images from them, e.g. multicolour technique
    • G03H1/268Holographic stereogram
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/439Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using cascaded computational arrangements for performing a single operation, e.g. filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

ディスプレイが組み込まれた3D動画処理システムを記載する。本システムでは、ソースからディスプレイへの伝送媒体に対する膨大なデータ帯域幅の要求は、革新的な3Dライトフィールドの動画データをソースで圧縮することを利用するとともに、3Dライトフィールドの動画コンテンツをディスプレイで高圧縮した3D動画データから革新的に再構築することを利用することによって軽減される。ディスプレイは、効果的なデータ処理および光撮像のために、並列処理するパイプラインをQuantum Photonics Imager(登録商標)と一体化させて組み入れている。

Description

関連出願の相互参照
本願は、2015年4月23日に出願された米国仮特許出願第62/151,656号の利益を主張するものである。
本発明は全般的に、ライトフィールドを3D撮像するシステム、ならびにその方法として、画像および映像の圧縮、復元および入力として使用したライトフィールド画像データの変調などの方法に関する。「ライトフィールド(light field)」という用語は、方向、振幅、周波数および位相を含む光の伝播および変調を表すものであり、したがって、ホログラフィ、積分撮像、立体視、多視点撮像、自由視点テレビ(Free−viewpoint TV、FTV)などの技術を用いる撮像システムを簡約したものである。
本発明では、ホログラフィック要素すなわち「ホーゲル(hogel)」は、サンプリングしたライトフィールド画像の最小単位であり、3Dディスプレイによって方向性をあらゆる可能な方向に変調できる情報を含むものであると定義される。ライトフィールド画像は、ホーゲルの2D画像行列として表現され得る。入力画像は通常、ホーゲル間に十分な固有の相関関係を有し、この相関関係は先行技術で利用されている(M.Lucente,Diffraction−Specific Fringe Computation for Electro−Holography,Doctoral Thesis Dissertation,MIT Depart.of Electrical Engineering and Computer Science,Sept.1994(非特許文献1)、Ohm,J.−R.,“Overview of 3D video coding standardization,”In International Conference on 3D Systems and Applications,Osaka,2013(非特許文献2)、Heun−Yeung Shum et al.,“Survey of image−based representations and compression techniques,”Circuits and Systems for Video Technology,IEEE Transactions on,vol.13,no.11,pp.1020−1037,Nov.2003(非特許文献3)、および、画像データサイズを縮小するための圧縮アルゴリズムを用いている、Kundu,S.“Light field compression using homography and 2D warping,”2012 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),pp.1349−1352,25−30March 2012(非特許文献4)を参照。
ライトフィールドの圧縮を改善するために、新しい3D動画符号化規格は、コンピュータビジョンの分野から技術を取り入れることを検討している(ISO/IEC JTC1/SC29/WG11,Call for Proposals on 3D Video Coding Technology,Geneva,Switzerland,March 2011)。画素当たりの奥行きを使用すると、基準画像を新しいビューに投影でき、コストをかけて新しい画像を伝送する代わりに合成画像を使用できる。この技術は復号化器側での計算資源およびローカルメモリを大量に必要とし、それをリアルタイムで実現するのに困難が伴う。3D動画圧縮ツールは、水平方向に並べたシーケンスで使用することも対象としており、ライトフィールドの2D立体配列を利用するものではない。ライトフィールド画像の圧縮用に特別に開発された方法には、Levoyらが記載したベクトル量子化方法(“Light Field Rendering,”Proceedings of the 23rd annual conference on Computer Graphics and Iteractive Techniques,SIGGRAPH 96)(非特許文献5)、およびMagnorらが記載した動画圧縮に基づく方法(Data Compression for Light−Field Rendering,IEEE Transaction on Circuits and Systems for Video Technology,v.10,n.3,April 2000,pp.338−343)(非特許文献6)などがある。ベクトル量子化の使用は限定されており、Magnorらが紹介したもののような高度な圧縮性能を達成できない。同著者らが提案した方法は、多視点圧縮アルゴリズムとほぼ同じで、画像の立体的な規則性が視差の推定に利用されている。しかしながら、提案されている圧縮アルゴリズムは、大量のローカルメモリを必要とし、リアルタイムの実現には適していない。さらに、標準の3D動画圧縮アルゴリズム(Ohm,J.−R.,“Overview of 3D video coding standardization,”In International Conference on 3D Systems and Applications,Osaka,2013)(非特許文献2)あるいは特定のライトフィールド圧縮方法(Heun−Yeung Shum et al.,“Survey of image−based representations and compression techniques,”Circuits and Systems for Video Technology,IEEE Transactions on,vol.13,no.11,pp.1020−1037,Nov.2003(非特許文献3)およびKundu,S.“Light field compression using homography and 2D warping,”2012 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),pp.1349−1352,25−30 March 2012)(非特許文献4)は、高解像度のライトフィールドによって生成された極めて大量のデータを処理できない。当業者に理解され得るように、先行技術に記載されている圧縮方法は限られた数しかリアルタイムで実現できず、これらの方法のうち、全方向視差をVACなしでリアルタイムで表示させるのに必要とされるデータ量をレンダリングできかつ/または圧縮できるものは1つもない。その上、圧縮アルゴリズムは通常、保存用またはネットワーク伝送用に設計されており(Bhaskaran,V.“65.1:invited Paper:Image/Video Compression-A Display Centric Viewpoint,”SID Symposium Digest of Technical Papers,vol.39,no.1,2008)(非特許文献7)、ライトフィールド表示システムの場合、ディスプレイは、従来の圧縮アルゴリズムでは果たし得ない特定のタイミングおよびメモリの要件を有する。
3Dシステムは、ライトフィールドの膨大なデータ要件を扱うディスプレイの能力が限られているのが慣例である。圧縮を用いた場合であっても、ディスプレイは復号化されたデータを処理する必要があり、データのサイズは容易に表示システムの限界を超えるおそれがある。圧縮を用いる代わりに、多くのライトフィールドディスプレイの実現では、データの増量に対する妥協として、ソースでライトフィールドの次元を減らすことに頼っている。それにもかかわらず、ライトフィールドディスプレイの解像度を制限することで、知覚の質に重大な影響を及ぼすことがあり、視覚の疲労を起こすことさえある。例えば、Takaki,Y.,“High−density directional display for generating natural three−dimensional images,”Proc.IEEE,vol.94,no.3,pp.654−663,Mar.2006(非特許文献8)、Balogh、T.,“The HoloVizio system,”Proc.SPIE 6055,Stereoscopic Displays and Virtual reality Systems XIII,60550U(January 27,2006)(非特許文献9)、およびIwasawa,S.et al.,“REI:an automultiscopic projection display,”Proc.3DSA 2013,Selected paper 1(非特許文献10)に紹介されているものなどの超多視点ディスプレイは、ライトフィールドの垂直方向の視差を排除し、水平方向の動きのみに対する動き視差を限定する。積分撮像ディスプレイ(Arai,J.,“Three−dimensional television system based on integral photography,”Picture Coding Symposium(PCS),2012,vol.,no.,pp.17−20,7−9 May 2012(非特許文献11)、Javidi,B.,Seung−Hyun Hong,“Three−dimensional holographic image sensing and Integral Imaging display,”Display technology,Journal of,vol.1,no.2,pp.341−346,Dec.2005(非特許文献12)、およびPark、J.H.,Hong,K.and Lee,B.“Recent progress in three−dimensional information processing based on integral imaging,”Applied optics 48,no.34(2009)(非特許文献13)を参照)は、全方向視差ライトフィールドを再現するが、ディスプレイの解像が限定されており、通常、角度解像度(およびそれに伴って被写界深度)を落として空間解像度を上げている。ホログラフィックディスプレイに対する方法(M.Lucente,Diffraction−Specific Fringe Computation for Electro−Holography,Doctoral Thesis Dissertation,MIT Depart.of Electrical Engineering and Computer Science,Sept.1994(非特許文献1)を参照)は、伝送媒体帯域幅を小さくするためにディスプレイのリフレッシュレートを下げることに頼っている。Holliman,N.et al.,“Three−Dimensional Displays:A Review and Application Analysis,”Broadcasting,IEEE Transactions on,vol.57,no.2,pp.362−371,June 2011(非特許文献14)、Urey,H.et al.,“State of the Art in Stereoscopic and Autostereoscopic Displays,”Proceedings of the IEEE,On page(s):540−555 Volume:99,Issue:4,April 2011(非特許文献15)、およびMasia,B.et al.,“A survey on computational displays:Pushing the boundaries of optics,computation and perception,”Computers&Graphics 37.8(2013)(非特許文献16)にある著作には、ライトフィールドディスプレイのさらに多くの例が記載されている。しかしながら、そのような技術は実際の3D物体を忠実に再現するライトフィールドディスプレイの能力を限定することを当業者は直ちに理解するであろう。先行技術は、高解像度のライトフィールドディスプレイによって課される、高圧縮率、高品質、低計算負荷およびリアルタイム応答などの課題に対処し損ねている。したがって、高解像度ライトフィールドに対する新たな方法および装置が求められている。
米国仮特許出願第62/151,656号 米国特許第7,623,560号 米国特許第7,767,479号 米国特許第7,829,902号 米国特許第8,049,231号 米国特許第8,243,770号 米国特許第8,567,960号 米国特許第8,284,237号 米国特許出願公報第2010/0007804号 米国特許出願公報第2010/0225679号 米国特許出願公報第2013/0141895号 米国特許出願公報第2013/0258451号 米国特許出願公報第2015/0201176号
M.Lucente,Diffraction−Specific Fringe Computation for Electro−Holography,Doctoral Thesis Dissertation,MIT Depart.of Electrical Engineering and Computer Science,Sept.1994 Ohm,J.−R.,"Overview of 3D video coding standardization,"In International Conference on 3D Systems and Applications,Osaka,2013 Heun−Yeung Shum et al.,"Survey of image−based representations and compression techniques,"Circuits and Systems for Video Technology,IEEE Transactions on,vol.13,no.11,pp.1020−1037,Nov.2003 Kundu,S."Light field compression using homography and 2D warping,"2012 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),pp.1349−1352,25−30 March 2012 Levoy et al, "Light Field Rendering,"Proceedings of the 23rd annual conference on Computer Graphics and Iteractive Techniques,SIGGRAPH 96 Magnor et al,Data Compression for Light−Field Rendering,IEEE Transaction on Circuits and Systems for Video Technology,v.10,n.3,April 2000,pp.338−343 Bhaskaran,V."65.1:invited Paper:Image/Video Compression-A Display Centric Viewpoint,"SID Symposium Digest of Technical Papers,vol.39,no.1,2008 Takaki,Y.,"High−density directional display for generating natural three−dimensional images,"Proc.IEEE,vol.94,no.3,pp.654−663,Mar.2006 Balogh、T.,"The HoloVizio system,"Proc.SPIE 6055,Stereoscopic Displays and Virtual reality Systems XIII,60550U(January 27,2006) Iwasawa,S.et al.,"REI:an automultiscopic projection display,"Proc.3DSA 2013,Selected paper 1 Arai,J.,"Three−dimensional television system based on integral photography,"Picture Coding Symposium(PCS),2012,vol.,no.,pp.17−20,7−9 May 2012 Javidi,B.,Seung−Hyun Hong,"Three−dimensional holographic image sensing and Integral Imaging display,"Display technology,Journal of,vol.1,no.2,pp.341−346,Dec.2005 Park、J.H.,Hong,K.and Lee,B."Recent progress in three−dimensional information processing based on integral imaging,"Applied optics 48,no.34(2009) Holliman,N.et al.,"Three−Dimensional Displays:A Review and Application Analysis,"Broadcasting,IEEE Transactions on,vol.57,no.2,pp.362−371,June 2011 Urey,H.et al.,"State of the Art in Stereoscopic and Autostereoscopic Displays,"Proceedings of the IEEE,On page(s):540−555 Volume:99,Issue:4,April 2011 Masia,B.et al.,"A survey on computational displays:Pushing the boundaries of optics,computation and perception,"Computers&Graphics 37.8(2013) Hoffman,D.M.et al.,"Vergence−accommodation conflicts hinder visual performance and cause visual fatigue,"Journal of Vision 8,no.3,2008) Alpaslan,Z.Y.,et al.,"Small form factor full parallax tiled light field display,"in SPIE Conference on Stereoscopic Displays and Applications XXVI,2015 Levoy,M.et al.,"Light Field Rendering,"Proceedings of the 23rd annual conference on Computer Graphics and Iteractive Techniques,SIGGRAPH 96 El−Ghoroury,H.S.et al.,"Quantum Photonic Imager(QPI):A New Display Technology and Its Applications,"(Invited)Proceedings of The International Display Workshops Volume 21,December 3,2014 Graziosi et al.,"Depth assisted compression of full parallax light fields",IS&T/SPIE Electronic Imaging.International Society for Optics and Photonics(March 17,2015) "View Synthesis Reference Software(VSRS)3.5,"wg11.sc29.org,March 2010 C.Fehn,"3D−TV Using Depth−Image−Based Rendering(DIBR),"in Proceedings of Picture Coding Symposium,SanFrancisco,CA,USA,Dec.2004 Malvar,H.S.et al.,"Lifting−Based Reversible Color Transformations for Image Compression",Proceeding SPIE Applications of Digital Image Processing,2008 G.J.Sullivan et al.,"The H.264/AVC Advanced Video Coding Standard :Overview and Introduction to the Fidelity Range Extensions,"in SPIE Conference on Applications of Digital Image Processing XXVII,2004
本発明を理解するため、かつ本発明を実際にどのように実行し得るのかを見るため、本発明の特定の実施形態を添付の図面を参照して非限定的な例のみを用いて説明する。したがって、例示的な実施形態を理解しやすくするために詳細な実施要素を挙げているが、本発明は別の実施態様を用いても実施され得る。不要な詳細によって本発明を不明瞭にしないために、公知の機能や構造は詳細に説明していない。
先行技術のアーキテクチャを示す図である。 先行技術の限界を示す図である。 本発明アーキテクチャを示す図である。 本発明のディスプレイ適合符号化処理の詳細を示す図である。 本発明のディスプレイ適合符号化処理の1つの実施形態で使用したシードホーゲルテクスチャ符号化処理に対する詳細を示す図である。 本発明のディスプレイ適合符号化処理の1つの実施形態で使用したシードホーゲル視差符号化処理の詳細を示す図である。 本発明のディスプレイ適合符号化処理の1つの実施形態で使用した残余ホーゲル視差符号化処理の詳細を示す図である。 本発明のディスプレイ適合符号化処理の1つの実施形態で使用した残余ホーゲルテクスチャ符号化処理の詳細を示す図である。 ライトフィールド解像度を上げるための集合体の並進を描いた図である。 ライトフィールド解像度を上げるための集合体の回転を描いた図である。 ライトフィールド解像度を上げるために回転および並進を用いる本発明の実施形態のタイミングを示す図である。 本発明の可能な実施形態のヘッダ情報を含むテーブルを示す図である。 ジャストインタイムの復号化に対するパケットインターリーブ器の可能な方策を描いた図である。 本発明の1つの実施形態で使用したシードホーゲルにビットレートを割り当てる方法を示す図である。 本発明の1つの実施形態で使用した残余ホーゲルにビットレートを割り当てる方法を示す図である。 本発明の3D撮像システムのディスプレイ側で受信したビットストリームの復号化を示す図である。 ハードウェアユニットを管理するファームウェアソフトウェアの概念に対して使用したステートマシンの流れ図である 処理ノードどうしの間の相互接続を示す図である。 処理ノードと、その全ハードウェアユニットとメモリブロックの内部構造を示す図である。
3次元(3D)ディスプレイは、医療、科学、軍事およびエンターテイメントの視覚化、バーチャルプロトタイピング、およびさらに多くの用途に極めて貴重なものである。残念ながら、コンピュータのディスプレイは画像を1つの面に表示するため、3Dディスプレイは、知覚される3D構造でゆがみを生じることが多く、視聴者には不快感および疲労をもたらす。3Dディスプレイの最大の問題の1つが、両眼離反運動と遠近調節が一致しない適合的眼球離反運動の不一致(Vergence−Accommodation Conflict、VAC)と称されるものであり(Hoffman,D.M.et al.,“Vergence−accommodation conflicts hinder visual performance and cause visual fatigue,”Journal of Vision 8,no.3,2008)(非特許文献17)、これは両眼の刺激を融合する能力を低下させる。
ところが、ライトフィールドディスプレイ(Alpaslan,Z.Y.,et al.,“Small form factor full parallax tiled light field display,”in SPIE Conference on Stereoscopic Displays and Applications XXVI,2015)(非特許文献18)は、シーンの物体から放出または反射された光線の強度および方向を変調し、それによって、ディスプレイの画面がVACを解消する代わりに3D物体に視聴者が直接焦点を合わせることが可能になる。ライトフィールドを取り込む方法の1つは、2つの平行な平面内の光線の入射点および出射点をパラメータ化することである(Levoy,M.et al.,“Light Field Rendering,”Proceedings of the 23rd annual conference on Computer Graphics and Iteractive Techniques,SIGGRAPH 96)(非特許文献19)。ライトフィールドを忠実に再現するためには、パラメータ化した平面を綿密にサンプリングする必要がある。これによってデータは膨大な量となり、表示システムに極度の処理および保存要求を課すことになる。
例えば、XGA空間解像度(1024x768)、視野が100°、かつ角度解像度が0.4°であるディスプレイは、およそ50ギガの画素を変調する必要があり、これは計1.17Tビットのデータ量になる。最新の動画圧縮フォーマットであるH.264/AVCは、超高解像度の動画フレーム(4,096x2,304@56.3フレーム/秒、または0.5G画素/秒)をおよそ12Gビット/秒のデータビットレートで圧縮するように対処でき((ISO/IEC 14496-10:2003、2003年の「Coding of Audiovisual Objects‐Part 10:Advanced Video Coding(オーディオビジュアル物体の符号化―第10部:高度な動画符号化)」、およびITU−T勧告H.264「Advanced video coding for generic audiovisual services(汎用のオーディオビジュアルサービス用の高度な動画符号化)」)、これは画素当たり24ビットとみなされる。ライトフィールドを60Hzの動画レートでリアルタイムで圧縮するためには、同じH264/AVCは、最大70Tビット/秒のデータレートを達成できる必要があり、これは現在可能とされる最大データレートよりも遙かに高い。
本発明は、画素ピッチが極めて大きい表示装置を用いて綿密にサンプリングしたライトフィールドを再現できる、ライトフィールドを3D撮像する方法および装置を開示する。本発明は、本明細書に開示したライトフィールド圧縮方法を用いて、ライトフィールド生成部とライトフィールド表示装置との間の伝送媒体帯域幅を低減する。このほか、開示した装置は、圧縮された入力を受け取ってディスプレイに直接ライトフィールドを再構築できる。
量子フォトニック撮像装置(Quantum Photonic Imager、QPI撮像装置)は、動き視差または被写界深度を損なうことなく、解像度が極めて高い全方向視差ライトフィールド表示の再生を可能にする表示技術である(米国特許第7,623,560号、同7,767,479号、同7,829,902号、同8,049,231号、同8,243,770号、同8,567,960号およびEl−Ghoroury,H.S.et al.,“Quantum Photonic Imager(QPI):A New Display Technology and Its Applications,”(Invited)Proceedings of The International Display Workshops Volume 21,December 3,2014(非特許文献20)を参照)。QPI撮像装置は、高輝度かつ拡張色域の5μmの画素サイズを達成できる。同装置はタイル型表示の構築を可能にし、その小さい画素ピッチは、被写界深度が拡張した高解像度の全方向視差ライトフィールド表示を実現するスケーラビリティを提供する。タイル型表示により、リアルタイムのライトフィールド表示に必要なライトフィールドの並列処理が可能になる。それにもかかわらず、全要素の接続および管理も慎重に計画する必要がある。QPI撮像装置は、いくつかの他の同様のQPI撮像装置を相互接続してタイル型表示を実現できるデジタルインターフェースを提供する。デジタルインターフェースは、圧縮データを受け取って伝送媒体帯域幅の要件を軽減し、ディスプレイで直接データ拡張を実施する。このほか、圧縮アルゴリズムは、ハードウェアの構造を利用するよう設計されたものである。圧縮された色および追加情報はディスプレイタイルに送信されるため、データの共有および再利用ができ、同時に高い圧縮率およびリアルタイムの復号化を達成できる。
本発明は、3Dホログラフィック情報をリアルタイムで表示する手段を提供する。本特許に記載した方法および装置は、Graziosi et al.,“Depth assisted compression of full parallax light fields”,IS&T/SPIE Electronic Imaging.International Society for Optics and Photonics(March 17,2015)(非特許文献21)に記載されているシステムに基づくものであり、同文献の開示内容を参照によりその全容を本願に援用する。本発明の実施形態は、画像および動画データの処理に特に適しているデジタル計算構成要素および計算方法からなる。動画データは、3次元物体を表現する高度の圧縮されたデータである。さらに、ディスプレイおよび処理要素は、同じ装置に組み込まれている。使用するアーキテクチャにより、エントロピー復号化、データ拡張、誤り訂正、逆画像変換および色補正などだがこれに限定されない手段によって動画データを復元するのに特に適している命令を用いた処理構成要素のまたは処理要素の並列実行が可能になる。さらに、処理要素は、その処理要素自体の面にデータを用意するのに特に適しており、ディスプレイは量子フォトニック撮像装置である。主な入力インターフェースは、多くの処理ノードのうちの1つに接続され、その後その処理ノードは、データがその特定のノードに対するものであるのか他のノードに対するものであるのかを、そのパケットの識別に基づいて判断する。データパケットが別のノードに属している場合、そのデータは正しい送信先に適切に転送される。受け取ったデータが処理ノードに宛てられたものであれば、ノードはその種類に応じてデータを処理する。データは複数の異なる特質を有し、それらすべてが復号化され、ホーゲルテクスチャを生成する後続のステップで使用される。最終ステップは、表示用のホーゲルテクスチャの準備である。開示した発明は、低電力要素を使用してライトフィールドをリアルタイムで再現し、没入型のVACのない3D知覚を提供できる。
本発明は、コンピュータグラフィックス分野のいくつかの公知の技術を利用しており、念のためそれを本明細書で定義する。
マイクロレンズ系の撮像システムでは、マイクロレンズの下にあるホーゲルによって生成された画素の方向を各マイクロレンズが変調する。屈折系の撮像システムでは、ホーゲルは、変調された周波数をすべて含むホログラムの最小単位である。
コンピュータグラフィックスでは、シーンまたはシーンのビューを再生する行為は、視点レンダリングとして知られている。通常は、照明、表面特性およびカメラ視点に沿って3Dモデルが使用される。この視点レンダリングは一般に、いくつかの複雑な動作のほか、シーンの立体構造の詳細な知識も必要とする。新規のビューをレンダリングする代替技術が、複数の周囲の視点を用いる技術である。画像ベースレンダリング(Image−Based Rendering、IBR)として知られているこの技術は、ライトフィールドをオーバーサンプリングする入力画像から直接新規のビューをレンダリングする。IBRは、質がより現実的なビューを生成するが、ライトフィールドでのより強力なデータ取得処理、データ保存および冗長性を必要とする。複雑な立体モデルとデータ集約型のIBRとの妥協点が、奥行き情報およびビューの選択数を用いることである。各ビューは、各画素の位置と関連付けられた奥行きを有し、これは奥行きマップとしても知られている。次に奥行きマップを使用して新しいビューを合成し、これは奥行き画像ベースレンダリング(Depth Image−Based Rendering、DIBR)と呼ばれる処理である(米国特許第8,284,237号、“View Synthesis Reference Software(VSRS)3.5,”wg11.sc29.org,March 2010(非特許文献22)、およびC.Fehn,“3D−TV Using Depth−Image−Based Rendering(DIBR),”in Proceedings of Picture Coding Symposium,SanFrancisco,CA,USA,Dec.2004(非特許文献23)を参照)。DIBRは、奥行き情報ならびに仮想カメラの外在パラメータおよび内在パラメータを利用して2D画面の点をそのそれぞれの3D位置に投影し、その後、3Dの点を対象の2D画面上に再度投影し、この操作は順方向ワーピングとしても知られている。逆の操作も有効であり、その場合、対象ビューの奥行き値がわかり、テクスチャ値は基準ビューから取得される。この場合、この操作は逆方向ワーピングと呼ばれる。DIBRによる合成の最大の問題は、奥行き値の不正確さ、丸め誤差および物体のディスオクルージョンに起因する穴の発生である。
本発明は、地形テクスチャの航空画像、地形標高のレーダもしくはLIDAR(Light Detection and Ranging)によるデータ、または市街地図、風景、コンピュータが生成した3D像、医療画像、ライトフィールドカメラまたは複数のカメラで同時にもしくは異なる時間に撮った画像などだがこれに限定されないライトフィールドの圧縮および表示を扱う。ライトフィールドは、2つの平行な平面と交差する光線で表すことがきる。光線の交差は、両平面で一様にサンプリングされ、取得後のライトフィールドを2Dカメラアレイの設定と同じ手順で形成する。各カメラビューは、「要素画像」とみなされるか、ホーゲルと同等にみなされる。本発明は、取り込んでいるカメラビューのテクスチャおよびそれに関連する立体情報を利用して、ライトフィールドをライトフィールドの表示装置に伝送する前にライトフィールドを圧縮する。用いた立体情報は、画素当たりの視差(disparityまたはparallax)であり、この視差は、2つの隣接するカメラビュー間の物体の変位を表している。画素当たりの視差は、奥行きから導き出すことができ、この逆も可能である。好適な実施形態では、復号化器側での実施が簡易であると理由から視差を使用し、この場合、分割する代わりに、ワーピングするのに単に画素の移動のみを用いる。それにもかかわらず、奥行き値を用いて同じ発明を実現できる。圧縮は、短い待ち時間および制約のあるメモリなどのライトフィールド表示の要件を考慮するために計画される。すなわち圧縮アルゴリズムは、ディスプレイの能力に見合っている。そのため、この圧縮方法はディスプレイ適合圧縮(Display−Matched Compression)と呼ばれる。先行技術と比較すると、本発明の手法は、計算能力を利用することによって、ライトフィールド生成部とライトフィールド表示装置との間で伝送媒体帯域幅の要件を実質的に軽減できるものである。
図1に示した先行技術では、3Dライトフィールドデータ101をサンプリングし、レンダリング操作102によってデジタル化する。レンダリング操作は、膨大な量のデータ105を生成し、これが3Dデータビュー115の変調を担う従来のディスプレイ110への接続に伝送媒体帯域幅の高い要件を課す。処理負荷を軽減するため、先行技術では3D効果を水平軸に限定することによって視聴の質が損なわれることが多い。その結果、図2に示したように、従来のディスプレイ110上の任意の所与の点から来る光線211は、視聴者に水平視差画像215を投影する。
図3に示したように、本発明310が開示したライトフィールドディスプレイは、相当な計算能力を有しており、高度に圧縮されたデータを受信してデータ305の伝送媒体帯域幅の要件を大幅に軽減しつつ、3Dデータビュー315を変調することができる。3Dデータ101の圧縮は通常、2つの機能段階で達成される。すなわち、圧縮レンダリング302と、それに続いてディスプレイ適合符号化器(Display−Matched Encoder)303でライトフィールド表示装置向けに圧縮し調整されたビットストリームを生成する段階である。Graziosi et al.,“Depth assisted compression of full parallax lightfields”,IS&T/SPIE Electronic Imaging.International Society for Optics and Photonics(March 17,2015)(非特許文献21)に開示されているように、本発明で採用しているレンダリング方法は、3Dデータをレンダリングすると同時に圧縮して圧縮後のライトフィールドフォーマットにするものである。
本発明の1つの可能な実施形態では、表示システムの厳密な処理およびメモリの制約の中で高度な圧縮を達成することを目的として、並列符号化/復号化アーキテクチャを用いる。ライトフィールドデータの処理に必要なスループットおよびメモリを達成するために、並列に動作する複数の処理ノード(Processing Node、PN)がそのそれぞれのホーゲルのサブセットを復号化してライトフィールド全体をまとめて再構築する。ディスプレイ適合圧縮は、ディスプレイ側でのハードウェアの選択結果ならびにその処理スループットおよび記憶能力に適合するように設計されていることに注意されたい。これはディスプレイ適合圧縮の重要な特徴である。なぜなら、それによって本発明の3D圧縮撮像システムは、半導体技術分野で進歩し続ける利点、およびそれによって同システムが段階的にもたらす処理スループットとメモリの増大を十分に活かすことができるからである。ディスプレイ適合圧縮のいくつかの変形例を、以下の段落に記載した実施形態で考察する。
ディスプレイ適合圧縮を実施するために使用されるライトフィールドのライトフィールドホーゲル区画の一例は、ホーゲルアレイをN×Nのホーゲルを含む独立したグループに分割することである。Nの値は、表示処理能力に応じて選択されるパラメータの1つであり、その範囲は、全ホーゲルが独立したPNによって復号化される場合の1から、全ホーゲルが1つのPNによって合わせて処理される場合のライトフィールド全体にまで及び得る。
ディスプレイ適合圧縮を図4に示している。ライトフィールドは通常かなりの量の相関を含んでおり、圧縮する必要がある。これは、ライトフィールドデータ(テクスチャ411および視差412)を圧縮してビットストリーム413を生成するディスプレイ適合符号化器303を用いることによって本発明で達成される。この実施形態では、本明細書で「シードホーゲル(seed hogel)」と呼ぶ、PNホーゲル領域内にある1つ以上のホーゲルを独立して符号化し、本明細書で「残余ホーゲル」と呼ぶ残りのホーゲルを選択したシードホーゲルに対して符号化する。図4を参照すると、以下の段落で説明するように、シードホーゲルから得た画素のシードホーゲル視差401およびシードホーゲルテクスチャ402を符号化し406、407、ビットストリーム413に追加する。シードホーゲルを用いて残余ホーゲルを符号化するためには、符号化器と復号化器の両方が同じ基準を用いることが重要である。したがって、図4に示した符号化器の構造は、復号化器が使用したものと全く同じ値のシードホーゲルテクスチャおよび視差を再構築する復号化ループ405を含んでいる。図4に示した次の符号化処理では、残余ホーゲルテクスチャ403を、復号化したシードホーゲル405およびその対応する視差を基準として用いて視差補償し、残りの情報のみを符号化し408、ビットストリーム413に追加する。残余ホーゲル404の視差がテクスチャの符号化に有益である場合、視差補償の予測を改善する可能性があるため、残余ホーゲル視差404もシードホーゲル視差401を用いて符号化し、ビットストリーム413に挿入してもよい。ライトフィールドディスプレイは次に、受信したデータ413を局所的に復号化し、ライトフィールド411を構成するホーゲルのアレイを再構築(変調)する。本発明では、ライトフィールドを全面的に再構築することは、視差情報412を用いることによって回避でき、その結果、ライトフィールド撮像システムは圧縮データのみを扱うことになる点に注意されたい。本発明の1つの可能な実施形態では、米国特許出願公報第2010/0007804号および同2010/0225679号のように圧縮表示を用いてもよく、両文献は、離散ウォルシュ変換(discrete Walsh Transform、DWT)、または離散コサイン変換(discrete Cosine Transform、DCT)の係数を入力として用いて表示し、人間視覚システム(human visual system、HVS)の統合局面を用いて復元を実施する方法を記載している。
図5は、シードホーゲルテクスチャ符号化407の詳細を示している。シードホーゲルテクスチャ402は、k×kの画素501のブロックにセグメント化される。各画素ブロックに対して、シードホーゲルテクスチャ値は固定値によってレベルシフトされる502。つまり、正の値と負の値を得るために、可能な画素値の範囲の中央値が画素値から減算される(8ビット範囲の場合、一定値128が使用される)。その後、シードホーゲル画素の色空間は、色チャネルを非相関化する色空間に転換される503。この実施形態の場合の色空間転換の一例がRGBからYCoCgへの色転換である(Malvar,H.S.et al.,“Lifting−Based Reversible Color Transformations for Image Compression”,Proceeding SPIE Applications of Digital Image Processing,2008(非特許文献24)を参照)。しかし、YUVまたはYCbCrなどだがこれに限定されない他の色空間を無制限に使用してもよい。次に、DCT変換または整数変換などの画像ブロック変換504(G.J.Sullivan et al.,“The H.264/AVC Advanced Video Coding Standard :Overview and Introduction to the Fidelity Range Extensions,”in SPIE Conference on Applications of Digital Image Processing XXVII,2004(非特許文献25)を参照)などを各々の色チャネルに適用する。変換は、シードホーゲルテクスチャブロックのエネルギーをわずかな係数のみで集中させる。その後、これらの係数は、ブロック変換係数のエネルギーの統計および分布に応じて調整されたスケーリングパラメータを用いて量子化される505。シードホーゲルは後に基準として用いられるため、ブロック変換係数の質はできる限り保持される必要がある。その後、通常ブロックのほとんどの情報を含んでいるDC係数は、差分パルス符号変調(DPCM、Differential Pulse Coding Modulation)方式506を用いて別々に符号化され、一方、AC係数は、例えばジグザグ走査およびランレングス符号化507を用いて走査され符号化される。最後に、ビットストリームは、好ましくはハフマンエントロピー符号化器、コンテキスト適応2進算術符号化器(context−adaptive binary arithmetic encoder、CABAC)またはコンテキスト適応可変長符号化器(context−adaptive variable length coder、CAVLC)などを用いてエントロピー符号化される208。本発明の範囲は、図5に示したようなこの段落に記載した符号化のステップおよび方法に限定されず、これに代わる符号化方法、アルゴリズムおよび実施態様も本発明の文脈の範囲内で可能であることに注意されたい。
図6は、シードホーゲル視差符号化401の詳細を示している。シードホーゲルのテクスチャ符号化と視差符号化の間には依存性がないため、テクスチャおよび視差の符号化は、利用可能な処理能力に応じて同時にまたは順次独立して実施され得る。視差値を符号化する場合、値の列走査601が最初に行われてからランレングス符号化602が実行される。最後に、値は、エントロピー符号化され508、ビットストリームに追加され、それによってエントロピー符号化は、好ましくはハフマンエントロピー符号化器、コンテキスト適応2進算術符号化器(CABAC)またはコンテキスト適応可変長符号化器(CAVLC)などを用いて実施される。この実施形態では、視差情報の圧縮は一切の損失なしに行われるが、視差を圧縮する他の方式を使用することもできる。本発明の範囲は、図6に示したようなこの段落に記載した符号化のステップおよび方法に限定されず、これに代わる符号化方法、アルゴリズムおよび実施態様も本発明の文脈の範囲内で可能であることに注意されたい。
図7は、図4の残余符号化処理409で実施した残余ホーゲル視差404の処理の詳細を示している。図7に示したように、残余視差404とワーピングされたシード視差(すなわちDIBR701を適用した後に移動したシード視差)との差の値は、k×kの画素のブロックにセグメント化される501。ほとんどのブロックはゼロになると思われるため、ゼロではない値のみがさらに処理される。その後、これらのゼロではない値が走査され(例えばジグザグ走査)、ランレングス符号化され507、その後エントロピー符号化508もされてからさらに他の処理をされる。シード視差と同様に、開示した手順は損失がない。ただし、当業者は、損失のない圧縮および損失のある圧縮の変形例も本発明に含まれることを直ちに理解するであろう。
図8は、図4の残余符号化処理408で実施した残余ホーゲルテクスチャ403の処理の詳細を示している。図8を参照すると、再構築されたシードホーゲルテクスチャ405(図4のシード復号化ステップ407の出力)、その復号化された視差(視差は損失なしで符号化されたため、これはシード視差401とまったく同じ値である)、および残余視差405は、DIBR701によって適切に視差補償された残余ホーゲルテクスチャの再構築が得られる。この視差補償された残余ホーゲルテクスチャの予測は、シードホーゲル画素を残余ホーゲル位置に移動させることで形成される。1つの基準シードホーゲルのみを使用する場合、このワーピング動作中に穴が発生する可能性がある。穴を符号化し、このワーピング動作から生じる何らかの不正確さを符号化するために、ブロックに基づく変換符号化を用いる。図5のシードホーゲルテクスチャ符号化の処理と同様に、残余ホーゲルテクスチャ403とその視差補償された予測701との差は、k×kの画素のブロックに分割され501、その色空間は、転換され503、変換され504、量子化され505、走査され、ランレングス符号化される507。結果は、エントロピー符号化され508およびビットストリームに追加される。本発明の範囲は、図8に示したようなこの段落に記載した符号化のステップおよび方法に限定されず、これに代わる符号化方法、アルゴリズムおよび実施態様も本発明の文脈の範囲内で可能であることに注意されたい。
ビットストリームタイミング
QPI撮像装置ディスプレイは、システムの性能を向上させるために、独特の光空間(米国特許出願公報第2013/0141895号)および時空間(米国特許出願公報第2013/0258451号)のライトフィールド変調設定で使用することもできる。組立体全体の関節運動を組み入れることにより、ライトフィールドディスプレイの視野も空間解像度も増大させることができる。圧縮アルゴリズムに及ぶ影響は、圧縮のデータ量が増大することである。例えば、図9では、画像を垂直方向および水平方向に並進させることによって903、4分の1のHD画像(960×540)の負の解像度901からフルHD(1920×1080)で表示された解像度902まで空間解像度が増す一例を見ることができる。解像度の高い画像の画素は、まとめてディスプレイに送信される必要があり、これは表示画像の画素位置902で示されることに注意されたい。このように画素をまとめることは、圧縮アルゴリズムにも影響を及ぼす。例えば、0の位置にある画素はすべて、1の位置にある画素よりも前に表示される状態にある必要があるため、圧縮を実施する際には、圧縮に画素表示時間を考慮している必要がある。図9に示した順序は例示的なものに過ぎず、他の順序も可能であることに注意されたい。図10には、表示集合体の回転効果1002が見える。この例では、画像がx軸およびy軸に沿って±30°回転してその視野を拡大させる。このように動くと、新しい画像1001は画素数が以前の9倍に増える。並進と同様に回転も別の時間フレームで示され、データはすべて、ディスプレイがその特定の位置に達する前に変調できる状態になければならない。図11には、回転および並進を用いた時間分割の階層構造を示している。1秒当たり60フレームの場合、各フレーム1101は表示するのみ16,666msを有する。この時間は回転1102の間で分割される。各回転スロットに対して、時間は、集合体が動いている持続時間1103と、集合体が特定の位置で静止している時間1104とに分割される。その後、この時間スロットは4つの並進1105に分割され、各並進スロットは、集合体がその特定の位置まで動くのにかかる時間1106と、集合体が静止している時間1107とに分割される。集合体の並進位置および回転位置は、図12に描いた表に示したような特定のヘッダを介して復号化器に伝達される。ビットストリームは、そのヘッダによって区別されるパケットにセグメント化され、その後、これが該当するディスプレイ用の処理ノードの中に分配される。並列アーキテクチャでは、多くのパケットが同時に生成されることに注意されたい。ディスプレイには時間の制約があるため、一部のパケットは他のパケットよりも前にディスプレイに到達する必要がある。したがって、パケットは、対応する順序でも配置される。図13は、ジャストインタイムの復号化ができるようにパケットを並べ替える方法1301の実施形態を示している。シードホーゲルは表示用に使用してよいものだが、残余ホーゲルによって基準としても使用されるため、最初に送信される必要がある。全処理ノードが回転期間中に復号化処理を開始するために、処理ノードは少なくともシード情報および最初の並進を受信する必要がある。したがって、全処理ノードのパケットは、パケットが到着したときに情報の一部の処理を各ノードが開始できるようにインターリーブされる。ローカルメモリは、処理された情報(復号化されたシードホーゲル)を保存でき、処理ノードは、シード情報のみを用いて残余ホーゲルに対する予測の生成を開始できる。残余ホーゲルに対するテクスチャが到着すれば、予測を訂正でき、内容は表示できる状態にある。
適応型ホーゲル符号化率の最適化
本発明のディスプレイ適合圧縮の態様の1つの重要な特徴は、様々な構成要素間のインターフェース伝送ビットレートをライトフィールド表示システムに適応させて割り当てることである。3D表示システムに必要なインターフェースビットレートが過剰であると仮定すると、利用可能なインターフェースデータレート(またはビットレート)は、ほとんどのあらゆる3D表示システムにおける主な障害であると考えられている。本発明の3D圧縮した撮像システムではシードホーゲルを基準として使用するため、これらのホーゲルは、多くのビットで符号化されてその質ができる限り維持され、インターフェースデータレート(またはビットレート)の割り当て時に優先され、残余ホーゲルを符号化するパラメータは、利用可能なインターフェースデータレートの制約を受けて適応して選択される。図14はシードホーゲル用に、図15は残余ホーゲル用にそれぞれビットレートを適応させて割り当てるために本発明を適用した方法を示している。図14を参照すると、シードホーゲルテクスチャおよび視差を符号化するのに利用可能なビット数の合計を計算する1401。本発明の1つの可能な実施形態では、図11に示したタイミングを検討する。シード符号化のために利用可能なビット数は、以下の式によって算出できる。
Figure 2018518866
式中、Clockはクロックの周波数を指し、Factorは、使用されるメモリに応じて異なる乗算因数であり(メモリが読み出し/書き込みを並列させる場合は、この因数に並列性が反映される)、fpsは1秒当たりのフレーム数であり、#rotationsは回転数であり、%Timeは、データ伝送に用いられる特定の時間スロットのパーセンテージである(例えば、図11に挙げたタイミングは、50%の時間を費やして集合体を回転させたことを示し、これはデータ処理用に使用できるものである)。視差を符号化するために最大のビート数を必要とするシードホーゲルのテクスチャを選択して、符号化を量子化するステップのサイズを最適化する1402。図5の量子化ブロック505で使用されている、符号化を量子化するステップのサイズは、テクスチャの係数の中にある情報のレベルを制御しており、ひずみが生じる可能性を犠牲にした上でホーゲルを符号化するのに必要なビット数を減らすことができる。このシードホーゲルテクスチャを符号化するのに利用可能なビットレートは、利用可能なビットレートの合計から視差情報およびヘッダ情報を符号化するのに必要なレートを差し引くことによって算出される1403。シードホーゲルテクスチャを符号化する際にひずみが最小になる符号化量子化ステップのパラメータを選択し1404、その後、それに対応する符号化量子化ステップのサイズを用いて、シードホーゲルテクスチャの符号化に必要なビットレートを計算する1405。計算したビットレートが利用可能なビットレートよりも少ないとき、シードホーゲルテクスチャを符号化するための量子化ステップのサイズを選択し1406、そうでなければ、量子化ステップのサイズを増大し1407、シードホーゲルテクスチャのビットレートが利用可能なビットレートを下回るまでシードホーゲルテクスチャのビットレートを再計算する。図15を参照すると、符号化した残余ホーゲルのビットレートを利用可能な残りのビットレートに適合させるために利用できる可能性のある符号化方式1501がいくつかあり、例えば修正テクスチャ、視差を送信する、あるいはホーゲルをスキップして利用可能な予測のみを使用するなどである。残余ホーゲルを符号化するのに必要なビットレートに対するそのような方式のいずれか1つを用いる際の実現可能性およびその結果の質が評価され、実現可能ではない符号化方式は一選択肢として排除される1502。ビットレートが利用可能なビットレートよりも大きくなる符号化方式も排除される1503。シードホーゲル用に使用されたビット数に対する式と同様に、残余ホーゲルの符号化に利用可能なビット数は、以下の式によって算出できる。
Figure 2018518866
式中、Clockはクロックの周波数を指し、Factorは、使用されるメモリに応じて異なる乗算因数であり(メモリが読み出し/書き込みを並列させる場合は、この因数に並列性が反映される)、fpsは1秒当たりのフレーム数であり、#rotationsは回転数であり、#Translationsは並進数であり、%Timeはデータ伝送に用いられる並進時間スロットのパーセンテージである。残りの符号化方式からの選択は、ラグランジュコストの最適化を用いて達成され1504、この場合のコスト関数は、選択した品質メトリック(例えば最小ひずみ)にラムダ×ビットレートを足すことによって定義され、ラムダは、量子化ステップから導き出したパラメータである。残余ホーゲル符号化ビットレートの最適化では、利用可能なビットレートを計算に入れ、コスト関数が最小の符号化方式を選択し、残余ホーゲル符号化に利用可能な合計ビットから使用ビット量を差し引き1505、選択した品質メトリックを維持するために、ビットレートが十分ではない場合のみにビットを少なめに使用する符号化方式に頼る1502。
圧縮したライトフィールドの復号化
図16は、ライトフィールドディスプレイで受信したビットストリームの復号化の流れを示している。本発明のディスプレイ適合圧縮の態様の主な利点の1つは、ライトフィールドディスプレイが圧縮ビットストリームを受信し、ビットストリームを直接復号化してライトフィールドを再構築することが実現可能なことである。なぜなら、本発明のホーゲル圧縮は、タイミング要件とディスプレイ側で利用可能な計算能力とを適合させるように作られているからである。図16を参照すると、復号化器は、ディスプレイ側でビットストリームを受信し、従来の復元技術で使用される拡張データを使用する手法を避けつつ、ライトフィールドを再構築するためのみに圧縮ドメインで処理を実施する。図16に示したように、ライトフィールドディスプレイは、符号化されたビットストリームを受信し、まずエントロピー復号化を実施する1601。ビットストリームは通常、パケットの種類および関連するホーゲルの座標を表示面上で識別するヘッダを用いてパケット化され、この実施形態は図12に紹介した。いくつかのパケットの種類は、種々のライトフィールド情報を知らせるために使用され、そのようなパケットのうちの4種類が、ディスプレイでさらに復号化される必要がある実際のホーゲルペイロード情報を含んでいる。具体的には、シードホーゲルテクスチャ、シードホーゲル視差、残余ホーゲルテクスチャおよび残余ホーゲル視差である。シードホーゲルテクスチャの場合、符号化側の逆の操作がライトフィールドディスプレイ側で実施され、DC係数はDPCM復号化1602の後に得られ、他の係数はランレングス復号化および走査1603の後に得られる。受信したシードホーゲルテクスチャのデータは、さらに逆に量子化され509、逆に変換され510、色空間転換され511、レベルシフトされて512、再構築されたシードホーゲルテクスチャ405の正確な複製を生成する。受信したシード視差データは、ランレングス復号化されて1604シードホーゲル視差401の正確な複製を生成し、その後、再構築されたシードホーゲルテクスチャ405および復号化された視差401の両方がディスプレイのローカルメモリに保持されてDIBRブロック701によって使用され、復号化した値を残余ホーゲルテクスチャ403に対して生成する。図16に示したように、受信した残余ホーゲル視差データは、ランレングス復号化され、走査され1603、その後DBIR処理を用いて、メモリに保存されている復号化したシードホーゲル視差401と組み合わされて復号化した残余ホーゲル視差404を生成する。図16に示したように、受信した残余ホーゲルテクスチャデータはランレングス復号化され、走査され1603、逆に量子化され509、逆に変換され510、色空間転換されて511再構築した残余ホーゲルテクスチャ1605を生じる。この再構築した残余ホーゲルテクスチャ1605は、DBIR処理によって、保存されているシードホーゲル視差401の値、再構築したシードホーゲルテクスチャ405および残余ホーゲル視差404と合わせて使用されて、変調したライトフィールド1606を生成する。以上の流れでは、残余ホーゲル視差404およびテクスチャ1605の復号化は、ディスプレイでメモリの使用を最小に抑えるために単一の基準DIBRを使用することもでき、あるいはその代わりに、米国特許出願公報第2015/0201176号に記載されているように複数のシードホーゲルの基準を複数の基準DIBR(MR−DIBR)と合わせて使用することもできることに注意されたい。また、図16に示したライトフィールド復号化の流れを平行して実施することも可能であることにも注意されたい。
本発明の装置は、デジタル回路と、赤、緑および青の3つの積層LED層を駆動するアナログ回路とで構成される。QPI撮像装置へのインターフェースは、圧縮データを伝送する高速インターフェースである。第2のインターフェースは、QPI撮像装置のデジタル部からQPI撮像装置のアナログ部にデータを送信する。このインターフェースは、シリコン貫通ビア(Through−Silicon Via、TSV)インターフェースとして実装され、復元したデータストリームを部分的に伝送する。デジタルASICで部分的な復元が行われ、アナログASICで最終的な復元ステップが行われてからアナログASICが画素情報を表示する。第3のインターフェースは画素接触部である。例えば、1000×1000の画素を有する撮像装置の各画素がRGB接触部を有すると考えると、これは3百万の画素接触部に換算される。共通のアノード電圧が供給され、これを3つのダイオードが共有する。アノード電圧は、極めて限られた方法でしか制御されない。それにもかかわらず、1つの画素を作る3色を制御するためにカソードを使用する。カソードは一定の安定性のよい電流を各画素に供給し、輝度は高度になるようにパルス変調によって制御され得る。画素は、N×Nの物理画素を実装したホーゲル構造に編成され、この構造は、時間多重化され、集合体の回転および並進から得たM個の異なる画像箇所に適用される。ホーゲルは、L×Lのセットにまとめてグループ化され、単一の画素ドライバがデータをグループ全体に供給する役割を担う。画素グループ化の一例では、1ホーゲル当たり50×50の画素、1処理ノード(PN)当たり4x4のホーゲル、かつ各QPI撮像装置に対して5×5のPNを使用する。
処理ノードは、高速インターフェース(high speed interface、HSI)を介して相互接続されており、大量のデータセット上で動作しライトフィールドを圧縮ビットストリームから直接再構築する命令を処理することができる。処理ノードは、特定のハードウェアユニット一式で構成され、その機能性を以下に説明する。ハードウェアユニットは、通常ユニットの出力は別のユニットへの入力であるため、同期して動作する必要がある。処理ブロックは、ユニットの状態および特定のタスクを処理する必要がある資源を確認し、それに応じてユニットを構成するようにプログラム可能であってよいファームウェアまたは特定用途向け集積回路を介して管理される。図17は、ハードウェア管理手順の包括的なフローチャートを示している。まず、ハードウェアは、アイドル状態にあり、入力が到着するのを待っている1701。例えば、1つのハードウェアユニットが復号化用のパケットの到着を待っていて、その間に別のハードウェアユニットが、所望の状態に達するメモリ内容を待っている状態にあることがある。入力があると、ハードウェアは、そのタスクを実行するのに必要な資源を確認する必要がある1702。例えば、ユニットは、その出力を書き込むために利用可能なメモリが十分にあるかどうかを確認する必要があることがある。ハードウェアは、必要な資源が利用可能になるまでその状態であり続け、利用可能になったときに入力を処理できる1703。ハードウェアがそのタスクを実行し終えると、ハードウェアは、インラインの次のユニットで消費される資源を解放する1704。その後ハードウェアは、次の入力が届くのを確認して実行の流れを再び開始する。以下に記載するハードウェアユニットのほとんどは、ほぼ同じフローチャートを有し、ハードウェアの特徴に応じていくらかの特定の変形がある。
HSIインターフェース
データパケットは、全処理ノードを相互接続するIO高速インターフェースを通して受信される。図18は、HSI1802を介して相互接続されたPN1801の一例を示している。データは、異なるPNどうしを区別するIDを有している。受信したデータは、受信したパッケージ内にある要素の識別子および状態を提供する受信機構成要素内で分析される。具体的には、パッケージの一部は種類情報を提供する。ソフトウェアは種類情報を読み取り、その種類情報に基づいて第1のパケットに対する状態を形成する。状態は、そのパケットで実施されている計算の進捗に関する情報を含んでいる。HSIインターフェースは、パケットを次の処理ハードウェアに配信し、本発明の1つの実施形態ではエントロピー復号化器に送信する。両方のハードウェアユニットが共通のメモリバンクを共有して、1つのユニットから別のユニットへ内容を伝送する。ファームウェアは、図17に詳細に示した手順のフローチャートに従って伝送を管理する。パケットはFIFOメモリに至り、そこで最初に分析される。パケットが復号化の必要があるデータを含んでいることをパケットヘッダが示している場合、ユニットは資源を確認する必要がある、つまり利用可能なメモリを共有メモリバンクから探す必要がある。メモリが利用可能になると、データはHSIインターフェースからメモリに伝送され、エントロピー復号化器によって消費される。伝送が終了したとき、ファームウェアは、パケットを受信するために利用可能な復号化器ユニットを探す。復号化器が見つかったとき、その復号器は、特定のパケットタイプを復号化するようにプログラムされ、メモリの所有権は解放され、ハードウェアは新しいパケットの内容を確認しに戻る。
処理ノードの内部アーキテクチャの可能な実施形態を図19に見ることができる。PNを備えているハードウェアユニットは、受信したビットストリームを復元してライトフィールドを再構築する役割を担う。PNは、ホーゲル領域を担当し、まずシードホーゲルを受信し、そのシードホーゲルから他のホーゲルが導き出される。シードホーゲルは、PN領域に属しているホーゲルであることもあれば、そうではないこともある。いくつかのPNが同じホーゲルを共有している場合、図12の表に示したように、シードホーゲルがどのPNに属しているのかを示すビットパターンをシードホーゲルヘッダ内で用いる。PNは、相互接続を使用してシードホーゲル情報を1つのPNから別のPNに送信する。内部では、復号化の実行をリアルタイムで達成するためにピンポンバッファを用いてハードウェアユニットどうしの間でデータを連続的に流す。PNハードウェアは、カスタマイズしたファームウェアを開発するための特定の命令を提供する。この命令には、I/O、復元(エントロピー復号化、ランレングス復号化、ジグザグ復号化、逆量子化、逆画像変換)、コピーおよび移動、誤り訂正、色補正、ガンマ関数、ビットプレーン生成、ロードならびに画素変調制御などがある。PNは、1つ以上のシードホーゲルを保持するのに十分なメモリを有し、時間圧縮も支持することに注意されたい。次に、各々の単一のハードウェアユニットを説明し、ハードウェアを制御して復号化の流れと同期させるためのファームウェアが使用する論理回路も説明する。
エントロピー復号化器
HSIモジュールと共有される入力メモリ1961バンクは、メモリバンクで読み取りと書き込みを同時にできるようにいくつかの独立したメモリモジュールを有する。HSIは、パケットの状態および種類を受信して読み取り、次に何をすべきかを判断する。パケットを第1のメモリの中に読み込んだ後の次のステップは、それを正確に復号化することである。エントロピー復号化器は、その内部のFIFOバッファを満たすのに必要な単語をできる限り多く読み込むことから開始する。種類情報に基づいてエントロピー復号化器1910は、データが正確に復号化されるように再度プログラムされる。ハードウェアユニット1910は、復号化された結果を増分値と一緒に生成する。2種類の情報は、種類および状態の情報と一緒に2つの別々のメモリに保存される。1つは変換した画像のDCおよびAC係数を保存するメモリ1963であり、もう1つは、1つの復号化したブロックから別のブロックへメモリ増分(Minc)を保存するメモリ1962である。エントロピー復号化器は、AC、DCおよびMinc値を任意の順序で受け入れるように自由にプログラムされ得る。制御は、シーケンスコントローラ1901を介して実施され、このシーケンスコントローラは、図19の他のモジュールの動作も制御し、通常はそれぞれのモジュールから得た状態情報に応答して制御する。そのとき、状態情報は、データが復号化されていることを示しており、したがって、次のモジュールに消費され得る。ソフトウェアは、復号化されたデータの種類に応じて、つまり復号化されたデータがシードに属するのか残余ホーゲルに属するのか、または情報が視差情報なのかテクスチャ情報なのかに応じて、復号化処理を用いて継続する次のモジュールを選択する。次にくるデータの復号化は、自由にプログラム可能なルックアップテーブルに基づいている。ルックアップテーブルは、単語の実際の長さ、スキップすべき単語数であるランレングス情報、および実際の値を含んでいる。同じエンジンは、ジグザグ復号化器に対するルックアップテーブルも含んでいる。柔軟なエントロピー復号化器を支持するために多くのパラメータを規定する。例えば、入力および出力メモリの開始アドレスは、ジグザグ復号化を使用するかどうかに関わらずソフトウェア、ブロックサイズなどによってプログラム可能である。さらに、エントロピー復号化器は、例えば出力バッファが完全に満たされたときなどの特定の条件でその実行を停止するようにプログラムされ得る。エントロピー復号化器は、限られたメモリサイズで入ってくるデータに対して連続的に動作するためのラップアラウンドメモリ読み出し機能も有し、ハードウェアを共同にするための状態インターフェースを提供する。
入ってくるパケットの束と、そのようなパケットの復号化と、それによって復号化されたデータを後処理モジュールへ転送することとを同期させるために、ステートマシンを使用する。最初に復号化器はアイドル状態にあり、パケットの到着を待っている。復号化器は、HSIによってトリガーされ、前のハードウェアユニットが指定した入力メモリブロックの1つを消費する。エントロピー復号化器は、実行を開始する前に、まず利用可能な資源を確認しなければならない。つまり、出力メモリが利用可能であるかどうかを確認する必要がある。利用可能である場合、ハードウェアユニットはパケット復号化の実行を開始する。ユニットは、入力がすべて消費された場合、または所定の条件が満たされている場合(例えば出力メモリが満杯である場合)に停止できる。復号化の手順が完了すると、エントロピー復号化器は、復号化されたデータを次のハードウェアに割り当てなければならない。例えば、シードのテクスチャが復号化された場合、復号化されたパケットを仮定する次のモジュールは、逆画像変換モジュールであり、同モジュールは、一連の復号化処理の逆量子化および逆の画像変換ステップを実行する。したがって、エントロピー復号化器は、HWモジュールの状態を問い合わせる必要があり、その状態がビジーでなく復号化器のパケットを受信できる場合に、モジュールは構成され、復号化器は割り当てられた資源を解放できる、つまり、メモリモジュールの所有権をエントロピー復号化器からインラインの次のハードウェアモジュールに伝送できる。その後、エントロピー復号化器はアイドル状態に戻り、HSIインターフェースから別のパケットを待つ。
ホーゲルコンテンツ反復
データエントロピー復号化器の段階で復号化されたデータの種類に応じて、後続の動作が実施される。例えば、シードホーゲルの視差が送信された場合、エントロピー復号化器はランレングス値のシーケンスを復号化し、このランレングス値は、元の画像を得るために引き続き拡張される必要がある。シード視差に対するホーゲルコンテンツ反復モジュールは、係数メモリからの1つのデータエントリおよび増分エントリを読み取る。その後、増分回数分のデータエントリを生成し、それを別のメモリモジュールに流す。これはつまり、モジュールは読み取ったデータを増分値によって指定された回数だけ反復するという意味である。シード視差は、先に説明したように、ホーゲルコンテンツ反復モジュール1920によって処理され、同モジュールは、係数メモリ1963から視差値を読み出し、Mincメモリ1962から増分値を読み出す。結果は視差メモリ1964に保存される。残余視差には、別のホーゲルコンテンツ反復モジュール1920が使用される。この場合、増分は、ブロックがコピーされるメモリの位置で急増を指しており、シード視差と同様に、係数とMincメモリモジュールの両方が読み取られ、視差メモリは書き込まれる。シード視差および残余視差の場所は、同時にアクセスできるように異なるモジュールにある必要がある点に注意されたい。なぜなら、シード視差は順方向DIBR1925モジュールによって何度か再度使用されるのに対し、残余視差は1回しか使用されないからである。画像変換を飛ばす追加のRGB方式を使用することもでき、この方式は残りのホーゲルコンテンツ反復モジュール1920によって処理される。この場合はRGB値が復号化され、増分は、その値を出力メモリであるテクスチャメモリ1966で何回反復する必要があるかを指す。ホーゲルコンテンツ反復モジュールは、サイズが様々である(長さおよびデータ幅が異なる)内部バッファ間で乗法スケーリングを行わずにデータをコピーするための多機能のメモリ伝送ユーティリティである。
全3つのモジュールのステートマシンはほぼ同じである。最初にハードウェアユニットはアイドル状態で、処理する新しいパケットを待っている。その後、ハードウェアユニットは、扱うデータの種類に応じてハードウェアを作動させることを決定するエントロピー復号化器によってトリガーされる。その後、ハードウェアは、メモリなどの資源を待つ必要がある状態に移り、そのメモリから、エントロピー復号化器によって引き渡されるパケット、または利用可能になる出力メモリを読み取る必要がある。必要な資源が揃った状態で、ハードウェアは実行状態に移る。ハードウェアは、全入力を消費し終わるまでこの状態のままであり、消費し終わったときに最終状態になり、その状態でユニットは入力メモリを消去する必要がある。これが必要なのは、特にメモリの急増を必要とする残余情報の復号化の際に、エントロピー復号化器が必ず全メモリ位置を書き込むわけではないからである。それにもかかわらず、空の位置は再び使用する前にゼロにする必要があるため、このメモリを消費したハードウェアもそれを消去する役割を担う。消去コマンドが実行を終えた後、メモリはエントロピー復号化器に戻され、ハードウェアはアイドル状態に戻り、別のパケットを待つ。
逆画像変換
逆画像変換モジュール1915は、シードのエントロピー復号化器および残余テクスチャ復号化の後に使用され、画像変換および逆量子化が画像ブロックごとに適用される。本発明の1つの可能な実施形態では、画像変換は、逆DCT変換、または逆整数変換であり得る。画像変換行列は、ソフトウェアによって事前に規定され、レジスタのアレイに保存される。これによって、逆画像変換の命令を、パイプライン処理されたSIMD(single instruction,multiple data)命令として極めて高速に機能させることができる。逆画像変換動作の結果は、行列順序ではなく線形順序でテクスチャメモリ1966に保存される。行列の計算は、係数メモリ1963から読み出されたNxNの画素で実施され、画素は連続的にメモリに保存される。所望の出力は、メモリ内の正しい場所に保存されなければならない。例えば、ホーゲルの左上角の第1のブロックは、N=4でホーゲル幅=100の場合、以下の出力メモリアドレス箇所に保存されなければならない:(0,1,2,3;100,101,102,103;200,201,202,203;300,301,302,303)。その結果生じたx方向またはy方向のホーゲルサイズがNの倍数ではい場合、例えばホーゲルサイズがN=4のときに50×50であると仮定すると、アドレス生成器は書き込みイネーブルを抑制し、所定領域のエッジを上書きしない。さらに、残余テクスチャを復号化する場合、Mincは、ブロックを出力メモリ内に書き込んでいるときにメモリ内の急増を指し示す。行列乗算に加えて、N×Nの逆量子化パラメータを用いる点ごとの乗算を行列乗算モジュールに組み入れる。各々の入力係数が、対応する逆量子化パラメータを用いて最初に乗算され、この逆量子化パラメータも固定されたN×Nの行列として特定のレジスタセットに保存される。2つの追加値が全入力および全出力をスケーリングする。これによって柔軟性を最高レベルにできる。したがって、このモジュールの完全な機能を以下のように記載することもできる。
R={[S*c0)・×D]×M}*c1
式中、行列Sは入力行列であり、行列Dは逆量子化行列であり、行列Mは、DCT行列などがこれに限定されない画像変換を実行し、記号*は、各要素単位で適用する(項ごとの)スカラー倍算を表し、記号×は行列の内積を表し、記号・×は行列のスカラー積を表し、c0およびc1は、それぞれ入力および出力に対するスケーリング因子である。
逆画像変換モジュールのステートマシンは、反復復号化器モジュールと同様に機能する。最初にハードウェアユニットはアイドル状態で、処理する新しいパケットを待っている。ハードウェアユニットは、テクスチャデータをさらに処理(逆量子化および逆変換)する必要がある場合にエントロピー復号化器によってトリガーされる。その後、ハードウェアは、メモリなどの資源を待つ必要がある状態に移り、そのメモリから、エントロピー復号化器によって引き渡されるパケット、または利用可能になる出力メモリを読み取る必要がある。全資源が利用可能になったとき、ハードウェアは実行状態に移る。全入力を消費し終わるまでこの状態のままであり、消費し終わったときに最終状態になり、その状態でユニットは、反復復号化器ユニットの場合のように入力メモリを消去する必要がある。消去コマンドが実行を終えた後、メモリはエントロピー復号化器に戻され、ハードウェアはアイドル状態に戻り、別のパケットを待つ。
前方および逆方向DIBRモジュール
シード視差が利用可能になった時点で、順方向DIBR1925ブロックは、ワーピング動作の処理を開始でき、本発明の復号化アルゴリズムが要求したとおりにワーピングした視差を再生することができる。ワーピング処理によって、基準画素の位置が移動してコピー動作が起こる。DIBRアルゴリズムは、順方向DIBR1925部と逆方向DIBR1930部に分けられる。順方向DIBR1925ハードウェアは、シード視差メモリ1964から視差情報を読み取り、一時的な視差メモリ1965にホーゲル視差を生成する。順方向DIBR1925は、N−>1のダウンサンプリングを実施する、すなわちN個の画素を入力とみなして単一の画素出力を再生することも可能である。それにもかかわらず、そのようにするためには、N個の画素すべてを読み取って分析し、各ホーゲル当たりN個の読み取りサイクルにする必要がある。システム内で同じスループットを達成するために、順方向DIBR1925は、N個のホーゲルの視差を平行して生成してもよい方法で実行される。入力dxおよびdyは、シードホーゲルから残余ホーゲルまでの距離を指定し、アルゴリズムの入力として使用されて移動量を推定する。視差情報およびシードホーゲルから残余ホーゲルまでの距離に基づいて、コピーおよび移動の情報を計算する。次に、データは、それを送信先アドレスに書き込むべきかどうかを確認する必要がある。移動によって2つの画素が同じ場所に動く可能性があるため、どちらの画素を優先すべきかという決定は、画素の視差値に応じて決定される。これはZテストとしても知られている。複数のメモリバンクにピンポン方式を用いるために入力メモリおよび出力メモリの位置もプログラム可能であり、それによって逆方向DIBR1930を順方向DIBR1925と同時に動作させることができる。
順方向DIBR1925モジュールは、システムにホーゲルがないまたはホーゲルがすべて処理されたときにアイドル状態を維持する。本発明の1つの実施形態では、メタデータ情報を含むテーブルがデータパケットよりも前に送信される。このテーブルを受信すると、ローカルメタデータテーブルがファームウェアメモリ内で構築され、それによって各ホーゲルの状態を包括的に監視できる。メタデータテーブルが作成された時点で(通常、この情報を含むヘッダパケットを受信するHSIインターフェースによってトリガーされる)、ハードウェアは、リストの最上のホーゲルのフラグを確認する状態に移る。フラグは、ホーゲルが通過している(例えば、逆画像変換ブロックでテクスチャを逆量子化しているか、反復復号化器モジュールで視差を拡張している)段階を指し示す。順方向DIBR1925モジュールは、シードホーゲル視差を確認する。データ全体が利用可能になると、モジュールは、シードの視差を含んでいるメモリモジュールの所有権を取得し、順方向DIBR1925を実行し始める。メタデータテーブルは、シードホーゲルおよび標的ホーゲルの座標など、ワーピング動作に必要な情報を含んでいることに注意されたい。このほか、複数の結果を同時に生成して装置の特徴をリアルタイムで保持する。ハードウェアが実行を終えると、メタデータフラグは更新され、ユニットは、次のホーゲルセットのワーピング後の視差を生成する処理を行うか、あるいは単にアイドル状態に戻って次のホーゲルセットを待つ。
逆方向DIBR1930は、順方向DIBR1925から生成されて一時的な視差メモリバンク1965に保存された一時的な視差を読み取り、シードホーゲルテクスチャにあってシードホーゲルテクスチャメモリ1966に保存されている現在のホーゲルアドレスの基準位置を計算する。シードホーゲルテクスチャメモリ1966から基準テクスチャを読み取った後、逆方向DIBR1930モジュールは、RGB値を適切な出力メモリ位置1967に保存する。ホーゲルを生成した逆方向DIBR1930は、表すよう想定していたビューを完全に表さないことがある。これは、起こり得る誤差が生じた可能性があるということである。逆方向DIBR1930アルゴリズムの観点では2つの誤差の原因がある。1つ目の原因は、順方向DIBR1925によって生成された視差が特定の画素には最善の選択結果ではなない可能性があるというものである。それに加えて、ホーゲルの結果の中には、所定のテクスチャがないものがあったり、テクスチャが壊れていたりすることがある。つまり、ワーピングされたホーゲルに穴があるか、テクスチャがビューに依存していて、使用した基準テクスチャがその特定のホーゲルには適切でないかのいずれかである。視差誤差を修正するために、逆方向DIBR1930は残余視差を利用する。残余視差は、視差メモリ1964に保存されており、順方向DIBR1925によって読み取られ、順方向DIBRによって生成された視差と組み合わされる。逆方向DIBR1930の動作をプログラム可能にする方式よって、視差を置き換えるか、2つの視差を一緒に追加するかのいずれかが可能になる。新しい視差値は、異なるシードホーゲルテクスチャ値を基準にすることができ、最終レンダリングの質を改善する。逆方向DIBR1930アルゴリズムも、ワーピング動作が基準としていない画素位置を固定RGB値で満たすことができる。そのような位置は、穴としても知られ、本発明の1つの実施形態で提供しているモジュールは、固定RGB値をビットストリーム内で受信でき、穴すべてをこの固定値で満たすことができる。
順方向DIBR1925モジュールと同様に、逆方向DIBR1930モジュールの挙動は、システムのホーゲルのメタデータテーブルによって記述される。ホーゲルがない間、またはモジュールがメタデータリストの全ホーゲルを丁度処理し終えたとき、モジュールは単に、入ってくるホーゲルを待つ状態に留まる。新たなメタデータテーブルがメモリ内に形成されると、状態の変更はHSIによってトリガーされる。その後、ハードウェアユニットは、テーブル内の各ホーゲルの状態を監視する役割を担う。逆方向DIBR1930がホーゲルを処理する条件にホーゲルが達すると、ハードウェアユニットは実行状態になり、シード視差、残余視差およびシードテクスチャからホーゲルテクスチャが作成される。ハードウェアは、終了すると次の状態に変わり、入力メモリを消去し、次のモジュールのために出力資源を解放する。資源は解放され、ハードウェアがその時点で動作していた対象のホーゲルのメタデータ状態が更新される。ハードウェアは、メタデータテーブル内の次のホーゲルの状態を監視し、N個のホーゲルすべてが処理された場合に、逆方向DIBR1930はアイドル状態に戻って新たに入ってくるデータを待つ。
誤り訂正
前述したように、逆方向DIBR1930から生じたテクスチャは、誤った値または欠けている値をまだ含んでいることがある。画素位置のすべてがワーピング動作によってカバーされるわけではないため(通常は穴の形態で現れる)、画素位置は、穴としても知られるテクスチャ値を有していないことがあったり、逆方向DIBR1930が穴埋めしている間に間違ったRGB値に割り当てられたりすることがある。このほか、ビューによって異なる特徴は、ビューどうしで異なるRGB値を有するため、ワーピング動作で使用された基準は、実際のRGB値とは異なることがある。これらのアーチファクトを訂正するために、残余テクスチャ情報が逆方向DIBR1930に送信され、誤り訂正モジュールで逆方向DIBRの結果に追加される。図19は、誤り訂正1935モジュールのほか、残余テクスチャ1966およびDIBRテクスチャ1967に対する入力メモリ、ならびに残余テクスチャに追加されるワーピング後のシードテクスチャを示している。結果は、ホーゲルメモリブロック1968に保存されている最終ホーゲル値である。本発明の1つの可能な実施形態では、誤り訂正モジュールは、実際には8ビットの単語を3つ含む24ビットの単語を使用する。誤り訂正ハードウェアモジュールは、そのことを考慮して3つの値を分離してからその値を個別に追加し、その後その値を1つの24ビットの単語としてまとめる必要がある。差の情報は符号付きの数字として与えられるのに対し、結果および元のホーゲル情報は符号のない8ビットの値として与えられる。例えば、符号付きの8ビットの単語に追加された符号のない8ビットの単語からは、符号のない8ビットの単語が生成される。それにもかかわらず、加算関数は、ラップアラウンドしてはならず、最大値または最小値(すなわち0または255)でクリップするものとする。誤り訂正の機能性に加えて、このハードウェアモジュールは、色転換だけでなく色パラメータの調整(ガンマ補正および輝度調整など)も可能にする。色補正および色空間変換は、誤り訂正モジュールの出力で直接実施される。色転換行列は誤り訂正モジュールに組み込まれ、自由にプログラムでき、必要に応じてオフに切り替えることもできる。出力は、追加のスケーラによってスケーリングされ、このスケーラは3つの色チャネルすべてに対して同じである。
順方向DIBR1925および逆方向DIBR1930モジュールと同様に、誤り訂正1935モジュールは、最初にアイドル状態で開始し、メタデータテーブルを監視し、ホーゲルが適切な状態に達するのを待つ。ホーゲルがない間またはモジュールがメタデータリストのホーゲルすべてを丁度処理し終えたとき、モジュールは、入ってくるホーゲルを待つ状態に留まるだけである。新たなメタデータテーブルがメモリに形成されると、状態の変更がHSIによってトリガーされる。誤り訂正モジュールがホーゲルを処理する状態にホーゲルが達すると、ハードウェアユニットは実行状態になり、ホーゲルテクスチャは残余テクスチャに追加される。ハードウェアは、終了すると次の状態に変わり、入力メモリを消去し、次のモジュールのために出力資源を解放する。資源が解放されると、ホーゲルメタデータ情報はメタデータテーブル内で更新されて、この処理段階が終了したことを識別する。ハードウェアは、メタデータテーブル内の次のホーゲルの状態を監視し、N個のホーゲルすべてが処理された場合に、誤り訂正1935モジュールはアイドル状態に戻って新たに入ってくるデータを待つ。
インターリーブ器
誤り訂正されたホーゲルは、その後、インターリーブ関数によって転置されて各ホーゲル当たりの個々のビットを分離する。本発明の1つの可能な実施形態では、インターリーブ器は、24ビットの50×50の画素アレイをそれぞれ50ビットの24×50の単語に変換させる。それぞれ50ビットの単語はそのとき、50画素に対して24ビットのうちの1ビットを表している。図19は、インターリーブ器1940モジュールと、それに関連する入力メモリモジュール1968であって、誤り訂正モジュールが再生した最終のホーゲルテクスチャと、RGBビット平面を保持する出力メモリモジュール1969とを示している。データは、24ビット幅のホーゲルメモリ構造から来る。インターリーブ器1940の命令は、次の動作、すなわち24ビットを別々のメモリが表すR、GおよびBのビット平面に分離することを実施する。インターリーブ器1940の出力は、150ビット幅のバスであり、これによってR、GおよびBの部分を平行して読み取ることができる。したがって、出力を保持しているメモリは、3X50ビットX(ホーゲルの合計数)単語メモリである。
インターリーブ器1940は、入ってくるホーゲルに対して動作するためにメタデータテーブルも利用する。ホーゲルがない間またはモジュールがメタデータリストのホーゲルすべてを丁度処理し終えたとき、モジュールは、入ってくるホーゲルを待つ状態に留まるだけである。新たなメタデータテーブルがメモリに形成されると、状態の変更がHSIによってトリガーされる。その後、ハードウェアユニットは、テーブル内の各ホーゲルの状態を監視する役割を担う。インターリーブ器モジュールがホーゲルを処理する条件にホーゲルが達すると、ハードウェアユニットは実行状態になり、最終のホーゲルテクスチャが変調用にインターリーブされる。ハードウェアは、終了すると次の状態に変わり、次のモジュールのために出力資源を解放する。資源が解放されると、ホーゲルメタデータ情報はメタデータテーブル内で更新されて、この処理段階が終了したことを識別する。ハードウェアは、メタデータテーブル内の次のホーゲルの状態を監視し、N個のホーゲルすべてが処理された場合に、誤り訂正モジュールはアイドル状態に戻って新たに入ってくるデータを待つ。
画素変調器
最終ステップは、画素変調器用に生成されたビットを使用することであり、画素変調器は、使用しているライトフィールドディスプレイの画素入力要件がどのようなものであっても適合性のある画素変調器の出力を提供する。好適な実施形態のようにパルス幅変調を用いる場合、生成されたビットをPWM変調マスクとして使用する。マスクは、PWMカウンタが動いている限り個々の画素をオンに切り替える。複数のビット平面を適切なオン時間と合わせることで、画素の輝度が変化する。図19に示したアーキテクチャは、画素変調器1945およびそれに関連するメモリモジュールを示している。出力メモリには、以下の方式を用いる。ビット平面メモリから、コピー関数が次に表示するビット平面を選択し、それをビット平面1のラッチに保存する。その後、コントローラがビット平面1のラッチをビット平面2のラッチに伝送するが、これは瞬時に行われることである。データがビット平面2のラッチに保存された後、オン時間を表す実際のPWM信号を用いてデータをおよびゲートで結ぶことができる。各画素に関連するビット平面のラッチを2つ有することで、第2のビット平面にロードすると同時に第1のビット平面を引き続き表示することが可能になる。
デジタル回路の最終ハードウェアモジュール、画素変調器1945は、ホーゲルデータが処理段階への準備ができているときにメタデータテーブルを監視用に使用するという意味で、前段のハードウェアと同様に動作する。画素変調器1945モジュールは、最初にアイドル状態で開始する。ホーゲルがない間またはモジュールがメタデータリストのホーゲルすべてを丁度処理し終えたとき、モジュールは、入ってくるホーゲルを待つ状態に留まるだけである。新たなメタデータテーブルがメモリに形成されると、状態の変更がHSIによってトリガーされる。その後、ハードウェアユニットは、テーブル内の各ホーゲルの状態を監視する役割を担う。画素変調器1945モジュールがホーゲルを処理する条件にホーゲルが達すると、ハードウェアユニットは実行状態になり、ビット平面は画素変調器1945によって変調される。ハードウェアは、終了すると資源を解放し、ホーゲルメタデータ情報はメタデータテーブル内で更新されて、この処理段階が終了したことを識別する。ハードウェアは、メタデータテーブル内の次のホーゲルの状態を監視し、N個のホーゲルすべてが処理された場合に、誤り訂正モジュールはアイドル状態に戻って新たに入ってくるデータを待つ。画素変調器は、例示的な意味のみでパルス幅変調器であってもよいが、使用する特定のライトフィールドディスプレイに適切なものとして代わりに他の変調器を使用してもよい。
当業者は、本発明の実施形態には、添付の特許請求の範囲内にその請求項が規定した規定本発明の範囲から逸脱しない限り、様々な修正および変更を加えることができることを容易に理解するであろう。本発明の上記の実施例は、単なる例示であり、本発明の趣旨または本質的特徴から逸脱しない限り、本発明はその他の特定の形態で実現可能であることを理解すべきである。したがって、開示した実施形態をどのような意味でも限定的なものと捉えるべきではない。本発明の範囲は、上記の説明文ではなく添付の特許請求の範囲に示したものであり、本発明の意味および同等範囲内に収まる変形例はすべて、本発明に含まれるものとする。

Claims (16)

  1. 圧縮したライトフィールドからライトフィールドをディスプレイに対して再現するシステムであって、前記システムは、
    前記圧縮したライトフィールドを復元して前記ライトフィールドをディスプレイに対して再現するように構成された複数のハードウェアモジュールを有する少なくとも1つの処理ノードであって、
    各処理ノードは、
    インターフェースモジュール、
    エントロピー復号化器モジュール、
    画像逆変換モジュール、
    ホーゲルコンテンツ反復モジュール、
    順方向DIBRモジュール、
    逆方向DIBRモジュール、
    誤り訂正モジュール、
    インターリーブ器モジュール、および
    画素変調器モジュール
    を有し、各処理ノードは、モジュールどうしを相互接続するためのバス相続接続部、および複数のメモリを有する、処理ノードと、
    シーケンスコントローラであって、前記シーケンスコントローラは、モジュールの一連の動作を制御し、圧縮したライトフィールドデータを復元して前記ライトフィールドをディスプレイに対して再現する、シーケンスコントローラと
    を備える、システム。
  2. 前記モジュールの少なくとも1つは、特定用途向け集積回路である、請求項1に記載のシステム。
  3. 前記モジュールの少なくとも1つは、プログラム可能である、請求項2に記載のシステム。
  4. 前記インターフェースモジュールは、データパケットを受信して前記データパケットを前記エントロピー復号化器モジュールに配信するように構成される、請求項1に記載のシステム。
  5. 前記エントロピー復号化器モジュールは、前記インターフェースモジュールからデータパケットを受信するように構成され、前記データパケットを復号化する必要があるとパケットヘッダが示している場合、前記データパケットを前記データパケットの種類に応じて復号化する、請求項1に記載のシステム。
  6. 前記画像逆変換モジュールは、前記エントロピー復号化器モジュールからブロックごとのシードおよび残余テクスチャに対する復号化および逆量子化を受けるように構成される、請求項1に記載のシステム。
  7. 前記画像逆変換モジュールは、所定の画像変換行列を使用し、それによって逆変換の命令をパイプライン処理した単一の命令、複数のデータ命令として機能させる、請求項6に記載のシステム。
  8. 前記ホーゲルコンテンツ反復モジュールは、長さが異なりデータ幅が異なる内部バッファどうしの間で乗法スケーリングなしでデータをコピーするように構成される、請求項1に記載のシステム。
  9. 前記順方向DIBRモジュールは、シードホーゲル視差を受信し、ワーピング後の視差を再生するように構成される、請求項1に記載のシステム。
  10. 前記逆方向DIBRモジュールは、生成された一時的な視差を前記順方向DIBRモジュールから読み取り、シードホーゲルテクスチャ内での現在のホーゲルのアドレス基準位置を計算し、ホーゲルを生成するように構成される、請求項9に記載のシステム。
  11. 前記逆方向DIBRモジュールは、残余視差も用いて前記シードホーゲル視差と組み合わせ、視差誤差を修正するように構成される、請求項10に記載のシステム。
  12. 前記逆方向DIBRモジュールは、前記ワーピングが基準としていない画素位置を満たすようにも構成される、請求項1に記載のシステム。
  13. 前記誤り訂正モジュールは、アーチファクトを補正するように構成される、請求項1に記載のシステム。
  14. 前記誤り訂正モジュールは、色補正および色空間変換を前記誤り訂正モジュールの出力で実施するようにも構成される、請求項13に記載のシステム。
  15. 前記インターリーブ器モジュールは、誤りを訂正したホーゲルを転置して個々のビットをそれぞれのホーゲルごとに分離するように構成される、請求項1に記載のシステム。
  16. 前記画素変調器は、使用しているライトフィールドディスプレイの画素入力要件がどのようなものであっても適合性のある画素変調器の出力を提供して、再現されたライトフィールドを表示するように構成される、請求項1に記載のシステム。
JP2017554570A 2015-04-23 2016-04-21 全方向視差ライトフィールド表示システム用の方法および装置 Active JP6866299B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562151656P 2015-04-23 2015-04-23
US62/151,656 2015-04-23
PCT/US2016/028709 WO2016172384A1 (en) 2015-04-23 2016-04-21 Methods and apparatus for full parallax light field display systems

Publications (2)

Publication Number Publication Date
JP2018518866A true JP2018518866A (ja) 2018-07-12
JP6866299B2 JP6866299B2 (ja) 2021-04-28

Family

ID=57143569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017554570A Active JP6866299B2 (ja) 2015-04-23 2016-04-21 全方向視差ライトフィールド表示システム用の方法および装置

Country Status (8)

Country Link
US (2) US10310450B2 (ja)
EP (1) EP3286916A1 (ja)
JP (1) JP6866299B2 (ja)
KR (1) KR20170139560A (ja)
CN (1) CN107431797B (ja)
HK (1) HK1247764A1 (ja)
TW (1) TWI696378B (ja)
WO (1) WO2016172384A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
US10567739B2 (en) * 2016-04-22 2020-02-18 Intel Corporation Synthesis of transformed image views
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10573056B2 (en) 2017-03-06 2020-02-25 3D Patents, Llc Multi-view processing unit systems and methods
US20180350038A1 (en) * 2017-06-02 2018-12-06 Ostendo Technologies, Inc. Methods and Systems for Light Field Compression With Residuals
US11051039B2 (en) 2017-06-02 2021-06-29 Ostendo Technologies, Inc. Methods for full parallax light field compression
US10694668B2 (en) 2017-06-19 2020-06-30 Deere & Company Locally controlling settings on a combine harvester based on a remote settings adjustment
US11789413B2 (en) 2017-06-19 2023-10-17 Deere & Company Self-learning control system for a mobile machine
US10432944B2 (en) 2017-08-23 2019-10-01 Avalon Holographics Inc. Layered scene decomposition CODEC system and methods
US10931956B2 (en) * 2018-04-12 2021-02-23 Ostendo Technologies, Inc. Methods for MR-DIBR disparity map merging and disparity threshold determination
EP3672223B1 (en) * 2018-04-28 2022-12-28 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Data processing method, electronic device, and computer-readable storage medium
US11172222B2 (en) 2018-06-26 2021-11-09 Ostendo Technologies, Inc. Random access in encoded full parallax light field images
WO2020076049A1 (ko) * 2018-10-08 2020-04-16 에스케이텔레콤 주식회사 양자화된 변환 계수들의 부호화 및 복호화를 위한 방법 및 장치
CN109683461B (zh) * 2019-01-24 2020-11-10 杭州光粒科技有限公司 基于光场渲染的全息图生成方法、系统、存储介质及近眼ar全息三维显示系统
EP3687168A1 (en) * 2019-01-24 2020-07-29 Ultra-D Coöperatief U.A. Assigning view numbers to display elements of an autostereoscopic display
CN111757125B (zh) * 2019-03-29 2024-02-27 曜科智能科技(上海)有限公司 基于光场多视角视频压缩方法及其装置、设备和介质
KR20220054850A (ko) * 2019-09-03 2022-05-03 라이트 필드 랩 인코포레이티드 게임 환경을 위한 라이트필드 디스플레이 시스템
CN114007069A (zh) * 2019-10-12 2022-02-01 深圳普罗米修斯视觉技术有限公司 关键画面帧的设定方法及计算机可读存储介质
TWI799828B (zh) * 2021-03-31 2023-04-21 中強光電股份有限公司 影像處理裝置、影像處理方法以及3d影像產生系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005520184A (ja) * 2001-12-19 2005-07-07 アクチュアリティ・システムズ・インコーポレーテッド 放射条件付けシステム
JP2009530661A (ja) * 2006-03-15 2009-08-27 ゼブラ・イメージング・インコーポレイテッド 動的裸眼立体視ディスプレイ
JP2013524270A (ja) * 2010-04-01 2013-06-17 シーリアル テクノロジーズ ソシエテ アノニム ホログラムシステムにおける透過オブジェクトを含む3次元シーンを符号化する方法及び装置
JP2015008387A (ja) * 2013-06-25 2015-01-15 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム並びに撮像装置
JP2017511017A (ja) * 2014-01-10 2017-04-13 オステンド・テクノロジーズ・インコーポレーテッド フルパララックス圧縮ライトフィールド3dイメージングシステムのための方法

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613048A (en) 1993-08-03 1997-03-18 Apple Computer, Inc. Three-dimensional image synthesis using view interpolation
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US6252989B1 (en) 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
US6091767A (en) 1997-02-03 2000-07-18 Westerman; Larry Alan System for improving efficiency of video encoders
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US6366370B1 (en) 1998-12-30 2002-04-02 Zebra Imaging, Inc. Rendering methods for full parallax autostereoscopic displays
US6549308B1 (en) 2000-01-11 2003-04-15 Zebra Imaging, Inc. Unibiased light field models for rendering and holography
US6738533B1 (en) 2000-03-29 2004-05-18 Microsoft Corporation Minimum sampling rate and minimum sampling curve for image-based rendering
US20050018911A1 (en) 2003-07-24 2005-01-27 Eastman Kodak Company Foveated video coding system and method
WO2006116134A2 (en) 2005-04-21 2006-11-02 William Marsh Rice University Method and apparatus for compressive imaging device
US7404645B2 (en) * 2005-06-20 2008-07-29 Digital Display Innovations, Llc Image and light source modulation for a digital display system
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
US7653248B1 (en) 2005-11-07 2010-01-26 Science Applications International Corporation Compression for holographic data and imagery
US9843790B2 (en) 2006-03-15 2017-12-12 Fovi 3D, Inc. Dynamic autostereoscopic displays
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7609906B2 (en) 2006-04-04 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring and displaying 3D light fields
US7916934B2 (en) 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
US7792423B2 (en) * 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
US7623560B2 (en) 2007-09-27 2009-11-24 Ostendo Technologies, Inc. Quantum photonic imagers and methods of fabrication thereof
US8155456B2 (en) * 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US8970646B2 (en) 2008-07-09 2015-03-03 Ostendo Technologies, Inc. Image construction based video display system
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
KR101468267B1 (ko) 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US8098265B2 (en) 2008-10-10 2012-01-17 Ostendo Technologies, Inc. Hierarchical multicolor primaries temporal multiplexing system
US8605081B2 (en) 2008-10-26 2013-12-10 Zebra Imaging, Inc. Converting 3D data to hogel data
US8913657B2 (en) 2008-10-27 2014-12-16 Lg Electronics Inc. Virtual view image synthesis method and apparatus
WO2010084439A1 (en) 2009-01-20 2010-07-29 Koninklijke Philips Electronics N.V. Transferring of 3d image data
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8681185B2 (en) 2009-03-05 2014-03-25 Ostendo Technologies, Inc. Multi-pixel addressing method for video display drivers
US20100231585A1 (en) 2009-03-13 2010-09-16 Zebra Imaging, Inc. Systems and Methods for Processing Graphics Primitives
US20100309287A1 (en) * 2009-03-20 2010-12-09 Rodriguez Tony F 3D Data Representation, Conveyance, and Use
US7978407B1 (en) 2009-06-27 2011-07-12 Holovisions LLC Holovision (TM) 3D imaging with rotating light-emitting members
US8284237B2 (en) 2009-09-09 2012-10-09 Nokia Corporation Rendering multiview content in a 3D video system
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
KR20110064161A (ko) 2009-12-07 2011-06-15 삼성전자주식회사 3차원 영상에 관한 압축 방법 및 장치, 그리고 3차원 영상 디스플레이 장치 및 그 시스템
US8902229B2 (en) * 2010-01-13 2014-12-02 Samsung Electronics Co., Ltd. Method and system for rendering three dimensional views of a scene
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US8913004B1 (en) 2010-03-05 2014-12-16 Amazon Technologies, Inc. Action based device control
EP2553933B1 (en) 2010-03-31 2018-10-24 Thomson Licensing 3d disparity maps
WO2011129819A1 (en) 2010-04-13 2011-10-20 Empire Technology Development Llc Combined-model data compression
US8994792B2 (en) 2010-08-27 2015-03-31 Broadcom Corporation Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
US9529191B2 (en) 2010-11-03 2016-12-27 Trex Enterprises Corporation Dynamic foveal vision display
HU1000640D0 (en) * 2010-11-29 2011-02-28 Holografika Hologrameloeallito Fejlesztoe Es Forgalmazo Kft Image coding and decoding method and apparatus for efficient encoding and decoding of 3d field content
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US20120294374A1 (en) * 2011-05-17 2012-11-22 Amir Said Conditional replenishment for three-dimensional images with block-based spatial thresholding
US8624719B2 (en) 2011-06-03 2014-01-07 Bosch Automotive Service Solutions Llc Smart phone control and notification for an electric vehicle charging station
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US20130050786A1 (en) 2011-08-29 2013-02-28 Zebra Imaging, Inc. Hogel Display using Optical Beam Oscillators
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
CN104303493A (zh) 2012-05-09 2015-01-21 莱特洛公司 用于改进的光场捕获和操作的光学系统的优化
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US8581929B1 (en) * 2012-06-05 2013-11-12 Francis J. Maguire, Jr. Display of light field image data using a spatial light modulator at a focal length corresponding to a selected focus depth
US9998726B2 (en) 2012-06-20 2018-06-12 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
US9544612B2 (en) 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9274608B2 (en) 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US9699433B2 (en) 2013-01-24 2017-07-04 Yuchen Zhou Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye
US9177393B2 (en) 2013-02-04 2015-11-03 Qualcomm Incorporated Mixed mode for frame buffer compression
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US20140267228A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Mapping augmented reality experience to various environments
US9392129B2 (en) 2013-03-15 2016-07-12 John Castle Simmons Light management for image and data control
WO2014144989A1 (en) 2013-03-15 2014-09-18 Ostendo Technologies, Inc. 3d light field displays and methods with improved viewing angle depth and resolution
TWI639151B (zh) 2013-03-15 2018-10-21 美商傲思丹度科技公司 動態色域顯示系統、方法、及其應用
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US9357236B2 (en) 2014-03-13 2016-05-31 Intel Corporation Color compression using a selective color transform
EP3170047A4 (en) * 2014-07-15 2018-05-30 Ostendo Technologies, Inc. Preprocessor for full parallax light field compression
CN104216128A (zh) * 2014-09-01 2014-12-17 北京邮电大学 一种全视差三维光场的显示装置、三维光场显示系统
CN107430782B (zh) 2015-04-23 2021-06-04 奥斯坦多科技公司 用于利用深度信息的全视差压缩光场合成的方法
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
US10578882B2 (en) 2015-12-28 2020-03-03 Ostendo Technologies, Inc. Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005520184A (ja) * 2001-12-19 2005-07-07 アクチュアリティ・システムズ・インコーポレーテッド 放射条件付けシステム
JP2009530661A (ja) * 2006-03-15 2009-08-27 ゼブラ・イメージング・インコーポレイテッド 動的裸眼立体視ディスプレイ
JP2013524270A (ja) * 2010-04-01 2013-06-17 シーリアル テクノロジーズ ソシエテ アノニム ホログラムシステムにおける透過オブジェクトを含む3次元シーンを符号化する方法及び装置
JP2015008387A (ja) * 2013-06-25 2015-01-15 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム並びに撮像装置
JP2017511017A (ja) * 2014-01-10 2017-04-13 オステンド・テクノロジーズ・インコーポレーテッド フルパララックス圧縮ライトフィールド3dイメージングシステムのための方法

Also Published As

Publication number Publication date
US20160357147A1 (en) 2016-12-08
WO2016172384A1 (en) 2016-10-27
US10528004B2 (en) 2020-01-07
CN107431797B (zh) 2019-10-11
TWI696378B (zh) 2020-06-11
TW201644270A (zh) 2016-12-16
EP3286916A1 (en) 2018-02-28
JP6866299B2 (ja) 2021-04-28
KR20170139560A (ko) 2017-12-19
US20190265646A1 (en) 2019-08-29
CN107431797A (zh) 2017-12-01
HK1247764A1 (zh) 2018-09-28
US10310450B2 (en) 2019-06-04

Similar Documents

Publication Publication Date Title
US10528004B2 (en) Methods and apparatus for full parallax light field display systems
TWI807286B (zh) 用於全視差壓縮光場三維成像系統之方法
EP3614674A1 (en) An apparatus, a method and a computer program for volumetric video
US8106924B2 (en) Method and system for video rendering, computer program product therefor
JP5763184B2 (ja) 3次元画像に対する視差の算出
WO2019135024A1 (en) An apparatus, a method and a computer program for volumetric video
WO2019158821A1 (en) An apparatus, a method and a computer program for volumetric video
JP2023513564A (ja) 点群圧縮のためのティア化階層コード化の使用
WO2019229293A1 (en) An apparatus, a method and a computer program for volumetric video
US20180350038A1 (en) Methods and Systems for Light Field Compression With Residuals
WO2019115866A1 (en) An apparatus, a method and a computer program for volumetric video
Na et al. Multi-view depth video coding using depth view synthesis
WO2019162564A1 (en) An apparatus, a method and a computer program for volumetric video
KR20180059348A (ko) 영상 병렬 처리 방법 및 장치
KR20220059929A (ko) 다시점 영상 처리 방법 및 장치
WO2023041838A1 (en) An apparatus, a method and a computer program for volumetric video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200819

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210407

R150 Certificate of patent or registration of utility model

Ref document number: 6866299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150