JP5553310B2 - 立体的なレンダリングのための画像エンコード方法 - Google Patents

立体的なレンダリングのための画像エンコード方法 Download PDF

Info

Publication number
JP5553310B2
JP5553310B2 JP2010539018A JP2010539018A JP5553310B2 JP 5553310 B2 JP5553310 B2 JP 5553310B2 JP 2010539018 A JP2010539018 A JP 2010539018A JP 2010539018 A JP2010539018 A JP 2010539018A JP 5553310 B2 JP5553310 B2 JP 5553310B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic
data
visual image
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010539018A
Other languages
English (en)
Other versions
JP2011508498A (ja
Inventor
フィリップ スティーブン ニュートン
ウィルヘルムス ブルルス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2011508498A publication Critical patent/JP2011508498A/ja
Application granted granted Critical
Publication of JP5553310B2 publication Critical patent/JP5553310B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、主に立体的なレンダリングを可能にする画像エンコード方法に関する。この画像エンコード方法は、例えば、映画又は他のタイプのビデオの立体的なバージョンを有する光ディスク又は他のタイプのデータキャリアを作るために使用される。本発明の他の態様は、データキャリア、信号、画像エンコーダ、画像デコーダ及びプログラマブルプロセッサ用のコンピュータプログラムに関する。
3次元(3D)視聴経験とも呼ばれる立体的な視聴経験は、シーンの異なる視野を観察者の左目及び右目に提示することにより達成できる。これらの異なる視野は、深度印象を供給するわずかに異なる角度から見られる関係するシーンを表す。立体的なレンダリングシステムは、システムが観察者に提示される必要がある異なる視野を引き出せるデータを受信する必要がある。この立体的なデータは、例えば、一対の視覚画像映像を有し、これら視覚映像の一方が左目視野を表わし、他方が右目視野を表す。これは、古典的手法である。
あるいは、立体的なデータは、視覚画像と関連するいわゆる深度マップを有する。深度マップは一組の値と考えられ、それはマトリックスの形式である。各値は、視覚画像の特定領域に関係し、仮想観察者とその領域の対象物との間の距離を示す。関係する領域は、単一のピクセル又は矩形の形状若しくは他の形状を持つピクセルのクラスタを有する。プロセッサは、視覚画像及びこれに関連した深度マップに基づいて立体的レンダリングのために必要とされる異なる視野を生成できる。前記深度マップは、視覚画像の前方の対象物により、少なくとも部分的に閉塞される背景の対象物についての付加的情報を供給する閉塞データで完成される。
2006年6月7日に登録されたヨーロッパ特許EP0888018B1は、立体的ビデオが記録される光ディスクに関係する。立体的画像の右目用信号及び左目用信号は、MPEGエンコーダ(MPEGはMovingPicturesExpertsGroupの頭字語である)によりMPEG信号に圧縮される。これらの信号は、フレームグループと一致するいわゆるインターリーブされたブロックを得るために、特定の形式でインターリーブされる。インターリーブされたブロックは、光ディスクの1回転より多く、10回転より多くの回転に対して記録される。光ディスクは、現存の再生装置で単一視野(2D)を提供し、新規な再生装置で立体的視野(3D)を提供できることに注意されたい。
本発明の目的は、立体的画像レンダリングのコスト効率のよい展開を許容する解決案を提供することである。複数の独立請求項は、本発明の種々の態様を規定する。従属項は、本発明を有利に実行するための付加的特徴を規定する。
本発明は、以下のポイントを考慮する。立体的レンダリングのため一つ以上の新しい画像エンコード標準を念入りに作り上げることは可能である。実際に、斯様な標準についての作業は始まっている。しかしながら、斯様な標準を最終的にし、更に、新しい標準を成功して紹介するには、比較的長い時間がかかる。その間にも、立体的表示装置についての作業は進行しているので、新しく改善された立体的表示装置が近い将来、紹介されるだろう。これらの立体的表示は、コンテンツを必要とする。
その上、新しい標準は、特に、当該新しい標準に従って記録されたデータ担体で、当該新しい標準を処理できる新しい再生装置を必要とするだろう。これらの新しい再生装置は、比較的コストがかかり、単一視野から立体的視野へアップグレードすることからユーザを思いとどまらせるだろう。ユーザは、新しい再生装置だけでなく、立体的レンダリングを可能にする新しい表示装置を購入する必要がある。その上、立体的バージョンのコンテンツは比較的種類がわずかで少ない。編集者は、少数の顧客だけが立体的バージョンをレンダリングするために必要な機器を持っているならば、立体的バージョンを作成するために新しい標準に投資することをためらうだろう。
考慮される他のポイントは、利用可能な帯域及び利用可能なデータ容量に関する。例えば、前述の従来技術に従って、2つのビデオストリームが光ディスクに記録され、一方のビデオストリームは左目用であり、他方のビデオストリームは右目用である。これは、2時間のモノラルビデオを有する光ディスクは、1時間だけのステレオ(立体的)ビデオを有することを意味する。記録及び再生時間が半分に低減される。
利用可能な帯域は、光ディスク又はそのための他のデータ担体にまさるポイントである。例えばDVI及びHDMI(DVIは、DigitalVisualInterfaceの頭字語であり、HDMIは、High−DefinitionMultimediaInterfaceの頭字語である)のような、表示装置と再生装置とのインタフェースのための普及した標準が存在する。これらの標準は、所与の画像解像度及び所与の画像レートと関連する所与の帯域を備える。原則として、立体的レンダリングのために、例えばDVI又はHDMIタイプの2つのインタフェースを備える再生装置だけでなく表示装置を提供することも可能である。しかしながら、これは比較的高価な解決策である。さらにまた、現存する装置は、一般的に一つだけのインタフェースを有する。
本発明によると、立体的レンダリングを可能にする画像エンコード方法は、基本的に以下のステップを有する。1次のエンコードステップにおいて、視覚画像は標準に従ってエンコードされる。補助のエンコードステップにおいて、視覚画像のそれぞれの領域と仮想観察者との間のそれぞれの距離を示すそれぞれの値を有する、視覚画像と関連する立体可能なデータが、関連する標準に従って視覚画像と結合できる補助画像であるかのようにエンコードされる。合成規定ステップにおいて、標準に従って動作するデコード装置に、表示装置に伝達できる出力画像の少なくとも一つの特定領域内に立体可能なデータを含ませる合成規定が供給される。
関係する標準は、例えば、DVD標準又はブルーレイディスク標準のような現存の標準でもよい。立体的表示装置は、多くの異なる形式で出力画像内に含まれる立体可能なデータを容易に抽出する。従って、立体的表示装置に利用可能な立体的バージョンのコンテンツを作るための新しい標準の必要性が無い。完全に新しい再生装置の必要性が無い。必要ならば、存在する装置のための更新されたファームウェアバージョンが、立体的レンダリングを可能にするためには充分であろう。その上、本発明による画像エンコード方法は、利用可能な記録時間及び再生時間に対して比較的穏やかなインパクトを持つか、全くインパクトを持たないことさえある。更にその上、例えばDVIタイプ又はHDMIタイプの単一の表示インタフェースが、立体的レンダリングのために充分である。要約すると、標準化されたモジュールから成る存在する拡張されたインフラが、立体的画像レンダリングを導入するためのプラットフォームとして使用できる。これらの理由により、本発明は、立体的画像レンダリングのコスト効率的な展開を可能にする。
本発明の実行は、個別の従属項に対応して別々の段落で説明される一つ以上の以下の追加の特徴を好適に有する。これら追加の特徴の各々は、立体的画像レンダリングのコスト効率的な展開の達成に貢献する。
オリジナルの立体可能なデータは、エンコードされる立体可能なデータを得るために、好ましくは圧縮される。従って、出力画像の比較的小さな部分が、立体可能なデータを送るのに充分であるので、比較的大きな部分が視覚画像を送るのに利用可能である。このことは、高い解像度の立体的レンダリングに貢献する。
オリジナルの立体可能なデータは、好ましくはサブサンプリングされるので、エンコードされる立体可能なデータは、オリジナルの立体可能なデータの解像度よりも低い解像度を持つ。このことは更に、高い解像度の立体的レンダリングに貢献する。この観点で、立体可能なデータの解像度の損失は復元できるので、サブサンプリングが高い解像度の立体的レンダリングと対立する必要がないことに注意されたい。
供給される合成規定は、デコード装置が、出力画像の以下のセットのライン、上位ラインのセット及び下位ラインのセットの少なくとも一方に、立体可能なデータの一部を挿入できるようにする。これは、特にシーンが比較的ワイドの場合、すなわち通常映画の場合の高解像度の立体的レンダリングに貢献する。
立体可能なデータは、以下の2つの標準、DVD標準又はブルーレイディスク標準の少なくとも一方に従って、グラフィック画像としてエンコードできる。
合成規定は、グラフィック画像と関連する構成セグメント内に含まれ得る。
近似の態様を介して、立体可能なデータを表わす描画像が生成でき、前記描画像は描画プリミティブにより表わされ得る基本的グラフィック対象物を有する。
描画プリミティブの少なくとも一つのセットは、描画像に基づいて生成できる。
描画プリミティブは、ブルーレイディスク標準に従う双方向グラフィックデータストリームに含まれるJava(登録商標)プログラムの形式で表され得る。
立体可能なデータは、ピクチャインピクチャ(PIP)の形式で表示されるべき補助視覚画像としてエンコードできる。
供給される合成規定は、補助視覚画像が主視覚画像であり、主視覚画像がサブ画像であるかのように、関連するデコードプロセッサは、視覚映像の縮尺されたバージョンをピクチャインピクチャ(PIP)の形式で補助視覚画像に挿入できる。
立体可能なデータは、視覚画像のそれぞれの領域と仮想観察者との間のそれぞれの距離を示すそれぞれの値を有する深度マップと、視覚画像の一つ以上の前景により、少なくとも部分的に閉塞される一つ以上の背景対象物を表す少なくとも一つの決定画像とのモザイクにより形成できる。閉塞画像は、高解像度の立体的なレンダリングに寄与する。
立体的レンダリングのための項目が選択されるとき、デコード装置が、表示装置に伝達されるべき出力画像の少なくとも一つの特定の領域に立体可能なデータを含むように、立体的レンダリングのための項目が合成規定と関連する、立体的レンダリングのための項目を有するメニューが規定できる。
図を参照した詳細な説明は、先に要約された本発明だけでなく付加的な特徴も説明する。
図1は、立体的なビデオ録画システムを例示するブロック図である。 図2は、立体的なビデオ録画システムで起こる、視覚画像を例示する画像線図である。 図3は、立体的なビデオ録画システムで起こる、視覚画像に関連する深度マップを例示する画像線図である。 図4は、図3に例示された深度マップをサブサンプリングすることにより得られた圧縮された深度マップを例示する画像線図である。 図5は、立体的レンダリングを供給できるビデオシステムを例示するブロック図である。 図6は、ビデオシステムの一部を形成する再生プロセッサの基本的な実施態様を例示するブロック図である。 図7は、再生装置がビデオシステムの表示装置に伝達する出力画像を例示する画像線図である。 図8は、ビデオシステムの一部を形成する表示プロセッサを例示するブロック図である。 図9は、表示プロセッサ内で取り出される視覚画像とそれに関連する近似の深度マップとを例示する画像線図である。 図10は、表示プロセッサ内で生成される9つの異なる視野を例示する画像線図である。 図11は、代替の立体的なビデオ録画システムを例示するブロック図である。 図12は、代替の立体的なビデオ録画システムで起こる深度マップを例示する画像線図である。 図13は、代替の立体的なビデオ録画システムで起こる描画像を例示する画像線図である。 図14は、図13に図示される描画像を作るJava(登録商標)グラフィックプログラムを例示する線図である。 図15は、他の代替の立体的なビデオ録画システムを例示するブロック図である。 図16は、他の代替の立体的なビデオ録画システムで起こる視覚画像を例示する画像線図である。 図17は、他の代替の立体的なビデオ録画システムで起こる視覚画像に関連するモザイク画像を例示する画像線図である。 図18は、図5に図示されるビデオシステムの一部を形成する再生プロセッサの先進の実施態様を例示するブロック図である。 図19は、再生プロセッサの先進の実施態様で起こるさまざまな画像を例示する画像線図である。 図20は、再生プロセッサの先進の実施態様で起こるさまざまな画像を例示する画像線図である。 図21は、再生プロセッサの先進の実施態様で起こるさまざまな画像を例示する画像線図である。 図22は、再生プロセッサの先進の実施態様で起こるさまざまな画像を例示する画像線図である。
図1は、立体的な画像捕捉装置SIC1及び光学レコーダREC1を有する立体的なビデオ録画システムRSY1を例示する。立体的な画像捕捉装置SIC1は、例えば、わずかに異なる角度の下でシーンを捕える一対のカメラを有する。これは、シーン内の対象物と仮想観察者としてみなせる立体的な画像捕捉装置SIC1との間の距離を決定できる。他の技術も、斯様な距離を決定するため存在する。例えば、赤外線カメラが、レーダーのような手法で用いられてもよい。
光学レコーダREC1は、さまざまな機能的な構成要素である、ビデオエンコーダVDE1、深度マップ圧縮器CMP、グラフィックエンコーダGRE、マルチプレクサMUX1及びコントローラCTR1を有する。これらの機能的構成要素のいずれも、プログラマブルプロセッサにロードされるソフトウエアプログラムによって実行されてもよい。ソフトウェアベースの実施態様において、ソフトウエアプログラムは、プログラマブルプロセッサに、関連する機能的な構成要素に属する特定の動作を行わせる。例えば、最適にプログラムされる単一のプログラマブルプロセッサが、上述した機能的な構成要素を実行してもよい。何れの機能的な構成要素も、処理ステップ又は一連の処理ステップとして等しくみなされ得る点に留意されたい。例えば、ビデオエンコーダVDE1は、ビデオエンコードステップを表し得る。機能的な構成要素は、これらが説明の容易さのためにステップよりはむしろ物理的構成要素であるかのように、説明されているだけである。
光学レコーダREC1は、更に、DVDタイプ又はブルーレイディスクタイプ(DVDはDigitalVersatileDiskの頭字語である)でもよい光ディスクライターODW1を有する。光ディスクライターODW1は、データを書き込み可能な光ディスク上に直接書き込む。あるいは、光ディスクライターODW1は、光ディスクの大量生産の基として役立ついわゆるマスターディスクを作ってもよい。
立体的なビデオ録画システムRSY1は、以下のように基本的に動作する。立体的な画像捕捉装置SIC1は、関連するシーンのビデオを構成する一連の視覚画像VIS1を供給する。視覚画像は、2次元である。立体的な画像捕捉装置SIC1は、更に、一連の視覚画像VIS1に伴う一連のいわゆる深度マップDMS1を供給する。深度マップは、特定の視覚画像と関連し、視覚画像のそれぞれの対象物が仮想観察者に対して持つそれぞれの距離についての情報を供給する。すなわち、深度マップは、視覚画像内のそれぞれの領域に対する深度情報を供給する。一連の深度マップは、3次元レンダリングとも呼ばれる、関連するシーンの立体的レンダリングを可能にする。
図2及び図3は、それぞれ、視覚画像VI1及びそれに関連する深度マップDM1を例示する。深度マップDM1は、各値が視覚画像VI1の特定ピクセルと関連する、値のマトリクス形式でもよい。ピクセルが特定対象物の特定の部分を表すので、当該ピクセルと関連する値は、この特定対象物のこの特定の部分が仮想観察者に対して持つ距離を表す。値が、その距離を表すさまざまな異なる様式がある。例えば、値は、関係する距離を直接示してもよい。別の例として、値は、左目視点及び右目視点に関係するピクセルに対する角度シフトの量を示してもよい。斯様な値は、一般にパララックス値又は視差値と呼ばれる。
図3は、白黒画像を供給するグレイスケール値のマトリクスとして深度マップDM1を表わす。グレイスケール値は、例えば、8ビットで表される。通常の表記において、これは、グレイスケール値が0と255との間の範囲内に含まれることを意味する。0のグレイスケール値は、仮想観察者からの最大可能な距離を示す。これは、図3の最も暗い可能性があるピクセルと対応する。これとは逆に、255のグレイスケール値は、仮想観察者から最小可能な距離を示す。これは、図3の最も明るい可能性があるピクセルと対応する。深度マップは、視覚画像の解像度と対応する空間的解像度を持つ。例えば、視覚画像及び深度マップは、1080ピクセルx1920ピクセルの空間的解像度を持つ。
図1に示されるビデオエンコーダVDE1は、立体的な画像捕捉装置SIC1が供給する一連の視覚画像VIS1をエンコードする。従って、ビデオエンコーダVDE1は、例えばMPEG―2及びMPEG―4(MPEGは、MovingPicturesExpertGroupの頭字語である)のようなMPEG標準に従うビデオデータストリームVDS1を生成する。このように、ビデオデータストリームVDS1は、圧縮形式で一連の視覚画像VIS1を表す。
深度マップ圧縮器CMPは、立体的な画像捕捉装置SIC1が供給する深度マップの空間的解像度を低減する。従って、深度マップ圧縮器CMPは、一連の圧縮深度マップCDMSを供給する。例えば、深度マップ圧縮器CMPは、水平及び垂直方向に深度マップをファクタ8でサブサンプリングする。前述されたように、視覚画像が1080ピクセルx1920ピクセルの空間解像度を持ち、深度マップが同じ解像度を持つとみなす。その場合、135ピクセルx240ピクセルの空間解像度を持つ圧縮画像が得られる。より少しのデータだけが深度マップを表すのに必要とされるように、サブサンプリング以外の技術が深度マップを圧縮するために用いられてもよい。例えば、深度マップを圧縮する際に起こった解像度の損失を補償するのを容易にする技術が用いられてもよい。
図4は、ファクタ8で図3に示された深度マップDM1をサブサンプリングすることにより得られた圧縮深度マップCDMを例示する。明確にするため、上述の画像が同様の大きさを持つように、圧縮深度マップは同じファクタによりアップスケールされた。図4は、空間解像度の損失が発生したことを明らかに示す。圧縮深度マップCDMの値は、それに関係する視覚画像VI1内の8ピクセルのクラスタに対して適用する。
値深度マップCDMの値は深度情報を伝達するが、当該情報はピクセルに適用するクラスタ内の各ピクセルに対して必ずしも補正される必要は無い。ピクセルのクラスタは、特定の対象物に属するピクセルのグループ及び他の対象物に属するピクセルの他のグループを有していてもよい。1つの特定の対象物は、仮想の観察者に比較的近いが、他の特定の対象物は、仮想の観察者から比較的離れて配置されている。ピクセルのクラスタに付与する値は、ピクセルのグループの少なくとも1つのピクセルに対して正しくはないだろう。深度マップの斯様な不正確さによって、関係するシーンの立体的レンダリングの不自然な影響が潜在的に生じてしまう。
しかしながら、比較的低い空間解像度を持つ深度マップに基づいて、シーンの自然な立体的レンダリングを可能にする技術がある。これらの技術の幾つかは、より正確である強化された深度マップを構成するため、深度マップに関連する視覚画像を使用する。視覚画像内にある高解像度情報が、深度マップの空間解像度を増大するために、効果的に使用される。例えば、国際出願公開番号WO2005/034035で公開された国際出願は、深度マップを改善するための技術を記述する。出願人参照番号PH006957を持つヨーロッパの出願は、効果的に使用できる他の技術を記述する。
例えば、視覚画像は、深度マップがクラスタに対して特定の値を供給するピクセルの当該クラスタが、前述の2つの異なる対象物をカバーするという決定を可能にする。例えば、2つの異なる対象物が輝度及びクロミナンスに関して異なる特性を持つので、斯様な決定がなされ得る。従って、視覚画像は、深度マップの不正確さを識別することを可能にする。その上、視覚画像は、適切な補正をすることを可能にする。2つの異なる対象物の各々に対して、関係する対象物に専ら属する一つ以上の隣接するピクセルのクラスタがあり、これらに対して深度マップは一つ以上の値を供給する。比較的正確な深度情報を供給するこれらの値は、不正確であるとわかった深度マップの値を置き換えることができる一組の適当な値を決めるために使用できる。
深度マップが、例えば、DVDディスク又はブルーレイディスクに記録されるべきグラフィック画像であるかのように、図1に図示されるグラフィックエンコーダGREは、一連の圧縮深度マップCDMSをエンコードする。従って、グラフィックエンコーダGREは、一連の視覚画像VIS1に伴う、一連の深度マップDMS1を表すグラフィックデータストリームGDSを供給する。DVDディスク又はブルーレイディスク記録の場合に、深度マップは、グラフィック画像に対する効率的なデータ圧縮技術であるランレングス符号化を採用するだろう。しかしながら、ランレングス符号化は、一般に、異なる性質である深度マップに対して比較的控えめな程度のデータ圧縮を供給するだろう。しかしながら、グラフィックデータストリームGDSは、対象のDVDディスク又はブルーレイディスク標準により特定される帯域幅要件に従わなければならない。この遵守は、充分な程度のデータ圧縮を供給する前述の深度マップ圧縮器CMPのおかげで達成される。その上、前述のように、このデータ圧縮から生じる空間解像度の損失は補償できる。
グラフィックデータストリームGDSは、種々異なる目的のため異なるタイプのセグメントを有する。例えば、図1に図示される光学的レコーダREC1がブルーレイディスク記録用に使用されるとする。その場合、グラフィックデータストリームGDSは、いわゆるグラフィックオブジェクトセグメント及びいわゆる構成セグメントを有する。それらの画像がグラフィックオブジェクトであるかのように、グラフィックオブジェクトセグメントは、ランレングス符号化形式で圧縮された深度マップを坦持する。構成セグメントは、グラフィックオブジェクトが再生装置においてどのようにフォーマットされるべきかに関する情報を有する。このフォーマッティングは、例えば、クロッピング及びオブジェクト配置としての動作を含む。再生装置内のグラフィックプロセッサは、構成セグメントに含まれる情報に従って、グラフィックオブジェクトをいわゆるグラフィック平面に組み立てる。
光学レコーダREC1のコントローラCTR1は、グラフィックデータストリームGDS又はそれに関連するデータストリームが圧縮深度マップに関して適当なフォーマット情報を有することを確実にする。このフォーマット情報は、深度マップがグラフィック画像であるかのように、深度マップが表示装置のための出力画像にどのように含まれるべきかを示す。例えば、フォーマット情報は、再生装置が深度マップを上位部分及び下位部分に効率的に分割すべきことを示してもよい。フォーマット情報は、更に、再生装置が出力画像の最初の数ライン内に前記上位部分からの値を含むべきであり、出力画像の最後の数ライン内に前記下位部分からの値を含むべきことを示してもよい。出力画像の他のラインは、深度マップと関連する視覚画像を伝達する。このことは、これ以降より詳細に説明されるだろう。
コントローラCTR1は、ビデオデータストリームVDS1及びグラフィックデータストリームGDSが記録される光ディスクが、適切なアプリケーションデータを有することを更に確実にする。前記アプリケーションデータは、例えば、ユーザが2次元モード又は3次元モードの光ディスクに記録されたシーンを見ることができるメニューを有する。前記アプリケーションデータは、更に、一つ以上のメニュー項目に関連するさまざまな再生規定を有する。再生規定は、光ディスクに記録されたマルチメディアコンテンツの特定のレンダリングを供給できる。そのために、再生規定は、一つ以上の特定のデータストリーム、及び必要に応じて、その一つ以上の特定の部分を再生装置に選択させる。適用できる場合、再生規定は、更に、これらの選択されたデータストリーム及びその選択された部分に含まれるコンテンツの特定の構成を再生装置に作らせる。
マルチプレクサMUX1は、光ディスクに記録されるべきすべてのデータを効果的にディスクデータストリームDDS1に結合する。マルチプレクサMUX1は、関係する光ディスクに適用できる標準に従って結合する。例えば、マルチプレクサMUX1は、異なるタイプのデータが互いに区別できる適当な見出しを挿入してもよい。マルチプレクサMUX1は、更に、例えばこれらの動作が適用できる標準の物理的側面に関係するので、コンテンツ独立であるさまざまな動作を実施する。例えば、マルチプレクサMUX1は、誤り訂正符号化を実施してもよい。
光ディスクライターODW1は、従来の様式の書き込み可能な光ディスク上に、ディスクデータストリームDDS1を書き込む。あるいは、光ディスクライターODW1は、一種のモールドであるマスターディスク上にディスクデータストリームDDS1を書き込んでもよい。その後マスターディスクは、ディスクデータストリームDDS1を有する光ディスクの大量生産用に使用できる。これらの光ディスクは、例えば、映画が録画されたDVDのような読出し専用タイプである。
前述のように記録された光ディスクは、関係するシーンの立体的レンダリングを可能にする。そのために、光ディスクは、例えば、DVD又はブルーレイディスク標準のような既存の標準に従って動作する再生装置で再生できる。新しい標準又は既存の標準の拡張のためのニーズはない。
図5は、再生装置PLY及び表示装置DPLを有するビデオシステムVSYを例示する。再生装置PLYは、例えば、DVDプレーヤ又はブルーレイディスクプレーヤである。再生装置PLYは、例えば、DigitalVisualInterface(DVI)又はHigh−DefinitionMultimediaInterface(HDMI)のような標準化された接続CXを介して表示装置DPLと通信する。表示装置DPLは、レンチキュラースクリーンを持つ自動立体的なタイプでもよい。斯様な表示装置DPLは、ユーザが特定のメガネをかける必要なしに、3次元視聴経験を供給する立体ビデオを見ることを可能にする。ビデオシステムVSYは、更に、ユーザが表示装置DPLだけでなく再生装置PLYを制御できる遠隔制御装置RCDを有する。例えば、ユーザは、遠隔制御装置RCDによって項目をユーザが選択するメニューをビデオシステムVSYに表示させる。
再生装置PLYは、光ディスクリーダーODR、再生プロセッサPRP、表示インタフェースDIP、及び主コントローラCTMを有する。再生装置PLYは、更に、ネットワークNWを介してリモートサーバSRVと通信するためのネットワークインターフェースNIFを有する。再生プロセッサPRPは、適切なソフトウエアプログラムでロードされたプログラマブルプロセッサの形式でもよい。同じことが、主コントローラCTM並びに少なくとも一部の表示インタフェースDIP及びネットワークインターフェースNIFに当てはまる。例えば、再生プロセッサPRP及び主コントローラCTMのようなさまざまな機能的構成要素は、単一のプログラマブルプロセッサによって実行されてもよい。
表示装置DPLは、表示インタフェースDID、表示プロセッサPRD、表示コントローラCTD、及び立体的ビデオレンダリング可能なスクリーンを有する。例えば、スクリーンSCRは、液晶(LCD)表示及び1枚のレンチキュラレンズを有する。レンチキュラレンズは、観察者の左目及び右目が異なるピクセルから光を受けるように、ディスプレイから放射する光を回析する。従って、一組のピクセルによって表示される一方の視野は、左目の方向に向けることができる。ピクセルの異なるセットによって同時に表示される他方の視野は、右目の方向に向けることができる。このように、斯様な自動立体的スクリーンは、複数の視野をレンダリングするために解像度を犠牲にする。立体画像は、このように例えば960ピクセルx540ピクセルのような比較的大きくない解像度を持つ。表示プロセッサPRDは、適切なソフトウエアプログラムでロードされたプログラマブルプロセッサの形式でもよい。同じことが、表示コントローラCTD及び少なくとも一部の表示インタフェースDIDにも当てはまる。
ビデオシステムVSYは、以下の通りに基本的に動作する。ユーザは、図1―図4を参照して前述されたように作られた光ディスクを再生装置PLYに正に挿入したとする。最初のフェーズにおいて、主コントローラCTMは、光ディスクに格納されたアプリケーションデータを光ディスクリーダーODRに読み込ませる。主コントローラCTMは、表示装置DPLによってメニューをユーザに提示するために、アプリケーションデータを使用する。メニューは、例えば、2次元モード又は3次元モードでの所与のタイトルの再生を提案する。ユーザが、光ディスクにあるマルチメディアコンテンツの特定のレンダリングである3次元モードを選択するとする。選択に応じて、主コントローラCTMは、アプリケーションデータに含まれ、3次元モードと関連する一つ以上の再生規定に基づいて再生プロセッサPRPを適切に設定する。主コントローラCTMは、ユーザが選択した特定のレンダリングを確実にするために更なる動作を実施する。
最初のフェーズが完了されると、光ディスクリーダーODRは、対象のマルチメディアコンテンツを有するディスクデータストリームDDS1を供給する。最初のフェーズで適切に設定された再生プロセッサPRPは、ユーザが選択した特定のレンダリングと一致する視聴覚データストリームAVDを得るために、ディスクデータストリームDDS1を処理する。視聴覚データストリームAVDは、例えば、ビデオ及びグラフィックのような種々異なるタイプのコンテンツの構成である出力画像を有する。加えて、再生プロセッサPRPは、表示装置DPLがこのデータストリームを正しく解釈するのを援助するために、視聴覚データストリームAVD内に付加的情報を含んでもよい。このことは、これ以降より詳細に説明されるだろう。視聴覚データストリームAVDは、再生装置PLYと表示装置DPLとの間の上述した表示インタフェースDIP、DID及び接続CXを介して、表示装置DPLの表示プロセッサPRDに達する。表示プロセッサPRDは、スクリーンSCR用の駆動信号DRSを作るために、視聴覚データストリームAVDを処理する。
図6は、DVD標準又はブルーレイディスク標準に従って動作できる再生プロセッサPRPの基本的な実施態様を例示する。この実施態様は、基本的な再生プロセッサPBBとこれ以降呼ばれる。基本的な再生プロセッサPBBは、さまざまな機能的な構成要素である、フロントエンドのモジュールFEM1、ビデオデコーダVDD、グラフィックデコーダGRD、合成モジュールCOM及び内部コントローラCTPを有する。フロントエンドのモジュールFEM1は、適切なソフトウエアプログラムでロードされたプログラマブルプロセッサの形式でもよい。同じことが、他の機能的構成要素にも当てはまる。すべての機能的構成要素は、最適にプログラムされた単一のプロセッサに結合されてもよい。
再生プロセッサPRPは、以下の通りに基本的に動作する。フロントエンドのモジュールFEM1は、多重化形式のディスクデータストリームDDS1内にある種々異なるデータストリームを取り出すために、光ディスクリーダーODRからのディスクデータストリームDDS1を処理する。そのために、フロントエンドモジュールFEM1は、エラーデコード及びデマルチプレクサを含む、さまざまな動作を実施する。従って、フロントエンドのモジュールFEM1は、図1に図示されるマルチプレクサMUX1に付与されたグラフィックデータストリームGDS及びビデオデータストリームVDS1を取り出す。
ビデオデコーダVDDは、図1に図示されるビデオエンコーダVDE1に付与された一連の視覚画像VIS1、又はむしろその近似を得るために、ビデオデータストリームVDS1をデコードする。グラフィックデコーダGRDは、図1に図示されるグラフィックエンコーダGREに付与された一連の圧縮深度マップCDMSを得るために、グラフィックデータストリームGDSをデコードする。グラフィックデコーダGRDは、更に、上述されたようにグラフィックデータストリームGDSに含まれるフォーマット情報を取り出す。前記フォーマット情報は、表示装置DPLに対する出力画像に深度マップがどのように含まれるべきかを示すことを想起されたい。
合成モジュールCOMは、一連の視覚画像VIS1、一連の圧縮深度マップCDMS及びフォーマット情報に基づいて、視聴覚データストリームAVDを供給する。視聴覚データストリームAVDは、図5に図示される接続CXを介して表示装置DPLに伝達される一連の出力画像を有する。出力画像は、視覚画像及びそれに関連する圧縮深度マップの合成である。合成モジュールCOMは、圧縮深度マップがグラフィック画像であるかのように、フォーマット情報に基づいて斯様な合成を作る。合成モジュールCOMは、グラフィックデコーダGRDから直接に、又は内部コントローラCTPを介してフォーマット情報を得る。後者の場合、内部コントローラCTPは、合成モジュールCOMに付与するフォーマット情報を一つ以上の合成命令に効果的に翻訳する。いずれにせよ、ビデオ情報がグラフィックス情報で覆われる標準画像を作る必要があるかのように、合成モジュールCOMは標準動作を実施する。
図7は、視聴覚データストリームAVD内の出力画像OIを例示する。出力画像OIは、例えば1920ピクセルx1080ピクセルのマトリクスの形式でもよい。すなわち、出力画像OIは、各ライン1920ピクセルの1080本のラインを有する。出力画像OIは、視覚画像を伝達する主要部分を有する。一組の上位ラインUL及び一組の下位ラインLLは、視覚画像と関連する圧縮深度マップを伝達する。そのために、圧縮深度マップは、上位半分及び下位半分へ効果的に分割された。一組の上位ラインULは圧縮深度マップの上位半分を伝達するが、一組の下位ラインLLは圧縮深度マップの下位半分を伝達する。逆のことが、フォーマット情報に依存して適用されてもよい。このように、一組の上位ラインUL及び一組の下位ラインLLは、圧縮深度マップからの値を集合的に担持する。斯様な値は、視覚画像のピクセルのクラスタに適用する深度の指標を構成することを想起されたい。例えば、前述のようにファクタ8でサブサンプリングすることにより圧縮深度マップが得られた場合、値は視覚画像内の8ピクセルのクラスタに適用する。
合成モジュールCOMが深度情報を伝達するために出力画像のピクセルを効果的に使用する多くの異なる態様がある。例えば、出力画像内に所与の位置を持つピクセルは、圧縮深度マップ内の所与の位置の値と一致するグレイスケール値を与えられる。圧縮深度マップが240x135の値によるマトリクスを構成するとする。すなわち、深度マップは、各ライン240個の値の135ラインを有する。その場合、出力画像の第1のラインの最初の135個のピクセルは、深度マップの第1のラインのそれぞれの値と一致するそれぞれのグレイスケール値を与えられる。ピクセル136から270と呼ばれる出力画像の第1のラインの次の135個のピクセルは、深度マップの第2のラインのそれぞれの値と一致するそれぞれのグレイスケール値を与えられる等である。深度マップからの値は、出力画像のピクセルを特徴づける何れの所与のタイプの値又は一組の値にマップできることに留意されたい。グレイスケール値は、単なる例である。
深度情報を伝達するため出力画像のピクセルを使用するより効率的な態様は、以下の通りである。出力画像のピクセルは、通常、ピクセルの外観を決定する3つの成分を有する。例えば、出力画像がいわゆるRGBフォーマットである場合、ピクセルは赤の成分、緑の成分及び青の成分を持つ。出力画像がいわゆるYCCフォーマットである場合、ピクセルは輝度成分、第1のクロミナンス成分及び第2のクロミナンス成分を持つ。いずれにせよ、ピクセルの各成分は、深度指標を構成する特定の値を坦持する。従って、ピクセルは、深度マップから3つの異なる値を伝達する。前述のように深度マップの1ラインが135個のピクセルを有する場合、当該ラインは出力画像の45個のピクセルに収容できる。この点で、8ビット値は、通常、十分に正確な深度指標を供給することに留意されたい。1ピクセルの成分は、通常、8ビットによって表される。ある意味では、ピクセル成分解像度は、深度情報解像度に合致する。
図6に例示される合成モジュールCOMは、出力画像にヘッダを埋め込む。一連のビット又は一連のバイトの形式であるヘッダは、深度情報が出力画像内のどこにあるかの指標を供給する。例えば、ヘッダは、出力画像の最初の5本のライン及び最後の5本のラインが深度マップから生じる値を有することを示す。ヘッダは、更に、深度マップから出力画像へマッピングされた値に従ったスキームを示してもよい。ヘッダは、出力画像を適切にレンダリングするために有効である他の指標を供給してもよいし、又は、むしろ視覚画像が有してもよい。
ヘッダは、以下の態様で出力画像に埋め込まれる。一組のピクセルが、ヘッダからのビットのキャリアとして指定される。一組のピクセルは、前記組に属する何れの所与のピクセル対間でも、前記セットに属しない出力画像の少なくとも一つのピクセルがあるように、好ましくは指定される。換言すれば、出力画像の2つの隣接するピクセルがヘッダビットキャリアとして役立つことが防止される。セットの一部を形成する各ピクセルに対して、所与のピクセル成分は、ヘッダからの一つ以上のビットと一致する値を割り当てられる。好ましくは、所与のピクセル成分の各ビットは、ヘッダからの特定のビットを表す同一の値を割り当てられる。斯様な冗長性は、ヘッダを輝度の変化、コントラスト設定の変化及びノイズの変化に対してより強くする。いずれにせよ、合成モジュールCOMは、ピクセルとヘッダ情報を坦持するピクセル成分とを定める特定のヘッダ埋め込みスキームを適用する。
図8は、表示インタフェースDID及び表示コントローラCTDと共に、表示プロセッサPRD又はむしろその実施態様を例示する。表示プロセッサPRDは、さまざまな機能的構成要素であるヘッダ解析器HDA、分解モジュールDCO、マルチ視野生成モジュールMVG及び混交モジュールIWVを有する。ヘッダ解析器HDAは、適切なソフトウエアプログラムでロードされたプログラマブルプロセッサの形式でもよい。同じことが他の機能的構成要素にも当てはまる。すべての機能的構成要素又はその少なくとも一部は、適切にプログラムされた単一のプロセッサで連帯的に実行されてもよい。
表示プロセッサPRDは、基本的に以下のように動作する。ヘッダ解析器HDAは、前述のように出力画像に埋め込まれたヘッダを抽出する。そのために、ヘッダ埋め込みスキームは、ヘッダ解析器HDAに予めプログラムされてもよい。あるいは、再生装置PLYは、例えば、表示装置DPLが再生装置PLYに接続されるとき起こる初期化フェーズの間、ヘッダ埋め込みスキームを表示装置DPLと通信してもよい。ヘッダ解析器HDAは、ヘッダ情報を分解モジュールDCOと直接通信する。あるいは、表示コントローラCTDは、分解モジュールDCOを適切に設定するために、ヘッダを解釈してもよい。
いずれにせよ、分解モジュールDCOは、いわば、深度情報が出力画像のどこにあるかを知っている。分解モジュールDCOは、このように、視聴覚データストリームAVDの出力画像に共同して含まれる視覚画像及び圧縮深度マップを取り出せる。図7を参照すると、分解モジュールDCOは、深度情報を有する上位ラインULのセット及び下位ラインLLのセットを効果的に取り除き、これらのラインは表示されない。
分解モジュールDCOは、更に、圧縮深度マップを近似の深度マップに変える。近似の深度マップは、圧縮深度マップより正確である。精度のこのゲインは、深度情報と相関される比較的高解像度の視覚情報を有する、視覚画像のおかげで達成される。従って、分解モジュールDCOは、圧縮深度マップの深度情報が不正確である領域を識別できる。その上、分解モジュールDCOは、視覚画像及び圧縮深度マップに含まれる情報に基づいて、適切に補正でき、よって精度を増強できる。このことは、図1に図示される深度マップ圧縮器CMPを参照して、より詳細に説明された。
図9は、分解モジュールDCOが供給する視覚画像VI及びそれに関連する近似の深度マップDMを例示する。視覚画像VIは、木の前にある住宅を表す。住宅及び木は、深度マップでも識別できる。より正確に言うと、木は白色の面を囲むアウトラインを持ち、木が仮想観察者に比較的近いことを示す。住宅は灰色がかった面を囲むアウトラインを持ち、住宅が木より仮想観察者から更に離れて位置することを示す。深度マップDMの暗い領域は、視覚画像VIの背景と一致する。何れの背景対象物も、仮想観察者から比較的遠くに位置されている。
図10は、マルチ視野生成モジュールMVGが視覚画像及び近似の深度マップに基づいて生成する9つの異なる図を例示する。斯様な一組の視野は、これ以降マルチ視野画像MVIと呼ばれるだろう。各視野は、特定の視野位置から見られた住宅及びその前方の木を表す。すなわち、わずかに異なる9つの視野位置がある。視野位置のわずかな変化によって、木の比較的大きな変位が生じる。これは、木と仮想観察者との間の比較的小さな距離に起因する。対照的に、住宅は仮想観察者から更に離れて位置されるので、住宅は、視野全体にわたって比較的小さな程度で移動する。
マルチ視野生成モジュールMVGは、近似の深度マップに基づいて、2つの異なる視野間の対象物の適当な変位を決定する。対象物が仮想観察者により間近であるほど、変位は、より大きい。視覚画像内のいわば深く位置される対象物は、比較的小さな変位を受けるか、又は同じ位置のままでさえある。従って、3次元経験は、近似の深度マップに基づいて作られる。
マルチ視野生成は、分解モジュールDCOが供給する一連の視覚画像VIS及びそれに伴う一連の近似深度マップADMSに基づいて、一連のマルチ視野画像MVISを供給する。混交モジュールIWVは、駆動信号DRSによってスクリーンSCRにマルチ視野画像を送る。スクリーンSCRは、前述されたように自動立体的なタイプであり、1枚のレンチキュラレンズを有する。その場合、混交モジュールIWVは、特定の視野が、1枚のレンチキュラレンズに関して特定の位置を持つスクリーンSCR上の特定のセットのピクセルに適用されることを確実にする。従って、中間モジュールは、各視野が、いわば、適当な方向に放射されることを確実にする。これは、観察者がかけなければならない特定のメガネを必要としない立体的な視野経験を可能にする。
図11は、これ以降、プログラム適応立体的ビデオ録画システムRSY2と呼ばれる他の立体的なビデオ録画システムRSY2を例示する。プログラム適応立体的ビデオ録画システムRSY2は、例えば、ブルーレイディスク標準に従う光ディスクを作るために使用される。プログラム適応立体的ビデオ録画システムRSY2は、立体的画像捕捉装置SIC2とプログラム適応光学レコーダREC2とを有する。立体的画像捕捉装置SIC2は、前述された図5に図示される立体的画像捕捉装置SIC1と同様である。
プログラム適応光学レコーダREC2は、2つの特定の機能的構成要素である描画生成器DPG及びJava(登録商標)―プログラム生成器JSG(Java(登録商標)は、サン・マイクロシステムズの登録商標である)を有する。プログラム適応光学レコーダREC2は、更に、機能的構成要素であるビデオエンコーダVDE2、マルチプレクサMUX2、コントローラCTR2及び光ディスクライターODW2を有する。これらの機能的構成要素は、前述された図5に図示される対応の機能的構成要素と同様である。何れの機能的構成要素も処理ステップ又は一連の処理ステップとして等しくみなせることに留意されたい。例えば、ビデオエンコーダVDE2は、ビデオエンコードステップを表せる。機能的構成要素は、説明の容易さの理由で、これらがステップよりもむしろ物理的エンティティであるかのように説明されるだけである。
プログラム適応立体的ビデオ録画システムRSY2は、基本的に以下の通りに動作する。描画像生成器DPGは、立体的画像捕捉装置SIC2から、一連の深度マップDMS2を受け取る。受け取りに応じて、描画像生成器DPGは、一連の描画像DPSを供給する。描画像は、立体的画像捕捉装置SIC2からの深度マップの近似を構成する。この近似は、描画プリミティブによって表される基本のグラフィックオブジェクトによってなされる。例えば、直線のラインは、描画ベクトルによって表される。
図12及び図13は、描画像生成器DPGが生成した深度マップDM2及び描画DPをそれぞれ例示する。深度マップDM2は、前景が男性であり背景が飛行機である視覚画像に関連する。従って、深度マップDM2は、男性のアウトラインと一致するアウトラインを持つ白色の対象物と、飛行機のアウトラインと一致するアウトラインを持つグレイの対象物とを有する。描画像DPは、男性のアウトラインに近い白色の多角形と、飛行機のアウトラインに近いグレイの多角形とを有する。白色の多角形は、白色を示す色充填パラメータ及び描画像ベクトルのセットとして表され、グレイの多角形は、グレイを示す他の色充填パラメータ及び描画ベクトルの他のセットとして表される。
図14は、Java(登録商標)プログラム生成器JSGが描画像の対象物のために生成するJava(登録商標)グラフィックプログラムJXを例示する。Java(登録商標)グラフィックプログラムJXは、関係する対象物のアウトラインを表す一組の描画プリミティブを有する。Java(登録商標)グラフィックプログラムJXは、更に、カラー規定を有する。カラー規定は、仮想観察者に対して関係する対象物の距離を適切に表す深度マップからの値を表す。よって、深度マップで起こる異なる値の範囲は、Java(登録商標)グラフィックプログラムに対する異なる色の範囲にマッピングできる。異なる色の範囲は、例えば、グレイスケール値を有する。よって、図11に図示されるJava(登録商標)プログラム生成器JSGは、図13に図示される描画像のためのJava(登録商標)グラフィックプログラムの2つのセット、男性に対する1つのセット及び飛行機に対する他のセットを生成する。
マルチプレクサMUX2は、Java(登録商標)グラフィックプログラム生成器JSGから、Java(登録商標)グラフィックプログラムJXSのストリームを受け取る。マルチプレクサMUX2は、更に、立体的画像捕捉装置SIC2が供給する一連の視覚画像VIS2をエンコードすることによりビデオエンコーダVDE2が生成するビデオデータストリームVDS2を受信する。マルチプレクサMUX2は、前述したように図1に図示されるマルチプレクサMUX1の形式と同様の形式で動作する。すなわち、マルチプレクサMUX2は、光ディスクに記録されるべきすべてのデータをディスクデータストリームDDS1に効果的に結合し、当該データは、Java(登録商標)グラフィックプログラムJXSのストリーム及びビデオデータストリームVDS2を含む。光ディスクライターODW2は、前述したように図1に図示される光ディスクライターODW1の形式と同様の形式で動作する。従って、図11に図示されるプログラム適応立体的ビデオ録画システムRSY2によって記録された光ディスクが、ブルーレイディスク再生装置で、関係するシーンの立体的なレンダリングを可能にする。新しい標準又はブルーレイディスク標準の拡張のニーズがない。
ブルーレイディスク再生装置が、図11―図14を参照して前述されたように記録された光ディスクを読み出すとする。ブルーレイディスク再生装置は、図5に図示される再生装置PLYと同様である。ブルーレイディスク再生プロセッサは、図6に図示される基本的な再生プロセッサPBBと同様である。すなわち、ブルーレイディスク再生プロセッサのフロントエンドのモジュールは、ディスクデータストリームDDS2からのビデオデータストリームVDS2と、Java(登録商標)グラフィックプログラムJXSのストリームとを取り出す。ブルーレイディスク再生プロセッサのJava(登録商標)グラフィックプログラムデコーダは、Java(登録商標)グラフィックプログラムJXSのストリームから、描画像のストリームを再構築する。ビデオデコーダは、視覚画像のストリームを得るために、ビデオデータストリームVDS2をデコードする。合成モジュールは、一連の出力画像を有する視聴覚データストリームを供給する。これらの出力画像は、深度情報を表す描画像及び視覚画像に基づく合成である。出力画像は、図7に図示される出力画像OIと同様である。描画像は、出力画像の第1のラインのセット及び最後のラインのセットに含まれ、これらのラインが深度情報を伝達する。
図15は、これ以降PIP適応立体的ビデオ録画システムRSY3と呼ばれる他の代わりの立体的ビデオ録画システムRSY3を例示する。PIP適応立体的ビデオ録画システムRSY3は、例えば、ブルーレイディスク標準に従う光ディスクを作るために使用される。PIP適応立体的ビデオ録画システムRSY3は、立体的画像捕捉装置SIC3とPIP適応光学レコーダREC3とを有する。
立体的画像捕捉装置SIC3は、前述されたような図5に図示される立体的画像捕捉装置SIC1と同様である。すなわち、立体的画像捕捉装置SIC3は、一連の視覚画像VIS3及び一連の深度マップDMS3を供給する。加えて、立体的画像捕捉装置SIC3は、一連の閉塞画像OCIS及び一連の閉塞深度マップODMSを供給する。閉塞画像及び閉塞深度マップは、特定の視覚画像と関連している。閉塞画像は、一つ以上の前景対象物により、少なくとも部分的に塞がれる一つ以上の背景対象物についての情報を供給する。すなわち、閉塞画像は、閉塞により視覚画像内に見ることができない対象物又は対象物の一部を有する。閉塞深度マップは、閉塞画像内に表される斯様な対象物又は対象物の一部に関係する深度情報を供給する。
一連の閉塞画像OCIS及び一連の閉塞深度マップODMSは、立体的ビデオレンダリングシステムが偽信号なく立体的な視聴経験を供給する際の補助を行う。これは、図9及び図10を参照して説明される。図9に表される視覚画像において、木は、住宅の一部を閉塞する。図10に表される9つの視野において、閉塞される住宅の部分は、図9に表わされる視覚画像と一致する中間の視野を除いて、部分的に見えるようになる。すなわち、立体的レンダリングのために生成される視野は、立体的レンダリングの基になる視覚画像に存在しない部分を有する。いわゆるホール充填技術によって視覚画像にある情報に基づいて、これら欠けた部分をほぼ再構築することは可能である。しかしながら、部分的に塞がれる対象物が仮想観察者から比較的遠く離れている場合、ホール充填技術は不充分である。
閉塞画像は、視覚の画像に欠けているが、立体的レンダリングのため異なる視野の適当なセットを生成するために必要とされる部分を有する。閉塞画像は、好ましくは、視覚画像の閉塞された領域の関連した境界部分だけを有する。閉塞深度マップは、関連する閉塞画像に表される、欠けている部分に関係する深度情報を供給する。
PIP適応光学レコーダREC3は、2つの特定の機能的構成要素であるモザイク画像コンポーザーMIC及び第2のビデオエンコーダSVDEを有する。PIP適応光学レコーダREC3は、更に、マルチプレクサMUX3、コントローラCTR3及び光ディスクライターODW3だけでなく、図1に図示されるビデオエンコーダVDE2とコンパチブルな1次のビデオエンコーダPVDEを有する。これらの最後に言及された機能的構成要素は、前述されたように図1に図示される対応する機能的な構成要素と同様である。何れの機能的な構成要素も、処理ステップ又は一連の処理ステップとして等しくみなせることに留意されたい。例えば、1次のビデオエンコーダPVDEは、1次のビデオエンコードステップを表す。機能的構成要素は、説明の容易さのため、これらがステップよりもむしろ物理的エンティティであるかのように説明されるだけである。
PIP適応立体的ビデオ録画システムRSY3は、基本的に以下の通りに動作する。1次のビデオエンコーダPVDEは、一連の視覚画像VIS3をエンコードすることにより、主要なビデオデータストリームPVDSを供給する。主要なビデオデータストリームPVDSは、図1に図示されるビデオエンコーダVDE1により作られるビデオデータストリームVDS1に相当する。モザイク画像コンポーザーMICは、立体的画像捕捉装置SIC3から一連の深度マップDMS3、一連の閉塞画像OCIS及び一連の閉塞深度マップODMSに基づいて、モザイク画像MISのストリームを供給する。モザイク画像は、全て同じ視覚画像と関係する深度マップ、閉塞画像及び閉塞深度マップのモザイクである。
図16及び図17は、視覚画像VI3とそれに関連するモザイク画像MIを例示する。モザイク画像MIは、4象限である左上象限、右上象限、左下象限、及び右下象限を持つ。左上象限は、空である。右上象限は、これ以降、縮尺深度マップと呼ばれる縮尺バージョンの深度マップを有する。縮尺深度マップは、水平及び垂直方向の視覚画像の解像度の半分の解像度を持つ。左下象限は、これ以降、縮尺閉塞画像と呼ばれる縮尺バージョンの閉塞画像を有する。右下象限は、これ以降、縮尺閉塞深度マップと呼ばれる縮尺バージョンの閉塞深度マップを有する。
2次のビデオエンコーダSVDEは、これらの画像がいわゆるピクチャインピクチャ(PIP)表示のための通常の視覚画像であるかのように、モザイク画像MISのストリームをエンコードする。2次のビデオエンコーダSVDEは、例えば、MPEG―2又はMPEG―4エンコードスキームのような、1次のビデオエンコーダPVDEのスキームと同様であるエンコードスキームを適用する。従って、2次のビデオエンコーダSVDEは、閉塞情報だけでなく深度情報を有するモザイク画像を表す2次のビデオデータストリームSVDSを供給する。
コントローラCTR3は、1次のビデオデータストリームPVDS及び2次のビデオデータストリームSVDSを記録する光ディスクが適切なアプリケーションデータを有することを確実にする。アプリケーションデータは、3次元モードの光ディスクに記録されたコンテンツをレンダリングするためのメニュー項目を有する。アプリケーションデータは、更に、このメニュー項目と関連する特定の再生規定を有する。立体的レンダリングのためのこの再生規定は、再生装置が2次のビデオストリームとして1次のビデオデータストリームPVDSを処理すべきこと及びその逆を規定する。すなわち、この再生規定は、これらがピクチャインピクチャ画像であるかのように、再生装置に視覚画像を処理させる。
マルチプレクサMUX3は、1次のビデオデータストリームPVDS及び2次のビデオデータストリームSVDSを受信する。マルチプレクサMUX3は、他のデータストリームを受信してもよい。マルチプレクサMUX3は、前述されたように図1に図示されるマルチプレクサMUX3の形式と同様の形式で基本的に動作する。すなわち、マルチプレクサMUX3は、光ディスクに記録されるべきすべてのデータをディスクデータストリームDDS3へと効果的に結合する。このデータは、前述のアプリケーションデータを含み、立体的レンダリングのため、再生装置が2次のビデオストリームとして1次のビデオデータストリームPVDSを処理すべきであり、この逆もあることを当該アプリケーションデータは規定する。光ディスクライターODW3は、前述されたように図1に図示される光ディスクライターODW1の形式と同様の形式で動作する。従って、図15に図示されるPIP適応立体的ビデオ録画システムRSY3によって記録された光ディスクは、ブルーレイディスク再生装置に関係するシーンの立体的レンダリングを可能にする。新しい標準又はブルーレイディスク標準の拡張のためのニーズがない。
前述されたように、図5に図示される再生装置PLYは、ブルーレイディスクプレーヤを表す。ユーザが、図15―図17を参照して前述されたように作られた光ディスクを、プレーヤに正に挿入したとする。最初のフェーズにおいて、主コントローラCTMは、光ディスクに格納されたアプリケーションデータを光ディスクリーダーODRに読み込ませる。主コントローラCTMは、表示装置DPLによってメニューをユーザに提示するため、アプリケーションデータを使用する。前記メニューは、例えば、2次元モード又は3次元モードで、所与のタイトルの再生を提案する。ユーザが、光ディスクにあるマルチメディアコンテンツの特定のレンダリングである3次元モードを選択するとする。選択に応じて、主コントローラCTMは、アプリケーションデータに含まれる一つ以上の再生規定に基づいて、再生プロセッサPRPを適切に設定する。主コントローラCTMは、ユーザが選択した特定のレンダリングを確実にするために、他の動作を実施してもよい。
図18は、ブルーレイディスク標準に従って、特に高品位映像(HDMV)モードに従って、ディスクデータストリームDDS3を処理できる再生プロセッサPRPの先進の実行を例示する。この実行は、これ以降先進の再生プロセッサPBAと呼ばれるだろう。先進の再生プロセッサPBAは、種々の機能的エンティティであるフロントエンドモジュールFEMX、1次のビデオデコーダPVD、2次のビデオデコーダSVD、プレゼンテーショングラフィックデコーダPGD、インタラクティブグラフィックデコーダIGDを有する。フロントエンドモジュールFEMXは、図6に例示される基本的再生プロセッサPBB内のフロントエンドモジュールFEMと機能的に比較されてもよい。1次のビデオデコーダPVD及び2次のビデオデコーダSVDは、機能的に等価である。
先進の再生プロセッサPBAは、更に、スケーリング及び位置決めモジュールSCP、種々の透明度制御モジュールT1−T6、及び種々の加算モジュールS1−S3を有する。最後に述べた機能的エンティティの組み合わせは、図6に例示された合成モジュールCOMに対応する。符号α1−3は、透明度制御係数を表す。前述のモジュールの何れも適切なソフトウェアプログラムでロードされたプログラマブルプロセッサの形式でもよい。全ての機能的エンティティは、適切にプログラムされた単一のプロセッサに結合されてもよい。
先進の再生プロセッサPBAは、基本的に以下のように動作する。前述の開始フェーズにおいて、フロントエンドモジュールFEMXは、視覚画像を表す1次のビデオデータストリームPVDSを2次のビデオデコーダSVDへ付与するように設定された。フロントエンドモジュールFEMXは、モザイク画像を表す2次のビデオデータストリームSVDSを1次のビデオデコーダPVDへ付与するように設定された。すなわち、フロントエンドモジュールFEMXは、いわば、役割の変更を付与するように指示された。1次のビデオデコーダPVDは、モザイク画像MISのストリーム、又はむしろその近似を取り出す。2次のビデオデコーダSVDは、視覚画像VI3のストリーム、又はむしろその近似を取り出す。
スケーリング及び位置決めモジュールSCPは、視覚画像をスケーリングする。より正確には、視覚画像は、水平及び垂直方向にファクタ2で減少される。例えば、視覚画像が各ライン1920ピクセルを1080ライン有するとする。その場合、スケーリングモジュールは、各ライン960ピクセルを540ライン有するスケーリングされた視覚画像を供給する。スケーリング及び位置決めモジュールは、各ライン1920ピクセルを1080ライン有する出力画像の左上象限にスケーリングされた視覚画像を置く。透明度制御モジュールT1及びT2は、出力画像の左上象限をスケーリングされた視覚画像と一致させ、関係する視覚画像と関連するモザイク画像と一致させる。透明度制御係数α3が左上象限内で1に等しいのに対し、この透明度制御係数は、他の象限で0に等しい。従って、スケーリング及び位置決めモジュールSCPは、透明制御モジュールT1及びT2並びに加算モジュールS1により、モザイク画像MISのストリームと効果的に組み合わされるスケーリングされ位置決めされた視覚画像のストリームを供給する。
図19−図22は、前に説明した先進の再生プロセッサPBA内で起こるさまざまな画像を例示する。図19は、関係する光ディスクにある1次のビデオデータストリームPVDSをデコードすることにより2次のビデオデコーダSVDが供給する視覚画像VI3を例示する。図20は、図19に例示された視覚画像VI3をスケーリングすることによりスケーリング及び位置決めモジュールSCPが確立するスケーリングされた視覚画像VIXを例示する。図21は、2次のビデオデータストリームSVDSをデコードすることにより1次のビデオデコーダPVDが供給するモザイク画像MIを例示する。モザイク画像MIは、図19に図示される視覚画像VI3と関連し、右上象限に深度マップ、左下象限に閉塞画像、及び右下象限に閉塞深度マップを有する。図22は、スケーリングされた視覚画像がピクチャインピクチャであるかのように、モザイク画像MIのスケーリングされた視覚画像VIXに重ねることにより得られる出力画像OIXを例示する。
従って、先進の再生プロセッサPBAは、特定の領域内の視覚情報、深度情報、閉塞情報及び閉塞深度情報を有する出力画像OISのストリームを供給する。図6に例示された基本的再生プロセッサPBBを参照して前に説明されたように、出力画像は、当該出力画像が分割される異なる領域と各異なる領域内で見つけられる情報のタイプとを示すヘッダを有してもよい。従って、表示装置は、図7及び図22に例示されるもののような異なる出力画像フォーマット間を区別できる。前記表示装置は、適当な形式で出力画像を処理できる。あるいは、表示装置は、特定の出力画像フォーマットを処理するようにあらかじめプログラムされているか、又はレンダリングフェーズの前に初期フェーズにおいてプログラムされてもよい。
図18に例示される先進の再生プロセッサPBAは、フロントエンドモジュールFEMXがディスクデータストリームDDS3からインタラクティブグラフィックデータストリームIGDS及びプレゼンテーショングラフィックデータストリームPGDSを取り出す、従来の形式で動作してもよいことに留意されたい。プレゼンテーショングラフィックデコーダPGD及びインタラクティブグラフィックデコーダIGDは、前述のデータストリームをデコードすることにより、プレゼンテーショングラフィック画像のストリームPGIS及びインタラクティブグラフィック画像のストリームIGISそれぞれを供給する。プレゼンテーショングラフィック画像又はインタラクティブグラフィック画像は、トランスペアレント制御モジュールT3−T6及び加算モジュールS2、S3により、視覚画像と結合されてもよい。
図面を参照して前に詳述された説明は、請求項で規定される本発明及び付加的特徴の単なる例示である。本発明は、多くの異なる態様で実施できる。このことを例示するために、幾つかの代替物が簡単に示される。
本発明は、立体的画像レンダリングを含む何れのタイプの製品又は方法に好適に適用される。図5に例示されるような光ディスクプレーヤを有する立体的レンダリングシステムは、単なる例である。本発明は、例えばブルーレイディスク標準に合致して、データストリームを受信及び処理する例えば受信器に好適に等しく適用できる。斯様なデータストリームは、例えばインターネットのようなネットワークを介して受信器に達する。データ担体は、必ずしも光ディスクの形式である必要はない。例えば、集積回路の形式である書き込み可能なメモリは、本発明による一つ以上の画像をエンコードすることにより得られたデータアセンブリを有してもよい。本発明は、特定のタイプの立体的表示装置を要求しない。詳細な説明で上述された自動立体的表示は、単なる例である。立体的表示装置は、眼鏡の一方のグラスが左目視野又はその一連のシーケンスを通して左目へ行かせ、他方のグラスが右目視野又はその一連のシーケンスを通して右目へ行かせるような観察者に眼鏡をつけることを要求するタイプのものでもよい。斯様な立体的表示装置は、左目視野及び右目視野を交互に表示する。
本発明による画像をエンコードする多くの態様がある。図1及び図11は、深度マップがグラフィック画像及びJava(登録商標)ベースのグラフィック画像それぞれとしてエンコードされる例を示す。他の実施例では、深度マップは、図15にあるように、閉塞データ及び閉塞深度データと組み合わされる。すなわち、立体可能なデータは、深度情報又は深度情報と閉塞情報との組み合わせ、及び立体的レンダリングを満足させるために貢献する更に他の情報を専ら有する。
再生装置に利用可能である立体可能なデータを作る多くの異なる態様がある。図5を参照して説明される例では、立体可能なデータは、光ディスク上の視覚データとともに記録された。しかしながら、再生装置PLYは、ネットワークNW及びネットワークNIFを介して、サーバSRVから立体可能なデータを取り出してもよい。よって、再生プロセッサPRPは、ネットワークインタフェースNIFからネットワークデータストリームNDSの形式で立体可能なデータを受け取ってもよい。光ディスクにあるコンテンツに対する立体化レンダリングモードを選択するユーザは、当該コンテンツと関連する立体可能なデータの斯様な取り出しをトリガする。光ディスクにあるアプリケーションデータは、立体可能なデータが取り出され得る特定のインターネットアドレス又は斯様なアドレスのセットを示す。取り出しは、支払いを前提としてもよい。
表示装置DPLに転送できる立体化可能な情報が出力画像に含まれ得る多くの種々異なる態様がある。図7は、上位ラインULのセット及び下位ラインLLのセットにあるように、立体化可能な情報が含まれる実施例を例示する。他の実施例では、立体可能な情報は、上位ラインULのセット及び下位ラインLLのセットに含まれるランダム化された立体可能な情報を得るために、ランダム信号と乗算されてもよい。表示装置は、立体可能な情報を取り出すために、ランダム化された立体可能な情報を対応するランダム信号と乗算できる。斯様な手法は、ユーザが立体的レンダリングを可能にする表示装置を持たない一方で、ユーザが立体的レンダリングのためのメニュー項目を誤って選択する場合に、有利である。斯様な場合、立体可能な情報を含む出力画像が、例えば図7に例示される出力画像のように表示されるだろう。ユーザは、上位ラインULのセット及び下位ラインLLのセットを変で目障りなものとして考えるかもしれないが、ユーザが間違いを犯すことはないだろう。立体可能な情報が、ランダム化された形式で出力画像に起こる場合、上位ラインULのセット及び下位ラインLLのセットは変で目障りなものとなることが少なくなる。
立体的視覚経験が、本発明に従ってエンコードされた画像で達成できる多くの異なる態様がある。図8は、表示プロセッサPRDが特定のフォーマットの出力画像を検出するように設けられた実施例を例示する。他の実施例では、表示プロセッサは、特定のフォーマットに従った出力画像を解釈し処理するようにあらかじめプログラムされてもよい。更に他の実施例では、表示プロセッサは、立体化可能なデータが存在する一つ以上の特定の領域を識別するため、出力画像又は一連の出力画像を解析してもよい。斯様な自動検出は、立体化可能なデータを有する領域と視覚データを有する領域との間の不連続性がある、統計的解析に基づき得る。その上、不連続性は、各画像で起こるだろう。
図1、図5、図6、図8、図11、図15及び図18に例示される例の何れも、方法の形式で実行されてもよい。すなわち、これらの図に生じるブロックは、方法の一つ以上の特定のステップを表わし得る。例えば、図1のVDE1で示されるブロックは、ビデオエンコーダと同様にビデオエンコードステップを表す。図1のGREで示されるブロックは、グラフィックエンコーダと同様に、グラフィックエンコードステップを表す。図1のMUX1で示されるブロックは、マルチプレクサと同様に、マルチプレクスステップを表すなど、フローチャートとして解釈できる前述の図の各ブロックに対して同様である。
ハードウェア若しくはソフトウェア又は両方の品目により機能を実施する多くの態様がある。この観点では、図面は概略的であり、各図は本発明の一つの可能な実施例のみを表す。よって、図面は異なる機能を異なるブロックとして示されているが、このことは、ハードウェア又はソフトウェアの単一の品目が幾つかの機能を実施することを決して除外しない。ハードウェア若しくはソフトウェア又は両方の品目のアセンブリが機能を実施することを除外しない。図2に例示される何れの機能的構成要素も、ソフトウェア若しくはハードウェア又はこれらの組み合わせにより実施されてもよいことに注意されたい。例えば、機能的構成要素は、ソフトウェアを基にした実施であるプログラム可能なプロセッサを適切にプログラムすることにより、又はハードウェアを基にした実施である専用回路の形式で、実行されてもよい。混合の実行は、一つ以上の専用回路だけでなく、一つ以上の適切にプログラムされたプロセッサを含んでもよい。
ここで前になされた付言は、参照する図面及び詳細な説明が本発明を制限するというよりはむしろ例示することを示す。添付された請求項の範囲内にある多くの代替物がある。請求項内の参照符号は、請求項を制限するものとみなされるべきではない。用語「有する」は、請求項にあげられたもの以外の他の要素又はステップを除外しない。要素又はステップに先行する用語「a」又は「an」は、複数の斯様な要素又はステップの存在を除外しない。

Claims (14)

  1. 立体的レンダリングを可能にする信号を生成する画像エンコード方法であって、前記信号に含めるため、視覚画像が標準に従ってエンコードされる1次のエンコードステップと、前記信号に含めるため、前記視覚画像内のそれぞれの領域と仮想観察者との間のそれぞれの距離を示す、それぞれの値を有する前記視覚画像と関連する立体可能なデータが、関係する前記標準に従って前記視覚画像と結合できる補助画像であるかのようにエンコードされる補助エンコードステップと、前記信号を受信し、前記標準に従って動作し、前記視覚画像を有する出力画像を生成するデコード装置により、立体的表示装置に伝達されるとき前記出力画像の立体的レンダリングを可能にするため、前記出力画像の少なくとも一つの特定領域内に前記立体可能なデータを含ませる、前記信号に含まれる合成規定が供給される合成規定ステップとを有する、画像エンコード方法。
  2. オリジナルの立体可能なデータが、前記補助エンコードステップでエンコードされる前記立体可能なデータを得るために圧縮される圧縮ステップを有し、前記圧縮ステップは、エンコードされる前記立体可能なデータが前記オリジナルの立体可能なデータの解像度より低い解像度を持つように、前記オリジナルの立体可能なデータがサブサンプリングされるサブサンプリングステップを有する、請求項1に記載の画像エンコード方法。
  3. 前記合成規定ステップにおいて、供給される前記合成規定は、前記出力画像の上位ラインのセット及び下位ラインのセットの少なくとも一方のラインのセットに前記立体可能なデータの一部を前記デコード装置により挿入させる、請求項1に記載の画像エンコード方法。
  4. 前記補助エンコードステップにおいて、DVD標準又はブルーレイディスク標準という2つの標準の少なくとも一方の標準に従ってグラフィック画像として前記立体可能なデータがエンコードされる、請求項2に記載の画像エンコード方法。
  5. 前記合成規定は、前記合成規定が前記グラフィック画像と関連する合成セグメントに含まれるフォーマッティングステップを有する、請求項4に記載の画像エンコード方法。
  6. 前記圧縮ステップは、近似態様で前記立体可能なデータを表す描画像が生成される描画像生成ステップを有し、前記描画像は描画プリミティブにより表せる基本的グラフィック対象物を有し、前記描画プリミティブの少なくとも一つのセットは前記描画像に基づいて生成される、請求項2に記載の画像エンコード方法。
  7. 前記補助エンコードステップにおいて、前記描画プリミティブはブルーレイディスク標準に従ってインタラクティブグラフィックデータストリームに含まれるJava(登録商標)プログラムの形式で表される、請求項6に記載の画像エンコード方法。
  8. 前記補助エンコードステップにおいて、前記立体可能なデータはピクチャインピクチャ形式で表示されるべき補助視覚画像としてエンコードされ、前記合成規定ステップにおいて、供給される前記合成規定は、前記補助視覚画像が主要視覚画像であって前記視覚画像がサブ画像であるかのように、関係する前記デコード装置により前記視覚画像の縮尺されたバージョンをピクチャインピクチャ形式で前記補助視覚画像に挿入させる、請求項1に記載の画像エンコード方法。
  9. 前記視覚画像のそれぞれの領域と前記仮想観察者との間のそれぞれの距離を示すそれぞれの値を有する前記立体可能なデータが、深度マップと、前記視覚画像内の一つ以上の前景の対象物により少なくとも部分的に閉塞される一つ以上の背景対象物を表す少なくとも一つの閉塞画像とのモザイクにより形成されるモザイク画像形成ステップを有する、請求項8に記載の画像エンコード方法。
  10. 立体的レンダリングのための項目が選択されるとき、前記デコード装置が、前記表示装置に伝達されるべき前記出力画像の前記少なくとも一つの特定の領域に前記立体可能なデータを含むように、前記立体的レンダリングのための前記項目が前記合成規定と関連する、立体的レンダリングのための前記項目を有するメニューが規定されるメニュー規定ステップを有する、請求項1に記載の画像エンコード方法。
  11. 標準に従って視覚画像を表す1次のエンコードされたデータと、前記視覚画像内のそれぞれの領域と仮想観察者との間のそれぞれの距離を示す、それぞれの値を有する立体可能なデータが、関係する前記標準に従って前記視覚画像と結合できる補助画像であるかのように、前記視覚画像と関連する立体可能なデータがエンコードされる、前記立体可能なデータを表す補助エンコードデータと、合成規定データを受信し、前記標準に従って動作し、前記視覚画像を有する出力画像を生成するデコード装置により、立体的表示装置に伝達されるとき前記出力画像の立体的レンダリングを可能にするため、前記出力画像の少なくとも一つの特定領域内に前記立体可能なデータを含ませる合成規定データとを有する、データ担体。
  12. 立体的レンダリングを可能にする信号を生成する画像エンコーダであって、前記信号に含めるため、標準に従って視覚画像をエンコードする1次のエンコードモジュールと、前記信号に含めるため、前記視覚画像内のそれぞれの領域と仮想観察者との間のそれぞれの距離を示す、それぞれの値を有する立体可能なデータが、関係する前記標準に従って前記視覚画像と結合できる補助画像であるかのように、前記視覚画像と関連する立体可能なデータをエンコードする補助エンコードモジュールと、前記信号を受信し、前記標準に従って動作し、前記視覚画像を有する出力画像を生成するデコード装置により、立体的表示装置に伝達されるとき前記出力画像の立体的レンダリングを可能にするため、前記出力画像の少なくとも一つの特定領域内に前記立体可能なデータを含ませる、前記信号に含まれる合成規定を供給する合成規定モジュールとを有する、画像エンコーダ。
  13. 標準に従って視覚画像を表す1次のエンコードされたデータと、前記視覚画像内のそれぞれの領域と仮想観察者との間のそれぞれの距離を示す、それぞれの値を有する立体可能なデータが、関係する前記標準に従って前記視覚画像と結合できる補助画像であるかのようにエンコードされる、前記視覚画像と関連する立体可能なデータを表す補助エンコードデータと、デコード装置により、立体的表示装置に伝達されるとき前記出力画像の立体的レンダリングを可能にするため、前記出力画像の少なくとも一つの特定領域内に前記立体可能なデータを含ませる合成規定データとを有する信号を処理するプロセッサを有する画像デコーダであって、前記デコード装置は、前記信号を受信し、前記標準に従って動作し、前記視覚画像を有する出力画像を生成し、前記プロセッサが、前記立体可能なデータを有する前記出力画像内に少なくとも一つの特定領域の指標を、前記出力画像に埋め込まれるヘッダの形式で立体的表示装置へ供給する、画像デコーダ。
  14. プログラマブルプロセッサへロードするとき、請求項1に記載の画像エンコード方法を前記プログラマブルプロセッサに実施させる命令のセットを有するコンピュータプログラム。
JP2010539018A 2007-12-20 2008-12-17 立体的なレンダリングのための画像エンコード方法 Expired - Fee Related JP5553310B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07301715.4 2007-12-20
EP07301715 2007-12-20
PCT/IB2008/055381 WO2009081335A1 (en) 2007-12-20 2008-12-17 Image encoding method for stereoscopic rendering

Publications (2)

Publication Number Publication Date
JP2011508498A JP2011508498A (ja) 2011-03-10
JP5553310B2 true JP5553310B2 (ja) 2014-07-16

Family

ID=40419583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010539018A Expired - Fee Related JP5553310B2 (ja) 2007-12-20 2008-12-17 立体的なレンダリングのための画像エンコード方法

Country Status (7)

Country Link
US (1) US8422801B2 (ja)
EP (2) EP3007440A1 (ja)
JP (1) JP5553310B2 (ja)
KR (1) KR101545009B1 (ja)
CN (1) CN101904176B (ja)
BR (1) BRPI0822032A2 (ja)
WO (1) WO2009081335A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR122018004903B1 (pt) 2007-04-12 2019-10-29 Dolby Int Ab ladrilhamento em codificação e decodificação de vídeo
KR101659576B1 (ko) * 2009-02-17 2016-09-30 삼성전자주식회사 영상 처리 방법 및 장치
JP6159507B2 (ja) * 2009-02-19 2017-07-05 トムソン ライセンシングThomson Licensing 3d映像フォーマット
US8798158B2 (en) * 2009-03-11 2014-08-05 Industry Academic Cooperation Foundation Of Kyung Hee University Method and apparatus for block-based depth map coding and 3D video coding method using the same
EP2442561A4 (en) * 2009-06-08 2013-10-16 Lg Electronics Inc DEVICE AND METHOD FOR DISPLAYING A THREE-DIMENSIONAL PIP IMAGE
KR101828096B1 (ko) 2010-01-29 2018-02-09 톰슨 라이센싱 블록 기반 인터리빙
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
US20110211749A1 (en) * 2010-02-28 2011-09-01 Kar Han Tan System And Method For Processing Video Using Depth Sensor Information
US20120050495A1 (en) * 2010-08-27 2012-03-01 Xuemin Chen Method and system for multi-view 3d video rendering
CA2806857A1 (en) 2010-09-03 2012-03-08 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
US20120162412A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Image matting apparatus using multiple cameras and method of generating alpha maps
IT1403450B1 (it) * 2011-01-19 2013-10-17 Sisvel S P A Flusso video costituito da frame video combinati, e procedimento e dispositivi per la sua generazione, trasmissione, ricezione e riproduzione
JP5776223B2 (ja) * 2011-03-02 2015-09-09 ソニー株式会社 音像制御装置および音像制御方法
WO2012147740A1 (ja) * 2011-04-25 2012-11-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
ITTO20110439A1 (it) * 2011-05-17 2012-11-18 Sisvel Technology Srl Method for generating, transmitting and receiving stereoscopic images, and related devices
US9351028B2 (en) * 2011-07-14 2016-05-24 Qualcomm Incorporated Wireless 3D streaming server
TWI486053B (zh) * 2011-09-27 2015-05-21 Realtek Semiconductor Corp 立體影像傳輸方法及立體影像傳輸電路
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
TWI586143B (zh) * 2012-04-05 2017-06-01 皇家飛利浦電子股份有限公司 用於提供用於傳送至三維[3d]目標裝置之3d視訊信號之3d源裝置、方法及記錄載體以及用於自3d源裝置接收3d視訊信號之3d目標裝置
TWI630815B (zh) * 2012-06-14 2018-07-21 杜比實驗室特許公司 用於立體及自動立體顯示器之深度圖傳遞格式
JP6028965B2 (ja) * 2012-07-04 2016-11-24 国立研究開発法人情報通信研究機構 奥行マップの再標本化装置およびその方法、プログラム、並びに奥行マップの再標本化システム
WO2014025294A1 (en) * 2012-08-08 2014-02-13 Telefonaktiebolaget L M Ericsson (Publ) Processing of texture and depth images
CN102868899A (zh) * 2012-09-06 2013-01-09 华映光电股份有限公司 一种三维图像处理方法
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
TWI502545B (zh) * 2013-06-25 2015-10-01 儲存3d影像內容的方法
US9355334B1 (en) * 2013-09-06 2016-05-31 Toyota Jidosha Kabushiki Kaisha Efficient layer-based object recognition
TWI602144B (zh) * 2013-10-02 2017-10-11 國立成功大學 包裝彩色圖框及原始景深圖框之方法、裝置及系統
KR101652583B1 (ko) * 2013-10-02 2016-08-30 내셔날 쳉쿵 유니버시티 오리지널 심도 프레임을 리사이징 및 복원하는 방법, 장치 및 시스템
KR101679122B1 (ko) * 2013-10-02 2016-11-23 내셔날 쳉쿵 유니버시티 컬러 프레임과 오리지널 심도 프레임을 패키징 및 언패키징하는 방법, 장치 및 시스템
TWI503788B (zh) * 2013-10-02 2015-10-11 Jar Ferr Yang 還原尺寸重調景深圖框爲原始景深圖框的方法、裝置及系統
TWI602145B (zh) 2013-10-02 2017-10-11 國立成功大學 包裝圖框之解包裝方法、裝置及系統
TWI603290B (zh) 2013-10-02 2017-10-21 國立成功大學 重調原始景深圖框的尺寸爲尺寸重調景深圖框的方法、裝置及系統
JP2017532847A (ja) * 2014-09-09 2017-11-02 ノキア テクノロジーズ オーユー 立体録画及び再生
JP6698081B2 (ja) * 2014-11-10 2020-05-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 符号化のための方法、ビデオプロセッサ、復号のための方法、ビデオ復号器
US9905203B2 (en) * 2016-03-06 2018-02-27 Htc Corporation Interactive display system with HMD and method thereof
US9900584B2 (en) * 2016-04-27 2018-02-20 Semyon Nisenzon Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters
US10547846B2 (en) * 2017-04-17 2020-01-28 Intel Corporation Encoding 3D rendered images by tagging objects
EP3682632B1 (en) * 2017-09-15 2023-05-03 InterDigital VC Holdings, Inc. Methods and devices for encoding and decoding 3d video stream
EP3457688A1 (en) * 2017-09-15 2019-03-20 Thomson Licensing Methods and devices for encoding and decoding three degrees of freedom and volumetric compatible video stream
EP3821596B1 (en) * 2018-07-13 2023-03-29 InterDigital VC Holdings, Inc. Methods and devices for encoding and decoding 3d video stream
US11315321B2 (en) * 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism
US11223817B2 (en) 2018-11-12 2022-01-11 Electronics And Telecommunications Research Institute Dual stereoscopic image display apparatus and method
EP3709659A1 (en) * 2019-03-11 2020-09-16 InterDigital VC Holdings, Inc. A method and apparatus for encoding and decoding volumetric video
FR3093884A1 (fr) * 2019-03-15 2020-09-18 Orange Procédés et dispositifs de codage et de décodage d'une séquence vidéo multi-vues
WO2024018239A1 (en) * 2022-07-22 2024-01-25 Blackbird Plc Video encoding and decoding

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
JPH07240942A (ja) 1994-02-25 1995-09-12 Sanyo Electric Co Ltd 立体映像情報の記録方法
US5617334A (en) * 1995-07-21 1997-04-01 The Trustees Of Columbia University In The City Of New York Multi-viewpoint digital video coder/decoder and method
EP2101496B1 (en) 1996-02-28 2013-01-23 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
US5831638A (en) * 1996-03-08 1998-11-03 International Business Machines Corporation Graphics display system and method for providing internally timed time-varying properties of display attributes
JP3231618B2 (ja) * 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
JPH09327041A (ja) * 1996-06-03 1997-12-16 Sanyo Electric Co Ltd 記録媒体、立体画像表示方法
JPH09331549A (ja) * 1996-06-11 1997-12-22 Sony Corp 立体映像信号伝送方法及び立体映像信号処理装置
US6148113A (en) 1998-02-03 2000-11-14 Micrografx, Inc. System for stimulating the depth of field of an image in two dimensional space and method of operation
JPH11232486A (ja) * 1998-02-12 1999-08-27 Hitachi Ltd 3次元動画再生装置及び方式
US6442331B1 (en) * 1998-07-08 2002-08-27 Lsi Logic Corporation Optical disk system incorporating computer graphics rendering capability to create and display three-dimensional (3-D) objects synchronized with 3-D sound
JP2000278655A (ja) * 1999-03-29 2000-10-06 Matsushita Electric Ind Co Ltd ディジタル放送システム、送信装置、デコーダ装置およびテレビ受像機
AUPQ416699A0 (en) 1999-11-19 1999-12-16 Dynamic Digital Depth Research Pty Ltd Depth map compression technique
US6630933B1 (en) * 2000-09-01 2003-10-07 Ati Technologies Inc. Method and apparatus for compression and decompression of Z data
US20030198290A1 (en) * 2002-04-19 2003-10-23 Dynamic Digital Depth Pty.Ltd. Image encoding system
JP4259884B2 (ja) * 2003-01-20 2009-04-30 シャープ株式会社 画像データ作成装置およびそのデータを再生する画像データ再生装置
WO2005034035A1 (en) 2003-10-07 2005-04-14 Koninklijke Philips Electronics N.V. Depth-map improvement
CN1681330B (zh) * 2004-03-08 2010-07-21 三星电子株式会社 自适应2n叉树生成方法及3D体数据编码和解码方法和设备
WO2006004894A2 (en) 2004-06-29 2006-01-12 Sensable Technologies, Inc. Apparatus and methods for haptic rendering using data in a graphics pipeline
JP2006140618A (ja) * 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元映像情報記録装置及びプログラム
WO2006137000A1 (en) * 2005-06-23 2006-12-28 Koninklijke Philips Electronics N.V. Combined exchange of image and related data
KR100657322B1 (ko) 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
US8046706B2 (en) * 2005-08-05 2011-10-25 Samsung Electronics Co., Ltd. Apparatus for providing multiple screens and method of dynamically configuring multiple screens
KR100747550B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 Dmb 기반의 3차원 입체영상 서비스 제공 방법과, dmb기반의 3차원 입체영상 서비스를 위한 복호화 장치 및 그방법
JP2010510558A (ja) 2006-10-11 2010-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元グラフィックスのデータの作成
US7982733B2 (en) * 2007-01-05 2011-07-19 Qualcomm Incorporated Rendering 3D video images on a stereo-enabled display

Also Published As

Publication number Publication date
EP3007440A1 (en) 2016-04-13
CN101904176B (zh) 2013-05-29
EP2235957A1 (en) 2010-10-06
BRPI0822032A2 (pt) 2015-07-21
WO2009081335A1 (en) 2009-07-02
KR101545009B1 (ko) 2015-08-18
US8422801B2 (en) 2013-04-16
US20100310155A1 (en) 2010-12-09
JP2011508498A (ja) 2011-03-10
KR20100102161A (ko) 2010-09-20
CN101904176A (zh) 2010-12-01

Similar Documents

Publication Publication Date Title
JP5553310B2 (ja) 立体的なレンダリングのための画像エンコード方法
US10567728B2 (en) Versatile 3-D picture format
EP2235685B1 (en) Image processor for overlaying a graphics object
CN102246529B (zh) 基于图像的3d视频格式
US7689031B2 (en) Video filtering for stereo images
JP6095067B2 (ja) 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP2011508557A5 (ja)
KR20110129903A (ko) 3d 시청자 메타데이터의 전송
JP2009531927A (ja) 複数の視野の効率的な符号化
KR20120049292A (ko) 3d 비디오 및 보조 데이터의 결합
US20150215599A1 (en) Method for generating, transmitting and receiving stereoscopic images and relating devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131008

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140421

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R150 Certificate of patent or registration of utility model

Ref document number: 5553310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees