JP5583127B2 - 三次元画像データ処理 - Google Patents

三次元画像データ処理 Download PDF

Info

Publication number
JP5583127B2
JP5583127B2 JP2011528472A JP2011528472A JP5583127B2 JP 5583127 B2 JP5583127 B2 JP 5583127B2 JP 2011528472 A JP2011528472 A JP 2011528472A JP 2011528472 A JP2011528472 A JP 2011528472A JP 5583127 B2 JP5583127 B2 JP 5583127B2
Authority
JP
Japan
Prior art keywords
image
layer
data
image layer
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011528472A
Other languages
English (en)
Other versions
JP2012503813A (ja
Inventor
バルト ジー ビー バレンブルグ
ベルナルドゥス エイ エム ツヴァーンズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012503813A publication Critical patent/JP2012503813A/ja
Application granted granted Critical
Publication of JP5583127B2 publication Critical patent/JP5583127B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は三次元ビデオ画像データを含む三次元画像データに関する。
三次元ディスプレイは、観察されるシーンの異なるビューを観察者の目に提供することによって、観察経験に第3の次元を追加する。三次元(3D)画像を表すための普及しているアプローチは、1つの又は多くの二次元(2D)画像に加えて、第3の次元の情報を提供する深さ表現を用いることである。そのようなアプローチは、比較的低い複雑度によって三次元ビューが生成されることを可能にし、効率的なデータ表現を提供することによって、三次元画像(及びビデオ)信号のための例えば記憶及び通信リソース要求を低減することを含む、複数の利点を提供する。このアプローチは、さらに、三次元画像データ中に含まれる二次元画像とは異なる視点及び観察角度によって二次元画像が生成されることを可能にする。これは特に、観察者の2つの目の観察角に対応する2つの画像が提供されるように、追加の画像を生成するために用いられることができる。これは、三次元知覚を提供するために、すなわち、三次元画像を提供するために、用いられることができる。
1つの二次元画像及び関連する深さ情報によって三次元画像を表すことの欠点は、前景オブジェクトによって遮蔽される背景画像領域に関する情報を含まないことである。したがって、異なる視点に対してシーンがレンダリングされる場合、前景オブジェクトの後ろの情報は明らかにされることができない。したがって、関連する深さ情報を有する複数の二次元画像(例えば前景画像及び背景画像)を含むマルチレイヤ画像及び深さ表現を用いることが提案されている。そのような情報から新たなビューをどのようにレンダリングするかの説明は、Steven J. Gortler, Li-wei He, Rendering Layered Depth Images, Microsoft Technical Report MSTR-TR-97-09(http://research.microsoft.com/research/pubs/view.aspx?type=Technical%20Report&id=20から入手可能)、及び、例えば、米国特許出願US20070057944において見つけることができる。
複数のレイヤを用いるアプローチにおいて、レイヤが半透明であることを許容することが提案されている。コンピュータ・グラフィックの分野において、そのようなアプローチは、例えば、Norman P. Jouppi及びChun-Fa Chang, "An Economical Hardware Technique for High-Quality Antialiasing and Transparency", Proceedings of Eurographics/Siggraph workshop on graphics hardware 1999において説明されている。そのようなアプローチは、半透明の材質(例えば水、煙、炎)が視覚化されることを可能にして、更には、異なる深さのオブジェクトの境界の改善されたアンチエイリアスを可能にする。特にそれは、境界のより漸進的な遷移を可能にする。したがって、透明度は、単に半透明なオブジェクトを表すために用いられることができるだけではなく、ピクセルのどれくらいが前景にあり、どれくらいの背景が見えるべきかを透明度の値が表すように境界を半透明にすることによって、前景オブジェクトの境界のアンチエイリアシングを可能にすることもできる。そのようなアプローチの例は、C. Lawrence Zitnick Sing Bing Kang Matthew Uyttendaele Simon Winder Richard Szeliski, "High-quality video view interpolation using a layered representation", in Proceedings of Siggraph 2004において見つけることができる。
しかしながら、そのようなアプローチは多くのシナリオにおいて改善された三次元画像知覚及び画像を提供することができるが、それらは、いくつかの短所を持つ傾向がある。特に、画質及び三次元知覚は、いくつかのシナリオでは最適状態に及ばない場合があり、三次元処理は、歪み及び画像劣化(例えば可視的なアーチファクト)を導入する場合がある。
したがって、三次元画像データ処理のための改善されたアプローチが有益であり、特に、さらなるフレキシビリティ、改善された画質、促進された実施及び/又は改善された性能を可能にするアプローチが有益である。
そこで、本発明は、単独で又は任意の組み合わせで好ましくは1つ以上の上述の短所を緩和し、軽減し又は排除しようと試みる。
本発明の態様によれば、三次元画像のビューの画素をレンダリングするための複数の画像レイヤを有する三次元画像データを生成する方法が提供され、当該方法は、第1画像レイヤのための第1画像データを提供し(301)、第2画像レイヤのための第2画像データを提供し(303)、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための深さ指標データを提供し(305)、第1画像レイヤの第1画像が第2画像レイヤの第2同時画像のための補助三次元階層化画像データを含むかどうかを示す依存関係インジケータを生成し(307)、第1画像データ、第2画像データ、深さ指標データ及び依存関係インジケータを含む三次元画像データを生成する(309)。
本発明は、多くのシナリオにおいて改善された性能を提供することができる。特に、改善された三次元知覚及び/又は画質が達成されることができる。特に、いくつかの条件における三次元画像処理と関連した複数の画像アーチファクト及び劣化が、低減又は排除されることができる。画像要素のレンダリングは、画像の(サブ)ピクセルのレンダリングを指す場合がある(画像は、例えば三次元シーンの完全なビューである)。
依存関係インジケータは、第1画像レイヤ及び第2画像レイヤの同時画像が互いのための補助三次元階層化画像データを含むかどうかを示すことができる。ここで意図される同時画像は、同時に画像要素をレンダリングする際に用いられることが意図されるデータを指すことが意図される。
例えば、補助画像データは、異なる深さを表す1つ以上の追加の画像プレーンのためのデータであることができる。例えば、前景画像は、背景画像のための補助三次元画像データを提供することができ、逆もまた同じである。
特に、本発明者らは、階層化三次元画像フォーマットが、画像レイヤにおける画像の異なるカテゴリのために用いられることができ、劣化がこれらの三次元処理から発生する場合があることを認識した。本発明者らは、画像レイヤ中に提供される画像データの性質に依存して三次元処理を適応させることによって、特に、画像レイヤ間の関係に応じて三次元処理を適応させることによって、改善された性能が達成されることができることをさらに認識した。特に、本発明者らは、画像レイヤ同士が独立していると思われたが実際には依存しているときに(又はその逆のときに)画像劣化が発生する可能性があることを認識した。本発明者らはさらに、例えば三次元画像のレンダリングは、三次元データ中に依存関係インジケータを含めることによって、発信者/符号器/送信機によって制御されることができることを認識した。
例えば、ビデオ・シーケンスのような画像のシーケンスのために、第1及び第2画像レイヤは、同じシーンのための前景及び背景を含むことができる。したがって、レイヤの画像データは、立体視画像を生成するために組み合わせられることができる(例えば、前景画像オブジェクトに対する非遮蔽化は、背景画像からの画像情報を用いることができる)。したがって、画像レイヤは依存して相互関係があり、レンダリング・ユニットは、三次元画像ビューを生成するときに、両方の画像を一緒に考慮することができる。しかしながら、1つのシーンから他のシーンへのクロス・フェードの間、第1画像レイヤが元のシーンの混ざった前景及び背景画像を含む可能性があり、第2画像レイヤが以降のシーンの混ざった前景及び背景画像を含む可能性がある。その場合、徐々に変化する透明度の値は、第1画像レイヤから第2画像レイヤへのクロス・フェードを実行するために用いられることができる。クロス・フェードの後、画像レイヤは、別々の前景及び背景画像を含むことに復帰することができる。しかしながら、本発明者らによって認識されているように、そのようなシーケンスは、三次元処理が互いの前景及び背景画像ではない画像に基づいて非遮蔽化を実行することを試みるので、クロス・フェードの間の画像劣化及びアーチファクトをもたらす可能性がある。同様に本発明者らによって認識されているように、これは、クロス・フェードの間ではなくその前後で画像レイヤ同士が依存していることを反映することができる依存関係インジケータによって緩和されることができる。したがって、三次元処理は、画像レイヤ同士が依存していないことを依存関係インジケータが示すときにレイヤ間三次元処理を実行しないように動的に適応されることができる。
依存関係インジケータは、第1画像レイヤ及び第2画像レイヤの同時画像の三次元レイヤ間処理が可能かどうかを示すことができる。依存関係指標は、第1及び第2画像の同時画像が、レンダリングされる画像のための異なる深さレベルにおける補助表現を提供するかどうかを示すことができる。依存関係インジケータは、特に、第1画像レイヤ及び第2画像レイヤの同時画像が、レイヤからの相互関係のある三次元情報を用いた三次元処理によって組み合わせられることができるかどうかを示す組み合わせインジケータであることができる。
画像レイヤの各々は、1つ以上の画像を含むことができる。例えば、各々の画像レイヤは、画像のシーケンスを含むことができる。第1及び第2画像レイヤは、互いを覆う画像を含むことができる。
本発明のオプションの特徴によれば、依存関係インジケータは、第1画像レイヤが第2画像のための遮蔽レイヤであるときに、第1画像レイヤ及び第2画像レイヤが依存することを示す。
これは、改善された三次元画像処理を可能にすることができ、特に、非遮蔽化処理によって導入される画像アーチファクト及び画質劣化を低減することができる。三次元レンダリング・ユニットは、特に、依存関係インジケータに応じて三次元非遮蔽化処理を適応させることができ、第1及び第2画像レイヤが依存していることを依存関係インジケータが示す場合に、非遮蔽化処理のために第1及び第2画像レイヤの両方を特に用いることができ、そうでない場合にはレイヤのうちの1つのみを用いる。
本発明のオプションの特徴によれば、依存関係インジケータは、第1画像レイヤが第2画像のための遮蔽レイヤでないときに、第1画像レイヤ及び第2画像レイヤが独立していることを示す。
これは、単純化された及び/又は改善された依存関係指標を可能にすることができ、多くの実施の形態において単純化された動作を特に可能にすることができる。依存関係インジケータは、第1画像レイヤが第2画像レイヤのための遮蔽レイヤであるかどうかを反映するバイナリ値であることができる。
本発明のオプションの特徴によれば、深さ指標データは、第1画像レイヤのための第1深さ指標マップ及び第2画像レイヤのための第2深さ指標マップを含み、依存関係インジケータは、第1深さ指標マップの深さ指標値が第2深さ指標マップの深さ指標値と一致しないときに、第1画像レイヤ及び第2画像レイヤが独立していることを示す。
これは、改善された三次元画像処理を可能にすることができ、三次元処理によって導入される画像アーチファクト及び画質劣化を特に低減することができる。特に、依存関係インジケータは、三次元画像処理システムにおける深さ情報の改善された制御を提供することができ、一致しない深さデータを処理する影響を低減又は緩和することができる。
本発明のオプションの特徴によれば、第1深さ指標マップの深さ指標値が少なくとも1つの画像領域において第2指標マップの深さ指標値より深い深さレベルを表し、第2深さ指標マップの深さ指標値が少なくとも1つの他の画像領域において第1指標マップの深さ指標値より深い深さレベルを表すとき、第1深さ指標マップの深さ指標値は第2深さ指標マップの深さ指標値と一致しない。
これは、改善された三次元画像処理を可能にすることができ、三次元処理によって導入される画像アーチファクト及び画質劣化を特に低減することができる。画像要素すなわちピクセルのより深い深さレベルは、特に、三次元画像のビューに対応する視点に対してさらに離れた画像要素を表す深さ指標値であることができる。
本発明のオプションの特徴によれば、依存関係インジケータは、第1画像レイヤ及び第2画像レイヤがクロス・フェード画像を含むときに、第1画像レイヤ及び第2画像レイヤが独立していることを示し、第1画像レイヤ及び第2画像レイヤがクロス・フェード画像を含まないときに、第1画像レイヤ及び第2画像レイヤが依存していることを示す。
本発明は、特定の改善されたクロス・フェード動作を可能にすることができる。特に、本発明は、クロス・フェードが実行されていないときに高品質の三次元処理を依然として可能にしつつ、クロス・フェードを実行するときの画像劣化及びアーチファクトを低減することができる。
クロス・フェードは、1つの画像又は画像シーケンスから他の画像又は画像シーケンスへの任意の遷移を含むことができる。例えば、2つの画像(又は画像シーケンス)間の漸進的な透明度遷移が用いられることができる。他の例として、クロス・フェードは、ワイプ又は他の遷移パターンであることができる。
本発明のオプションの特徴によれば、依存関係インジケータは、第1画像レイヤ及び第2画像レイヤが依存していることを示す第1の値並びに第1画像レイヤ及び第2画像レイヤが独立していることを示す第2の値を持つバイナリ・データ値である。
これは、三次元処理によって引き起こされる画像劣化又はアーチファクトを低減するための効率的な三次元処理制御を可能にしつつ、効率的な表現及びデータ・オーバーヘッドの低減を可能にすることができる。
本発明のオプションの特徴によれば、依存関係インジケータは、第1画像レイヤが第2画像レイヤの画像のための前景画像を含む場合には第1の値に設定され、第1画像レイヤが第2画像レイヤの画像のための前景画像を含まない場合には第2の値に設定される。
これは、改善された三次元画像処理を可能にすることができ、特に前景及び背景画像に基づく高品質な三次元処理を可能にすることができ、これらが利用可能でない場合の画像アーチファクト及び画質劣化を低減する。第2画像レイヤの前景画像は、特に、第2画像レイヤの画像の1つ以上の画像領域及び第2画像レイヤの画像のための前景画像オブジェクトの両方を含んでいる混合画像であることができる。
本発明のオプションの特徴によれば、第1画像レイヤは第1画像レイヤ・グループに属し、第2画像レイヤは第2画像レイヤ・グループに属し、第1画像レイヤ・グループ及び第2画像レイヤ・グループの少なくとも一方は、複数の画像レイヤを含み、依存関係インジケータは、第1画像レイヤ・グループの画像レイヤと第2画像レイヤ・グループの画像レイヤとの間の依存関係を示す。
これは、効率的な動作、改善された画質及び/又は改善されたフレキシビリティを可能にすることができる。多くの実施の形態において、このアプローチは、小さいシグナリング・オーバーヘッドを維持しつつ、三次元処理の効率的な制御を可能にすることができる。
本発明のオプションの特徴によれば、画像レイヤ・グループの画像レイヤは、依存する画像レイヤである。
これは、効率的な動作、改善された画質及び/又は改善されたフレキシビリティを可能にすることができる。特に、可変であり依存関係インジケータによって示されるグループ間の依存関係を有する依存する画像レイヤのグループへと画像レイヤを分割することは、三次元画像データの効率的な表現を可能にすることができ、例えばデータ速度を低減することができる。
本発明のオプションの特徴によれば、画像レイヤ・グループ中の画像レイヤのための画像データは隣り合い、依存関係インジケータは、次の独立した画像レイヤ・グループの三次元画像データ中の位置を示す。
これは、依存関係情報のための特に効率的な表現を可能にすることができ、依存関係インジケータのために必要とされるオーバーヘッドの量を低減することができる。
本発明のオプションの特徴によれば、本方法はさらに、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための透明度データを提供し、三次元画像データ中に透明度データを含める。
透明度情報及び依存関係情報の組み合わせは、特定の効率的な三次元進行アプローチを可能にすることができる。特に、この組み合わせは、改善された性能及び/又は画質によって実行される複数の効率的な処理アルゴリズムを可能にすることができる。例えば、促進された制御及びより小さいリソース使用を維持しつつ、改善されたクロス・フェード動作が達成されることができる。
本発明の他の態様によれば、画像要素をレンダリングする方法が提供され、当該方法は、第1画像レイヤのための第1画像データ、第2画像レイヤのための第2画像データ、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための深さ指標データ並びに第1画像レイヤと第2画像レイヤとの間の依存関係を示す依存関係インジケータを含む三次元画像データを受信し(501)、依存関係インジケータに応じて第1画像データ、第2画像データ及び深さ指標データを処理することによって三次元画像を視覚化するのに用いられる三次元画像データの複数のビューの画像要素をレンダリングする(503)。
本方法は、三次元表現のための画像要素の改善されたレンダリングを可能にすることができる。特に、三次元処理に起因する画像劣化又はアーチファクトの低減が達成されることができる。特にそれは、画像処理が三次元画像データの特定の特徴に自動的に適合されることを防止することができる。三次元画像データを生成する方法を参照して前に記述された特徴、説明及び利点が、レンダリングの方法にも同様に適切に当てはまることはいうまでもない。
本発明のオプションの特徴によれば、レンダリング(503)は、依存関係インジケータが第1画像レイヤ及び第2画像レイヤが依存していることを示すときにのみ、第1画像レイヤ及び第2画像レイヤの同時画像のレイヤ間三次元画像処理を実行することを含む。
これは、多くのアプリケーションにおいて改善された画質を可能にすることができ、特に、レイヤ間処理の適用をこれが有益である可能性がある条件に制限する効率的かつ高性能な手段を提供することができる。
本発明のオプションの特徴によれば、レンダリング(503)は、依存関係インジケータが第1画像レイヤ及び第2画像レイヤが依存していることを示す場合にのみ、第2画像レイヤの第2画像からの情報を用いて第1画像レイヤの第1画像に対して非遮蔽化を実行することを含む。
これは、多くのアプリケーションにおいて改善された画質を可能にすることができ、特に、非遮蔽化及び三次元レンダリング・アルゴリズムを画像レイヤの特定の(現在の)特徴及び使用に適応させる効率的かつ高性能な手段を提供することができる。
本発明のオプションの特徴によれば、レンダリング(503)は、第1画像レイヤの第1画像及び第2画像レイヤの第2画像を組み合わせることを含み、この組み合わせは、依存関係インジケータが第1画像レイヤ及び第2画像レイヤが依存していることを示すときに三次元画像情報に応じ、依存関係インジケータが第1画像レイヤ及び第2画像レイヤが独立していることを示すときに三次元画像情報に応じない。
この組み合わせは特に、画像レイヤが独立しているときに、透明度情報のみに応じることができる。個々の第1及び第2画像は共に三次元情報を考慮して生成される場合があるが、オプションの特徴によれば、これらの組み合わせは、結果として生じる画像を組み合わせるときに、三次元情報を考慮しない。この組み合わせは特に、画像レイヤが独立しているときには、ピクセル値の線形組み合わせによることができる。この場合には、第1及び第2画像の重みづけは、ピクセルの透明度値に依存していることができる。
本発明の他の態様によれば、三次元画像のビューの画素をレンダリングするために用いられる複数の画像レイヤを含む三次元画像データを生成するための装置が提供され、当該装置は、第1画像レイヤのための第1画像データを提供するための手段(203)、第2画像レイヤのための第2画像データを提供するための手段(205)、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための深さ指標データを提供するための手段(209、211)、第1画像レイヤと第2画像レイヤとの間の依存関係を示す依存関係インジケータを生成するための手段(213)、並びに、第1画像データ、第2画像データ、深さ指標データ及び依存関係インジケータを含む三次元画像データを生成するための手段(215)を有する。
本発明の他の態様によれば、画像要素をレンダリングするための装置が提供され、当該装置は、第1画像レイヤのための第1画像データ、第2画像レイヤのための第2画像データ、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための深さ指標データ、並びに、第1画像レイヤと第2画像レイヤとの間の依存関係を示す依存関係インジケータを含む三次元画像データを受信するための手段(401)、依存関係インジケータに応答して第1画像データ、第2画像データ及び深さ指標データを処理することによって三次元画像を視覚化するのに用いられる三次元画像データの複数のビューの画像要素をレンダリングするための手段(403)を含む。
本発明の他の態様によれば、第1画像レイヤのための第1画像データ、第2画像レイヤのための第2画像データ、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための深さ指標データ、並びに第1画像レイヤと第2画像レイヤとの間の依存関係を示す依存関係インジケータを含む画像信号が提供される。
本発明の他の態様によれば、三次元画像のビューの画素をレンダリングすることに用いられる複数の画像レイヤを含む三次元画像データを生成する方法が提供され、当該方法は、少なくともいくつかの画像のために、複数の画像からの寄与を含む複合画像を表す画像データを含む第1画像レイヤを提供し、複合画像のための複合深さマップを含む第1深さレイヤを提供し、複合画像に寄与する更なる画像のための画像データを含む第2画像レイヤを提供し、更なる画像のための更なる深さマップを含む第2深さレイヤを提供し、複合画像に対する更なる画像の寄与を表す透明度マップを提供し、第2画像レイヤの画像が第1画像レイヤの複合画像に寄与する少なくとも1つの画像のための前景画像及び背景画像のうちの少なくとも1つを含むかどうか、又は、第2画像レイヤの画像が、複合画像に寄与する任意の画像の前景画像及び背景画像のうちの1つでないかどうかを反映する依存関係インジケータを生成し、第1画像レイヤ、第1深さレイヤ、第2画像レイヤ、第2深さレイヤ、透明度マップ及び依存関係インジケータを含む三次元画像データを生成する。
本発明の他の態様によれば、画像要素をレンダリングする方法が提供され、当該方法は、少なくともいくつかの画像のために、複数の画像からの寄与を含む複合画像を表す画像データを含んでいる第1画像レイヤ、複合画像のための複合深さマップを含んでいる第1深さレイヤ、複合画像に寄与する更なる画像のための画像データを含む第2画像レイヤ、更なる画像のための更なる深さマップを含む第2深さレイヤ、複合画像に対する更なる画像の寄与を表す透明度マップ、第2画像レイヤの画像が第1画像レイヤの複合画像に寄与する少なくとも1つの画像のための前景画像及び背景画像のうちの少なくとも1つを含むかどうか、又は、第2画像レイヤの画像が複合画像に寄与する任意の画像の前景画像及び背景画像のうちの1つでないかどうかを反映する依存関係インジケータを含む三次元画像データを受信し、三次元画像データの三次元処理によって三次元画像を視覚化することに用いられる三次元画像データの複数のビューの画像要素をレンダリングし、第2画像レイヤの画像が第1画像レイヤの画像に寄与する画像の背景画像及び前景画像のうちの少なくとも1つであることを依存関係インジケータが示す場合にのみ、第1画像レイヤの画像のための非遮蔽化が第2画像レイヤの同時画像に応じる。
本発明のこれらの及び他の態様、特徴及び利点は、以下に記述される実施の形態から明らかであり、それらを参照して説明される。
本発明の実施の形態は、図面を参照して、単に一例として説明される。
三次元視聴のための画像の生成のためのデータの例。 本発明のいくつかの実施の形態による三次元画像データを生成するための装置の例。 本発明のいくつかの実施の形態による三次元画像データを生成する方法の例。 本発明のいくつかの実施の形態による画像要素をレンダリングするための装置の例。 本発明のいくつかの実施の形態による画像要素をレンダリングする方法の例。 本発明のいくつかの実施の形態によるクロス・フェードの例。 本発明のいくつかの実施の形態によるクロス・フェードの例。 異なる観察角に対する画像のレンダリングの例。 本発明のいくつかの実施の形態によるクロス・フェードの例。
以下の説明は、ビデオ信号の1つ以上のフレームに適用されることができる三次元画像情報の表現に適用可能な本発明の実施の形態に焦点を合わせる。しかしながら、いうまでもなく、本発明はこのアプリケーションに限定されず、例えば静止画像、アニメーションを含む多くの他の画像タイプに適用されることができる。
三次元画像データを表すための普及しているフォーマットは、前景画像のために画像データの第1画像レイヤを用い、背景画像のために画像データの第2画像レイヤを用いることである。いくつかのシナリオにおいて、2つを超えるレイヤが用いられることができ、例えば、第3レイヤが、背景画像と前景画像との間にある画像のために用いられることができる。さらに、多くの場合、深さ指標データが、背景画像、前景画像、又は一般的には前景及び背景画像の両方のための深さ指標マップの形で含まれる。加えて、画像の画像オブジェクトの透明の程度を表す透明度データを含むことが提案された。一般的に、前景がどれくらい透明であるべきかについて、すなわち、前景を通して背景がどの程度見えるべきかについて記述する透明度情報を含む前景透明度レイヤが含まれる。
図1は、そのようなフォーマットによる三次元画像データの一例を示す。図1は、特に、ピクセルごとに背景画像ピクセルの深さを示す値を持つ関連する深さ指標マップ103を持つ背景画像101を示す。この例では、三次元画像データはさらに、前景画像105及び関連する深さ指標マップ107を含む。特定の例において、前景画像105は、実際には、前景画像オブジェクトを含む混合画像である。しかしながら、前景画像オブジェクトがない画像領域に対して、背景ピクセル値が前景画像へコピーされている。同様に、これらのピクセルに対して、背景深さ指標値が前景深さ指標マップ109にコピーされている。混合画像の使用は、混合画像が従前通りの二次元画像として直接表示されることを可能にするので、改善された下位互換性を提供することができる。しかしながらいうまでもなく、以下のアプローチは、同様に、前景画像オブジェクトだけを含む前景画像にも、すなわち従前通りの前景画像にも適用することができる。
三次元画像データはさらに、ピクセルごとの前景の透明度を示す透明度マップ109を含む。特に、中実の前景画像オブジェクトの部分であるピクセル値に対して、透明度値は完全な不透明度(すなわち前景のみが見えること)を示すことができる。任意の前景画像オブジェクトの完全に外側にあるピクセル値に対して、透明度値は完全な透明度(すなわち背景がこの位置ではっきりと完全に見えること)を示すことができる。さらに、この例のゴースト画像オブジェクトのような半透明な前景画像オブジェクトに対して、透明度値は、前景及び背景の両方が部分的に見えることを示す中間の値を持つことができる。中間の透明度値は、さらに、前景と背景との間の滑らかな遷移を提供するために、前景画像オブジェクトの境界周辺に適用されることができる。これは、アンチエイリアシング性能を改善することができる。
三次元画像データは、三次元画像処理を実行するために用いられることができる。特に、画像データは、異なる観察角に対応する2つのビューを生成するために用いられることができる。そしてこの2つのビューはユーザの2つの目に提供されることができ、三次元知覚観察経験をもたらす。
例えば、左目のための画像は、透明度値を用いて背景及び前景画像を組み合わせることによって、直接生成されることができる(又は、このケースでは、混合画像が直接用いられることができる)。そして右目のための第2画像は、深さマップ中に含まれる三次元情報及び透明度マップに基づいて生成されることができる。そのような処理の例は、Steven J. Gortler and Li-wei He, Rendering Layered Depth Images, Microsoft Technical Report MSTR-TR-97-09、及び、例えば米国特許出願US20070057944に提供される。
第2画像を生成するための処理は、決定された視差に対応して画像オブジェクトを移動させることを含むことができる。さらに、この処理は、いくつかの前景画像オブジェクトのための非遮蔽化を実行することを含むことができる。特に、前景画像オブジェクトによって覆われていることに起因してオリジナルのビューでは見ることが出来ない幾つかの背景ピクセルが、異なる観察角度において見えるようになる場合がある。そのような場合、右目画像のためのピクセル値は、(以前は遮蔽されていた)適切な背景画像ピクセルのためのピクセル値に対応するように設定されることができる。このアプローチは、新たに生成される画像のための高画質をもたらすことができる。
しかしながら、いくつかの状況では、利用可能な画像レイヤは、他の視覚的効果を提供するためにも用いられることができる。特に、1つの画像から他の画像への(又は、ビデオ・シーケンスでは、画像の1つのシーケンスから画像の他のシーケンスへの)クロス・フェードは、第1画像レイヤ中に元の画像を配置し、第2画像レイヤ中に新しい画像を配置することによって達成されることができる。そして透明度データは、第1画像レイヤから第2画像レイヤへと遷移するために用いられることができる。これは、より小さい複雑度によって達成されることができる非常に効率的なクロス・フェードを提供することができる。
本発明者らは、三次元画像データ及び透明度値の異なる使用事例が存在することを認識した。例えば、透明度値は、シーン中の半透明のオブジェクト/境界を生成するために用いられることができ、又は、それらは、例えば2つの三次元画像間のクロス・フェードを実行するときのような、完全に独立している画像間のオーバレイ効果を生成するために用いられることができる。
本発明者らは、これは、画像のレンダリングに対する重大な結果を持つ場合があることをさらに認識した。特に、レイヤが関連/依存しており、関連づけられた三次元意義を持つ画像を含むとき(例えば前景/背景例において)、レンダリングされた画質を改善するために、レイヤ間三次元処理が適用されることができる。そのようなレイヤ間処理の例は、第2レイヤからの情報によって第1レイヤ中の非遮蔽領域中を満たすこと、非遮蔽化の直前に背景レイヤピクセルを前景にコピーすること等を含む。しかしながら、本発明者らは、そのようなレイヤ間処理は一般的に、2つのレイヤが三次元関係を持たないときには有害であることを認識した。
本発明者らは、レンダリング・ユニットによって実行されるレンダリング・プロセスを発信/送信端が制御することを可能にするために、追加的な情報が三次元画像データ中に含まれることができることをさらに認識した。特に、画像レイヤ間の(現在の)依存関係を反映する依存関係インジケータを含むことによって改善された動作及び性能が達成されることができることを本発明者らは認識した。依存関係インジケータは、1つの画像レイヤの画像が他の画像レイヤの同時画像のための補助三次元階層化画像データを含むかどうかを示す。2つの画像のための補助三次元データは、その画像プレーンにおいて見える画像オブジェクトのためのデータを反映するデータに特に対応することができる。
この依存関係インジケータは、三次元画像データをレンダリングするときに、レイヤ間三次元処理が適用されることができるか又は適用されるべきではないかどうかを例えば示すことができる。したがって、特に、依存関係インジケータは、マルチレイヤ表現のレイヤに相互関係があるか否かを示すために用いられることができ、適切な処理がオン又はオフに切り替えられることができる。2レイヤ表現のための具体例として、依存関係インジケータは、2つのレイヤが独立しているか又は関連しているかどうかを示す1つのビットであることができる。
依存関係インジケータは、例えばコンテンツ作成ツールによって生成されることができ、例えば適切なファイル・フォーマットでメタデータとして符号化されることができる。例えばそれは、三次元画像データを含むデータ・パケットのためのメッセージ・ヘッダ中に追加的なフラグとして挿入されることができる。
図2は、複数の画像レイヤを含む三次元画像データを生成するための装置の例を示す。この装置は特に、図2の例に対応するデータを含む三次元画像信号を符号化する信号符号器である。
信号符号器は、(例えば2つの別々のビデオ・カメラから生じるような)ステレオ距離ビューに対応するビデオ信号を受信するコンテンツ・プロセッサ201を含む。応答して、コンテンツ・プロセッサ201は、前景画像のシーケンス及び背景画像のシーケンスを生成する。
前景画像は、第1画像レイヤのための第1画像データを生成し始める第1画像レイヤ・プロセッサ203に供給される。この例において、第1画像レイヤ・プロセッサ203は一般に、第1画像レイヤが前景画像のシーケンスを含むように、第1画像レイヤのための前景画像データを生成する。しかしながら、多少の遷移時間インターバルの間に、第1画像レイヤは、他の種類の画像のために用いられることができる。特に、1つの画像シーケンスから他の画像シーケンスへのクロス・フェードの間、第1画像レイヤのために生成される画像データは、組み合わされた前景及び背景画像のそれであることができる。したがって、第1画像レイヤは、時折前景画像を含むことができ、時折組み合わされた前景及び背景画像(すなわち単一レイヤ画像表現)を含むことができる。いうまでもなく、(図1の例にあるように)混合画像が前景のために用いられる実施の形態において、第1画像レイヤは常に混合画像を含むことができる。しかしながら、他の実施の形態において、第1画像レイヤ・プロセッサ203は、クロス・フェード遷移の間(のみ)、受信された前景及び背景画像を組み合わせるように配置されることができる。
背景画像は、第2画像レイヤのための第2画像データを生成し始める第2画像レイヤ・プロセッサ205に供給される。この例において、第2画像レイヤ・プロセッサ205は、ほとんどの場合、第2画像レイヤのための背景画像データを生成する。しかしながら、多少の遷移時間インターバルの間に、第2画像レイヤは、他の種類の画像のために用いられることができる。特に、1つの画像シーケンスから他の画像シーケンスへのクロス・フェードの間、第2画像レイヤのために生成される画像データは、クロス・フェードがフェードインする画像シーケンスのための画像であることができる。したがって、第2画像レイヤは、時折第1画像レイヤの前景画像のための背景画像を含むことができ、そして時折第1画像レイヤの画像から独立している画像を含むことができる。
したがって、例において、大部分の時間の間、第1画像レイヤは前景画像を含み、第2画像レイヤは対応する背景画像を含む。しかしながら、クロス・フェードの間、第1画像レイヤは、クロス・フェードより前の画像シーケンスのための組み合わされた前景及び背景画像である混合画像のためのデータを含む。同様に、第2画像レイヤは、クロス・フェードの後の画像シーケンスのための組み合わされた前景及び背景画像である混合画像のためのデータを含む。
信号符号器は、さらに、コンテンツ・プロセッサ201に結合されて、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための透明度データを生成するように配置される透明度プロセッサ207を含む。特に、例において、透明度プロセッサ207は、第1画像レイヤ中の画像のための透明度マップを生成する。かくして、クロス・フェードの外で、透明度マップは、第1画像レイヤの前景画像中に含まれる前景オブジェクトの透明度のレベルを示す。しかしながら、単純なクロス・フェードの間、透明度マップは、画像全体に対して一様な透明度値を含むことができる。さらに、クロス・フェードは、第1画像レイヤの完全な不透明度に対応する値から完全な透明度に対応する値へと、画像の透明度値を徐々に変更することによって達成されることができる。このようにして、最初の画像シーケンスから以降の画像シーケンスへの滑らかな遷移及びクロス・フェードが達成される。
したがって、クロス・フェードの外で、透明度データは、例えば異なる観察角による画像の生成のような、正確な三次元イメージングを生成するために用いられることができる。しかしながら、クロス・フェードの間、透明度マップは、効率的かつ容易に望ましいクロス・フェードを達成するために用いられる三次元処理のために適切でない。したがって、透明度マップは、異なる依存関係シナリオのために異なって用いられることができる。
信号符号器はさらに、コンテンツ・プロセッサ201に結合されて、第1画像レイヤの画像のための深さ指標マップを生成するように配置される第1深さマップ・プロセッサ209を含む。
深さ指標マップは、混合画像のピクセルのための深さ指標値を含む。深さ指標値は、例えば、ピクセルが属する画像オブジェクトの画像深さを直接反映する数値に対応することができる。しかしながら、いうまでもなく、他の実施の形態において、他の深さ指標値が用いられることができる。例えば、深さ指標値は、ピクセルの視差又は視差値に対応することができる。
したがって、例において、深さ指標マップは、第1画像レイヤの対応する画像のピクセルごとの深さ指標値を含む。したがって、クロス・フェードの外では、深さ指標は、前景画像のための深さ指標であることができる。クロス・フェードの間、深さ指標値は、前景及び背景画像のための(これらが混合画像へと組み合わせられるので)深さ指標値の混合に対応することができる。例えば、混合画像に対して、深さ指標値は、完全な透明度に対応するピクセル以外の前景画像の深さ指標値と見なされることができる。これらのピクセルに対して、深さ指標値は、背景画像から取得されることができる。純粋な前景画像ではなく混合画像が用いられる実施の形態において、深さ指標マップは、クロス・フェード・インターバルの外では、混合深さ情報を表すこともできる。
詳しくは、深さ指標マップは、背景画像の各々のピクセルのための深さレベル、深さ値、視差値(parallax value又はdisparity value)を含むマップとして、例えば生成されることができる。いうまでもなく、画像のための深さ指標マップを生成するためのさまざまなアプローチが当業者によって知られている。例えば、深さ指標マップは、半自動化された二次元-三次元変換を用いてステレオ画像から、又はコンピュータ・グラフィックから、生成されることができる。二次元ビデオからの完全に自動化された深さ生成も可能である。
信号符号器はさらに、コンテンツ・プロセッサ201に結合されて、第2画像レイヤの画像のための深さ指標マップを生成するように配置される第2深さマップ・プロセッサ211を含む。したがって、クロス・フェードの外で、第2深さマップ・プロセッサ211は、背景画像のための深さ情報を生成し、クロス・フェードの間、第2深さマップ・プロセッサ211は、クロス・フェードに続く画像シーケンスのための前景及び背景画像の混合画像のための深さマップを生成する。
信号符号器はさらに、コンテンツ・プロセッサ201に結合されて、第1画像レイヤ及び第2画像レイヤの画像間の依存関係の指標を提供するように配置される依存関係プロセッサ213を含む。例えば、2つの画像レイヤの画像がクロス・フェード遷移の一部であるかどうかについて反映する単純なバイナリ値が生成されることができる。したがって、依存関係インジケータは、第1画像レイヤの画像が第2レイヤの画像のための前景画像であるときに第1の値に設定され、第1画像レイヤの画像がクロス・フェードより前の画像シーケンスの混合画像であり、第2画像レイヤの画像がクロス・フェードに続く画像シーケンスの混合画像であるときに、第2の値に設定されることができる。これにより、依存関係インジケータは、第1画像レイヤ及び第2画像レイヤの画像が依存して相互関係があるか否かを示す単純なバイナリ・フラグであることができる。
第1画像レイヤ・プロセッサ203、第2画像レイヤ・プロセッサ205、透明度プロセッサ207、第1深さマップ・プロセッサ209、第2深さマップ・プロセッサ211及び依存関係プロセッサ213は、データ・結合器215に結合され、データ・結合器215は、第1画像レイヤのための画像データ、第2画像レイヤのための画像データ、透明度データ、第1画像レイヤのための深さ指標マップ・データ、第2画像レイヤのための深さ指標マップ・データ及び依存関係インジケータを、三次元画像データの1つのストリームに組み合わせる。
図3は、図2の信号符号器によって実行されることができる三次元画像データを生成する方法の例を示す。
この方法は、第1画像レイヤ・プロセッサ203が既に説明されたように第1画像レイヤのための画像データを生成するステップ301において開始する。
ステップ301の後にステップ303が続き、第2画像レイヤ・プロセッサ205が既に説明されたように第2画像レイヤのための画像データを生成する。
ステップ303の後にステップ305が続き、第1画像レイヤ及び第2画像レイヤのうちの少なくとも1つのための深さ指標データが、第1及び/又は第2深さプロセッサ209, 211によって生成される。この例において、深さ指標マップは、第1及び第2画像レイヤの両方のために生成される。
ステップ305の後にステップ307が続き、第1画像レイヤと第2画像レイヤとの間の依存関係を示す依存関係インジケータが依存関係プロセッサ213によって生成される。
ステップ307の後にステップ309が続き、画像レイヤ・データ、深さ指標データ及び依存関係インジケータが三次元データに組み合わせられる。
図4は、画像要素をレンダリングするための装置の例を示す。この装置は特に、図2の信号符号器によって生成される三次元画像データを受信し、観察者の目によって別々に見られるときの三次元知覚のための2つの画像を生成することができるレンダリング装置である。
この装置は、データを受信して、それをそれぞれのデータ・カテゴリに分ける受信機401を含む。したがって、受信機401は、第1画像レイヤのための画像データ、第2画像レイヤのための画像データ、第1画像レイヤのための深さ指標データ、第2画像レイヤのための深さ指標データ、透明度マップ及び依存関係インジケータを提供する。
データはレンダリング・ユニット403に供給され、レンダリング・ユニット403はデータを受信し、応答して、三次元画像を視覚化するために、三次元画像データの複数のビューの画像要素に対応する画像要素をレンダリングする。レンダリング・ユニット403は特に、観察者の左及び右目のそれぞれに対応する2つの画像を生成する。画像は、少なくとも第1画像レイヤの画像データ、第2画像レイヤの画像データ及び深さ指標データを処理することによって生成される。三次元データ中に透明度データも含まれる例において、(第1画像レイヤ及び第2画像レイヤの画像の観察角とは異なる観察角に対応する)画像のうちの少なくとも1つの生成は、透明度データに応じる。
さらに、この処理は、画像レイヤが依存するかどうかを反映するように適応される。したがって、レンダリング・ユニット403は、依存関係インジケータに従って三次元処理を適応させるように配置される。この例において、レンダリング・ユニット403は、画像レイヤが依存していることを依存関係インジケータが示すか否かに応じて、レイヤ間処理をオン又はオフに切り替えることができる。
例において、レンダリング・ユニットは、ステレオ距離三次元画像知覚をユーザに提供するために、オフセット観察角画像(すなわち、第1及び第2画像レイヤの画像のそれとは異なる観察角に対応する画像)を生成する。
クロス・フェードを含む信号の特定の例において、この画像は、クロス・フェードが実行されないとき、深さ指標マップ並びに前景及び背景画像を用いて生成されることができる。したがって、第1及び第2画像レイヤが依存していること、そして第1画像レイヤが第2画像レイヤの画像のための前景画像を含むことを依存関係インジケータが示すときに、深さ指標マップを用いるだけでなく、前景及び背景画像を用いたレイヤ間処理を実行することによって、オフセット観察角画像の生成が実行される。
詳しくは、オフセット観察角画像の生成は、非遮蔽化処理を含む。したがって、オフセット観察角は、以前は前景画像オブジェクトによって遮蔽されていたピクセルが、もはや遮蔽されないように、いくつかの前景オブジェクトを移動させる場合がある。その場合、レンダリング・ユニット401は、非遮蔽化された領域を満たすために背景画像の適切な値を用いることができる。このように、レイヤ間非遮蔽化処理が三次元画像を生成するために用いられる。
しかしながら、クロス・フェードの間、第2画像レイヤの画像は、第1画像レイヤの画像のための背景画像ではない。したがって、レイヤ間非遮蔽化は、完全に無関係なピクセル値が非遮蔽化された画像領域を満たすために用いられることにつながる。これは、重大な画像劣化及び目に見えるアーチファクトの導入をもたらす場合がある。
しかしながら、図4のレンダリング装置では、非遮蔽化処理は、依存関係インジケータに依存する。特に、レンダリング・ユニット403は、画像レイヤが依存することを依存関係インジケータが示すときにのみ、2つのレイヤの対応する(同時)画像のためのレイヤ間非遮蔽化を実行するように配置される。しかしながら、依存関係インジケータが、画像レイヤが独立していることを示す場合、すなわち特定の例において、クロス・フェードが実行されていることを示す場合、レンダリング・ユニット403は、2つの画像レイヤの同時並行の画像のための単一レイヤ非遮蔽化を実行し始める。
例えば、非遮蔽化されるピクセル領域は、対応するピクセルのための記憶された背景データを用いて埋められることができる。詳しくは、最後に記憶された背景画像(すなわち、依存関係インジケータが依存の表示から独立の表示に切り替わる直前の背景画像)からの背景ピクセル値が、非遮蔽化される画像領域を満たすために用いられることができる。これにより、知覚される画質が改善され、特に、非遮蔽化処理によって導入される知覚される重大なアーチファクトを低減する。
したがって、例えば、レンダリング・ユニット403によって実行されるレンダリングは、画像レイヤが依存していることを依存関係インジケータが示すときに、第1及び第2画像レイヤの画像を組み合わせる。この組み合わせは特に、第1及び第2画像レイヤ両方のための、すなわち前景及び背景画像両方のための深さ指標マップに基づいて異なる観察角画像のための変位情報を生成することを含むことができる。この組み合わせはさらに、第2画像レイヤの背景画像からのピクセル値に基づいて第1画像レイヤの前景画像の非遮蔽化を実行することを含む。したがって、画像は、受信された三次元データストリーム中に含まれる三次元データに基づいて組み合わせられる。
しかしながら、画像レイヤが独立していることを依存関係インジケータが示すときに、第1及び第2画像レイヤの画像は、依然として組み合わせられることができる。例えば、クロス・フェードの間、レンダリングされる画像は、第1画像レイヤの画像及び第2画像レイヤの画像の両方からの寄与を含むことができる。しかしながら、この場合には、組み合わせは、第1レイヤの画像のための透明度値に基づくだけである。したがって、第1及び第2画像レイヤの個々の画像は、例えば深さマップを考慮して、単一レイヤ非遮蔽化を用いてレンダリングされることができるが、2つの画像の組み合わせは、三次元情報のいずれも考慮しない。
図5は、図4のレンダリング装置によって実行されることができる画像要素をレンダリングする方法の例を示す。
この方法はステップ501において開始し、受信機401は、第1画像レイヤのための画像データ、第2画像レイヤのための画像データ、第1画像レイヤのための深さ指標データ、第2画像レイヤのための深さ指標データ、透明度マップ及び依存関係インジケータを含む三次元画像データを受信する。
そしてこのデータは、レンダリング・ユニット403に供給され、レンダリング・ユニット403は、ステップ503において、受信機401から受信されたデータを処理することによって、三次元画像を視覚化するために、三次元画像データの複数のビューの画像要素に対応する画像要素をレンダリングし始める。
図6は、図2の符号器及び図4のレンダリング装置を含むシステムによってクロス・フェードの間に実行される処理の具体例を示す。図4は特に、第1及び第2画像レイヤ間の依存を反映するために0に設定され、第1及び第2画像レイヤの独立を反映するために1に設定される依存関係インジケータ(Ind)の値を示す。それはさらに、第1画像レイヤL1、第1画像レイヤのための深さ指標マップD-L1、第2画像レイヤL2、第2画像レイヤのための深さ指標マップD-L2、透明度マップTRP及びそれぞれの時刻のためのレンダリングされた画像(IMG)の内容を示す。いうまでもなく、他の実施の形態において、ロウ(IMG)は、符号器で生成されて、適切なレンダリング・ユニットに送信される混合画像に対応することができる。
したがって、例において、信号ストリームは、第1レイヤ(すなわち、第1及び第2画像レイヤ(L1, L2))、第1及び第2深さレイヤ(D-L1, D-L2)及び第1透明度レイヤ(TRP)を含む送信機であることができる。いくつかの状況において、第1及び第2画像レイヤ(L1, L2)は、2つの画像レイヤ(L1, L2)の同時画像が組み合わせられることができるように、依存している補助的な三次元画像データを含む。ほかの時は、2つの画像レイヤ(L1, L2)は、互いのための依存する補助的な三次元画像データを含まず、したがって、例えば非遮蔽化を実行するときに、組み合わせられることができない。これは、同様にビットストリーム中に含まれる依存関係インジケータによって示され、依存関係インジケータは、2つの画像レイヤ中の情報が補助的な相互関係のある三次元情報を表す画像に対応するかどうか、又は、それが2つの画像レイヤ中の情報が任意の相関する三次元情報を持たないことを示すかどうかを示す。いうまでもなく、依存関係インジケータは一般的に、2つの画像レイヤ(L1, L2)が依存するときには同様に依存する傾向があり、そうでない場合には独立している傾向がある、深さレイヤ(D-L1, D-L2)にも同様に適用される。
クロス・フェード前(t<t1)(図示せず)には、第1画像レイヤは前景画像を含み、第2画像レイヤは背景画像を含む。同様に、深さ指標マップは前景及び背景画像を反映し、透明度マップは前景に対応する。依存関係インジケータは、レイヤが依存しており、レイヤ間三次元処理が用いられることを反映するために0に設定される。このように、従来のレイヤ間三次元処理が、異なるビューに対応する画像を生成するために用いられることができる。例えば、レイヤ間非遮蔽化が実行されることができる。
時点t1において、2つの画像レイヤは、第1画像レイヤL1中に含まれる1つの組み合わされ混合された前景及び背景画像を生成するために組み合わせられる。深さ指標マップは、混合画像の深さを反映し、したがって、前景及び背景深さ指標マップの組み合わせである。したがって、時点t1において、三次元データは単一のレイヤ画像及び深さのみを含み、それゆえ依存関係インジケータは重要ではない(それでそれは0の値に維持される)。
時点t2において、クロス・フェードに続く画像シーケンスのための画像は、第2画像レイヤL2中に挿入され、対応する深さマップも含まれる(D-L2)。この画像はさらに、組み合わされた前景及び背景画像であり、深さ指標マップは、組み合わされた前景及び背景深さ指標マップである。
さらに、依存関係インジケータは、第1及び第2画像レイヤの2つの画像が独立していることを反映するために1に設定される。したがって、第1画像レイヤに対応する他の観察角画像のための非遮蔽化及び他の三次元処理は、第1画像レイヤ及び第1画像レイヤのための深さ指標マップのみに基づく。さらに、画像全体のための一様な透明度値は、完全な不透明に設定され、第1画像レイヤの元の画像に対応するレンダリング画像に結果としてなる。
そして、透明度値は、完全な不透明から完全な透明へと徐々に変化し、レンダリングされる画像は、元の画像シーケンスから以降の画像シーケンスへと徐々にフェードする。
詳しくは、時点T3において、透明度値は、完全な不透明と完全な透明との間の中間にあり、レンダリングされる画像は、第1及び第2画像レイヤの画像間の同程度の混合である。
時点t4において、透明度値は完全な透明を示し、第1画像レイヤはもはや見えず、レンダリングされる画像は、クロス・フェードに続く画像シーケンスに完全に対応する。
時点t5において、以降の画像シーケンス及び関連する深さ指標マップは、(前景画像レイヤに対応する)第1画像レイヤへと移動し、透明度値は、完全な不透明に設定される。さらに、この段階において、単一の画像レイヤのみが存在し、したがって、深さ指標は0に設定されることができる。
そして、システムは続いて2レイヤ表現へと切り替えることができ、画像シーケンスは、2つの画像レイヤ及び関連する深さ指標マップによって表される。
いうまでもなく、画像レイヤの画像は、例えば静的画像であることができる(例えば、図6に示される画像は、全ての時刻に対して同じものでありえる)。しかしながら、他の例において、画像は、例えばビデオ信号のビデオ・フレームのような時系列画像を表すことができる。
さらに、いうまでもなく、図6の例は、非常に基本的なクロス・フェードを示し、さまざまなワイプ又は他の遷移効果を含む、より複雑なクロス・フェードが容易に実施されることができる。例えば、いくつかの画像領域が1つの画像の部分を示し、他の画像領域が他の画像の部分を示し、さらに他の画像領域が混合画像を示す遷移効果は、非均一の透明度マップを用いることにより、容易に達成されることができる。例えば、単に完全な不透明から完全な透明へと遷移する透明度マップを用いるのではなく、複雑な動的に変化するパターンが用いられることができる。ワイプ遷移を用いているクロス・フェードの例が図7に示される。
図8は、画像が依存性インジケータの値に応じてレンダリング・ユニット403によってどのように処理されることができるかについての例を示す。例では、第1レイヤL1の画像コンテンツは点線によって示され、第2レイヤの画像コンテンツは実線によって示される。例において、第1レイヤの画像は、背景と同様に前景画像オブジェクトFからの両方の要素を含む混合画像である。L2の画像がL1の画像のための背景画像である状況において、L2の画像は完全な背景画像を提供する。この場合、依存関係インジケータは、L1及びL2が依存しており、したがって、L2の画像が例えば非遮蔽化処理のために用いられることができることを示す。
したがって、レンダリング・ユニット403は、観察角Vに対応する第1画像を生成することができる。この場合には、観察角はレイヤの画像のそれに対応し、L1の画像が混合画像であるので、これが直接用いられることができる。さらに、第2画像は、異なる観察角Aに対応してレンダリングされることができる。この場合、前景画像Fは画像中を移動して、背景の異なる部分を覆う。その結果として、以前は前景オブジェクトFによって遮蔽されていた背景Cの部分が今では見られることができる。2つのレイヤが依存しているので、レンダリング・ユニット403は、L2中に提供される背景画像の画像領域Cのためのピクセル値を用いて、観察角Aに対してレンダリングされる画像のためのピクセル値を決定し始める。したがって、観察角Aのための改善された画像が提供される。
しかしながら、L2の画像がL1の画像のための背景レイヤでない場合、このアプローチは、前景又は背景画像に関係ないピクセル値によって満たされる画像領域をもたらす。したがって、目に見えるアーチファクトが導入されて、画質が低下する。
しかしながら、現在のアプローチによれば、この場合には、依存関係インジケータが2つのレイヤが独立していることを示す。これは、レンダリング・ユニット403に、L1の画像のための非遮蔽化を実行するために、L2の同時画像データを用いることができないことを知らせる。したがって、その代わりに、レンダリング・ユニット403は、例えばL1の画像に基づいて(例えば、L1の背景Bの画像領域から隣り合うピクセル値若しくはテクスチャをコピーする)、又は、記憶された画像(例えば以前の背景レイヤ)を用いて、L1画像のための非遮蔽化を実行し始める。したがって、非遮蔽化処理は、非遮蔽化された画像領域の最適な導出を反映するように自動的に適応されることができ、それによって、改善された画質をもたらす。
いうまでもなく、いくつかの実施の形態において、送信される画像レイヤのうちの少なくとも1つは、それ自身独立した画像の組み合わせである画像を含むことができる。例えば、図9は、図6のそれに直接対応する例を示す。しかしながら、この例では、異なるレイヤが、レンダリング装置に分配される生成された三次元データ中に含まれる。この例において、第1画像レイヤL1は、クロス・フェード前の画像及びクロス・フェード後の画像の両方からの寄与を含む、組み合わされた/複合画像(並びにクロス・フェード外の前景及び背景の混合画像)に対応する。この場合には、例えばt3において、第1画像レイヤ自体が、互いから独立している画像(すなわちクロス・フェード前後の画像)からの寄与を含む複合画像を含む。さらに、この例において、第2画像レイヤL2は、複合画像中に含まれる画像と同一である画像を含む。しかしながら、これが相関している第1及び第2画像レイヤの同時画像をレンダリングすることができるが、クロス・フェードの間、2つのレイヤは、互いを補足して補充する三次元画像データを含まない(むしろ、L2の画像は、L1の複合画像中に含まれるフェードする画像と同一である)。詳しくは、1つの画像レイヤ中の画像は、他の画像レイヤの画像データによって表される画像プレーンの相補的画像プレーンのための画像データを含まない。
例において、第1深さレイヤD-L1は、さらに、L1の複合画像のための深さ情報を提供する複合深さレイヤを含む。さらにまた、この例において、前景画像及び関連する深さマップ(図9の2つの最上部ロウ)は、それら自身は三次元データ中に含まれず、複合レイヤL1及びD-L1のためのデータを生成するために用いられるだけである。
加えて、L2の画像に対する前景画像の透明度を反映する透明度レイヤが生成される。したがって、この透明度マップは、クロス・フェード前の画像及びクロス・フェード後の画像のL1の複合画像に対する相対的な寄与の指標を提供する。
依存関係インジケータは、前に同じ様に、すなわち、異なる画像プレーンに対応し、したがって例えば非遮蔽化を実行するために用いられることができる補助三次元データを画像レイヤが含むか否かを示すように、生成される。
したがって、図9の特定の例において、少なくとも幾つかの画像に対して、複数の画像からの寄与を含む複合画像を表す画像データを含む第1画像レイヤ、複合画像のための複合深さマップを含む第1深さレイヤ、複合画像に寄与する更なる画像のための画像データを含む第2画像レイヤ、更なる画像のための更なる深さマップを含む第2深さレイヤ、及び、複合画像に対する更なる画像の寄与を表する透明度マップを有する三次元シグナリング・データが生成されることができる。
加えて、第2画像レイヤの画像が、第1画像レイヤの複合画像に寄与する少なくとも1つの画像のための前景画像及び背景画像のうちの少なくとも1つを含むかどうか、又は、第2画像レイヤの画像が、複合画像に寄与する画像の前景画像及び背景画像のうちの1つでないかどうかを反映する、依存関係インジケータが含まれる。
説明されたアプローチは、第1画像レイヤL1の画像が従来のレンダリング・ユニットにおいて直接用いられることができるという利点を提供することができる。したがって、単にL1の画像を用いることにより、クロス・フェード及び異なる画像を組み合わせることを含む画像が提供される。しかしながら、同時に、全ての提供されたデータを利用することができるレンダリング・ユニットの動作が改善されることができる。したがって、レンダリング・ユニット403は、複合画像及び透明度情報に基づいて、(図9の最初のロウの)元の混合画像を例えば再現することができる。そしてそれは、依存関係インジケータの値に応じて、この画像の非遮蔽化を実行し続けることができる。したがって、導き出された画像のための背景データをL2が提供することを依存関係インジケータが反映する場合、この情報は非遮蔽化のために用いられ、そうでない場合、L2の現在の画像は、この目的に対して無視される。
したがって、説明された例において、レイヤ間処理は、レイヤが依存していることを依存関係インジケータが示すときにのみ適用され、レイヤが独立していることを依存関係が示すときは適用されない。いうまでもなく、他の実施の形態では、依存関係インジケータは、バイナリ値である必要はない。例えば、それは、複数の別々の値をとることができるパラメータであることができ、各々の値は、この依存関係のために適用されることができる1セットの処理アルゴリズムに対応する。特定の例において、レイヤ間三次元画像処理は、依存関係インジケータの値に応じて、オンとオフを切り替えられ、特に、レイヤ間非遮蔽化処理は、オンとオフを切り替えられる(非遮蔽化処理が単一レイヤ処理か又はレイヤ間処理に適応されることに対応する)。しかしながら、他の実施例では、レイヤ間三次元処理は、依存関係インジケータに応じて適応されることができる。例えば、いくつかの実施の形態において、異なる画像ビューにおける変位の決定は、依存関係インジケータに応じて、レイヤ間処理と単一レイヤ処理との間で切り替えられることができる。
いくつかの実施の形態において、依存関係インジケータは、第1及び第2画像レイヤ中の画像の深さ指標マップが一致しているか又は一致しないかどうかを示すことができる。特に、第1及び第2画像レイヤがそれぞれ前景(又は混合)画像及び背景画像を含むとき、背景画像のための(すなわち第2画像レイヤのための)深さ指標マップは、前景画像のための深さ指標マップの対応するピクセルより深い(又は同じである)位置を常に表す。しかしながら、例えばクロス・フェードの間のような、2つの画像レイヤが対応する前景及び背景画像を含まず、独立した画像を含むシナリオにおいて、深さ指標マップ間のこの関係は破綻する場合がある。この場合には、第1画像レイヤのための深さ指標値は、いくつかの画像領域において、第2画像レイヤのための対応する深さ指標値より小さい場合があり、そして他の領域において、第2画像レイヤのための対応する深さ指標値より大きい場合がある。
したがって、依存関係インジケータは、深さ指標マップが互いに一致するか又は一致しないかを反映するように設定されることができる。実際、いくつかの実施の形態において、この基準は、依存関係インジケータの値を決定するために用いられることができる。
これまでの説明は、三次元データが2つの画像レイヤを含む例に集中した。しかしながら、他の実施の形態では、2つより多い画像レイヤが用いられることができる。そのような実施の形態において、依存関係インジケータは、例えば、全ての考えられる画像レイヤ対間の依存関係の指標を提供することができる。
いくつかの実施の形態において、画像レイヤは、動的に又は静的に、画像レイヤ・グループに分割されることができ、各々の画像レイヤ・グループは、1つ以上の依存している画像レイヤを含む。例えば、1つの画像レイヤ・グループは、依存している画像レイヤを含む2つの画像レイヤを含むことができる。他の画像レイヤ・グループは、さらに、依存している2つの画像レイヤを含むことができる。しかしながら、画像レイヤ・グループ間の依存関係は変化する可能性があり、画像レイヤ・グループ間の現在の依存関係は依存関係インジケータによって示されることができる。例えば、三次元画像表現は、三次元知覚のための画像を提供するために組み合わせられることができる4つの異なる画像レイヤを含むことができる。しかしながら、クロス・フェードの間、この表現は、クロス・フェード前の画像及びクロス・フェード後の画像の両方に対して、2レイヤ表現に低減される場合がある。クロス・フェードの後、この表現は、4レイヤ表現に再び増加される。したがって、クロス・フェードの前後で、三次元処理は、4つのレイヤ全てを用いることができる。しかしながら、クロス・フェードの間、各々2つの画像レイヤの2つの画像レイヤ・グループは、独立した画像を含む。したがって、クロス・フェードの間、各々の画像の三次元処理は、2レイヤ処理に低減される。そのような例において、依存関係インジケータは画像グループが依存しているか否かを示すことができ、三次元処理は、これに応じて適応されることができる。他の例として、クロス・フェードの前後で2レイヤ・ビデオ表現が用いられることができ、4レイヤ信号は、クロス・フェードの間に用いられる2つの2レイヤ・ビデオ表現を含む。その場合、依存関係インジケータは、各々の2レイヤ・ビデオ内の依存関係を示すが、クロス・フェードの間、2つのビデオ間の独立を示すことができる。
したがって、より多くのレイヤに対して、依存関係インジケータは、グループ・ベースのインジケータであることができる。さらに、いくつかの実施の形態において、三次元データは、画像レイヤ・グループに従って構築されることができる。例えば、各々のグループの中の画像レイヤは、それらが隣り合うように配置されることができる。例えば、データ結合器215は、同じ画像レイヤ・グループに属する画像レイヤが隣り合うように、画像レイヤのためのデータを順序づけるように配置されることができる。そのような実施の形態において、依存関係インジケータは、次の独立した画像レイヤ・グループの三次元データ中での位置を単に示すことができる。
例えば、三次元データストリームは、画像レイヤ1-6として番号をつけられる6つの画像レイヤを含むことができる。いくつかのシナリオにおいて、全てのレイヤは依存していることができ、これは、ゼロに設定される依存関係インジケータによって反映されることができる。他のシナリオでは、画像レイヤは、各々が3つの画像レイヤを含む2つの独立した画像レイヤ・グループに分割されることができる。第1画像レイヤ・グループはレイヤ1-3を用い、第2画像レイヤ・グループはレイヤ4-6を用いる。これは、単に依存関係インジケータを4の値に設定することによって示されることができる。他のシナリオにおいて、画像レイヤは、(それぞれ画像レイヤ1-2、3-4及び5-6を含む)3つの独立した画像レイヤ・グループに分割されることができる。これは、依存関係インジケータを(3, 5)の値に設定することによって知らされることができる。
このように、依存関係情報の非常に効率的な表現が達成されることができ、低いシグナリング・オーバーヘッドをもたらす。
いうまでもなく、前記説明は、明確にするため、異なる機能ユニット及びプロセッサを参照して、本発明の実施の形態を説明した。しかしながら、異なる機能ユニット又はプロセッサ間での機能の任意の適切な分配が、本発明を損なわずに用いられることができることは明らかである。例えば、別々のプロセッサ又はコントローラによって実行されるように示された機能は、同じプロセッサ又はコントローラによって実行されることができる。したがって、特定の機能ユニットへの言及は、厳密な論理的又は物理的構造又は組織を示すのではなく、単に、説明される機能を提供するための適切な手段への言及として考えられるべきである。
本発明は、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組み合わせを含む任意の適切な形式で実施されることができる。本発明は、オプションとして、少なくとも部分的に、1つ以上のデータプロセッサ及び/又はデジタル・シグナル・プロセッサ上で動作するコンピュータ・ソフトウェアとして実施されることができる。本発明の実施の形態の要素及びコンポーネントは、任意の適切な態様で、物理的に、機能的に及び論理的に実施されることができる。実際、機能は、単一のユニットで、複数のユニットで、又は他の機能ユニットの一部として、実施されることができる。このように、本発明は、単一のユニットで実施されることができるか、又は、異なるユニット及びプロセッサ間で物理的に及び機能的に分配されることができる。
本発明がいくつかの実施の形態に関連して説明されたが、本願明細書において述べられた特定の形式に限定されることは意図されない。むしろ、本発明の範囲は、添付の特許請求の範囲によってのみ限定される。加えて、ある特徴が特定の実施の形態に関連して説明されたと思われるかもしれないが、当業者は、説明された実施の形態のさまざまな特徴は、本発明に従って組み合わせられることができることを認識する。請求の範囲において、「有する」「含む」などの用語は、他の要素又はステップを除外しない。
さらに、個別に記載されるが、複数の手段、要素又は方法ステップは、例えば単一のユニット又はプロセッサによって実施されることができる。加えて、個々の特徴が異なる特許請求の範囲中に含まれる場合があるが、これらは、有利に組み合わせられることができ、異なる特許請求の範囲における包含は、特徴の組み合わせが可能でないこと及び/又は有益でないことを意味しない。さらに、特許請求の範囲の1つのカテゴリへのある特徴の包含は、このカテゴリへの制限を意味せず、この特徴が他の請求項カテゴリにも同様に適切に適用可能であることを示す。さらに、請求項中の特徴の順序は、これらの特徴が機能しなければならない特定の順序を意味せず、特に、方法の請求項中の個々のステップの順序は、これらのステップがこの順序で実行されなければならないことを意味しない。むしろ、これらのステップは、任意の適切な順序で実行されることができる。加えて、単数での言及は複数を除外しない。「第1」「第2」なども複数を除外しない。請求項中の参照符号は、単に例を明確にするものとして提供されており、如何なる態様においても、請求の範囲を制限するものとして解釈されてはならない。

Claims (21)

  1. 三次元画像のビューの画素をレンダリングするための複数の画像レイヤを有する三次元画像データを生成する方法であって、プロセッサが、
    第1画像レイヤのための第1画像データを提供し、
    第2画像レイヤのための第2画像データを提供し、
    前記第1画像レイヤ及び前記第2画像レイヤのうちの少なくとも1つのための深さ指標データを提供し、
    前記第1画像レイヤの第1画像が、前記第2画像レイヤの画像のうち前記第1画像と同時に画像要素を三次元レンダリングするために用いられる第2同時画像のための補助画像データを含むかを示す依存関係インジケータを生成し、
    前記第1画像データ、前記第2画像データ、前記深さ指標データ及び前記依存関係インジケータを有する三次元画像データを生成する、方法。
  2. 前記依存関係インジケータが、前記第1画像レイヤが前記第2画像の遮蔽レイヤであるときに、前記第1画像レイヤ及び前記第2画像レイヤが依存していることを示す、請求項1に記載の方法。
  3. 前記依存関係インジケータが、前記第1画像レイヤが前記第2画像の遮蔽レイヤでないときに、前記第1画像レイヤ及び前記第2画像レイヤが独立していることを示す、請求項2に記載の方法。
  4. 前記深さ指標データが、前記第1画像レイヤのための第1深さ指標マップ及び前記第2画像レイヤのための第2深さ指標マップを有し、前記依存関係インジケータが、前記第1深さ指標マップの深さ指標値が前記第2深さ指標マップの深さ指標値と一致しないときに、前記第1画像レイヤ及び前記第2画像レイヤが独立していることを示す、請求項1に記載の方法。
  5. 前記第1深さ指標マップの深さ指標値が、少なくとも1つの画像領域において前記第2深さ指標マップの深さ指標値より深い深さレベルを表し、前記第2深さ指標マップの深さ指標値が、少なくとも1つの他の画像領域において前記第1深さ指標マップの深さ指標値より深い深さレベルを表すときに、前記第1深さ指標マップの深さ指標値が前記第2深さ指標マップの深さ指標値と一致しない、請求項4に記載の方法。
  6. 前記依存関係インジケータが、
    前記第1画像レイヤ及び前記第2画像レイヤがクロス・フェード画像を有するときに、前記第1画像レイヤ及び前記第2画像レイヤが独立していることを示し、
    前記第1画像レイヤ及び前記第2画像レイヤがクロス・フェード画像を有さないときに、前記第1画像レイヤ及び前記第2画像レイヤが依存していることを示す、
    請求項1に記載の方法。
  7. 前記依存関係インジケータが、前記第1画像レイヤ及び前記第2画像レイヤが依存していることを示す第1の値、並びに、前記第1画像レイヤ及び前記第2画像レイヤが独立していることを示す第2の値を持つバイナリ・データ値である、請求項1に記載の方法。
  8. 前記依存関係インジケータが、前記第1画像レイヤが前記第2画像レイヤの画像のための前景画像を有するときに前記第1の値に設定され、前記第1画像レイヤが前記第2画像レイヤの画像のための前景画像を有さないときに前記第2の値に設定される、請求項7に記載の方法。
  9. 前記第1画像レイヤが第1画像レイヤ・グループに属し、前記第2画像レイヤが第2画像レイヤ・グループに属し、前記第1画像レイヤ・グループ及び前記第2画像レイヤ・グループのうちの少なくとも1つが複数の画像レイヤを有し、前記依存関係インジケータが、前記第1画像レイヤ・グループの画像レイヤと前記第2画像レイヤ・グループの画像レイヤとの間の依存関係を示す、請求項1に記載の方法。
  10. 画像レイヤ・グループの画像レイヤが依存する画像レイヤである、請求項9に記載の方法。
  11. 画像レイヤ・グループ中の画像レイヤのための画像データが隣り合い、前記依存関係インジケータが、次の独立した画像レイヤ・グループの三次元画像データ中の位置を示す、請求項9に記載の方法。
  12. 前記プロセッサが、前記第1画像レイヤ及び前記第2画像レイヤのうちの少なくとも1つのための透明度データを提供し、前記透明度データを前記三次元画像データ中に含める、請求項1に記載の方法。
  13. 画像要素をレンダリングする方法であって、プロセッサが、
    第1画像レイヤのための第1画像データ、第2画像レイヤのための第2画像データ、前記第1画像レイヤ及び前記第2画像レイヤのうちの少なくとも1つのための深さ指標データ、前記第1画像レイヤと前記第2画像レイヤとの間の依存関係を示す依存関係インジケータ、を有する三次元画像データを受信し、
    前記依存関係インジケータに応じて、前記第1画像データ、前記第2画像データ及び前記深さ指標データを処理することにより、三次元画像を視覚化するために、三次元画像データの複数のビューの画像要素をレンダリングする、方法。
  14. 前記レンダリングが、前記第1画像レイヤ及び前記第2画像レイヤが依存していることを前記依存関係インジケータが示すときにのみ、前記第1画像レイヤ及び前記第2画像レイヤの画像のうち同時に画像要素を三次元レンダリングするために用いられる同時画像のレイヤ間三次元画像処理を実行することを含む、請求項13に記載の方法。
  15. 前記レンダリングが、前記第1画像レイヤ及び前記第2画像レイヤが依存していることを前記依存関係インジケータが示すときにのみ、前記第2画像レイヤの第2画像からの情報を用いて前記第1画像レイヤの第1画像のための非遮蔽化を実行することを含む、請求項13に記載の方法。
  16. 前記レンダリングが、前記第1画像レイヤの第1画像と前記第2画像レイヤの第2画像とを組み合わせることを含み、前記組み合わせが、前記第1画像レイヤ及び前記第2画像レイヤが依存していることを前記依存関係インジケータが示すときに三次元画像情報に応じ、前記第1画像レイヤ及び前記第2画像レイヤが独立していることを前記依存関係インジケータが示すときに三次元画像情報に応じない、請求項13に記載の方法。
  17. 三次元画像のビューの画素をレンダリングするための複数の画像レイヤを有する三次元画像データを生成するための装置であって、
    第1画像レイヤのための第1画像データを提供する手段、
    第2画像レイヤのための第2画像データを提供する手段、
    前記第1画像レイヤ及び前記第2画像レイヤのうちの少なくとも1つのための深さ指標データを提供する手段、
    前記第1画像レイヤと前記第2画像レイヤとの間の依存関係を示す依存関係インジケータを生成する手段、並びに
    前記第1画像データ、前記第2画像データ、前記深さ指標データ及び前記依存関係インジケータを有する三次元画像データを生成する手段、
    を有する装置。
  18. 画像要素をレンダリングするための装置であって、
    第1画像レイヤのための第1画像データ、第2画像レイヤのための第2画像データ、前記第1画像レイヤ及び前記第2画像レイヤのうちの少なくとも1つのための深さ指標データ、前記第1画像レイヤと前記第2画像レイヤとの間の依存関係を示す依存関係インジケータ、を有する三次元画像データを受信する手段、
    前記依存関係インジケータに応じて、前記第1画像データ、前記第2画像データ及び前記深さ指標データを処理することにより、三次元画像を視覚化するために、三次元画像データの複数のビューの画像要素をレンダリングする手段、
    を有する装置。
  19. プロセッサにより実行されて当該プロセッサに請求項1から請求項16のいずれか一項に記載の方法を実行させるコンピュータプログラム。
  20. 三次元画像のビューの画素をレンダリングするための複数の画像レイヤを有する三次元画像データを生成する方法であって、プロセッサが、
    少なくとも幾つかの画像に対して、複数の画像からの寄与を有する複合画像を表す画像データを有する第1画像レイヤを提供し、
    前記複合画像のための複合深さマップを有する第1深さレイヤを提供し、
    前記複合画像に寄与する更なる画像のための画像データを有する第2画像レイヤを提供し、
    前記更なる画像のための更なる深さマップを有する第2深さレイヤを提供し、
    前記複合画像に対する前記更なる画像の寄与を表す透明度マップを提供し、
    前記第2画像レイヤの画像が、前記第1画像レイヤの複合画像に寄与する少なくとも1つの画像のための前景画像及び背景画像のうちの少なくとも1つを有するか、又は、前記第2画像レイヤの画像が、前記複合画像に寄与する画像の前景画像及び背景画像のうちの1つではないかを反映する依存関係インジケータを生成し、
    前記第1画像レイヤ、前記第1深さレイヤ、前記第2画像レイヤ、前記第2深さレイヤ、前記透明度マップ及び前記依存関係インジケータを有する三次元画像データを生成する、方法。
  21. 画像要素をレンダリングする方法であって、プロセッサが、
    少なくとも幾つかの画像に対して、複数の画像からの寄与を有する複合画像を表す画像データを有する第1画像レイヤ、
    前記複合画像のための複合深さマップを有する第1深さレイヤ、
    前記複合画像に寄与する更なる画像のための画像データを有する第2画像レイヤ、
    前記更なる画像のための更なる深さマップを有する第2深さレイヤ、
    前記複合画像に対する前記更なる画像の寄与を表す透明度マップ、
    前記第2画像レイヤの画像が、前記第1画像レイヤの複合画像に寄与する少なくとも1つの画像のための前景画像及び背景画像のうちの少なくとも1つを有するか、又は、前記第2画像レイヤの画像が、前記複合画像に寄与する画像の前景画像及び背景画像のうちの1つではないかを反映する依存関係インジケータ、
    を有する三次元画像データを受信し、
    前記三次元画像データの三次元処理によって、三次元画像を視覚化するために、前記三次元画像データの複数のビューの画像要素をレンダリングし、
    前記第2画像レイヤの画像が前記第1画像レイヤの画像に寄与する画像の背景画像及び前景画像のうちの少なくとも1つであることを前記依存関係インジケータが示すときにのみ、前記第1画像レイヤの画像のための非遮蔽化が前記第2画像レイヤの画像のうち前記第1画像レイヤの前記画像と同時に画像要素を三次元レンダリングするために用いられる同時画像に応じる、方法。
JP2011528472A 2008-09-25 2009-09-18 三次元画像データ処理 Expired - Fee Related JP5583127B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08165060 2008-09-25
EP08165060.8 2008-09-25
PCT/IB2009/054088 WO2010035193A1 (en) 2008-09-25 2009-09-18 Three dimensional image data processing

Publications (2)

Publication Number Publication Date
JP2012503813A JP2012503813A (ja) 2012-02-09
JP5583127B2 true JP5583127B2 (ja) 2014-09-03

Family

ID=41401844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011528472A Expired - Fee Related JP5583127B2 (ja) 2008-09-25 2009-09-18 三次元画像データ処理

Country Status (9)

Country Link
US (1) US8890868B2 (ja)
EP (1) EP2342693B1 (ja)
JP (1) JP5583127B2 (ja)
KR (1) KR101648206B1 (ja)
CN (1) CN102165495B (ja)
ES (1) ES2390253T3 (ja)
PL (1) PL2342693T3 (ja)
TW (1) TW201021543A (ja)
WO (1) WO2010035193A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100088325A1 (en) 2008-10-07 2010-04-08 Microsoft Corporation Streaming Queries
EP2180449A1 (en) * 2008-10-21 2010-04-28 Koninklijke Philips Electronics N.V. Method and device for providing a layered depth model of a scene
EP2399394B1 (en) * 2009-02-19 2020-09-30 InterDigital Madison Patent Holdings 3d video formats
US9158816B2 (en) 2009-10-21 2015-10-13 Microsoft Technology Licensing, Llc Event processing with XML query based on reusable XML query template
TWI398158B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 產生立體影像之影像深度的方法
CN102156999B (zh) * 2010-02-11 2015-06-10 腾讯科技(深圳)有限公司 一种用户界面的生成方法和装置
JP5025786B2 (ja) * 2010-12-21 2012-09-12 株式会社東芝 画像処理装置、及び画像処理方法
GB2489674A (en) * 2011-03-29 2012-10-10 Sony Corp 3D image generation
JP5355616B2 (ja) * 2011-04-21 2013-11-27 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
JP5291755B2 (ja) * 2011-04-21 2013-09-18 株式会社エム・ソフト 立体視画像生成方法および立体視画像生成システム
JP5577305B2 (ja) * 2011-08-05 2014-08-20 株式会社ソニー・コンピュータエンタテインメント 画像処理装置
US9100642B2 (en) * 2011-09-15 2015-08-04 Broadcom Corporation Adjustable depth layers for three-dimensional images
US8243102B1 (en) 2011-10-12 2012-08-14 Google Inc. Derivative-based selection of zones for banded map display
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9785201B2 (en) 2012-03-01 2017-10-10 Microsoft Technology Licensing, Llc Controlling images at mobile devices using sensors
US9035880B2 (en) 2012-03-01 2015-05-19 Microsoft Corporation Controlling images at hand-held devices
CZ308335B6 (cs) * 2012-08-29 2020-05-27 Awe Spol. S R.O. Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění
WO2014196374A1 (ja) * 2013-06-05 2014-12-11 ソニー株式会社 画像処理装置および画像処理方法
US9772764B2 (en) 2013-06-06 2017-09-26 Microsoft Technology Licensing, Llc Accommodating sensors and touch in a unified experience
EP3192259A4 (en) * 2014-09-09 2018-05-16 Nokia Technologies Oy Stereo image recording and playback
US9984494B2 (en) * 2015-01-26 2018-05-29 Uber Technologies, Inc. Map-like summary visualization of street-level distance data and panorama data
CN105989574A (zh) * 2015-02-25 2016-10-05 光宝科技股份有限公司 图像处理装置及图像景深处理方法
JP7036711B2 (ja) 2015-08-18 2022-03-15 マジック リープ, インコーポレイテッド 仮想および拡張現実システムならびに方法
KR20170025058A (ko) 2015-08-27 2017-03-08 삼성전자주식회사 영상 처리 장치 및 이를 포함하는 전자 시스템
US10489915B2 (en) 2017-04-01 2019-11-26 Intel Corporation Decouple multi-layer render fequency
CN113542847B (zh) * 2020-04-21 2023-05-02 抖音视界有限公司 图像显示方法、装置、设备及存储介质
CN111899192B (zh) 2020-07-23 2022-02-01 北京字节跳动网络技术有限公司 交互方法、装置、电子设备及计算机可读存储介质
KR20220164027A (ko) * 2020-07-29 2022-12-12 구글 엘엘씨 프로그레시브 이미지 오버스무딩

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280337A (en) 1992-10-13 1994-01-18 The Grass Valley Group, Inc. Depth-based video combining
JP3620069B2 (ja) * 1994-06-28 2005-02-16 ソニー株式会社 信号変換装置および方法
US6249616B1 (en) * 1997-05-30 2001-06-19 Enroute, Inc Combining digital images based on three-dimensional relationships between source image data sets
JPH11195132A (ja) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> テクスチャマッピング用バッファ、3次元グラフィクス処理装置、3次元グラフィクス処理システム、3次元グラフィクス処理方法および処理プログラムが記憶された記憶媒体
US6266068B1 (en) * 1998-03-13 2001-07-24 Compaq Computer Corporation Multi-layer image-based rendering for video synthesis
JPH11339008A (ja) * 1998-05-26 1999-12-10 Matsushita Electric Ind Co Ltd 画像処理装置
US6611268B1 (en) * 2000-05-30 2003-08-26 Microsoft Corporation System and process for generating 3D video textures using video-based rendering techniques
US7095905B1 (en) * 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
KR20030064703A (ko) * 2003-07-11 2003-08-02 홍길천 추출 및 합성을 통한 3차원 매체 제작기법
JP4740135B2 (ja) * 2003-09-17 2011-08-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元画像ディスプレイの画面に3次元画像を描画するシステム及び方法
US7015926B2 (en) 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
JP4591955B2 (ja) * 2004-10-20 2010-12-01 Kddi株式会社 自由視点映像の隠蔽領域補完装置
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7774430B2 (en) 2005-11-14 2010-08-10 Graphics Properties Holdings, Inc. Media fusion remote access system
US20080007567A1 (en) 2005-12-18 2008-01-10 Paul Clatworthy System and Method for Generating Advertising in 2D or 3D Frames and Scenes
CN101271583B (zh) 2008-04-28 2010-04-21 清华大学 一种基于深度图的快速图像绘制方法
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format

Also Published As

Publication number Publication date
ES2390253T3 (es) 2012-11-08
TW201021543A (en) 2010-06-01
EP2342693A1 (en) 2011-07-13
US8890868B2 (en) 2014-11-18
CN102165495B (zh) 2014-11-26
JP2012503813A (ja) 2012-02-09
KR20110059777A (ko) 2011-06-03
WO2010035193A1 (en) 2010-04-01
US20110169823A1 (en) 2011-07-14
EP2342693B1 (en) 2012-07-25
KR101648206B1 (ko) 2016-08-12
PL2342693T3 (pl) 2012-12-31
CN102165495A (zh) 2011-08-24

Similar Documents

Publication Publication Date Title
JP5583127B2 (ja) 三次元画像データ処理
JP5527856B2 (ja) 三次元画像データ処理
JP5173028B2 (ja) シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号
JP5859441B2 (ja) 3dビデオにおける追加のビューを生成するための視点の選択
KR101468267B1 (ko) 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US10368046B2 (en) Method and apparatus for generating a three dimensional image
KR102538939B1 (ko) 텍스처 맵들 및 메시들에 기초한 3d 이미지 정보의 처리
JP2012507181A (ja) 画像特性のための遮蔽データの発生
JP2010045776A (ja) 映像レンダリングの方法およびシステム、そのためのコンピュータプログラム製品
WO2010052637A1 (en) Method and system for encoding a 3d image signal, encoded 3d image signal, method and system for decoding a 3d image signal
Barenbrug Declipse 2: multi-layer image and depth with transparency made practical

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140715

R150 Certificate of patent or registration of utility model

Ref document number: 5583127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees