JP6113142B2 - 立体的なグラフィックオブジェクトを定義するためのシーングラフ - Google Patents

立体的なグラフィックオブジェクトを定義するためのシーングラフ Download PDF

Info

Publication number
JP6113142B2
JP6113142B2 JP2014501528A JP2014501528A JP6113142B2 JP 6113142 B2 JP6113142 B2 JP 6113142B2 JP 2014501528 A JP2014501528 A JP 2014501528A JP 2014501528 A JP2014501528 A JP 2014501528A JP 6113142 B2 JP6113142 B2 JP 6113142B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic
graphic object
subordinate
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014501528A
Other languages
English (en)
Other versions
JP2014516432A (ja
JP2014516432A5 (ja
Inventor
ホーレントラップ ジョブスト
ホーレントラップ ジョブスト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014516432A publication Critical patent/JP2014516432A/ja
Publication of JP2014516432A5 publication Critical patent/JP2014516432A5/ja
Application granted granted Critical
Publication of JP6113142B2 publication Critical patent/JP6113142B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

本発明は、立体的なグラフィックオブジェクトを定義するのに適切なシーングラフと、このようなシーングラフを作成するための方法および装置と、このようなシーングラフに基づいてグラフィックオブジェクトをレンダリングするための方法および装置とに関する。さらに、本発明は、立体的なグラフィックオブジェクトを定義するためのシーングラフを備える記憶媒体に関する。最後に、本発明は、方法を実施するように適合されたアプリケーションを備えるレンダリングモジュールおよび記憶媒体を初期化する方法に関する。
ユーザインターフェースまたは他のグラフィックオブジェクトは、しばしばシーングラフによって記述される。一般に、このようなシーングラフは、グラフィック要素が空間および時間においてどのように配置されてシーンを構成するかを(通常は、例えば、ツリー構造などの階層的に)記述する。シーングラフの顕著な例は、インターネットのウェブページに用いられるハイパーテキストマークアップ言語:HTMLである。シーングラフを、ビジュアルデザインソフトウェアの支援により作成することができる。ランタイムにおいて、シーングラフを解釈することができるソフトウェアは、それを画面上にレンダリングする。例えば、HTMLの場合には、レンダリングはインターネットブラウザによって実施される。
このようなシステムの基本的な利点の1つは、ビジュアルデザインソフトウェアツールの助けにより、シーングラフまたはユーザインターフェースを比較的容易に作成することができることである。別の利点は、シーングラフが、通常、プラットフォームに依存しないことである。プラットフォームに左右されるのは、レンダリングソフトウェアのみである。
今日のシーングラフベースのシステムは、平面の世界のみ、または、より複雑なシステムの場合には、例えばコンピュータゲームで既知の幾何学的な3次元の世界を記述する。
最近、Bブルーレイディスクアソシエーションは、事前記録フォーマットに対する立体的な3D拡張機能を公開している。このフォーマットは、ブルーレイディスクに立体的な3D映像を記憶することを可能にするばかりでなく、例えば3Dポップアップメニューといった立体的な3Dユーザインターフェースの作成もサポートする。ブルーレイの3Dフォーマットは、後方互換性を可能にするように設計されている。目標は、適切に作られたとき、同一のブルーレイディスクが、3Dのブルーレイプレーヤでは3Dモードで再生可能であり、標準的な2Dのプレーヤでは2Dモードで再生可能であるべきであるということである。
このような立体的な3Dユーザインターフェースに関して、主として2つの問題が生じる。第1の問題は、このような立体的なユーザインターフェースをいかに効率的に作成するかである。第2の問題は、立体的な3Dモードならびに2Dモードの双方に対して、ユーザインターフェースをいかに効率的に作成するかである。
簡単な選択肢は、オーサリングプロセスにおいて平面の2Dバージョンだけでなく、ユーザインターフェースの立体的な3Dバージョンも作成することであろう。この手法には、付加的な努力が必要とされる不都合がある、すなわち、むしろ非効率である。
さらなる選択肢は、コンピュータゲームで既知の、本格的な3次元シーングラフの形式の仮想3D世界のモデルを利用することであろう。このような手法は、シーンの立体バージョンも2Dバージョンもレンダリングすることもできる。しかし、このような手法の計算コストはかなり高く、例えば最新のコンピュータグラフィックスアダプタの3Dグラフィックの加速性など、なんらかのハードウェアの加速化のサポートを通常必要とする。このような処理能力は、典型的に家庭用電子機器では利用可能ではない。
本発明の目的は、低い処理コストで3Dおよび2Dでレンダリングすることができるユーザインターフェースの効率的作成のための解決策を提案することである。
本発明によれば、この目的は、立体的なグラフィックオブジェクトのシーングラフを作成する方法によって達成され、このシーングラフは、立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、この方法は、
− 立体的なグラフィックオブジェクトの基礎画像および従属画像を指定するステップと、
− 基礎画像および従属画像の空間的および/または時間的な配置を指定するステップと、
− 基礎画像に対する画像データ、従属画像に対する画像データ、ならびに基礎画像および従属画像の空間的および/または時間的な配置に関する情報を、シーングラフに配置するステップと、
を含む。
同様に、立体的なグラフィックオブジェクトのシーングラフを作成するための装置において、シーングラフは、立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、当該装置は、
− 立体的なグラフィックオブジェクトの基礎画像および従属画像を指定する手段と、
− 基礎画像および従属画像の空間的および/または時間的な配置を指定する手段と、
− 基礎画像の画像データ、従属画像の画像データ、ならびに基礎画像および従属画像の空間的および/または時間的な配置に関する情報をシーングラフに配置するための手段と、
を備える。
同様に、立体的なグラフィックオブジェクトのシーングラフにおいて、当該シーングラフは、立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、当該シーングラフは、立体的なグラフィックオブジェクトの基礎画像に対する画像データ、グラフィックオブジェクトの従属画像に対する画像データ、ならびに基礎画像および従属画像の空間的および/または時間的な配置に関する情報を含む。
したがって、記憶媒体は、立体的なグラフィックオブジェクトのシーングラフを備え、当該シーングラフは、立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、当該シーングラフは、立体的なグラフィックオブジェクトの基礎画像に対する画像データ、立体的なグラフィックオブジェクトの従属画像に対する画像データ、ならびに基礎画像および従属画像の空間的および/または時間的な配置に関する情報を含む。
立体的なグラフィックオブジェクトを3Dでレンダリングするために、グラフィックオブジェクトは基礎画像および従属画像から成る。立体的なグラフィックオブジェクトを2Dでレンダリングするために、グラフィックオブジェクトは基礎画像のみから成る。
本発明の第1の態様は、「立体的な」シーングラフ、すなわち、例えば立体的なユーザインターフェースなどの立体的なグラフィックオブジェクトを記述するように特に適合されたシーングラフの定義である。このような立体的なグラフィックオブジェクトを、例えばブルーレイ3Dディスクに提供することができる。提案されるシーングラフは、指定された基礎画像のみを用いることにより、2D表現を立体的なグラフィックオブジェクトから自動的に導出するのに特に適している。これによって、シーングラフは、異種の3D/2D再生装置に対して有効になる。例えば3Dブルーレイディスクなどの3D/2Dに適合しているコンテンツを作成するとき、コンテンツ作者は、立体的な3Dモード用のグラフィックオブジェクトと、平面の2Dモード用の別のグラフィックオブジェクトとを作成することから解放される。典型的に、オーサリングシステムは、基礎画像および従属画像を定義または生成するためのグラフィカルユーザインターフェースを提供することになる。
有利には、基礎画像の画像データは基礎画像モザイクに含まれ、および/または従属画像の画像データは従属画像モザイクに含まれる。メニューなどを生成するのに必要とされる複数の画像が単一のリソースで参照されるので、画像モザイクは、ローディング時間を短縮し、プレーヤ性能を改善することを可能にする。画像モザイクが、基礎画像の画像データと従属画像の画像データのみを含むことを確実にすることによって、現行のレンダリングモードにとって必要でない画像を含むリソースがロードされないことが、少なくともある程度まで保証される。画像モザイクは、一般に、選択された画像の別の画像モザイクへの分配を最適化する専用ソフトウェアによって生成されることになる。
本発明のさらなる態様によれば、立体的なグラフィックオブジェクトをレンダリングする方法は、
− 立体的なグラフィックオブジェクトのための基礎画像の画像データおよび従属画像の画像データと、基礎画像および従属画像の空間的および/または時間的な配置とに関する情報を含む、シーングラフを取得するステップと、
− 立体的なグラフィックオブジェクトの立体バージョンをレンダリングするために、基礎画像の画像データおよび従属画像の画像データを取得し、シーングラフで指定された空間的および/または時間的な配置に従って、基礎画像および従属画像の立体的なグラフィックオブジェクトを構成するステップと、
− 立体的なグラフィックオブジェクトの平面バージョンをレンダリングするために、基礎画像の画像データを取得し、シーングラフで指定された空間的および/または時間的な配置に従って、基礎画像の立体的なグラフィックオブジェクトのみを構成するステップと、
を含む。
同様に、立体的なグラフィックオブジェクトをレンダリングするための装置は、
− 立体的なグラフィックオブジェクトのための基礎画像の画像データおよび従属画像の画像データと、基礎画像および従属画像の空間的および/または時間的な配置とに関する情報を含む、シーングラフを取得するための手段と、
− 立体的なグラフィックオブジェクトの立体バージョンをレンダリングするために、基礎画像の画像データおよび従属画像の画像データを取得し、シーングラフで指定された空間的および/または時間的な配置に従って、基礎画像および従属画像の立体的なグラフィックオブジェクトを構成するための手段と、
− 立体的なグラフィックオブジェクトの平面バージョンをレンダリングするために、基礎画像の画像データを取得し、シーングラフで指定された空間的および/または時間的な配置に従って、基礎画像の立体的なグラフィックオブジェクトのみを構成するための手段と、
を備える。
本発明の第2の態様は、シーングラフ、基礎画像、および従属画像を利用するレンダリングの方法および装置に関する。この方法および装置は、シーングラフによって指定される立体的なグラフィックオブジェクトを、3Dモードならびに2Dモードでレンダリングすることができる。提案されるシーングラフの重要な利点は、立体の3Dモードまたは平面の2Dモードで効率的にレンダリングできることである。これにより、シーングラフは、例えば、3Dプレーヤで実行するときには立体の3Dユーザインターフェースを立体の3Dモードで生成する必要があり、2Dにしか対応していないシステムで動作するときには平面のユーザインターフェースを生成する必要があるブルーレイ3Dディスクのようなシステムに対して非常に有用なものとなる。2Dのレンダリングモードの場合は、基礎画像の画像データを取得してレンダリングする必要があるだけであるが、3Dのレンダリングモードでは、基礎画像の画像データだけでなく従属画像の画像データも取得してレンダリングする。このように、不必要なデータをロードしないことが保証される。典型的に、変換器は、例えば光学式記憶媒体の場合には光ピックアップ、ハードディスクの場合には読取りヘッドなどの記憶媒体から、必要な画像を取得する。
しかし、有利には、立体的なグラフィックオブジェクトの平面バージョンをレンダリングする場合には、従属画像の画像データも取得される。この点において、好ましくは、3Dのレンダリングモードが可能か否か、すなわちレンダリング装置が3Dのレンダリングモードに対応しているかどうかが判断され、3Dのレンダリングモードが可能であれば、実際のレンダリングモードに関係なく、シーングラフによって指定された基礎画像の画像データおよび従属画像の画像データが取得される。
換言すれば、2Dのレンダリングモードの場合、3Dのレンダリングモードが実際に可能であるかどうかを確認する。例えば、3Dのレンダリングモードが可能であっても、3D表示装置に接続された3Dプレーヤが2Dのレンダリングモードに設定されることがある。この場合、現行のレンダリングモードには不要であっても、従属画像の画像データがロードされるのが好ましい。一方、ユーザが3Dのレンダリングモードに切り換えるようと決めた場合は、必要な画像のすべてが既に利用可能である。したがって、2Dのレンダリングモードから3Dのレンダリングモードへの切換えは、非常に高速に達成される。
利用可能な従属画像が必ずしも取得されていない場合には、2Dのレンダリングモードから3Dのレンダリングモードへの移行に際して、従属画像について指定された画像データが既に取得されているかどうか判断される。従属画像の画像データを未だ取得していなければ、次いで、3Dのレンダリングモードのグラフィックオブジェクトのレンダリングを可能にするために取得される。このようにして、基礎画像に加えて、必要な従属画像のすべてがレンダリングに利用可能であることが保証される。
本発明のさらなる態様によれば、3Dのレンダリングモードと2Dのレンダリングモードの間で切換え可能で、出力がグラフィックサブシステムに供給されるレンダリングモジュールを初期化する方法は、
− 立体的なコンテンツをレンダリングするべきかどうか判断するステップと、
− グラフィックサブシステムが立体的なモードでレンダリングすることができるかどうか判断するステップと、
− グラフィックサブシステムが立体的なモードでレンダリングすることが可能な場合、現行のレンダリングモードとは独立にグラフィックサブシステムのレンダリングモジュールを初期化するステップと、
を含む。
上記の方法を実施するために、必要なステップを実施するように適合されたアプリケーションが、記憶媒体に有利に記憶される。このアプリケーションは、3Dのレンダリングモードと2Dのレンダリングモードの間で切換え可能なレンダリングモジュールも含む。
通常、切換え可能なレンダリングモジュールに加えて、2Dのレンダリングモジュールが使用可能である。現行のレンダリングモードが従来技術による2Dモードである場合、2Dのレンダリングモジュールが初期化される。それと対照的に、本発明によれば、グラフィックサブシステムが立体的なモードでレンダリングすることが可能な場合、実際の現行のレンダリングモードに関係なく、切換え可能なレンダリングモジュールが初期化される。このようにして、2Dモードから3Dモードへ切り換える場合に、最初に2Dのレンダリングモジュールを終結して切換え可能なレンダリングモジュールを初期化する必要なく、確実に3Dのレンダリングを直ちに開始することができる。
より良い理解のために、本発明は、以下において、図面を参照しながら下記説明でより詳細に説明される。本発明は、この例示的実施形態に限定されるものではなく、また、特定の特徴が、添付の特許請求の範囲で定義される本発明の範囲から逸脱することなく、適切に結合および/または変更され得ることが理解される。
シーングラフのグラフィック要素を異なる出力モードでレンダリングするプロセスを示す図である。 画像モザイクを概略的に示す図である。 通常の動作中の画像ローディングのプロセスを示す図である。 レンダリングモードを切換える際の画像ローディングの例示的プロセスを示す図である。
立体の3Dモードおよび2Dモードで効率的にレンダリングすることができるグラフィックオブジェクトを定義するために、「立体的な」シーングラフが定義される。提案されるシーングラフは、画像のステレオペアを指定して用いる。類似のステレオペアが、立体的な3Dの基礎を形成する。一方の画像が左眼用であり、もう一方の画像が右眼用である。ステレオペアの一方の画像が「基礎画像」(BI:base image)を表す。他方の画像が「従属画像」(DI:dependent image)を表す。基礎画像は必須であるが、従属画像は任意選択である。
このようなステレオペアを定義する多くの可能性がある。以下では、3つの実施例を説明する。当然、本発明はこれらの実施例に限定されない。実施例1は、宣言型言語としてXMLを用いるステレオペアの第1の例示的定義を示す。
実施例1:
<img id="ibgd" stereo_idref="ibgd_r">
<file src="bgd_l.jpg"/>
</img>
<img id="ibgd_r">
<file src="bgd_r.jpg"/>
</img>
<img>要素は、画像要素を定義する。それぞれのこのような画像要素が、<img>要素の「id」属性で指定される一意の識別子を保持する。この実施例では、<file>要素は、画像データのソースを定義する。とりわけ、これは、あるローカルファイルシステム上のファイルを簡単に識別することができる。上記の実施例は、「ibgd」および「ibgd_r」という名前の2つの画像を定義する。さらに、「ibgd」は、「stereo_idref」属性を保持する。この属性は、2つの画像をリンクさせてステレオペアを形成する。
このようなステレオペアは、以下のように好都合に用いることができる。
<layer id="lb" clipWidth="500" clipHeight="200" z="0">
<graphic id="gback" idref="ibgd" x="20" y="20" z="10"/>
</layer>
ここで、グラフィックは、層の内部にx=20、y=20、z=10の位置に配置される。使用すべき画像リソースは、「idref」属性を通じて識別される。この実施例において、これは、実施例1において上記で定義されたステレオペアを指す。
実施例2は、これも宣言型言語としてXMLを用いるステレオペアの第2の例示的定義を示す。
実施例2:
<img id="ibgd" src="bgd_l.jpg" src_r="bgd_r.jpg"/>
<img>要素は、画像要素を定義する。<img>要素は「id」属性で指定される一意の識別子を保持する。この実施例において、「scr」属性は、ステレオペアの一方の画像のソース画像データを定義する。「src_r」属性は、ステレオペアの他方の画像のソース画像データを定義する。
実施例3は、ステレオペアの第3の例示的定義を示す。この実施例は、宣言型言語としてHTMLを用いる。
実施例3:
<img src="bgdl.jpg" src_r="bgdr.jpg">
HTMLでは、<img>要素の「src」属性は、画像のデータソースを定義する。新規の属性「src_r」は、関連する第2の画像のデータソースを定義してステレオペアを形成する。
シーングラフのグラフィック要素を異なる出力モードでどのようにレンダリングするかを指定するために、ルールが定義される。これは、図1に概略的に図示されている。第1の判定ステップ1において、2Dの出力を生成すべきか、立体の3Dの出力を生成するべきかが検出される。2Dの出力モードでは、必須の基礎画像BIを用いて、グラフィックオブジェクトを合成する(2)。立体の3Dの出力モードでは、第2の判定ステップ3において、レンダリングすべき画像が立体画像であるかどうか、すなわち必須の基礎画像BIに加えて従属画像DIも宣言されているかどうかを検出する。画像が平面画像のみである場合、基礎画像BIを用いて左チャネル出力ならびに右チャネル出力を合成する(4)。立体画像の場合、基礎画像BIを用いて左チャネル出力を合成し(5)、従属画像DIを用いて右チャネル出力を合成する。合成するステップ2、4、5において合成された立体的なグラフィックオブジェクトは、次いで、表示用に出力される(6)。
例えばブルーレイプレーヤといった、家庭用電子機器などのリソースに制約のあるシステムには、Java(登録商標)アプリケーションなどによって使用される画像リソースは、通常、「画像モザイク」(IM:image mosaics)に記憶される。このような画像モザイクIMは、複数の基礎画像を結合して、より大きな画像にする。これは、図2に例示的に図示されている。この技法では、それぞれの画像復号プロセスが、画像デコーダを設定するのに何らかのランタイムオーバーヘッドを含むため、実行時に画像をすべて復号するのに必要な時間が短縮される。基礎画像を画像モザイクIMに結合することにより、画像デコーダの頻繁な設定および関連する余分な時間が回避される。
ステレオペアを使用する、提案される手法の効率を高めるために、1つの特定の画像モザイクIMが、1つまたは複数の基礎画像BIを1つまたは複数の従属画像DIと結合しなければ有利である。これは、基礎画像BIのセットが、好ましくは1つまたは複数の画像モザイクIM、いわゆる基礎画像モザイク(BI−IM)に結合され、一方、従属画像DIのセットが、1つまたは複数の別の画像モザイクIM、いわゆる従属画像モザイク(DI−IM)に別個に結合されることを意味する。
画像を、基礎画像BIと従属画像DIに、または基礎画像モザイクBI−IMと従属画像モザイクDI−IMに分離することにより、立体の3Dモードまたは2Dモードのいずれかでシーングラフをレンダリングすることができるアプリケーションに対して有利なルールを実装することができる。アプリケーションが、実行時に、3Dモードでのレンダリングがその実行環境において可能ではないことを検出したとき、例えばそのアプリケーションが2Dのブルーレイプレーヤで作動しているか、または3Dのブルーレイプレーヤで作動しているが3Dでない画面のみがプレーヤに接続されているときなど、画像がロードされると、いずれの従属画像DIまたは従属画像モザイクDI−IMも無視され、定められたように、基礎画像BIまたは基礎画像モザイクBI−IMのみがメモリにロードされる。
しかし、アプリケーションが、立体の3Dモードが可能であることを検出した場合、画像リソースをロードする以下の2つのモードがサポートされるのが好ましい。
第1のモードでは、画像をロードすべきとき、基礎画像BIまたは基礎画像モザイクBI−IM、ならびに従属画像DIまたは従属画像モザイクDI−IMが、定められたようにメモリにロードされる。特に、これには、3Dモードが実行環境において可能な場合が含まれるが、アプリケーションは、現在、2Dモードでレンダリングするように構成されているか、または信号伝達されている。このモードは、2Dのレンダリングモードから3Dのレンダリングモードへ移行するときに、従属画像DIまたは従属画像モザイクDI−IMをロードする必要がなく、したがって、移行が同程度に高速であるという利点がある。このモードを、「イーガー(eager)ローディング」モードとして規定することができる。
第2のモードでは、画像をロードすべきとき、アプリケーションは、現行のレンダリングモードが3Dであるか、2Dであるかを検出する。3Dレンダリングモードの場合には、基礎画像BIまたは基礎画像モザイクBI−IM、ならびに従属画像DIまたは従属画像モザイクDI−IMが、メモリにロードされる。2Dモードの場合には、基礎画像BIまたは基礎画像モザイクBI−IMのみがロードされる。さらに、このモードでは、2Dのレンダリングモードから3Dのレンダリングモードへ移行するときに、必要な従属画像DIまたは従属画像モザイクDI−IMが、必要に応じてロードされる。このモードを、「レイジー(lazy)ローディング」モードとして規定することができる。
通常の動作中の画像ローディングの例示的プロセス、すなわち、いかなるモード変更に起因するものでもない画像ローディングの例示的プロセスが、図3に示されている。画像をロードする要求を受け取ると(7)、3Dのレンダリングモードが可能かどうか判断される(8)。可能でない場合、基礎画像BIまたは基礎画像モザイクBI−IMのみがロードされ(9)、いずれの従属画像DIまたは従属画像モザイクDI−IMも無視される。しかし、3Dのレンダリングモードが可能であれば、さらなる処理はローディングモードに依拠する。したがって、さらなる決定ステップ10において、ローディングモードが決定される。当然、特定の実装形態に対してローディングモードが固定されているときには、さらなる決定ステップ10を省略することができる。イーガーローディングモードの場合、基礎画像BIまたは基礎画像モザイクBI−IMならびに従属画像DIまたは従属画像モザイクDI−IMがロードされる(11)。レイジーローディングモードの場合、3Dのレンダリングモードがアクティブかどうか判断される(12)。アクティブでない場合、基礎画像BIまたは基礎画像モザイクBI−IMのみがロードされ(9)、いずれの従属画像DIまたは従属画像モザイクDI−IMも無視される。しかし、3Dのレンダリングモードがアクティブであれば、基礎画像BIまたは基礎画像モザイクBI−IMならびに従属画像DIまたは従属画像モザイクDI−IMがロードされる(11)。
レンダリングモードの切換えの際の画像ローディングの例示的プロセスが、図4に示されている。モード変更の要求を受け取ると(13)、現在3Dのレンダリングモードが可能かどうか判断される(14)。可能でない場合、さらなるステップを実行する必要はない。しかし、3Dのレンダリングモードが可能であれば、さらなる処理は移行タイプに依拠する。したがって、さらなる判定ステップ15において、移行タイプが決定される。3Dのレンダリングモードから2Dのレンダリングモードに移行する場合、必要な基礎画像BIまたは基礎画像モザイクBI−IMはすべて、3Dレンダリングのために既に前もってロードされているので、さらなるステップを実行する必要はない。2Dのレンダリングモードから3Dのレンダリングモードに移行する場合、さらなる処理は、図3の画像ロード要求7に応答して前に使用されたローディングモードに依拠する。したがって、さらなる決定ステップ16において、以前に使用されたローディングモードが決定される。当然、特定の実装形態に対してローディングモードが固定されているときは、さらなる決定ステップ16を省略することができる。イーガーローディングモードが用いられている場合、必要な従属画像DIまたは従属画像モザイクDI−IMはすべて、既に前もってロードされているので、さらなるステップを実行する必要はない。レイジーローディングモードが用いられている場合、必要な従属画像DIまたは従属画像モザイクDI−IMがロードされる(17)。
アプリケーションの、シーングラフをレンダリングすることができる部分は、グラフィックレンダリングモジュールである。このようなアプリケーションは、典型的に、再生されるコンテンツと一緒に記憶媒体で提供される。グラフィックレンダリングモジュールの一般的なタスクは、「ダブルバッファリング」、すなわちアプリケーションが、次の構成を非可視のバックバッファ(back buffer)の中に描き、一方、現行の構成が、表示装置に接続されたフロントバッファ(front buffer)に記憶されるという技法である。要求されたとき、グラフィックレンダリングモジュールは、バックバッファのコンテンツをフロントバッファにコピーする。ダブルバッファリング技法は、フリッカをもたらす可能性がある中間の構成が表示装置上で可視となるのを回避する。
立体的な3Dに関して、このようなグラフィックレンダリングモジュールは、それぞれが1つのバックバッファに接続される2つのパイプラインを必要とする。一方のバックバッファが左チャネルの出力を合成するのに必要とされ、他方のバックバッファは右チャネルの出力を合成するのに必要とされる。
このような立体のグラフィックレンダリングモジュールは、立体的な3Dレンダリングだけでなく2Dレンダリングをサポートするように設計することができる。後者の場合には、2つのパイプラインの一方が2Dの出力を生成するのに用いられ、他方のパイプラインは未使用のままである。さらに、立体の3Dグラフィックレンダリングモジュールは、立体の3Dレンダリングと平面の2Dレンダリングとの間の動的モード切換えをサポートするように設計することができる。これは、上記で概説された立体の3Dグラフィックレンダラは非常に柔軟性があることを意味する。
しかし、立体の3Dレンダリングモジュールは、2つのバックバッファを割り当て、そのそれぞれがかなりの量の画像メモリを割り当てる。ブルーレイプレーヤの場合には、このようなバックバッファは、1920×1080ピクセルの解像度に対してほぼ8MBの画像メモリを割り当てる。家庭用電子機器では、画像メモリは通常限られているので、好ましくは、以下の有利なルールが、立体の3Dモードまたは2Dモードのいずれかで立体的なシーングラフをレンダリングすることができるアプリケーションに対して実装される。
アプリケーションが、実行時に、例えばアプリケーションが2Dのブルーレイプレーヤで作動しているか、またはアプリケーションは3Dのブルーレイプレーヤで作動しているが非3Dの画面のみしかプレーヤに接続されていないために、その実行環境において3Dモードのレンダリングが不可能であると検出したとき、アプリケーションは、2Dモードのみでレンダリングすることが可能なグラフィックレンダラ実装を作成してアクティブにする。このような実装は、単一のパイプラインのみを組み込み、したがって、単一のバックバッファを保持するメモリのみを割り当てる。
アプリケーションが、その実行環境において立体の3Dモードが可能であると検出したとき、アプリケーションは、3Dモードおよび2Dモードでレンダリングすることが可能なグラフィックレンダラ実装を作成してアクティブにする。特に、アプリケーションは、3Dモードが技術的に可能であることを検出するのみである。これは、3Dモードをアクティブにすることを意味するわけではない。
立体的なシーングラフから、画面上にグラフィックオブジェクトを配置するための有効な「x」、「y」および「z」パラメータを導出することができる。平面の2Dのレンダリングについては、「x」が水平方向の位置を決定し、「y」が垂直方向の位置を決定し、「z」は、通常、個々の要素間の前/後関係(すなわち構成の順序)を指定するのみである。立体的なレンダリングについては、平面の2Dのレンダリングモードと同様であるが「z」は、シーングラフの個々の要素の構成の順番を決定するのに用いられる。
(付記1)
立体的なグラフィックオブジェクトのシーングラフを作成する方法であって、前記シーングラフは、前記立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、前記方法は、
前記立体的なグラフィックオブジェクトの基礎画像(BI)および従属画像(DI)を指定するステップと、
前記基礎画像(BI)および前記従属画像(DI)の空間的および/または時間的な配置を指定するステップと、
前記基礎画像(BI)の画像データ、前記従属画像(DI)の画像データ、ならびに前記基礎画像(BI)および前記従属画像(DI)の前記空間的および/または時間的な配置に関する情報をシーングラフに配置するステップと、
を含む、前記方法。
(付記2)
前記基礎画像(BI)の前記画像データを基礎画像モザイク(BI−IM)に配置するステップ、および/または前記従属画像(DI)の前記画像データを従属画像モザイク(DI−IM)に配置するステップをさらに含む、付記1に記載の方法。
(付記3)
前記基礎画像(BI)および前記従属画像(DI)が、前記立体的なグラフィックオブジェクトの立体バージョンのレンダリングを可能にし、前記基礎画像(BI)は、前記立体的なグラフィックオブジェクトの平面バージョンのレンダリングのみを可能にする、付記1または2に記載の方法。
(付記4)
立体的なグラフィックオブジェクトのシーングラフを作成するための装置であって、前記シーングラフは、前記立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、前記装置は、
前記立体的なグラフィックオブジェクトの基礎画像(BI)および従属画像(DI)を指定するための手段と、
前記基礎画像(BI)および前記従属画像(DI)の空間的および/または時間的な配置を指定するための手段と、
前記基礎画像(BI)の画像データ、前記従属画像(DI)の画像データ、ならびに前記基礎画像(BI)および前記従属画像(DI)の前記空間的および/または時間的な配置に関する情報をシーングラフに配置するための手段と、
を備えた、前記装置。
(付記5)
前記基礎画像(BI)の前記画像データを基礎画像モザイク(BI−IM)に配置し、および/または前記従属画像(DI)の前記画像データを従属画像モザイク(DI−IM)に配置するための手段をさらに有する、付記4に記載の装置。
(付記6)
前記基礎画像(BI)および前記従属画像(DI)が、前記立体的なグラフィックオブジェクトの立体バージョンのレンダリングを可能にし、前記基礎画像(BI)は、前記立体的なグラフィックオブジェクトの平面バージョンのレンダリングのみを可能にする、付記4または5に記載の装置。
(付記7)
立体的なグラフィックオブジェクトのシーングラフを備えた記憶媒体であって、前記シーングラフは、前記立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、前記シーングラフは、前記立体的なグラフィックオブジェクトの基礎画像(BI)の画像データ、前記立体的なグラフィックオブジェクトの従属画像(DI)の画像データ、ならびに前記基礎画像(BI)および前記従属画像(DI)の前記空間的および/または時間的な配置に関する情報を含む、前記記憶媒体。
(付記8)
前記グラフィックオブジェクトの前記基礎画像(BI)の前記画像データおよび前記従属画像(DI)の前記画像データをさらに含む、付記7に記載の記憶媒体。
(付記9)
前記基礎画像(BI)の前記画像データが基礎画像モザイク(BI−IM)に含まれ、および/または前記従属画像(DI)の前記画像データが従属画像モザイク(DI−IM)に含まれる、付記8に記載の記憶媒体。
(付記10)
前記基礎画像(BI)および前記従属画像(DI)が、前記立体的なグラフィックオブジェクトの立体バージョンのレンダリングを可能にし、前記基礎画像(BI)は、前記立体的なグラフィックオブジェクトの平面バージョンのレンダリングのみを可能にする、付記8または9に記載の記憶媒体。
(付記11)
立体的なグラフィックオブジェクトをレンダリングする方法であって、
前記立体的なグラフィックオブジェクトの基礎画像(BI)の画像データおよび従属画像(DI)の画像データ、ならびに前記基礎画像(BI)および前記従属画像(DI)の空間的および/または時間的な配置に関する情報を含むシーングラフを取得するステップと、
前記立体的なグラフィックオブジェクトの立体バージョンをレンダリングするために、前記基礎画像(BI)の画像データおよび前記従属画像(DI)の画像データを取得し、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像(BI)および前記従属画像(DI)の前記立体的なグラフィックオブジェクトを構成するステップと、
前記立体的なグラフィックオブジェクトの平面バージョンをレンダリングするために、前記基礎画像(BI)の前記画像データを取得し、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像(BI)の前記立体的なグラフィックオブジェクトのみを構成するステップと、
を含む、前記方法。
(付記12)
前記立体的なグラフィックオブジェクトの平面バージョンをレンダリングする場合、前記従属画像(DI)の前記画像データも取得する、付記11に記載の方法。
(付記13)
立体的なグラフィックオブジェクトをレンダリングするための装置であって、
前記立体的なグラフィックオブジェクトの基礎画像(BI)の画像データおよび従属画像(DI)の画像データ、ならびに前記基礎画像(BI)および前記従属画像(DI)の空間的および/または時間的な配置に関する情報を含むシーングラフを取得するための手段と、
前記立体的なグラフィックオブジェクトの立体バージョンをレンダリングするために、前記基礎画像(BI)の前記画像データおよび前記従属画像(DI)の前記画像データを取得し、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像(BI)および前記従属画像(DI)の前記立体的なグラフィックオブジェクトを構成するための手段と、
前記立体的なグラフィックオブジェクトの平面バージョンをレンダリングするために、前記基礎画像(BI)の前記画像データを取得し、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像(BI)の前記立体的なグラフィックオブジェクトのみを構成するための手段と、
を備えた、前記装置。
(付記14)
前記立体的なグラフィックオブジェクトの平面バージョンをレンダリングする場合、前記従属画像(DI)の前記画像データも取得する、付記13に記載の装置。
(付記15)
立体的なグラフィックオブジェクトのシーングラフであって、前記立体的なグラフィックオブジェクトの空間的および/または時間的な配置を記述し、前記立体的なグラフィックオブジェクトの基礎画像(BI)の画像データ、前記グラフィックオブジェクトの従属画像(DI)の画像データ、ならびに前記基礎画像(BI)および前記従属画像(DI)の前記空間的および/または時間的な配置に関する情報を備えた、前記シーングラフ。
(付記16)
前記基礎画像(BI)および前記従属画像(DI)が、前記立体的なグラフィックオブジェクトの立体バージョンのレンダリングを可能にし、前記基礎画像(BI)は、前記立体的なグラフィックオブジェクトの平面バージョンのレンダリングのみを可能にする、付記15に記載のシーングラフ。
(付記17)
3Dレンダリングモードと2Dレンダリングモードとの間で切換え可能であり、出力がグラフィックサブシステムに供給される、レンダリングモジュールを初期化する方法であって、
立体的なコンテンツをレンダリングすべきかどうかを判断するステップと、
前記グラフィックサブシステムが立体的なモードでレンダリングすることができるかどうかを判断するステップと、
前記グラフィックサブシステムが立体的なモードでレンダリングすることができる場合には、前記グラフィックサブシステムの現行のレンダリングモードとは独立に前記レンダリングモジュールを初期化するステップと、
を含む、前記方法。
(付記18)
3Dレンダリングモードと2Dレンダリングモードとの間で切換え可能であり、出力がグラフィックサブシステムに供給されるレンダリングモジュールを含む、アプリケーションを備えた記憶媒体であって、前記アプリケーションは、
立体的なコンテンツをレンダリングすべきかどうかを判断するステップと、
前記グラフィックサブシステムが立体的なモードでレンダリングすることができるかどうかを判断するステップと、
前記グラフィックサブシステムが立体的なモードでレンダリングすることができる場合、前記グラフィックサブシステムの現行のレンダリングモードとは独立に前記レンダリングモジュールを初期化するステップと、
を実行するように適合される、前記記憶媒体。

Claims (11)

  1. 立体的なグラフィックオブジェクトのシーングラフを作成する方法であって、前記シーングラフは、前記立体的なグラフィックオブジェクトの少なくとも1つのグラフィック要素の空間的および/または時間的な配置を記述し、前記方法は、
    前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の基礎画像および従属画像を指定することと、
    前記基礎画像および前記従属画像の空間的および/または時間的な配置を指定することと、
    前記基礎画像の画像データ、前記従属画像の画像データ、ならびに前記基礎画像および前記従属画像の前記空間的および/または時間的な配置に関する情報をシーングラフに配置することと、
    を含み、
    前記基礎画像および前記従属画像が、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の立体バージョンのレンダリングを可能にし、前記基礎画像は、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンのレンダリングのみを可能にする、前記方法。
  2. 前記基礎画像の前記画像データを基礎画像モザイクに配置すること、および/または前記従属画像の前記画像データを従属画像モザイクに配置することをさらに含む、請求項1に記載の方法。
  3. 立体的なグラフィックオブジェクトのシーングラフを作成するよう構成された装置であって、前記シーングラフは、前記立体的なグラフィックオブジェクトの少なくとも1つのグラフィック要素の空間的および/または時間的な配置を記述し、前記装置は、
    前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の基礎画像および従属画像を指定するための手段と、
    前記基礎画像および前記従属画像の空間的および/または時間的な配置を指定するための手段と、
    前記基礎画像の画像データ、前記従属画像の画像データ、ならびに前記基礎画像および前記従属画像の前記空間的および/または時間的な配置に関する情報をシーングラフに配置するための手段と、
    を備え
    前記基礎画像および前記従属画像が、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の立体バージョンのレンダリングを可能にし、前記基礎画像は、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンのレンダリングのみを可能にする、前記装置。
  4. 前記基礎画像の前記画像データを基礎画像モザイクに配置し、および/または前記従属画像の前記画像データを従属画像モザイクに配置するための手段をさらに有する、請求項に記載の装置。
  5. 立体的なグラフィックオブジェクトのシーングラフを備えたコンピュータ可読記憶媒体であって、前記シーングラフは、前記立体的なグラフィックオブジェクトの少なくとも1つのグラフィック要素の空間的および/または時間的な配置を記述し、前記シーングラフは、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の基礎画像の画像データ、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の従属画像の画像データ、ならびに前記基礎画像および前記従属画像の前記空間的および/または時間的な配置に関する情報を含み、
    前記基礎画像および前記従属画像が、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の立体バージョンのレンダリングを可能にし、前記基礎画像は、前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンのレンダリングのみを可能にする、前記コンピュータ可読記憶媒体。
  6. 前記グラフィックオブジェクトの前記少なくとも1つのグラフィック要素の前記基礎画像の前記画像データおよび前記従属画像の前記画像データをさらに含む、請求項に記載のコンピュータ可読記憶媒体。
  7. 前記基礎画像の前記画像データが基礎画像モザイクに含まれ、および/または前記従属画像の前記画像データが従属画像モザイクに含まれる、請求項に記載のコンピュータ可読記憶媒体。
  8. 立体的なグラフィックオブジェクトをレンダリングする方法であって、
    前記立体的なグラフィックオブジェクトの少なくとも1つのグラフィック要素の基礎画像の画像データおよび従属画像の画像データ、ならびに前記基礎画像および前記従属画像の空間的および/または時間的な配置に関する情報を含むシーングラフを取得することと、
    前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の立体バージョンをレンダリングするために、前記取得した前記基礎画像の前記画像データおよび前記従属画像の前記画像データを用いて、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像および前記従属画像の前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素を構成することと、
    前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンをレンダリングするために、前記取得した前記基礎画像の前記画像データを用いて、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像の前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の前記平面バージョンのみを構成することと、
    を含む、前記方法。
  9. 前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンをレンダリングする場合、前記従属画像の前記画像データも取得する、請求項に記載の方法。
  10. 立体的なグラフィックオブジェクトをレンダリングするための装置であって、
    前記立体的なグラフィックオブジェクトの少なくとも1つのグラフィック要素の基礎画像の画像データおよび従属画像の画像データ、ならびに前記基礎画像および前記従属画像の空間的および/または時間的な配置に関する情報を含むシーングラフを取得するための手段と、
    前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の立体バージョンをレンダリングするために、前記取得した前記基礎画像の前記画像データおよび前記従属画像の前記画像データを用いて、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像および前記従属画像の前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素を構成するための手段と、
    前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンをレンダリングするために、前記取得した前記基礎画像の前記画像データを用いて、前記シーングラフで指定された前記空間的および/または時間的な配置に従って、前記基礎画像の前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の前記平面バージョンのみを構成するための手段と、
    を備えた、前記装置。
  11. 前記立体的なグラフィックオブジェクトの前記少なくとも1つのグラフィック要素の平面バージョンをレンダリングする場合、前記従属画像の前記画像データも取得する、請求項10に記載の装置。
JP2014501528A 2011-03-31 2012-03-19 立体的なグラフィックオブジェクトを定義するためのシーングラフ Expired - Fee Related JP6113142B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11305373A EP2506263A1 (en) 2011-03-31 2011-03-31 Stereoscopic scene graph for defining 3D- and 2D-compatible graphical objects
EP11305373.0 2011-03-31
PCT/EP2012/054761 WO2012130650A2 (en) 2011-03-31 2012-03-19 Scene graph for defining a stereoscopic graphical object

Publications (3)

Publication Number Publication Date
JP2014516432A JP2014516432A (ja) 2014-07-10
JP2014516432A5 JP2014516432A5 (ja) 2015-04-30
JP6113142B2 true JP6113142B2 (ja) 2017-04-12

Family

ID=44041523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014501528A Expired - Fee Related JP6113142B2 (ja) 2011-03-31 2012-03-19 立体的なグラフィックオブジェクトを定義するためのシーングラフ

Country Status (6)

Country Link
US (1) US10332299B2 (ja)
EP (2) EP2506263A1 (ja)
JP (1) JP6113142B2 (ja)
KR (1) KR20140010120A (ja)
CN (1) CN103460292B (ja)
WO (1) WO2012130650A2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140300611A1 (en) * 2013-03-15 2014-10-09 Trigger Happy, Ltd. Web and native code environment modular player and modular rendering system
US9092658B2 (en) 2013-04-25 2015-07-28 Nvidia Corporation Automatic detection of stereoscopic content in video/image data
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
CN109658516B (zh) * 2018-12-11 2022-08-30 国网江苏省电力有限公司常州供电分公司 Vr培训场景的创建方法、vr培训系统以及计算机可读存储介质
CN110717963B (zh) * 2019-08-30 2023-08-11 杭州群核信息技术有限公司 一种基于WebGL的可替换模型的混合渲染展示方法、系统及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590573B1 (en) 1983-05-09 2003-07-08 David Michael Geshwind Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems
JP2001273520A (ja) 2000-03-23 2001-10-05 Famotik Ltd マルチメディアドキュメント統合表示システム
FR2828055B1 (fr) 2001-07-27 2003-11-28 Thomson Licensing Sa Procede et dispositif de codage d'une mosaique d'images
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
JP2004102526A (ja) * 2002-09-06 2004-04-02 Sony Corp 立体画像表示装置、表示処理方法及び処理プログラム
KR100488804B1 (ko) * 2002-10-07 2005-05-12 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상 데이터 처리시스템 및 그 방법
EP1579391A4 (en) 2002-11-01 2009-01-21 Sony Electronics Inc UNIFORM SURFACE MODEL FOR PICTORIAL AND GEOMETRIC SCENE COMPOSITION
US7417645B2 (en) 2003-03-27 2008-08-26 Microsoft Corporation Markup language and object model for vector graphics
JP4490074B2 (ja) 2003-04-17 2010-06-23 ソニー株式会社 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム
US8711203B2 (en) 2006-10-11 2014-04-29 Koninklijke Philips N.V. Creating three dimensional graphics data
KR100826519B1 (ko) * 2007-05-29 2008-04-30 한국전자통신연구원 Dmb 기반의 3차원 정지영상 서비스를 위한 객체 기술 및다중화 방법과, 그에 따른 복호화 장치 및 그 방법
US20080303832A1 (en) 2007-06-11 2008-12-11 Samsung Electronics Co., Ltd. Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
GB0806183D0 (en) 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
EP2293583A1 (en) * 2008-06-24 2011-03-09 Panasonic Corporation Recording medium, reproducing device, integrated circuit, reproducing method, and program
EP2308239B8 (en) * 2008-07-20 2017-08-02 Dolby Laboratories Licensing Corporation Compatible stereoscopic video delivery
KR100984816B1 (ko) 2008-08-20 2010-10-01 주식회사 컴퍼니원헌드레드 3d 그래픽스 사용자 인터페이스 모델링 언어 기반의 모바일 응용 프로그램 구성 방법
JP5368470B2 (ja) * 2008-11-06 2013-12-18 パナソニック株式会社 再生装置、再生方法、再生プログラム、及び集積回路
RU2504916C2 (ru) * 2008-12-01 2014-01-20 Шарп Кабусики Кайся Устройство воспроизведения содержимого и носитель записи
KR101659576B1 (ko) * 2009-02-17 2016-09-30 삼성전자주식회사 영상 처리 방법 및 장치
CN102740038A (zh) 2009-02-19 2012-10-17 松下电器产业株式会社 半导体集成电路
JP5510700B2 (ja) * 2009-04-03 2014-06-04 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
US9307224B2 (en) * 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same

Also Published As

Publication number Publication date
US20140002451A1 (en) 2014-01-02
JP2014516432A (ja) 2014-07-10
CN103460292B (zh) 2017-02-15
EP2691956A2 (en) 2014-02-05
WO2012130650A2 (en) 2012-10-04
CN103460292A (zh) 2013-12-18
KR20140010120A (ko) 2014-01-23
US10332299B2 (en) 2019-06-25
EP2506263A1 (en) 2012-10-03
WO2012130650A3 (en) 2013-01-10

Similar Documents

Publication Publication Date Title
TWI461932B (zh) 多層幻燈片轉換
JP6113142B2 (ja) 立体的なグラフィックオブジェクトを定義するためのシーングラフ
JP5525175B2 (ja) 複数のハードウェア・ドメイン、データ・タイプ、およびフォーマットの処理を統合し抽象化するフレームワーク
CN102027749B (zh) 考虑特殊再现的再现装置、集成电路、再现方法
CN114463160B (zh) 一种图形流水线的并行处理方法、装置及可读存储介质
US8587602B2 (en) GPU texture tile detail control
US7583269B2 (en) Window system 2D graphics redirection using direct texture rendering
JP2008165768A (ja) 動的映像物を生成するためのテンプレートを編集する装置および方法。
JP2008136213A (ja) 動画のフレーム情報を生成する方法、それを利用したシステム及び記録媒体
JP2009508214A (ja) フォト・マンテル・ビューおよびアニメーション
Sauer et al. U-create: Creative authoring tools for edutainment applications
EP4088451A1 (en) Method and apparatus for media scene description
US9396574B2 (en) Choreography of animated crowds
CN102474650B (zh) 立体观察影像的再现装置、集成电路、再现方法
US20220060750A1 (en) Freeview video coding
KR20230070040A (ko) 미디어 장면 기술을 위한 방법 및 장치
JP3602061B2 (ja) 3次元グラフィックス表示装置及びその方法
KR102210380B1 (ko) 복합 컨텐츠 패키지의 생성 및 활용을 위한 장치 및 방법
KR102541262B1 (ko) Vr 컨텐츠의 오브젝트 적용 방법, 장치 및 컴퓨터-판독 가능 기록 매체
JP2022523020A (ja) 相互運用可能な3d画像コンテンツのハンドリング
RU2810701C2 (ru) Гибридный рендеринг
US20080079720A1 (en) Method, medium, and system authoring three-dimensional graphic data
KR101675956B1 (ko) 공동 제작 컨텐츠를 위한 랜더링 방법 및 시스템
KR20180112526A (ko) 쉐이더 생성 방법 및 장치

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170314

R150 Certificate of patent or registration of utility model

Ref document number: 6113142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees