JP2002015328A - Method for rendering user interactive scene of object base displayed using scene description - Google Patents

Method for rendering user interactive scene of object base displayed using scene description

Info

Publication number
JP2002015328A
JP2002015328A JP2000198048A JP2000198048A JP2002015328A JP 2002015328 A JP2002015328 A JP 2002015328A JP 2000198048 A JP2000198048 A JP 2000198048A JP 2000198048 A JP2000198048 A JP 2000198048A JP 2002015328 A JP2002015328 A JP 2002015328A
Authority
JP
Japan
Prior art keywords
scene
affected
area
node
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000198048A
Other languages
Japanese (ja)
Inventor
Yuan Yuan Chao
チャオ・ユァン・ユァン
Toshio Oka
敏夫 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000198048A priority Critical patent/JP2002015328A/en
Publication of JP2002015328A publication Critical patent/JP2002015328A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a new improved method for rendering an audio visual 2D scene of an object described by an MPEG-4 scene tree using dynamic movement detection and rendering using a clipping region. SOLUTION: This method removes overhead of a buffer copy generated when a conventional method is used for a scene of the object base. Instead of rendering all objects on the scene per rendering frame, a change in the display region of the scene is detected, and only the object in the changed region is displayed again in the changed region as the clipping region. In this method, a region list affected to examine the scene to be rendered and a rendering order list are used.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、オブジェクトベー
ス(object-based)のユーザインタラクティブ(user inte
ractive)オーディオ−ビジュアル2Dシーンのレンダリ
ングに関するものである。この2Dシーンは、MPEG
−4 BIFSシーン記述を用いて記述される((1)
参照)。MPEG−4において、個々のオブジェクト
は、高圧縮を行うために独立的に符号化されるととも
に、マルチメディアコンテンツのオブジェクトベースの
双方向性を実現するために独立的に符号化される。シー
ン記述は、空間的位置と時間的位置の両方に関して、シ
ーンにおけるオーディオビジュアルオブジェクトの集合
のアドレスを指定するために使用される。メディアオブ
ジェクトの空間と時間上の属性は、センサとルートによ
って更新される。本発明は、MPEG−4 BIFS表
現されたシーンをレンダリングするための効果的な方法
を提示するものであり、その方法は、MPEG−4 B
IFSシーン記述の構造とオブジェクトベースの合成(c
omposition)の性質とを使用する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object-based user interactive system.
ractive) rendering of audio-visual 2D scenes. This 2D scene is MPEG
-4 Described using BIFS scene description ((1)
reference). In MPEG-4, individual objects are independently encoded to provide high compression and independently to achieve object-based interactivity of multimedia content. The scene description is used to address the set of audiovisual objects in the scene, both in terms of spatial and temporal positions. The spatial and temporal attributes of the media object are updated by sensors and routes. The present invention provides an effective method for rendering an MPEG-4 BIFS-represented scene, the method comprising:
IFS scene description structure and object-based synthesis (c
omposition) and use.

【0002】[0002]

【従来の技術】MPEG−4において、完成したシーン
を構成する異なるオブジェクトは、別々に圧縮される。
ターミナル(terminal)においてマルチメディアを再構築
するために、生のオーディオ−ビジュアルデータを使用
するだけでは十分ではない。これらのオブジェクトを組
み合わせるために、さらに意味のあるマルチメディアシ
ーンを構築し表現するために、追加情報が必要とされ
る。この情報は、シーン記述と呼ばれており、各デコー
ダがオーディオビジュアルオブジェクトを復号化した
後、この情報により、個々のオーディオビジュアルオブ
ジェクトの合成とレンダリングを行うことができる。M
PEG−4において、シーン記述は、シーン記述用のバ
イナリーフォーマット(BIFS)で表現される。イン
ターナショナルスタンダードのファイナルコミッティー
ドラフト(the Final Committee Draft of Internationa
l Standard)において使用されるこのシーン記述フレー
ムワークは、主にISO/IEC 14772−1(バ
ーチャルリアリティーモデリング言語−VRML)
((2)参照)を基礎にしている。
2. Description of the Related Art In MPEG-4, different objects making up a completed scene are compressed separately.
It is not enough to use raw audio-visual data to reconstruct multimedia at a terminal. To combine these objects, additional information is needed to build and represent more meaningful multimedia scenes. This information is called a scene description, and after each decoder decodes the audiovisual object, it can be used to synthesize and render individual audiovisual objects. M
In PEG-4, a scene description is represented in a scene description binary format (BIFS). The Final Committee Draft of Internationala
l Standard), this scene description framework is mainly based on ISO / IEC 14772-1 (Virtual Reality Modeling Language-VRML)
(See (2)).

【0003】BIFSシーンは、図1において図示され
ているようなシーンツリーの形式で、複数のビジュアル
およびオーラルの基本要素を表す。BIFSシーン記述
は、シーン構造を記述するノードの集合で構成されてい
る。シーンにおけるメディアオブジェクトは、1つまた
は複数のノードによって記述されており、それは、1つ
にまとめられてもよい。例えば、図1におけるテキスト
オブジェクトは、ノード101からノード108までの
グループによって記述されている。ノードは、オブジェ
クトの特性または情報を含む。図1において、ノード1
09、110、111のようなリーフノードは、特定の
オーディオオブジェクトまたはビジュアルオブジェクト
(メディアノード)に相当し、それに対してノード10
1、102、112のような中間ノードは、グループ
化、座標変換、特定のオーディオオペレーションまたは
ビジュアルオペレーション(シーン記述ノード)を実行
する。シーンにおけるメディアオブジェクトは、空間的
な範囲と時間的な範囲の両方を有する。オブジェクト
は、オブジェクトのローカルな座標系からシーンにおけ
る親ノードによって定義される別の座標系への座標変換
を指定することによって、シーンにおける位置が決定さ
れる。
A BIFS scene represents a plurality of visual and oral primitives in the form of a scene tree as illustrated in FIG. The BIFS scene description is composed of a set of nodes describing a scene structure. Media objects in a scene are described by one or more nodes, which may be grouped together. For example, the text object in FIG. 1 is described by a group from node 101 to node 108. Nodes contain object properties or information. In FIG. 1, node 1
Leaf nodes such as 09, 110, 111 correspond to specific audio or visual objects (media nodes), whereas node 10
Intermediate nodes, such as 1, 102, 112, perform grouping, coordinate transformation, specific audio or visual operations (scene description nodes). Media objects in a scene have both a spatial and temporal extent. An object is located in the scene by specifying a coordinate transformation from the object's local coordinate system to another coordinate system defined by a parent node in the scene.

【0004】アクティブユーザと表示されたオーディオ
ビジュアル情報とを関連付けるために、MPEG−4の
仕様書は、インタラクティブオペレーションに対するサ
ポートを規定している。インタラクティブメカニズム
は、センサ(図1におけるノード113のような特定の
条件に基づくイベントを生じさせることができる特別な
ノード)に加えて関連付けられたイベントソースとター
ゲット(ルート)の形式で、シーン記述情報と統合され
る。これらのイベントソースとターゲットは、シーン記
述ノードの一部であり、特定のシーンとのインタラクテ
ィブ作用と動的作用を容易に結びつけることができる。
In order to associate active users with displayed audiovisual information, the MPEG-4 specification specifies support for interactive operations. The interactive mechanism includes scene description information in the form of an event source and target (route) associated with the sensor (a special node capable of generating an event based on certain conditions, such as node 113 in FIG. 1). Integrated with These event sources and targets are part of the scene description node, and can easily link the interactive action and dynamic action with a specific scene.

【0005】先行技術によれば、シーン全体は、BIF
Sシーン記述によってもたらされる空間的情報と時間的
情報に基づいて再構築される。しかし、規格は、特定の
合成を指定していないし、合成に関する構造またはアル
ゴリズムのレンダリングも指定していない。
According to the prior art, the entire scene is BIF
It is reconstructed based on the spatial and temporal information provided by the S scene description. However, the standard does not specify a particular composition, nor does it specify the rendering of structures or algorithms related to composition.

【0006】シーンのレンダリングの際に、シーンにお
いて表示可能なオブジェクトは、最初にテンポラリーメ
モリバッファにおいて準備される。ドローイングする際
に、このテンポラリーメモリバッファにおいて準備され
た内容は、ウインドまたはその他のデバイスにおいて表
示するためのグラフィックサブシステムに転送される。
When rendering a scene, the objects that can be displayed in the scene are first prepared in a temporary memory buffer. Upon drawing, the content prepared in this temporary memory buffer is transferred to a graphics subsystem for display on a window or other device.

【0007】オブジェクトベースのシーンを準備しレン
ダリングするために使用される従来の方法は、シーンに
おける全ての表示可能なオブジェクトで構成されるドロ
ーイングオーダリストを作成することである。表示可能
なオブジェクトは、シーンにおけるドローイングオーダ
どおりにドローイングオーダリストに並べられている。
後ろに現れるオブジェクトは、前に現れるオブジェクト
より比較的低いドローイングオーダが割り当てられる。
各フレームごとに、ドローイングオーダリストは更新さ
れ、ドローイングオーダリストは、逆のドローイングオ
ーダに変えられて、1つ1つ表示される。この従来のレ
ンダリング方法は、図2において図示されたフローチャ
ートを用いて説明されている。
[0007] A conventional method used to prepare and render object-based scenes is to create a drawing order list consisting of all the displayable objects in the scene. Objects that can be displayed are arranged in the drawing order list according to the drawing order in the scene.
Objects appearing later are assigned a relatively lower drawing order than objects appearing earlier.
For each frame, the drawing order list is updated, and the drawing order list is changed to the reverse drawing order and displayed one by one. This conventional rendering method is described using the flowchart shown in FIG.

【0008】[0008]

【発明が解決しようとする課題】先行技術のレンダリン
グ方法をMPEG−4オーディオ−ビジュアルシーンに
適用するときに、以下の問題がある。その問題は、表示
されているオブジェクトが変化するしないにかかわら
ず、各フレームごとにシーンにおける全てのオブジェク
トをレンダリングすることである。したがって、これら
の不必要なオブジェクトを表示し直すためにバッファが
コピーするプロセスで、非常にたくさんの時間が無駄に
使われる。
There are the following problems when applying prior art rendering methods to MPEG-4 audio-visual scenes. The problem is that every object in the scene is rendered every frame, regardless of whether the displayed object changes. Therefore, a great deal of time is wasted in the process of copying buffers to redisplay these unnecessary objects.

【0009】例として以下のシナリオを用いて、上記に
記載された問題を説明する。以下の構成要素で作成され
るシーンについて考える。 (i)大きくて変化の少ない背景イメージ。この背景イ
メージは、タイトルが表示されている間、変化しない。 (ii)シーンにおいて位置と大きさが固定されているビ
デオオブジェクト。 (iii)イメージウインドとテキストウインド。このイ
メージウインドとテキストウインドは、各ビデオフレー
ム間よりかなり長い周期で、ウインドのコンテンツ(イ
メージオブジェクトとテキストオブジェクト)を変化さ
せる。
The problem described above will be explained using the following scenario as an example. Consider a scene created by the following components. (I) A large and little-changed background image. This background image does not change while the title is displayed. (Ii) A video object whose position and size are fixed in the scene. (Iii) Image window and text window. The image and text windows change the window content (image and text objects) at a much longer period than between each video frame.

【0010】図2において示されている従来のレンダリ
ング方法を用いて、各ビデオフレームごとにシーンツリ
ーにおける全ての表示可能なオブジェクトが表示し直さ
れる。最初に、次のフレームであるか否かをチェックす
る(S201)。次に、センサーとルートを更新する
(S202)。次に、シーンにおける全てのオブジェク
トをそれぞれのドローイングオーダに基づいてドローイ
ングオーダリストに挿入する(S203)。次に、ドロ
ーイングオーダリストから各オブジェクトをレンダリン
グする(S204)。従来のレンダリング方法は、これ
らのステップS201からステップS204を繰り返し
行っていた。ここで、イメージウインドとテキストウイ
ンドがビデオフレームの間隔よりかなり長い周期でそれ
らのウインドのコンテンツを変化させるとしても、イメ
ージとテキストオブジェクトは、ビデオフレームごとに
表示し直される。これにより、レンダリングの効率が悪
くなる。バッファがコピーするプロセスは、非常に時間
を浪費し、時間の大部分は、大きな背景のように変化し
ていないオブジェクトや、必要以上に短い周期でイメー
ジウインドとテキストウインドを表示し直しすることに
使用される。
Using the conventional rendering method shown in FIG. 2, every displayable object in the scene tree is redisplayed for each video frame. First, it is checked whether or not the frame is the next frame (S201). Next, the sensor and the route are updated (S202). Next, all the objects in the scene are inserted into the drawing order list based on the respective drawing orders (S203). Next, each object is rendered from the drawing order list (S204). In the conventional rendering method, these steps S201 to S204 were repeatedly performed. Here, the image and text objects are redisplayed for each video frame, even though the image and text windows change the content of those windows at a much longer period than the video frame interval. As a result, the efficiency of rendering deteriorates. The process of copying buffers is very time consuming, and most of the time is spent redrawing image and text windows with objects that haven't changed, such as a large background, or with a shorter period than necessary. used.

【0011】[0011]

【課題を解決するための手段】上記に記載された問題を
解決するために、本発明は、動的な動き検出を加えるこ
とによって、さらにレンダリング効率を向上させるため
にクリッピング(clipping)領域を用いてレンダリングす
ることによって、従来のレンダリング処理を拡張し向上
させる方法を提供する。各フレームごとに全てのオブジ
ェクトを表示し直す代わりに、レンダリングは、表示が
変化しているシーンにおける領域だけを表示し直す。こ
れを達成するために、以下の3つのメカニズムが必要と
される。 (i)シーンにおいてどの領域が変化しているか検出す
る。 (ii)どのオブジェクトが変化した領域と同一であるか
または重複するか検出する。 (iii)変化した領域におけるオブジェクトを、クリッ
ピング領域のような対応する領域を用いて表示し直す。 上記の方法を用いて、レンダリングの効率と速度が向上
する。
SUMMARY OF THE INVENTION To solve the problems described above, the present invention uses a clipping region to further increase rendering efficiency by adding dynamic motion detection. Provide a way to extend and enhance conventional rendering processes. Instead of redisplaying all objects every frame, rendering only redisplays regions in the scene where the display is changing. To achieve this, the following three mechanisms are required. (I) Detect which area in the scene is changing. (Ii) Detect which object is the same or overlaps with the changed area. (Iii) Redisplay the object in the changed area using a corresponding area such as a clipping area. Using the above method, rendering efficiency and speed are improved.

【0012】また、さらに上記に記載された問題を解決
するために、本発明の請求項1に記載のシーン記述を用
いて表されるオブジェクトベースのユーザインタラクテ
ィブシーンをレンダリングする方法は、シーンにおける
オブジェクトの空間的関係と時間的関係がシーン記述を
用いて表され、該シーン記述は、オブジェクトの属性を
記述する複数のノードと、1つのノードのフィールドを
別のノードのフィールドに接続するルートとを含んでい
る、オブジェクトベースのユーザインタラクティブシー
ンをレンダリングする方法であって、前記方法は、トラ
ンスレーションフィールドの値が変化し、トランスフォ
ーム2Dノードの下にあるオブジェクトが影響を受けた
と判断されるならば、シーンツリーにおける全てのトラ
ンスフォーム2Dノードのトランスレーションフィール
ドの値を調べるステップと、前記影響を受けたオブジェ
クトの以前の表示領域と現在の表示領域を計算するステ
ップと、前記影響を受けたオブジェクトの以前の表示領
域と現在の表示領域を、影響を受けた領域リストに挿入
するステップと、フイッチチョイスフィールドの値が変
化し、スイッチ2Dノードのフイッチチョイスフィール
ドの以前の値によって選択されたオブジェクトは、スイ
ッチ2Dノードのフイッチチョイスフィールドの現在の
値によって選択された新しいオブジェクトに置き換えら
れ、以前の選択されたオブジェクトと現在の選択された
オブジェクトの両方の領域が影響を受けたと判断された
ならば、シーンツリーにおける全てのスイッチ2Dノー
ドのフイッチチョイスフィールドの値を調べるステップ
と、前記以前の選択されたオブジェクトの表示領域と前
記現在の選択されたオブジェクトの表示領域を計算する
ステップと、前記以前の選択されたオブジェクトの表示
領域と前記現在の選択されたオブジェクトの表示領域
を、前記影響を受けた領域リストに挿入するステップ
と、前記影響を受けた領域リストにおける2つの領域が
同一であるならば、前記影響を受けた領域リストから同
一の2つの領域のうち1つを削除するステップと、前記
影響を受けた領域リストにおける1つの領域が、前記影
響を受けた領域リストにおける別の領域に完全に含まれ
るならば、前記影響を受けた領域リストから小さいほう
の領域を削除するステップと、現在のシーンツリーにお
けるオブジェクトの表示領域が影響を受けた領域リスト
における影響を受けた領域と一致するまたは重複し、該
オブジェクトが、前記影響を受けた領域と関連するドロ
ーイングオーダリストに挿入されるならば、影響を受け
た領域リストにおける領域と現在のシーンツリーにおけ
る全てのオブジェクトの表示領域とを比較するステップ
と、クリッピング領域として影響を受けた領域に相当す
る領域を用いて、影響を受けた領域リストのドローイン
グオーダリストにあるオブジェクトをスクリーンにレン
ダリングするステップとを含むことを特徴とするもので
ある。
To further solve the above-mentioned problem, a method for rendering an object-based user interactive scene represented using a scene description according to claim 1 of the present invention comprises: Is represented using a scene description, which describes a plurality of nodes describing the attributes of the object and a route connecting the field of one node to the field of another node. A method for rendering an object-based user interactive scene, comprising: if the value of a translation field changes and it is determined that an object under a transform 2D node is affected. , All transforms 2D in the scene tree Examining the value of a translation field of a code, calculating a previous display area and a current display area of the affected object, and displaying a previous display area and a current display of the affected object. Inserting the region into the list of affected regions; and changing the value of the FitchChoice field so that the object selected by the previous value of the FitchChoice field of the Switch2D node is the Fitch of the Switch2D node. All switches in the scene tree, if replaced by the new object selected by the current value of the choice field and it is determined that the area of both the previous selected object and the current selected object has been affected 2D node Fitch Choice Field Determining the display area of the previously selected object and the display area of the current selected object; and displaying the display area of the previously selected object and the current selected object. Inserting the display area of the affected area list into the affected area list, and if the two areas in the affected area list are the same, Removing one of them; if one area in the affected area list is completely contained in another area in the affected area list, Deleting the other region and the display region of the object in the current scene tree is added to the affected region list. If the object is inserted into the drawing order list associated with the affected area, the area in the affected area list and the current scene tree Comparing the display areas of all objects with the display area of the affected area list and rendering the objects in the drawing order list of the affected area list on the screen using a region corresponding to the affected region as a clipping region. It is characterized by including.

【0013】また、請求項2に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする方法は、請求項1に記載の
シーン記述を用いて表されるオブジェクトベースのユー
ザインタラクティブシーンをレンダリングする方法にお
いて、シーンにおけるオブジェクトの動きを検出する方
法が、トランスレーションフィールドの値が変化し、ト
ランスフォーム2Dノードの下にあるオブジェクトが影
響を受けたと判断されるならば、シーンツリーにおける
全てのトランスフォーム2Dノードのトランスレーショ
ンフィールドの値を調べるステップと、フイッチチョイ
スフィールドの値が変化し、スイッチ2Dノードのフイ
ッチチョイスフィールドの以前の値によって選択された
オブジェクトは、スイッチ2Dノードのフイッチチョイ
スフィールドの現在の値によって選択された新しいオブ
ジェクトに置き換えられ、以前の選択されたオブジェク
トと現在の選択されたオブジェクトの両方の領域が影響
を受けたと判断されたならば、シーンツリーにおける全
てのスイッチ2Dノードのフイッチチョイスフィールド
の値を調べるステップとを含むことを特徴とするもので
ある。
A method for rendering an object-based user interactive scene represented by using a scene description according to claim 2 is a method for rendering an object-based user interactive scene represented by using a scene description according to claim 1. In the method of rendering a scene, a method of detecting the movement of an object in the scene is to change the value of the translation field and determine that the object under the transform 2D node has been affected. Examining the values of the translation fields of all transform 2D nodes; and changing the value of the switch choice field, the object selected by the previous value of the switch choice field of the switch 2D node is: If it is determined that the new object selected by the current value of the Switch Choice field of the Switch 2D node has been replaced, and that both the previously selected object and the currently selected object are affected, Examining the values of the Fitch Choice fields of all the switch 2D nodes in the scene tree.

【0014】また、請求項3に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする方法は、請求項1に記載の
シーン記述を用いて表されるオブジェクトベースのユー
ザインタラクティブシーンをレンダリングする方法にお
いて、シーンにおける変化した表示領域を検出する方法
が、トランスレーションフィールドの値が変化し、トラ
ンスフォーム2Dノードの下にあるオブジェクトが影響
を受けたと判断されるならば、シーンツリーにおける全
てのトランスフォーム2Dノードのトランスレーション
フィールドの値を調べるステップと、前記影響を受けた
オブジェクトの以前の表示領域と現在の表示領域を、変
化した表示領域として計算するステップと、フイッチチ
ョイスフィールドの値が変化し、スイッチ2Dノードの
フイッチチョイスフィールドの以前の値によって選択さ
れたオブジェクトは、スイッチ2Dノードのフイッチチ
ョイスフィールドの現在の値によって選択された新しい
オブジェクトに置き換えられ、以前の選択されたオブジ
ェクトと現在の選択されたオブジェクトの両方の領域が
影響を受けたと判断されたならば、シーンツリーにおけ
る全てのスイッチ2Dノードにフイッチチョイスフィー
ルドの値を調べるステップと、前記以前の選択されたオ
ブジェクトの表示領域と前記現在の選択されたオブジェ
クトの表示領域を、変化した表示領域として計算するス
テップとを含むことを特徴とするものである。
A method for rendering an object-based user interactive scene represented by using a scene description according to claim 3 is a method for rendering an object-based user interactive scene represented by using a scene description according to claim 1. In a method of rendering a scene, a method of detecting a changed display area in a scene is performed by changing the value of a translation field and determining that an object below a transform 2D node is affected. Examining the values of the translation fields of all the transform 2D nodes in, calculating the previous display area and the current display area of the affected object as a changed display area, The value changes and the object selected by the previous value of the switch 2D node's Choice field is replaced by the new object selected by the current value of the Switch 2D node's Choice field, and the previously selected If it is determined that the area of both the selected object and the currently selected object has been affected, then checking the value of the Switch Choice field for all switch 2D nodes in the scene tree; Calculating a display area of the object and a display area of the currently selected object as a changed display area.

【0015】また、請求項4に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする方法は、請求項1に記載の
シーン記述を用いて表されるオブジェクトベースのユー
ザインタラクティブシーンをレンダリングする方法にお
いて、シーンにおいて変化した領域だけをレンダリング
する方法が、変化した領域におけるオブジェクトをメモ
リバッファに、クリッピング領域として変化した領域に
相当する領域を用いてコピーするステップを含むことを
特徴とするものである。
According to a fourth aspect of the present invention, there is provided a method of rendering an object-based user interactive scene represented by using a scene description. The method of rendering a scene, wherein the method of rendering only the changed region in the scene includes copying the object in the changed region to a memory buffer using a region corresponding to the changed region as a clipping region. It is assumed that.

【0016】また、請求項5に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする方法は、請求項1、3、4
のいずれかに記載のシーン記述を用いて表されるオブジ
ェクトベースのユーザインタラクティブシーンをレンダ
リングする方法において、変化した領域は、オブジェク
トの有界矩形を用いて定義され、ジオメトリックノード
と、前記オブジェクトの親のトランスフォーム2Dノー
ドとを用いて計算されることを特徴とするものである。
A method for rendering an object-based user interactive scene represented using the scene description according to claim 5 is provided.
A method for rendering an object-based user interactive scene represented using a scene description according to any of the preceding claims, wherein the changed area is defined using a bounded rectangle of the object, wherein a geometric node and a It is characterized by being calculated using the parent transform 2D node.

【0017】また、請求項6に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする方法は、請求項1、2、
3、4、5のいずれかに記載のシーン記述を用いて表さ
れるオブジェクトベースのユーザインタラクティブシー
ンをレンダリングする方法において、シーン記述は、M
PEG−4 BIFSであることを特徴とするものであ
る。
A method for rendering an object-based user interactive scene represented using the scene description according to claim 6 is provided.
A method for rendering an object-based user interactive scene represented using a scene description according to any one of 3, 4, and 5, wherein the scene description comprises M
PEG-4 BIFS.

【0018】また、請求項7に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする装置は、シーンにおけるオ
ブジェクトの空間的関係と時間的関係がシーン記述を用
いて表され、該シーン記述は、オブジェクトの属性を記
述する複数のノードと、1つのノードのフィールドを別
のノードのフィールドに接続するルートとを含んでい
る、オブジェクトベースのユーザインタラクティブシー
ンをレンダリングする装置において、前記装置は、トラ
ンスレーションフィールドの値が変化し、トランスフォ
ーム2Dノードの下にあるオブジェクトが影響を受けた
と判断されるならば、シーンツリーにおける全てのトラ
ンスフォーム2Dノードのトランスレーションフィール
ドの値を調べる手段と、前記影響を受けたオブジェクト
の以前の表示領域と現在の表示領域を計算する手段と、
前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、影響を受けた領域リストに挿入する手段
と、フイッチチョイスフィールドの値が変化し、スイッ
チ2Dノードのフイッチチョイスフィールドの以前の値
によって選択されたオブジェクトは、スイッチ2Dノー
ドのフイッチチョイスフィールドの現在の値によって選
択された新しいオブジェクトに置き換えられ、以前の選
択されたオブジェクトと現在の選択されたオブジェクト
の両方の領域が影響を受けたと判断されたならば、シー
ンツリーにおける全てのスイッチ2Dノードのフイッチ
チョイスフィールドの値を調べる手段と、前記以前の選
択されたオブジェクトの表示領域と前記現在の選択され
たオブジェクトの表示領域を計算する手段と、前記以前
の選択されたオブジェクトの表示領域と前記現在の選択
されたオブジェクトの表示領域を、前記影響を受けた領
域リストに挿入する手段と、前記影響を受けた領域リス
トにおける2つの領域が同一であるならば、前記影響を
受けた領域リストから同一の2つの領域のうち1つを削
除する手段と、前記影響を受けた領域リストにおける1
つの領域が、前記影響を受けた領域リストにおける別の
領域に完全に含まれるならば、前記影響を受けた領域リ
ストから小さいほうの領域を削除する手段と、現在のシ
ーンツリーにおけるオブジェクトの表示領域が影響を受
けた領域リストにおける影響を受けた領域と一致するま
たは重複し、該オブジェクトが、前記影響を受けた領域
と関連するドローイングオーダリストに挿入されるなら
ば、影響を受けた領域リストにおける領域と現在のシー
ンツリーにおける全てのオブジェクトの表示領域とを比
較する手段と、クリッピング領域として影響を受けた領
域に相当する領域を用いて、影響を受けた領域リストの
ドローイングオーダリストにあるオブジェクトをスクリ
ーンにレンダリングする手段とを含むことを特徴とする
ものである。
According to a seventh aspect of the present invention, there is provided an apparatus for rendering an object-based user interactive scene represented by using a scene description, wherein a spatial relationship and a temporal relationship of objects in the scene are represented by using the scene description. An apparatus for rendering an object-based user interactive scene, the scene description including a plurality of nodes describing attributes of an object and a route connecting a field of one node to a field of another node. If the value of the translation field changes and it is determined that the object under the transform 2D node has been affected, the apparatus examines the value of the translation field of all transform 2D nodes in the scene tree. means , Means for calculating a previous display area and the current display area of the object that receives the impact,
Means for inserting the previous display area and the current display area of the affected object into the affected area list; and changing the value of the Fitch Choice field to change the value of the Fitch Choice field of the switch 2D node. The object selected by the value of is replaced by the new object selected by the current value of the Switch Choice field of the switch 2D node, and the area of both the previously selected object and the currently selected object are affected. Means for examining the values of the Fitch Choice fields of all the switch 2D nodes in the scene tree, and a display area of the previously selected object and a display area of the current selected object. Means for calculating the previously selected object Means for inserting the display area of the object and the display area of the current selected object into the affected area list; and if the two areas in the affected area list are the same, Means for deleting one of the same two areas from the affected area list;
Means for deleting the smaller area from the affected area list if one area is completely included in another area in the affected area list, and a display area of the object in the current scene tree. Matches or overlaps with the affected area in the affected area list and if the object is inserted into the drawing order list associated with the affected area list, Using the means for comparing the area with the display area of all objects in the current scene tree, and using the area corresponding to the affected area as a clipping area, the object in the drawing order list of the affected area list is used. Means for rendering on a screen.

【0019】また、請求項8に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする装置は、請求項7に記載の
シーン記述を用いて表されるオブジェクトベースのユー
ザインタラクティブシーンをレンダリングする装置にお
いて、シーンにおけるオブジェクトの動きを検出する装
置は、トランスレーションフィールドの値が変化し、ト
ランスフォーム2Dノードの下にあるオブジェクトが影
響を受けたと判断されるならば、シーンツリーにおける
全てのトランスフォーム2Dノードのトランスレーショ
ンフィールドの値を調べる手段と、フイッチチョイスフ
ィールドの値が変化し、スイッチ2Dノードのフイッチ
チョイスフィールドの以前の値によって選択されたオブ
ジェクトは、スイッチ2Dノードのフイッチチョイスフ
ィールドの現在の値によって選択された新しいオブジェ
クトに置き換えられ、以前の選択されたオブジェクトと
現在の選択されたオブジェクトの両方の領域が影響を受
けたと判断されたならば、シーンツリーにおける全ての
スイッチ2Dノードのフイッチチョイスフィールドの値
を調べる手段とを含むことを特徴とするものである。
An apparatus for rendering an object-based user interactive scene represented by using a scene description according to claim 8 is an object-based user interactive scene represented by using a scene description according to claim 7. In an apparatus for rendering a scene, an apparatus for detecting the movement of an object in a scene may detect that an object under the transform 2D node has been affected if the value of the translation field changes and the object under the transform 2D node is affected. Means for examining the value of the translation field of all transform 2D nodes, and the value of the switch choice field changes and the object selected by the previous value of the switch choice field of the switch 2D node is the switch. H. If it is determined that the new object selected by the current value of the Fitch Choice field of the 2D node has been replaced and that the area of both the previously selected object and the currently selected object has been affected, Means for examining the values of the Fitch Choice fields of all the switch 2D nodes in the scene tree.

【0020】また、請求項9に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングする装置は、請求項7に記載の
シーン記述を用いて表されるオブジェクトベースのユー
ザインタラクティブシーンをレンダリングする装置にお
いて、シーンにおける変化した表示領域を検出する装置
は、トランスレーションフィールドの値が変化し、トラ
ンスフォーム2Dノードの下にあるオブジェクトが影響
を受けたと判断されるならば、シーンツリーにおける全
てのトランスフォーム2Dノードのトランスレーション
フィールドの値を調べる手段と、前記影響を受けたオブ
ジェクトの以前の表示領域と現在の表示領域を、変化し
た表示領域として計算する手段と、フイッチチョイスフ
ィールドの値が変化し、スイッチ2Dノードのフイッチ
チョイスフィールドの以前の値によって選択されたオブ
ジェクトは、スイッチ2Dノードのフイッチチョイスフ
ィールドの現在の値によって選択された新しいオブジェ
クトに置き換えられ、以前の選択されたオブジェクトと
現在の選択されたオブジェクトの両方の領域が影響を受
けたと判断されたならば、シーンツリーにおける全ての
スイッチ2Dノードのフイッチチョイスフィールドの値
を調べる手段と、前記以前の選択されたオブジェクトの
表示領域と前記現在の選択されたオブジェクトの表示領
域を、変化した表示領域として計算する手段とを含むこ
とを特徴とするものである。
An apparatus for rendering an object-based user interactive scene represented using the scene description according to claim 9 is an object-based user interactive scene represented using the scene description described in claim 7. In a device for rendering a scene, a device for detecting a changed display area in a scene may include a scene tree if the value of the translation field changes and it is determined that the object under the transform 2D node has been affected. Means for examining the values of the translation fields of all the transform 2D nodes in, means for calculating the previous display area and the current display area of the affected object as changed display areas, Value changes Then, the object selected by the previous value of the switch choice field of the switch 2D node is replaced by a new object selected by the current value of the switch choice field of the switch 2D node, and the previously selected object is replaced with the new selected object. Means for examining the value of the Fitch Choice field of all switch 2D nodes in the scene tree if both regions of the currently selected object are determined to be affected, and displaying the previously selected object. Means for calculating a region and a display region of the currently selected object as a changed display region.

【0021】また、請求項10に記載のシーン記述を用
いて表されるオブジェクトベースのユーザインタラクテ
ィブシーンをレンダリングする装置は、請求項7に記載
のシーン記述を用いて表されるオブジェクトベースのユ
ーザインタラクティブシーンをレンダリングする装置に
おいて、シーンにおいて変化した領域だけをレンダリン
グする装置は、変化した領域におけるオブジェクトをメ
モリバッファに、クリッピング領域として変化した領域
に相当する領域を用いてコピーする手段を含むことを特
徴とするものである。
According to a tenth aspect of the present invention, there is provided an apparatus for rendering an object-based user interactive scene represented by using a scene description. In the apparatus for rendering a scene, the apparatus for rendering only a changed area in the scene includes means for copying an object in the changed area to a memory buffer using an area corresponding to the changed area as a clipping area. It is assumed that.

【0022】また、請求項11に記載のシーン記述を用
いて表されるオブジェクトベースのユーザインタラクテ
ィブシーンをレンダリングする装置は、請求項7、9、
10のいずれかに記載のシーン記述を用いて表されるオ
ブジェクトベースのユーザインタラクティブシーンをレ
ンダリングする装置において、変化した領域は、オブジ
ェクトの有界矩形を用いて定義され、ジオメトリックノ
ードと、前記オブジェクトの親のトランスフォーム2D
ノードとを用いて計算されることを特徴とするものであ
る。
[0022] An apparatus for rendering an object-based user interactive scene represented by using the scene description according to claim 11 is provided.
10. An apparatus for rendering an object-based user interactive scene represented using a scene description according to any of the preceding claims, wherein the changed area is defined using a bounded rectangle of the object, wherein a geometric node and the object Parent's transform 2D
It is characterized by being calculated using nodes.

【0023】また、請求項12に記載のシーン記述を用
いて表されるオブジェクトベースのユーザインタラクテ
ィブシーンをレンダリングする装置は、請求項7、8、
9、10、11のいずれかに記載のシーン記述を用いて
表されるオブジェクトベースのユーザインタラクティブ
シーンをレンダリングする装置において、シーン記述
は、MPEG−4 BIFSであることを特徴とするも
のである。
[0023] An apparatus for rendering an object-based user interactive scene represented by using the scene description according to claim 12 is provided.
An apparatus for rendering an object-based user interactive scene represented using the scene description according to any one of 9, 10, and 11, wherein the scene description is MPEG-4 BIFS.

【0024】また、請求項13に記載のオブジェクトベ
ースのユーザインタラクティブシーンをレンダリングす
るコンピュータプログラムが記録されたコンピュータ読
み取り可能な記録媒体は、シーンにおけるオブジェクト
の空間的関係と時間的関係がシーン記述を用いて表さ
れ、該シーン記述は、オブジェクトの属性を記述する複
数のノードと、1つのノードのフィールドを別のノード
のフィールドに接続するルートとを含んでいる、オブジ
ェクトベースのユーザインタラクティブシーンをレンダ
リングするコンピュータプログラムが記録されたコンピ
ュータ読み取り可能な記録媒体である。前記コンピュー
タプログラムは、トランスレーションフィールドの値が
変化し、トランスフォーム2Dノードの下にあるオブジ
ェクトが影響を受けたと判断されるならば、シーンツリ
ーにおける全てのトランスフォーム2Dノードのトラン
スレーションフィールドの値を調べる手順と、前記影響
を受けたオブジェクトの以前の表示領域と現在の表示領
域を計算する手順と、前記影響を受けたオブジェクトの
以前の表示領域と現在の表示領域を、影響を受けた領域
リストに挿入する手順と、フイッチチョイスフィールド
の値が変化し、スイッチ2Dノードのフイッチチョイス
フィールドの以前の値によって選択されたオブジェクト
は、スイッチ2Dノードのフイッチチョイスフィールド
の現在の値によって選択された新しいオブジェクトに置
き換えられ、以前の選択されたオブジェクトと現在の選
択されたオブジェクトの両方の領域が影響を受けたと判
断されたならば、シーンツリーにおける全てのスイッチ
2Dノードのフイッチチョイスフィールドの値を調べる
手順と、前記以前の選択されたオブジェクトの表示領域
と前記現在の選択されたオブジェクトの表示領域を計算
する手順と、前記以前の選択されたオブジェクトの表示
領域と前記現在の選択されたオブジェクトの表示領域
を、前記影響を受けた領域リストに挿入する手順と、前
記影響を受けた領域リストにおける2つの領域が同一で
あるならば、前記影響を受けた領域リストから同一の2
つの領域のうち1つを削除する手順と、前記影響を受け
た領域リストにおける1つの領域が、前記影響を受けた
領域リストにおける別の領域に完全に含まれるならば、
前記影響を受けた領域リストから小さいほうの領域を削
除する手順と、現在のシーンツリーにおけるオブジェク
トの表示領域が影響を受けた領域リストにおける影響を
受けた領域と一致するまたは重複し、該オブジェクト
が、前記影響を受けた領域と関連するドローイングオー
ダリストに挿入されるならば、影響を受けた領域リスト
における領域と現在のシーンツリーにおける全てのオブ
ジェクトの表示領域とを比較する手順と、クリッピング
領域として影響を受けた領域に相当する領域を用いて、
影響を受けた領域リストのドローイングオーダリストに
あるオブジェクトをスクリーンにレンダリングする手順
とを含むことを特徴とするものである。
A computer-readable recording medium in which a computer program for rendering an object-based user interactive scene according to claim 13 is recorded, wherein a spatial relation and a temporal relation of objects in the scene use a scene description. The scene description renders an object-based user-interactive scene that includes a plurality of nodes describing attributes of the object and a route connecting fields of one node to fields of another node. A computer-readable recording medium on which a computer program is recorded. If the value of the translation field changes and it is determined that the object under the transform 2D node has been affected, the computer program changes the value of the translation field of all the transform 2D nodes in the scene tree. Examining; calculating a previous display area and a current display area of the affected object; and listing the previous display area and the current display area of the affected object in an affected area list. And the value of the Fitch Choice field changes and the object selected by the previous value of the Fitch Choice field of the switch 2D node is selected by the current value of the Fitch Choice field of the Switch 2D node. Placed on a new object If it is determined that the area of both the previously selected object and the currently selected object has been affected, then examining the value of the switch choice field of all switch 2D nodes in the scene tree; Calculating the display area of the previously selected object and the display area of the current selected object; and calculating the display area of the previously selected object and the display area of the currently selected object. The procedure of inserting into the affected area list, and if the two areas in the affected area list are the same, the same two
Removing one of the two areas, and if one area in the affected area list is completely contained in another area in the affected area list,
Deleting the smaller area from the affected area list, and the display area of the object in the current scene tree matches or overlaps with the affected area in the affected area list, and the object is Comparing the area in the affected area list with the display area of all objects in the current scene tree, if inserted in the drawing order list associated with the affected area, Using the area corresponding to the affected area,
Rendering the objects on the drawing order list of the affected area list on the screen.

【0025】また、請求項14に記載のオブジェクトベ
ースのユーザインタラクティブシーンをレンダリングす
るコンピュータプログラムが記録されたコンピュータ読
み取り可能な記録媒体は、請求項13に記載のシーン記
述を用いて表されるオブジェクトベースのユーザインタ
ラクティブシーンをレンダリングするコンピュータプロ
グラムが記録されたコンピュータ読み取り可能な記録媒
体であって、シーンにおけるオブジェクトの動きを検出
するためのコンピュータプログラムは、トランスレーシ
ョンフィールドの値が変化し、トランスフォーム2Dノ
ードの下にあるオブジェクトが影響を受けたと判断され
るならば、シーンツリーにおける全てのトランスフォー
ム2Dノードのトランスレーションフィールドの値を調
べる手順と、フイッチチョイスフィールドの値が変化
し、スイッチ2Dノードのフイッチチョイスフィールド
の以前の値によって選択されたオブジェクトは、スイッ
チ2Dノードのフイッチチョイスフィールドの現在の値
によって選択された新しいオブジェクトに置き換えら
れ、以前の選択されたオブジェクトと現在の選択された
オブジェクトの両方の領域が影響を受けたと判断された
ならば、シーンツリーにおける全てのスイッチ2Dノー
ドのフイッチチョイスフィールドの値を調べる手順とを
含むことを特徴とするものである。
[0025] A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene according to claim 14 is recorded is an object-based recording medium represented by the scene description according to claim 13. A computer-readable recording medium having recorded thereon a computer program for rendering a user interactive scene, wherein the computer program for detecting the movement of an object in the scene has a value of a translation field that changes, and a transform 2D node. If it is determined that the objects below are affected, then examine the values of the translation fields of all transform 2D nodes in the scene tree; The value of the choice field changes and the object selected by the previous value of the switch choice field of the switch 2D node is replaced by a new object selected by the current value of the switch choice field of the switch 2D node; Examining the value of the switch-choice field of all switch 2D nodes in the scene tree if it is determined that both the region of the previously selected object and the currently selected object are affected. It is characterized by the following.

【0026】また、請求項15に記載のオブジェクトベ
ースのユーザインタラクティブシーンをレンダリングす
るコンピュータプログラムが記録されたコンピュータ読
み取り可能な記録媒体は、請求項13に記載のシーン記
述を用いて表されるオブジェクトベースのユーザインタ
ラクティブシーンをレンダリングするオブジェクトベー
スのユーザインタラクティブシーンをレンダリングする
コンピュータプログラムが記録されたコンピュータ読み
取り可能な記録媒体であって、シーンにおける変化した
表示領域を検出するコンピュータプログラムは、トラン
スレーションフィールドの値が変化し、トランスフォー
ム2Dノードの下にあるオブジェクトが影響を受けたと
判断されるならば、シーンツリーにおける全てのトラン
スフォーム2Dノードのトランスレーションフィールド
の値を調べる手順と、前記影響を受けたオブジェクトの
以前の表示領域と現在の表示領域を、変化した表示領域
として計算する手順と、フイッチチョイスフィールドの
値が変化し、スイッチ2Dノードのフイッチチョイスフ
ィールドの以前の値によって選択されたオブジェクト
は、スイッチ2Dノードのフイッチチョイスフィールド
の現在の値によって選択された新しいオブジェクトに置
き換えられ、以前の選択されたオブジェクトと現在の選
択されたオブジェクトの両方の領域が影響を受けたと判
断されたならば、シーンツリーにおける全てのスイッチ
2Dノードのフイッチチョイスフィールドの値を調べる
手順と、前記以前の選択されたオブジェクトの表示領域
と前記現在の選択されたオブジェクトの表示領域を、変
化した表示領域として計算する手順とを含むことを特徴
とするものである。
A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene according to claim 15 is recorded is an object-based recording medium represented by the scene description according to claim 13. A computer-readable recording medium having recorded thereon a computer program for rendering an object-based user interactive scene that renders a user interactive scene, wherein the computer program for detecting a changed display area in the scene includes a value of a translation field. Has changed and it is determined that the objects below the transform 2D node have been affected, then all transform 2D nodes in the scene tree have been affected. Examining the value of the translation field of the code, and calculating the previous display area and the current display area of the affected object as a changed display area, and changing the value of the Fitch Choice field, The object selected by the previous value of the Switch Choice field of the switch 2D node is replaced by the new object selected by the current value of the Switch Choice field of the switch 2D node, and the previous selected object and the current If it is determined that both areas of the selected object are affected, then the procedure for examining the value of the Fitch Choice field of all switch 2D nodes in the scene tree; The current selected object The display area and is characterized in that it comprises a step of calculating a changed display area.

【0027】また、請求項16に記載のオブジェクトベ
ースのユーザインタラクティブシーンをレンダリングす
るコンピュータプログラムが記録されたコンピュータ読
み取り可能な記録媒体は、請求項13に記載のシーン記
述を用いて表されるオブジェクトベースのユーザインタ
ラクティブシーンをレンダリングするコンピュータプロ
グラムが記録されたコンピュータ読み取り可能な記録媒
体であって、シーンにおいて変化した領域だけをレンダ
リングするコンピュータプログラムは、変化した領域に
おけるオブジェクトをメモリバッファに、クリッピング
領域として変化した領域に相当する領域を用いてコピー
する手順を含むことを特徴とするものである。
[0027] A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene according to claim 16 is recorded is an object-based recording medium represented by the scene description according to claim 13. A computer readable recording medium on which a computer program for rendering a user interactive scene is recorded, wherein the computer program for rendering only a changed area in the scene changes an object in the changed area into a memory buffer and a clipping area. Characterized by including a procedure of copying using an area corresponding to the set area.

【0028】また、請求項17に記載のオブジェクトベ
ースのユーザインタラクティブシーンをレンダリングす
るコンピュータプログラムが記録されたコンピュータ読
み取り可能な記録媒体は、請求項13、15、16のい
ずれかに記載のシーン記述を用いて表されるオブジェク
トベースのユーザインタラクティブシーンをレンダリン
グするコンピュータプログラムが記録されたコンピュー
タ読み取り可能な記録媒体であって、変化した領域は、
オブジェクトの有界矩形を用いて定義され、ジオメトリ
ックノードと、前記オブジェクトの親のトランスフォー
ム2Dノードとを用いて計算されることを特徴とするも
のである。
Further, a computer-readable recording medium on which a computer program for rendering an object-based user interactive scene according to claim 17 is recorded, stores the scene description according to claim 13, 15, or 16. A computer-readable recording medium having recorded thereon a computer program for rendering an object-based user interactive scene represented by using the changed area,
It is defined using a bounded rectangle of the object and is calculated using a geometric node and a transform 2D node of the parent of the object.

【0029】また、請求項18に記載のオブジェクトベ
ースのユーザインタラクティブシーンをレンダリングす
るコンピュータプログラムが記録されたコンピュータ読
み取り可能な記録媒体は、請求項13、14、15、1
6、17のいずれかに記載のシーン記述を用いて表され
るオブジェクトベースのユーザインタラクティブシーン
をレンダリングするコンピュータプログラムが記録され
たコンピュータ読み取り可能な記録媒体であって、シー
ン記述は、MPEG−4 BIFSであることを特徴と
するものである。
A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene according to claim 18 is recorded, is provided.
A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene represented by using the scene description according to any one of claims 6 and 17 is recorded, wherein the scene description is MPEG-4 BIFS. It is characterized by being.

【0030】[0030]

【発明の実施の形態】オブジェクトベースであり、ユー
ザインタラクティブであり、オーディオビジュアルであ
る、MPEG−4 BIFSシーンツリーによって表さ
れる2Dシーンのレンダリング効率を向上させるために
本発明が使用される。
DETAILED DESCRIPTION OF THE INVENTION The present invention is used to improve the rendering efficiency of 2D scenes represented by an MPEG-4 BIFS scene tree, which is object-based, user-interactive, and audiovisual.

【0031】まず始めに、図3を用いて本発明に係る改
良されたレンダリング方法を説明する。本発明による改
良されたレンダリング方法のフローチャートが図3にお
いて示されている。最初に次のフレームか否かチェック
する(S300)。次に、センサとルートを更新する
(S301)。その後、本発明に係るレンダリング方法
の3つの大きなステップが以下のシーケンスにおいて実
行される。
First, an improved rendering method according to the present invention will be described with reference to FIG. A flowchart of the improved rendering method according to the present invention is shown in FIG. First, it is checked whether it is the next frame (S300). Next, the sensor and the route are updated (S301). Thereafter, the three major steps of the rendering method according to the invention are performed in the following sequence.

【0032】(影響を受けた領域の検出、S302)B
IFSシーンツリーが詳細に検討され、オブジェクトの
トランスフォーム2Dのトランスフォームフィールドが
その以前の値と比較される。トランスフィールドの値が
変化するならば、トランスフォーム2Dノードの影響下
にある対応する領域が影響を受けたと判断される。スイ
ッチ2Dのフイッチチョイスフィールドもその以前の値
と比較される。値に変化が生じたならば、対応する表示
領域が影響を受けたと判断される。
(Detection of Affected Area, S302) B
The IFS scene tree is examined in detail, and the transform field of the transform 2D of the object is compared with its previous value. If the value of the transform field changes, it is determined that the corresponding region under the influence of the transform 2D node has been affected. The switch choice field of switch 2D is also compared to its previous value. If the value changes, it is determined that the corresponding display area has been affected.

【0033】影響を受けたものとして検出される領域
は、影響を受けた領域リストに挿入される。この領域リ
ストは、現在のシーンにおける影響を受けた領域を全て
記録するために使用される。前記の影響を受けた領域リ
ストが、次のセクションにおいて記載されているような
「影響を受けた領域におけるオブジェクト」を検出する
ために使用される前に、影響をうけた領域リストにおけ
る領域は、最初に相互に比較される。2つの領域が同一
であるならば、2つの領域のうち1つが影響を受けた領
域リストから削除される。1つの領域が別の領域に完全
に含まれているならば、小さいほうの領域が影響を受け
た領域リストから削除される。
Areas detected as affected are inserted into the affected area list. This area list is used to record all affected areas in the current scene. Before the affected area list is used to detect "objects in the affected area" as described in the next section, the areas in the affected area list are: First they are compared to each other. If the two regions are identical, one of the two regions is removed from the affected region list. If one region is completely contained in another region, the smaller region is removed from the affected region list.

【0034】(影響を受けた領域におけるオブジェクト
の検出、S303)次のステップは、影響を受けた領域
のそれぞれと一致するオブジェクトを見つけ出すことで
ある。BIFSシーンツリーは詳細に検討され、シーン
ツリーにおける各オブジェクトの領域が、影響を受けた
領域リストの領域と比較される。シーンにおけるオブジ
ェクトの領域が、影響を受けた領域リストの領域と重複
するならば、該オブジェクトは、対応する影響を受けた
領域のドローイングオーダリストに加えられる。
(Detection of Objects in Affected Area, S303) The next step is to find objects that match each of the affected areas. The BIFS scene tree is examined in detail, and the area of each object in the scene tree is compared to the area in the affected area list. If the area of the object in the scene overlaps with the area in the affected area list, the object is added to the drawing order list of the corresponding affected area.

【0035】(クリッピング領域として影響を受けた領
域を用いてオブジェクトを表示し直す、S304)以前
のセクションにおいて記載されているような「影響を受
けた領域におけるオブジェクトの検出」が実行された
後、影響を受けた領域リストのドローイングオーダリス
トにおけるオブジェクトは、クリッピング領域として影
響を受けた領域に相当する領域を用いてレンダリングさ
れる。
(Redisplay the object using the affected area as the clipping area, S 304) After the “detection of the object in the affected area” as described in the previous section is executed, Objects in the drawing order list of the affected area list are rendered using an area corresponding to the affected area as a clipping area.

【0036】図3のS302において示されているよう
に、本発明に係るレンダリング方法の第1ステップは、
変化した表示領域を表示し、影響された領域リストを作
成することである。
As shown in S302 of FIG. 3, the first step of the rendering method according to the present invention is as follows.
Displaying the changed display area and creating an affected area list.

【0037】(変化した表示領域の検出)シーンにおけ
るオブジェクトの位置は、トランスフォーム2Dノード
によって制御される。したがって、シーンにおける全て
のオブジェクトの動きは、オブジェクトの関連するトラ
ンスフォーム2Dノードをチェックすることによって、
探知されることが可能である。センサとルートを更新し
た(S301)後で、オブジェクトに動きが生じたなら
ば、そのトランスフォーム2Dノードのトランスレーシ
ョンフィールドは、ルートの更新前の値と比較すると、
異なる値に変わっているはずである。したがって、動き
の検出は、現在のシーンツリーを詳細に検討し各トラン
スフォーム2Dノードをチェックすることによって、実
行される。各トランスフォーム2Dノードは、トランス
レーションフィールドの以前の値を保持しているはずで
ある。ルートの更新後の値が以前の値と異なっているな
らば、このトランスフォーム2Dの下にあるオブジェク
トは、動いたと判断される。
(Detection of Changed Display Area) The position of an object in a scene is controlled by a transform 2D node. Therefore, the movement of every object in the scene is determined by checking the object's associated transform 2D node.
It can be detected. After the sensor and the route are updated (S301), if the object moves, the translation field of the transform 2D node is compared with the value before the route is updated.
It should have changed to a different value. Thus, motion detection is performed by examining the current scene tree in detail and checking each transform 2D node. Each transform 2D node should hold the previous value of the translation field. If the updated value of the route is different from the previous value, the object under this transform 2D is determined to have moved.

【0038】表示領域が変化した別の原因は、スイッチ
2Dノードである。どんなときでも、スイッチ2Dノー
ドは、スイッチ2Dノードの子2Dノードの1つだけを
検討する。スイッチ2Dノードの全ての子ノードは、検
討されたノードの選択がどのようなものであっても、イ
ベントを送受信し続ける。スイッチ2Dノードのフイッ
チチョイスフィールドは、検討される子ノードのインデ
ックス(index)を特定する。このとき、第1の子ノード
は、0のインデックスを有する。
Another cause of the change in the display area is a switch 2D node. At any time, the switch 2D node considers only one of the child 2D nodes of the switch 2D node. All child nodes of the switch 2D node continue to send and receive events, whatever the selection of nodes considered. The Switch Choice field of the switch 2D node specifies the index of the child node under consideration. At this time, the first child node has an index of 0.

【0039】スイッチ2Dノードのフイッチチョイスフ
ィールドの値が変化したならば、異なる子ノード(また
は、スイッチ2Dノードのその子ノードが他の子ノード
をさらに含むならば、サブツリー)は、以前に選択され
た子ノード(またはサブツリー)を置き換えるために選
択される。選択された子ノードのこの変化により、選択
された子ノードの関連領域における表示コンテンツが変
化する。したがって、スイッチ2Dノードのフイッチチ
ョイスフィールドも、表示領域における変化を検出する
ために調べられる。
If the value of the switch choice field of the switch 2D node has changed, a different child node (or subtree, if that child node of the switch 2D node further contains other child nodes) has been previously selected. Selected to replace the child node (or subtree) that was created. Due to this change of the selected child node, the display content in the related area of the selected child node changes. Therefore, the switch choice field of the switch 2D node is also examined to detect changes in the display area.

【0040】(影響を受けた領域リスト)変化した表示
領域を検出する方法において、矩形は、シーンにおける
領域を定義するために使用される。矩形の表示領域の一
部が変化するならば、該領域は影響を受けた領域と呼ば
れる。影響を受けた領域リストは、レンダリング中に検
出される変化した表示領域の全てを記録し続けるために
使用される。影響を受けた領域リストにおける各ノード
は、2つのフィールドを含む。1つは、影響を受けた領
域であり、その領域において表示が変化している。もう
1つは、特定の影響を受けた領域と一致する、または重
複するオブジェクトを含むドローイングオーダリストで
ある。影響を受けた領域リストのデータ構造は、図4に
おいて示されている。影響を受けた領域リストのノード
401は、2つのフィールドを含む。1つは、影響を受
けた領域402であり、もう1つは、影響を受けた領域
402のドローイングオーダリスト403である。ドロ
ーイングオーダリスト403は、オブジェクト404、
405、406を含む。これらのオブジェクト404、
405、406は、影響を受けた領域402と一致する
シーンにおけるオブジェクトである。
(Affected Area List) In the method of detecting a changed display area, a rectangle is used to define an area in the scene. If a portion of the rectangular display area changes, the area is called the affected area. The affected area list is used to keep track of all of the changed display areas detected during rendering. Each node in the affected area list contains two fields. One is the affected area, in which the display has changed. The other is a drawing order list containing objects that match or overlap the particular affected area. The data structure of the affected area list is shown in FIG. Node 401 of the affected area list includes two fields. One is the affected area 402 and the other is the drawing order list 403 of the affected area 402. Drawing order list 403 includes object 404,
405 and 406. These objects 404,
405 and 406 are objects in the scene that match the affected area 402.

【0041】フレームごとに、最初にBIFSシーンツ
リーは検討され、トランスフォーム2Dノードとスイッ
チ2Dノードは、現在のシーンにおける表示領域の変化
を検出するためにチェックされる。変化した領域が検出
されると、変化した領域は、以前にセクションにおいて
記載されているように、影響を受けた領域リストに加え
られる。影響を受けた領域リストのそれぞれと関連する
ドローイングオーダリストには、この時点では何もな
い。
[0041] For each frame, the BIFS scene tree is first examined and the transform 2D nodes and switch 2D nodes are checked to detect changes in the display area in the current scene. If a changed area is detected, the changed area is added to the affected area list, as described earlier in the section. There is nothing at this point in the drawing order list associated with each of the affected area lists.

【0042】オブジェクトと関連するトランスフォーム
2Dノードまたはスイッチ2Dノードをチェックするこ
とによって、該オブジェクトの表示領域が変化したと判
断されるならば、シーンにおける影響を受けた領域は、
該オブジェクトの領域を用いて定義される。したがっ
て、影響を受けた領域は、オブジェクトベースである。
シーンにおいて1つ以上のオブジェクトが動くときに、
結果として生じる影響を受けた領域は、互いに重複す
る。影響を受けた領域リストが「影響を受けた領域にお
けるオブジェクト」を検出するために使用される前に、
影響を受けた領域リストにおける領域は、互いに比較さ
れる。2つの領域が同一であるならば、2つのうち1つ
が影響を受けた領域リストから削除される。1つの領域
が完全に別の領域に含まれるならば、小さいほうの領域
が影響を受けた領域リストから削除される。
If it is determined that the display area of the object has changed by checking the transform 2D node or switch 2D node associated with the object, the affected area in the scene is:
It is defined using the area of the object. Thus, the affected area is object-based.
When one or more objects move in the scene,
The resulting affected areas overlap each other. Before the affected area list is used to detect "objects in the affected area",
The regions in the affected region list are compared to each other. If the two regions are identical, one of the two is removed from the affected region list. If one area is completely contained in another area, the smaller area is removed from the affected area list.

【0043】シーンツリー全体が詳細に検討され、現在
のシーンツリーにおける変化した表示領域の全てが検出
され、かつ影響を受けた領域リストに加えられるなら
ば、次のステップは、影響を受けた領域リストにおいて
影響を受けた領域と一致するまたは重複するオブジェク
トを識別することである。
If the entire scene tree has been examined in detail and all of the changed display areas in the current scene tree have been detected and added to the affected area list, the next step is to change the affected area The purpose is to identify objects that match or overlap with the affected area in the list.

【0044】(影響を受けた領域におけるオブジェクト
の検出とドローイングオーダリストの構造)本発明の意
図は、影響を受けた領域におけるオブジェクトだけを表
示し直すことであるから、影響を受けた領域と一致する
これらのオブジェクトは最初に識別される必要があり、
別々のドローイングオーダリストが、個々の影響を受け
た領域に対応して作成される。
(Detection of Object in Affected Area and Structure of Drawing Order List) Since the intention of the present invention is to redisplay only the object in the affected area, it matches the affected area. Those objects that need to be identified first,
Separate drawing order lists are created for each affected area.

【0045】BIFSシーンツリーが詳細に検討され、
シーンツリーにおける各オブジェクトの表示領域が影響
を受けた領域リストの領域と比較される。シーンツリー
におけるオブジェクトの表示領域が、影響を受けた領域
リストの領域と重複するならば、該オブジェクトは特定
の影響を受けた領域と関連するドローイングオーダリス
トに加えられる。このことについて、以下の仮のコード
で説明する。 For(BIFS シーンツリーにおけるそれぞれのオブジェクト){ 現在の表示領域を計算し、オブジェクトカレント領域(Object_Curr ent_Region)にそれを保存する; For(影響を受けた領域リストにおけるそれぞれの影響を受けた領 域){ If(オブジェクトカレント領域が影響を受けた領域と重複す る) この影響を受けた領域のドローイングオーダリストに オブジェクトを挿入する。 } }
The BIFS scene tree is examined in detail,
The display area of each object in the scene tree is compared with the area in the affected area list. If the display area of an object in the scene tree overlaps with an area in the affected area list, the object is added to the drawing order list associated with the particular affected area. This is explained by the following temporary code. For (each object in BIFS scene tree) 計算 Calculate the current display area and save it in the object current area (Object_Current_Region); For (each affected area in the affected area list) {If (the object current area overlaps with the affected area) Inserts an object into the drawing order list of this affected area. }}

【0046】影響を受けた領域リストにおける影響を受
けた領域のそれぞれは、それ自身のドローイングオーダ
リストを保持する。1つのドローイングオーダリスト内
のオブジェクトは、そのドローイングオーダリストにお
けるオーダにしたがってレンダリングされなければなら
ない。最初に影響を受けた領域のドローイングオーダリ
ストのどれがレンダリングされるか問題ではない。影響
を受けた領域のドローイングオーダリストにおけるオブ
ジェクトがメモリバッファにコピーされるときに、オブ
ジェクトの全表示領域をコピーする代わりに、バッファ
がコピーするためのクリッピングとして影響を受けた領
域が使用される。クリッピング領域でレンダリングする
このステップは、バッファがコピーする時間を大幅に省
略することができる。
Each of the affected areas in the affected area list has its own drawing order list. Objects in one drawing order list must be rendered according to the orders in that drawing order list. It does not matter which of the drawing order lists in the first affected area is rendered. When an object in the drawing order list of the affected area is copied to the memory buffer, the affected area is used as clipping for the buffer to copy instead of copying the entire display area of the object. This step of rendering in the clipping area can save a lot of time copying the buffer.

【0047】(実例)本発明を次のシナリオ例を用いて
説明する。図5は、4タイプのオブジェクトを含む簡単
なシーンを示す。その4タイプは、ドローイングオーダ
が1である1024x768のバックグラウンドイメー
ジ501と、ドローイングオーダが2である300x2
00のビデオオブジェクト504と、ドローイングオー
ダが2である400x300のイメージウインド502
と、ドローイングオーダが2である800x100のテ
キストウインド503とである。図12は、上記に記載
されたシナリオのタイムスケジュールを示す。対応する
MPEG−4 BIFSシーンシナリオツリーは、図6
において示されている。このツリーには、例えばトラン
スファーム2D601とスイッチ2D602が含まれ
る。要求されるビデオフレーム間隔が20msであると
仮定する。
(Example) The present invention will be described using the following example scenarios. FIG. 5 shows a simple scene including four types of objects. The four types include a 1024 × 768 background image 501 with a drawing order of 1, and a 300 × 2 background image 501 with a drawing order of 2.
00 video object 504 and 400 × 300 image window 502 with drawing order 2
And an 800 × 100 text window 503 with a drawing order of 2. FIG. 12 shows the time schedule of the scenario described above. The corresponding MPEG-4 BIFS scene scenario tree is shown in FIG.
Are shown. This tree includes, for example, the Transform 2D 601 and the switch 2D 602. Assume that the required video frame interval is 20 ms.

【0048】従来のレンダリング方法によれば、シーン
における各オブジェクトは、ビデオフレームごとにスク
リーンに表示し直される。したがって、20msごと
に、従来のレンダリングは、図7において示されている
ように、ドローイングオーダリスト701に記載のオー
ダでオブジェクト702、703、704、705を表
示し直す。このように行うことによって、バックグラウ
ンドイメージはシナリオを通じて全く変化しないが、リ
ストが更新されるたびに、バックグラウンドイメージは
ドローイングオーダリストに挿入されている。したがっ
て、バックグラウンドイメージは、フレームごとに(2
0msごとに)メモリバッファに作成し直され、メモリ
バッファからスクリーンに転送される。バックグラウン
ドイメージのサイズは、大きいために、この大きなバッ
クグラウンドイメージのためにバッファがコピーする際
に、非常に多くの時間が浪費され、全体のレンダリング
速度が遅くなる。
According to the conventional rendering method, each object in the scene is redisplayed on the screen for each video frame. Thus, every 20 ms, conventional rendering redisplays the objects 702, 703, 704, 705 in the order described in the drawing order list 701, as shown in FIG. By doing so, the background image does not change at all throughout the scenario, but each time the list is updated, the background image is inserted into the drawing order list. Therefore, the background image is (2
Recreated in the memory buffer (every 0 ms) and transferred from the memory buffer to the screen. Due to the large size of the background image, a great deal of time is wasted and the overall rendering speed is slowed when copying buffers for this large background image.

【0049】図12のイメージウインドとテキストウイ
ンドについて、これら2つのウインドのコンテンツがビ
デオフレームより長い周期で変化するが、イメージウイ
ンドとテキストウインドにおけるオブジェクトは、ビデ
オフレームのレンダリング周期でスクリーンに表示し直
される。その周期は、イメージウインドとテキストウイ
ンドが実際に必要としているものよりかなり短い。これ
ら全ては、レンダリングにおいてオーバーヘッドを生じ
させる。大きなバックグラウンドイメージをバッファが
コピーすることによって、オーバーヘッド時間が生じる
とき、イメージウインドとテキストウインドの表示時間
が、必要とされるビデオフレームの間隔より長くなり、
ビデオ再生において遅れが生じるようになる。
For the image and text windows of FIG. 12, the contents of these two windows change at a longer period than the video frame, but the objects in the image and text windows are redisplayed on the screen at the video frame rendering period. It is. The period is much shorter than what the image and text windows actually need. All of these create overhead in rendering. When the buffer copies a large background image, the overhead time occurs, the display time of the image window and the text window is longer than the required video frame interval,
There will be a delay in video playback.

【0050】本発明に係るレンダリングを向上させる方
法は、オブジェクトベースのシーンの合成とMPEG−
4 BIFSシーン記述との利点を利用することによっ
て、上記に記載された従来のレンダリング方法における
問題を解決する。本発明に係るレンダリング方法を用い
る場合、選択された間隔で生成される影響を受けた領域
リストは、図5と図12において記載されたシナリオを
レンダリングするためのものであり、図8、9、10、
11において示されている。これらの図において、T=
(x、y)とは、Tがx秒からy秒までの範囲内にある
ことを示す。
The method of enhancing rendering according to the present invention is based on object-based scene synthesis and MPEG-
By using the advantages of the 4 BIFS scene description, the problems in the conventional rendering method described above are solved. When using the rendering method according to the present invention, the affected area list generated at the selected interval is for rendering the scenario described in FIGS. 5 and 12, and FIG. 10,
11. In these figures, T =
(X, y) indicates that T is in the range from x seconds to y seconds.

【0051】図8、9、10、11において示されてい
る本発明に係るレンダリング方法で使用される影響を受
けた領域リストを、図7において示されている従来のレ
ンダリング方法で使用されるドローイングオーダリスト
と比較する。図8、9、10、11は、レンダリングを
向上させる方法において、各フレームごとに全てのオブ
ジェクトを表示し直す代わりに、シーンにおいて変化し
た領域が動的に検出され、検出された変化領域だけが表
示し直されることを示している。レンダリングを向上さ
せる方法を、MPEG−4 BIFSシーン記述を用い
て記載されたオブジェクトベースのオーディオ−ビジュ
アルシーンに適用することによって、レンダリングの速
さはかなり向上する。
The affected area list used in the rendering method according to the present invention shown in FIGS. 8, 9, 10 and 11 is drawn into the drawing used in the conventional rendering method shown in FIG. Compare with order list. 8, 9, 10, and 11 show that in a method for improving rendering, instead of redisplaying all objects every frame, changed areas in the scene are dynamically detected and only the detected changed areas are detected. This indicates that the display is to be made again. By applying the rendering enhancement method to an object-based audio-visual scene described using an MPEG-4 BIFS scene description, the rendering speed is significantly increased.

【0052】[0052]

【発明の効果】本発明は、オブジェクトベースのシーン
の合成の性質とMPEG−4 BIFSシーン記述スキ
ームの特徴とを利用してインテリジェントなレンダリン
グを達成する。前記レンダリング方法は、シーンにおけ
る変化した表示領域を動的に検出し、前記変化した領域
におけるオブジェクトだけを、クリッピング領域として
変化した領域を用いて表示し直す。このレンダリングを
向上させる方法は、バッファのコピー時間を短縮し、そ
のことにより、MPEG−4 BIFSシーン記述を用
いて表されるオブジェクトベースのオーディオビジュア
ル2Dシーンについてのレンダリング速度と効率を向上
させる。
The present invention achieves intelligent rendering utilizing the synthetic nature of object-based scenes and features of the MPEG-4 BIFS scene description scheme. The rendering method dynamically detects a changed display area in a scene, and redisplays only the object in the changed area using the changed area as a clipping area. This method of improving rendering reduces buffer copy time, thereby increasing rendering speed and efficiency for object-based audiovisual 2D scenes represented using an MPEG-4 BIFS scene description.

【0053】(参照) (1)1998年5月15日発行、ISO/IEC JTC 1/SC29
/WG11/N2201、「アイエスオー/アイイーシー ファイ
ナルコミッティードラフト 14496−1システム用
テキスト(Text for ISO/IEC Final Committee Draft 14
496-1 Systems)」 (2)1997年発行、ISO/IEC DIS 14772-1、「情報
技術−−コンピュータグラフィックとイメージ処理−−
バーチャルリアリティーモデリング言語(Information t
echnology--Computer graphics and image processing-
-The Virtual Reality Modelling Language)(VRML)」。
(Reference) (1) Published on May 15, 1998, ISO / IEC JTC 1 / SC29
/ WG11 / N2201, Text for ISO / IEC Final Committee Draft 14
496-1 Systems) "(2) Published in 1997, ISO / IEC DIS 14772-1," Information Technology-Computer Graphics and Image Processing-
Virtual reality modeling language (Information t
echnology--Computer graphics and image processing-
-The Virtual Reality Modeling Language) (VRML).

【図面の簡単な説明】[Brief description of the drawings]

【図1】 MPEG−4 BIFSシーンツリー構造を
説明する説明図を示す。
FIG. 1 is an explanatory diagram illustrating an MPEG-4 BIFS scene tree structure.

【図2】 オブジェクトベースシーンをレンダリングす
る従来の方法を説明するフローチャートを示す。
FIG. 2 shows a flowchart illustrating a conventional method for rendering an object-based scene.

【図3】 オブジェクトベースシーンをレンダリングす
る本発明に係る方法を説明するフローチャートを示す。
FIG. 3 shows a flowchart illustrating a method according to the invention for rendering an object-based scene.

【図4】 影響を受けた領域リストで使用されるデータ
構造を説明する説明図を示す。
FIG. 4 is an explanatory diagram illustrating a data structure used in an affected area list.

【図5】 本発明に係るレンダリング方法を説明するた
めに使用されるシナリオ例を表す説明図を示す。
FIG. 5 is an explanatory diagram illustrating an example scenario used to describe a rendering method according to the present invention.

【図6】 例であるシナリオのMPEG−4 BIFS
シーンツリー構造を説明する説明図を示す。
FIG. 6 shows an example scenario of MPEG-4 BIFS.
FIG. 2 is an explanatory diagram illustrating a scene tree structure.

【図7】 例として図5において記載されたシナリオを
用いる従来のレンダリング方法によって作成されるドロ
ーイングオーダリストを示す。
FIG. 7 shows a drawing order list created by a conventional rendering method using the scenario described in FIG. 5 as an example.

【図8】 例として図5において記載されたシナリオを
用いる本発明に係るレンダリング方法によって作成され
る影響を受けた領域リストを示す。
FIG. 8 shows an affected area list created by the rendering method according to the invention using the scenario described in FIG. 5 as an example.

【図9】 例として図5において記載されたシナリオを
用いる本発明に係るレンダリング方法によって作成され
る影響を受けた領域リストを示す。
FIG. 9 shows an affected area list created by a rendering method according to the invention using the scenario described in FIG. 5 as an example.

【図10】 例として図5において記載されたシナリオ
を用いる本発明に係るレンダリング方法によって作成さ
れる影響を受けた領域リストを示す。
FIG. 10 shows an affected area list created by the rendering method according to the invention using the scenario described in FIG. 5 as an example.

【図11】 例として図5において記載されたシナリオ
を用いる本発明に係るレンダリング方法によって作成さ
れる影響を受けた領域リストを示す。
FIG. 11 shows an affected area list created by a rendering method according to the invention using the scenario described in FIG. 5 as an example.

【図12】 図5において記載された例であるシナリオ
のタイムスケジュール表を示す。
FIG. 12 shows a time schedule table for the example scenario described in FIG.

【符号の説明】[Explanation of symbols]

101…トランスフォーム2Dノード 102…シェープノード 103…テキストノード 104…フォントスタイルノード 105…アピアランスノード 106…マテリアルノード 107…タイムセンサノード 108…ポジションインターポレータノード 109…ビデオノード 110…イメージ#1ノード 111…オーディオノード 112…スイッチ2Dノード 113…タッチセンサノード 501…バックグラウンドイメージ 502…イメージウインド 503…テキストウインド 504…ビデオオブジェクト 101 Transform 2D node 102 Shape node 103 Text node 104 Font style node 105 Appearance node 106 Material node 107 Time sensor node 108 Position interpolator node 109 Video node 110 Image # 1 node 111 ... Audio node 112 ... Switch 2D node 113 ... Touch sensor node 501 ... Background image 502 ... Image window 503 ... Text window 504 ... Video object

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡 敏夫 シンガポール534415シンガポール、タイ・ セン・アベニュー、ブロック1022、04− 3530番、タイ・セン・インダストリアル・ エステイト、パナソニック・シンガポール 研究所株式会社内 Fターム(参考) 5B080 AA00 CA01 DA00 5C059 MA00 MB01 MB10 RB02 RB18 RC11 SS26 UA02 UA38  ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor Toshio Oka Singapore 534415 Singapore, Thailand Sen Avenue, Blocks 1022, 04-3530, Thai Sen Industrial Estate, Panasonic Singapore Research Institute F-term (Reference) 5B080 AA00 CA01 DA00 5C059 MA00 MB01 MB10 RB02 RB18 RC11 SS26 UA02 UA38

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 シーンにおけるオブジェクトの空間的関
係と時間的関係がシーン記述を用いて表され、該シーン
記述は、オブジェクトの属性を記述する複数のノード
と、1つのノードのフィールドを別のノードのフィール
ドに接続するルートとを含んでいる、オブジェクトベー
スのユーザインタラクティブシーンをレンダリングする
方法において、前記方法は、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べるステップと、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を計算するステップと、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、影響を受けた領域リストに挿入するステ
ップと、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べるステップと、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を計算するステ
ップと、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を、前記影響を
受けた領域リストに挿入するステップと、 前記影響を受けた領域リストにおける2つの領域が同一
であるならば、前記影響を受けた領域リストから同一の
2つの領域のうち1つを削除するステップと、 前記影響を受けた領域リストにおける1つの領域が、前
記影響を受けた領域リストにおける別の領域に完全に含
まれるならば、前記影響を受けた領域リストから小さい
ほうの領域を削除するステップと、 現在のシーンツリーにおけるオブジェクトの表示領域が
影響を受けた領域リストにおける影響を受けた領域と一
致するまたは重複し、該オブジェクトが、前記影響を受
けた領域と関連するドローイングオーダリストに挿入さ
れるならば、影響を受けた領域リストにおける領域と現
在のシーンツリーにおける全てのオブジェクトの表示領
域とを比較するステップと、 クリッピング領域として影響を受けた領域に相当する領
域を用いて、影響を受けた領域リストのドローイングオ
ーダリストにあるオブジェクトをスクリーンにレンダリ
ングするステップとを含むことを特徴とするシーン記述
を用いて表されるオブジェクトベースのユーザインタラ
クティブシーンをレンダリングする方法。
1. A spatial description and a temporal relation of an object in a scene are represented by using a scene description. The scene description includes a plurality of nodes that describe an attribute of the object and a field of one node divided into another node. A method for rendering an object-based user interactive scene that includes a route connecting to a field of an object, wherein the value of the translation field changes and the object under the transform 2D node is affected. Determining the translation field values of all transform 2D nodes in the scene tree; calculating a previous display area and a current display area of the affected object; Of the affected object Inserting the previous display area and the current display area into the affected area list; and changing the value of the Fitch Choice field to switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection Examining the values of the switch choice fields of all switch 2D nodes in the scene tree if it is determined that both regions of the selected object are affected; Calculating a display area of a currently selected object; and inserting the display area of the previously selected object and the display area of the current selected object into the affected area list. The affected area list If the two regions are the same, removing one of the same two regions from the affected region list; and one region in the affected region list, Deleting the smaller area from the affected area list if completely included in another area in the affected area list; and displaying the affected area list in the current scene tree. Matches or overlaps with the affected region in the affected region list, and if the object is inserted into the drawing order list associated with the affected region, the region in the affected region list and the current scene tree Comparing with the display area of all objects, equivalent to the affected area as clipping area Rendering the objects in the drawing order list of the affected area list to a screen using the region to be rendered. The object-based user interactive scene represented using the scene description is rendered. Method.
【請求項2】 請求項1に記載のシーン記述を用いて表
されるオブジェクトベースのユーザインタラクティブシ
ーンをレンダリングする方法において、 シーンにおけるオブジェクトの動きを検出する方法は、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べるステップと、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べるステップとを含むことを特
徴とする方法。
2. A method for rendering an object-based user interactive scene represented using the scene description according to claim 1, wherein the method for detecting motion of an object in the scene includes changing a value of a translation field. Examining the values of the translation fields of all transform 2D nodes in the scene tree if the objects under the transform 2D nodes are determined to be affected; , Switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection If both regions of the selected object are determined to be affected, then examining the value of the switch choice field of all switch 2D nodes in the scene tree.
【請求項3】 請求項1に記載のシーン記述を用いて表
されるオブジェクトベースのユーザインタラクティブシ
ーンをレンダリングする方法において、 シーンにおける変化した表示領域を検出する方法は、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べるステップと、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、変化した表示領域として計算するステッ
プと、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードにフイッチチョ
イスフィールドの値を調べるステップと、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を、変化した表
示領域として計算するステップとを含むことを特徴とす
る方法。
3. A method for rendering an object-based user interactive scene represented using a scene description according to claim 1, wherein the method comprises: detecting a changed display area in the scene; And if it is determined that the object under the transform 2D node has been affected, examining the values of the translation fields of all transform 2D nodes in the scene tree; Calculating the display area and the current display area as the changed display area; and changing the value of the Fitch Choice field,
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection If it is determined that both regions of the selected object are affected, check the value of the Fitch Choice field for all switch 2D nodes in the scene tree; Calculating the display area of the currently selected object as the changed display area.
【請求項4】 請求項1に記載のシーン記述を用いて表
されるオブジェクトベースのユーザインタラクティブシ
ーンをレンダリングする方法において、 シーンにおいて変化した領域だけをレンダリングする方
法は、変化した領域におけるオブジェクトをメモリバッ
ファに、クリッピング領域として変化した領域に相当す
る領域を用いてコピーするステップを含むことを特徴と
する方法。
4. A method for rendering an object-based user interactive scene represented using the scene description according to claim 1, wherein the method for rendering only changed regions in the scene includes storing objects in the changed regions in a memory. A method comprising copying to a buffer using an area corresponding to a changed area as a clipping area.
【請求項5】 請求項1、3、4のいずれかに記載のシ
ーン記述を用いて表されるオブジェクトベースのユーザ
インタラクティブシーンをレンダリングする方法におい
て、 変化した領域は、オブジェクトの有界矩形を用いて定義
され、ジオメトリックノードと、前記オブジェクトの親
のトランスフォーム2Dノードとを用いて計算されるこ
とを特徴とする方法。
5. A method for rendering an object-based user interactive scene represented using the scene description according to claim 1, wherein the changed area uses a bounded rectangle of the object. Defined using a geometric node and a transform 2D node of the parent of the object.
【請求項6】 請求項1、2、3、4、5のいずれかに
記載のシーン記述を用いて表されるオブジェクトベース
のユーザインタラクティブシーンをレンダリングする方
法において、 シーン記述は、MPEG−4 BIFSであることを特
徴とする方法。
6. A method for rendering an object-based user interactive scene represented using the scene description according to claim 1, wherein the scene description is MPEG-4 BIFS. A method characterized in that:
【請求項7】 シーンにおけるオブジェクトの空間的関
係と時間的関係がシーン記述を用いて表され、該シーン
記述は、オブジェクトの属性を記述する複数のノード
と、1つのノードのフィールドを別のノードのフィール
ドに接続するルートとを含んでいる、オブジェクトベー
スのユーザインタラクティブシーンをレンダリングする
装置において、前記装置は、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べる手段と、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を計算する手段と、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、影響を受けた領域リストに挿入する手段
と、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べる手段と、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を計算する手段
と、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を、前記影響を
受けた領域リストに挿入する手段と、 前記影響を受けた領域リストにおける2つの領域が同一
であるならば、前記影響を受けた領域リストから同一の
2つの領域のうち1つを削除する手段と、 前記影響を受けた領域リストにおける1つの領域が、前
記影響を受けた領域リストにおける別の領域に完全に含
まれるならば、前記影響を受けた領域リストから小さい
ほうの領域を削除する手段と、 現在のシーンツリーにおけるオブジェクトの表示領域が
影響を受けた領域リストにおける影響を受けた領域と一
致するまたは重複し、該オブジェクトが、前記影響を受
けた領域と関連するドローイングオーダリストに挿入さ
れるならば、影響を受けた領域リストにおける領域と現
在のシーンツリーにおける全てのオブジェクトの表示領
域とを比較する手段と、 クリッピング領域として影響を受けた領域に相当する領
域を用いて、影響を受けた領域リストのドローイングオ
ーダリストにあるオブジェクトをスクリーンにレンダリ
ングする手段とを含むことを特徴とするシーン記述を用
いて表されるオブジェクトベースのユーザインタラクテ
ィブシーンをレンダリングする装置。
7. The spatial and temporal relationships of objects in a scene are represented using a scene description. The scene description includes a plurality of nodes that describe the attributes of the object and a field of one node that is stored in another node. An apparatus for rendering an object-based user interactive scene that includes a route connecting to a field of the object, wherein the value of the translation field changes and the object under the transform 2D node is affected. Means for examining the values of the translation fields of all transform 2D nodes in the scene tree; means for calculating a previous display area and a current display area of the affected object; Previous table of affected objects Means for inserting the display area and the current display area into the affected area list; and
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection Means for examining the values of the Fitch Choice fields of all the switch 2D nodes in the scene tree if both regions of the selected object are determined to be affected; Means for calculating a display area of a currently selected object; means for inserting the display area of the previously selected object and the display area of the current selected object into the affected area list. Two areas in the affected area list Means for deleting one of the same two areas from the affected area list, if one is in the affected area list, Means for deleting the smaller area from the affected area list if it is completely contained in another area in the display area; and displaying the object display area in the current scene tree in the affected area list in the affected area list. If the object matches or overlaps the affected area and the object is inserted into the drawing order list associated with the affected area, the area in the affected area list and all objects in the current scene tree Using the means to compare with the display area and the area corresponding to the affected area as the clipping area, Apparatus for rendering an object-based user interactive scene represented using scene description, characterized in that it comprises a means for rendering the object in the drawing order list of digits region list on the screen.
【請求項8】 請求項7に記載のシーン記述を用いて表
されるオブジェクトベースのユーザインタラクティブシ
ーンをレンダリングする装置において、 シーンにおけるオブジェクトの動きを検出する装置は、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べる手段と、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べる手段とを含むことを特徴と
する装置。
8. An apparatus for rendering an object-based user interactive scene represented using the scene description according to claim 7, wherein the apparatus for detecting motion of an object in the scene has a translation field value that changes. If it is determined that the object under the transform 2D node is affected, means for examining the value of the translation field of all transform 2D nodes in the scene tree; , Switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection Means for examining the value of the Fitch Choice field of all switch 2D nodes in the scene tree if both regions of the identified object are determined to be affected.
【請求項9】 請求項7に記載のシーン記述を用いて表
されるオブジェクトベースのユーザインタラクティブシ
ーンをレンダリングする装置において、 シーンにおける変化した表示領域を検出する装置は、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べる手段と、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、変化した表示領域として計算する手段
と、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べる手段と、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を、変化した表
示領域として計算する手段とを含むことを特徴とする装
置。
9. An apparatus for rendering an object-based user interactive scene represented using the scene description according to claim 7, wherein the apparatus for detecting a changed display area in the scene comprises: And if it is determined that the objects under the transform 2D node are affected, means for examining the values of the translation fields of all transform 2D nodes in the scene tree; Means for calculating the display area and the current display area as the changed display area, and the value of the Fitch Choice field changes and the switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection Means for examining the values of the Fitch Choice fields of all the switch 2D nodes in the scene tree if both regions of the selected object are determined to be affected; Means for calculating the display area of the currently selected object as the changed display area.
【請求項10】 請求項7に記載のシーン記述を用いて
表されるオブジェクトベースのユーザインタラクティブ
シーンをレンダリングする装置において、 シーンにおいて変化した領域だけをレンダリングする装
置は、変化した領域におけるオブジェクトをメモリバッ
ファに、クリッピング領域として変化した領域に相当す
る領域を用いてコピーする手段を含むことを特徴とする
装置。
10. An apparatus for rendering an object-based user interactive scene represented using a scene description according to claim 7, wherein the apparatus for rendering only the changed regions in the scene stores the objects in the changed regions. Apparatus comprising means for copying in a buffer using an area corresponding to an area changed as a clipping area.
【請求項11】 請求項7、9、10のいずれかに記載
のシーン記述を用いて表されるオブジェクトベースのユ
ーザインタラクティブシーンをレンダリングする装置に
おいて、 変化した領域は、オブジェクトの有界矩形を用いて定義
され、ジオメトリックノードと、前記オブジェクトの親
のトランスフォーム2Dノードとを用いて計算されるこ
とを特徴とする装置。
11. An apparatus for rendering an object-based user interactive scene represented using the scene description according to claim 7, wherein the changed area uses a bounded rectangle of the object. Defined using a geometric node and a transform 2D node of the parent of the object.
【請求項12】 請求項7、8、9、10、11のいず
れかに記載のシーン記述を用いて表されるオブジェクト
ベースのユーザインタラクティブシーンをレンダリング
する装置において、 シーン記述は、MPEG−4 BIFSであることを特
徴とする装置。
12. An apparatus for rendering an object-based user interactive scene represented using the scene description according to claim 7, wherein the scene description is MPEG-4 BIFS. An apparatus characterized in that:
【請求項13】 シーンにおけるオブジェクトの空間的
関係と時間的関係がシーン記述を用いて表され、該シー
ン記述は、オブジェクトの属性を記述する複数のノード
と、1つのノードのフィールドを別のノードのフィール
ドに接続するルートとを含んでいる、オブジェクトベー
スのユーザインタラクティブシーンをレンダリングする
コンピュータプログラムが記録されたコンピュータ読み
取り可能な記録媒体において、前記コンピュータプログ
ラムは、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べる手順と、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を計算する手順と、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、影響を受けた領域リストに挿入する手順
と、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べる手順と、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を計算する手順
と、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を、前記影響を
受けた領域リストに挿入する手順と、 前記影響を受けた領域リストにおける2つの領域が同一
であるならば、前記影響を受けた領域リストから同一の
2つの領域のうち1つを削除する手順と、 前記影響を受けた領域リストにおける1つの領域が、前
記影響を受けた領域リストにおける別の領域に完全に含
まれるならば、前記影響を受けた領域リストから小さい
ほうの領域を削除する手順と、 現在のシーンツリーにおけるオブジェクトの表示領域が
影響を受けた領域リストにおける影響を受けた領域と一
致するまたは重複し、該オブジェクトが、前記影響を受
けた領域と関連するドローイングオーダリストに挿入さ
れるならば、影響を受けた領域リストにおける領域と現
在のシーンツリーにおける全てのオブジェクトの表示領
域とを比較する手順と、 クリッピング領域として影響を受けた領域に相当する領
域を用いて、影響を受けた領域リストのドローイングオ
ーダリストにあるオブジェクトをスクリーンにレンダリ
ングする手順とを含むことを特徴とするシーン記述を用
いて表されるオブジェクトベースのユーザインタラクテ
ィブシーンをレンダリングするコンピュータプログラム
が記録されたコンピュータ読み取り可能な記録媒体。
13. A spatial description and a temporal relation of an object in a scene are represented by using a scene description. A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene is recorded, the computer program comprising: If the objects under the form 2D node are determined to be affected, then the steps of examining the values of the translation fields of all transform 2D nodes in the scene tree; Calculating the display area and the current display area of the affected object; inserting the previous display area and the current display area of the affected object into the affected area list; and a value of the Fitch Choice field. Changes, switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection If it is determined that both areas of the selected object are affected, then checking the values of the Fitch Choice fields of all switch 2D nodes in the scene tree; and displaying the display area of the previously selected object and the Calculating the display area of the currently selected object; inserting the display area of the previous selected object and the display area of the current selected object into the affected area list. Two areas in the affected area list If the two are the same, removing one of the same two areas from the affected area list; and selecting one of the areas in the affected area list as the affected area list. Removing the smaller area from the affected area list if it is completely contained in another area, and displaying the object's display area in the current scene tree in the affected area list. If the object matches or overlaps the affected area and the object is inserted into the drawing order list associated with the affected area, the area in the affected area list and all objects in the current scene tree Using the procedure to compare with the display area and using the area corresponding to the affected area as the clipping area, Rendering the objects in the drawing order list of the digitized area list on a screen. The computer-readable recorded computer program for rendering an object-based user interactive scene represented using a scene description. Recording medium.
【請求項14】 請求項13に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングするコンピュータプログラムが
記録されたコンピュータ読み取り可能な記録媒体におい
て、 シーンにおけるオブジェクトの動きを検出するためのコ
ンピュータプログラムは、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べる手順と、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べる手順とを含むことを特徴と
する記録媒体。
14. A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene represented by using the scene description according to claim 13 is recorded, wherein a motion of the object in the scene is detected. If the value of the translation field changes and it is determined that the object under the transform 2D node has been affected, the value of the translation field of all transform 2D nodes in the scene tree And the value of the Fitch Choice field changes, switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection Examining the values of the switch fields of all switch 2D nodes in the scene tree if both regions of the selected object are determined to be affected.
【請求項15】 請求項13に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングするオブジェクトベースのユー
ザインタラクティブシーンをレンダリングするコンピュ
ータプログラムが記録されたコンピュータ読み取り可能
な記録媒体において、 シーンにおける変化した表示領域を検出するためのコン
ピュータプログラムは、 トランスレーションフィールドの値が変化し、トランス
フォーム2Dノードの下にあるオブジェクトが影響を受
けたと判断されるならば、シーンツリーにおける全ての
トランスフォーム2Dノードのトランスレーションフィ
ールドの値を調べる手順と、 前記影響を受けたオブジェクトの以前の表示領域と現在
の表示領域を、変化した表示領域として計算する手順
と、 フイッチチョイスフィールドの値が変化し、スイッチ2
Dノードのフイッチチョイスフィールドの以前の値によ
って選択されたオブジェクトは、スイッチ2Dノードの
フイッチチョイスフィールドの現在の値によって選択さ
れた新しいオブジェクトに置き換えられ、以前の選択さ
れたオブジェクトと現在の選択されたオブジェクトの両
方の領域が影響を受けたと判断されたならば、シーンツ
リーにおける全てのスイッチ2Dノードのフイッチチョ
イスフィールドの値を調べる手順と、 前記以前の選択されたオブジェクトの表示領域と前記現
在の選択されたオブジェクトの表示領域を、変化した表
示領域として計算する手順とを含むことを特徴とする記
録媒体。
15. A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene that renders an object-based user interactive scene represented using the scene description according to claim 13 is recorded. The computer program for detecting the changed display area in the scene, if the value of the translation field has changed and it is determined that the object under the transform 2D node has been affected, Examining the value of the translation field of the transform 2D node; and calculating the previous and current display areas of the affected object as changed display areas. The value of the Fitch Choice field changes, and switch 2
The object selected by the previous value of the D-node Fitch Choice field is replaced with the new object selected by the current value of the Switch 2D Node Fitch Choice field, and the previous selected object and the current selection If it is determined that both areas of the selected object are affected, then checking the values of the Fitch Choice fields of all switch 2D nodes in the scene tree; and displaying the display area of the previously selected object and the Calculating a display area of the currently selected object as a changed display area.
【請求項16】 請求項13に記載のシーン記述を用い
て表されるオブジェクトベースのユーザインタラクティ
ブシーンをレンダリングするコンピュータプログラムが
記録されたコンピュータ読み取り可能な記録媒体におい
て、 シーンにおいて変化した領域だけをレンダリングするた
めのコンピュータプログラムは、変化した領域における
オブジェクトをメモリバッファに、クリッピング領域と
して変化した領域に相当する領域を用いてコピーする手
順を含むことを特徴とする記録媒体。
16. A computer-readable recording medium having a computer program for rendering an object-based user interactive scene represented by using the scene description according to claim 13, wherein only a changed region in the scene is rendered. A computer program for copying an object in a changed area to a memory buffer using an area corresponding to the changed area as a clipping area.
【請求項17】 請求項13、15、16のいずれかに
記載のシーン記述を用いて表されるオブジェクトベース
のユーザインタラクティブシーンをレンダリングするコ
ンピュータプログラムが記録されたコンピュータ読み取
り可能な記録媒体において、 変化した領域は、オブジェクトの有界矩形を用いて定義
され、ジオメトリックノードと、前記オブジェクトの親
のトランスフォーム2Dノードとを用いて計算されるこ
とを特徴とする記録媒体。
17. A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene represented using the scene description according to claim 13, 15, or 16 is recorded. The recorded area is defined using a bounded rectangle of the object, and is calculated using a geometric node and a transform 2D node of the parent of the object.
【請求項18】 請求項13、14、15、16、17
のいずれかに記載のシーン記述を用いて表されるオブジ
ェクトベースのユーザインタラクティブシーンをレンダ
リングするコンピュータプログラムが記録されたコンピ
ュータ読み取り可能な記録媒体において、 シーン記述は、MPEG−4 BIFSであることを特
徴とする記録媒体。
18. The method of claim 13, 14, 15, 16, or 17.
A computer-readable recording medium on which a computer program for rendering an object-based user interactive scene represented using the scene description described in any one of claims 1 to 3, is recorded, wherein the scene description is MPEG-4 BIFS. Recording medium.
JP2000198048A 2000-06-30 2000-06-30 Method for rendering user interactive scene of object base displayed using scene description Pending JP2002015328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000198048A JP2002015328A (en) 2000-06-30 2000-06-30 Method for rendering user interactive scene of object base displayed using scene description

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000198048A JP2002015328A (en) 2000-06-30 2000-06-30 Method for rendering user interactive scene of object base displayed using scene description

Publications (1)

Publication Number Publication Date
JP2002015328A true JP2002015328A (en) 2002-01-18

Family

ID=18696269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000198048A Pending JP2002015328A (en) 2000-06-30 2000-06-30 Method for rendering user interactive scene of object base displayed using scene description

Country Status (1)

Country Link
JP (1) JP2002015328A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003067591A1 (en) * 2002-02-07 2003-08-14 Samsung Electronics Co., Ltd. Information storage medium containing display mode information, and reproducing apparatus and method therefor
EP2038874A2 (en) * 2006-06-01 2009-03-25 QUALCOMM Incorporated Apparatus and method for selectively double buffering portions of displayable content
GB2517250A (en) * 2013-06-03 2015-02-18 Advanced Risc Mach Ltd A method of and apparatus for controlling frame buffer operations
US8970580B2 (en) 2010-02-12 2015-03-03 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium rendering three-dimensional (3D) graphics
WO2017019172A1 (en) * 2015-07-29 2017-02-02 Qualcomm Incorporated Updating image regions during composition
CN109978979A (en) * 2019-03-08 2019-07-05 广联达科技股份有限公司 Improve the method, apparatus and electronic equipment of real-time rendering interaction fluency

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003067591A1 (en) * 2002-02-07 2003-08-14 Samsung Electronics Co., Ltd. Information storage medium containing display mode information, and reproducing apparatus and method therefor
EP2038874A2 (en) * 2006-06-01 2009-03-25 QUALCOMM Incorporated Apparatus and method for selectively double buffering portions of displayable content
JP2009539147A (en) * 2006-06-01 2009-11-12 クゥアルコム・インコーポレイテッド Apparatus and method for selectively double buffering part of displayable content
US8970580B2 (en) 2010-02-12 2015-03-03 Samsung Electronics Co., Ltd. Method, apparatus and computer-readable medium rendering three-dimensional (3D) graphics
GB2517250A (en) * 2013-06-03 2015-02-18 Advanced Risc Mach Ltd A method of and apparatus for controlling frame buffer operations
GB2517250B (en) * 2013-06-03 2016-12-14 Advanced Risc Mach Ltd A method of and apparatus for controlling frame buffer operations
US9640148B2 (en) 2013-06-03 2017-05-02 Arm Limited Method of and apparatus for controlling frame buffer operations
WO2017019172A1 (en) * 2015-07-29 2017-02-02 Qualcomm Incorporated Updating image regions during composition
US9953620B2 (en) 2015-07-29 2018-04-24 Qualcomm Incorporated Updating image regions during composition
CN109978979A (en) * 2019-03-08 2019-07-05 广联达科技股份有限公司 Improve the method, apparatus and electronic equipment of real-time rendering interaction fluency

Similar Documents

Publication Publication Date Title
US6912726B1 (en) Method and apparatus for integrating hyperlinks in video
JP3177221B2 (en) Method and apparatus for displaying an image of an interesting scene
US6573915B1 (en) Efficient capture of computer screens
US6587574B1 (en) System and method for representing trajectories of moving objects for content-based indexing and retrieval of visual animated data
JP5015221B2 (en) Reproduction method using information recording medium on which subtitle is recorded
US7281212B2 (en) Object selection using hit test tracks
US8301669B2 (en) Concurrent presentation of video segments enabling rapid video file comprehension
CN100471255C (en) Method for making and playing interactive video frequency with heat spot zone
KR101445074B1 (en) Method and apparatus for manipulating media object in media player
JP2000358192A (en) Generating device and method of scene description, object extracting method and recording medium
JP2022535669A (en) Animation rendering method, apparatus, computer readable storage medium, and computer equipment
US20220337919A1 (en) Method and apparatus for timed and event triggered updates in scene
JP2002015328A (en) Method for rendering user interactive scene of object base displayed using scene description
US20050021552A1 (en) Video playback image processing
WO2008122979A1 (en) System, method and device for displaying video signals
Sorger et al. Metamorphers: Storytelling templates for illustrative animated transitions in molecular visualization
EP3940539A1 (en) A system and method for generating dynamic media
Daras et al. MPEG-4 authoring tool for the composition of 3D audiovisual scenes
Bove Object-oriented television
KR100491956B1 (en) MPEG-4 contents generating method and apparatus
JPH09114427A (en) Video presentation system
Teodosio et al. Salient stills
Daras et al. An MPEG-4 tool for composing 3D scenes
Concolato et al. Design of an efficient scalable vector graphics player for constrained devices
KR101090764B1 (en) Apparatus and method for playback of contents based on scene description