CN1133273C - 在场景描述中用于数据类型变型和代数操作的方法 - Google Patents

在场景描述中用于数据类型变型和代数操作的方法 Download PDF

Info

Publication number
CN1133273C
CN1133273C CN99121626A CN99121626A CN1133273C CN 1133273 C CN1133273 C CN 1133273C CN 99121626 A CN99121626 A CN 99121626A CN 99121626 A CN99121626 A CN 99121626A CN 1133273 C CN1133273 C CN 1133273C
Authority
CN
China
Prior art keywords
numerical value
node
output
value
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN99121626A
Other languages
English (en)
Other versions
CN1250978A (zh
Inventor
刘志勇
陈朝庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN1250978A publication Critical patent/CN1250978A/zh
Application granted granted Critical
Publication of CN1133273C publication Critical patent/CN1133273C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/27Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种用于两个BIFS节点之间的不同数据类型的数据类型变型的方法。该方法提供一种简单、直观和容易的创建动态场景描述的方法。该方法把定义于1998年5月15日的MPEG-4系统最终委员会草案(文档ISO/IEC JTC/SC29/WG11 N2201)中的赋值器的常量输出限制。在此公开多种用于在MPEG-4系统最终委员会草案中定义的不同数据类型的转换方法。该转换方法设计合理并提供赋值器节点的增强版本的最大可用性。

Description

在场景描述中用于数据类型变型和代数操作的方法
技术领域
本发明涉及一种视听场景的空间和时间的表示。在一场景的基于对象的压缩中,其中形成整个场景的各个对象被分别压缩,需要一种表示该对象的空间和时间关系的方法。在一种典型的场景中,一个对象的属性可以被用于影响另一个对象的属性。本发明的本质在于通过促进两个对象之间的属性交换来表示和重建一场景。
背景技术
MPEG-4[1]规定一种数字视听信息的基于对象的压缩。它通过描绘场景的视听对象,并分别压缩每个对象,使得多媒体内容具有基于对象的交互性。所压缩的视听数据随着由解码器所用于通过在该解码器中组合各个视听对象的场景描述而增加。在MPEG-4中,场景描述被称为用于场景描述的二进制格式(BIFS)。
场景描述数据按照由图1中所示的节点和路由所构成的场景树形式。而视听对象由节点的集合所表示。节点包含该对象的信息或属性。路由用于连接节点的属性,使得一个对象的属性可以被用于影响另一个对象的属性。
根据现有技术,一些数据类型变型的形式对于BIFS的有效性和成功是本质性的。这是因为在一路由两端处定义的数值必须是相同的数据类型。通常,赋值器可以用于此目的,如图2中所示。来自节点1的字段1的数据通过赋值器节点路由到节点2的字段1。但是,由于赋值器的静态特性,第二节点将总是接收一个固定值,而与第一节点无关。这样,节点2的字段1的数值不能够响应节点1的字段1而改变。但是,这引起将在下文中讨论的其它问题。
在作为第二现有技术VRML(虚拟现实造型语言)标准[2]中,脚本总是用于提供这种数据类型变型机制。但是,脚本更加复杂,并且需要用户学习脚本语言。另外,利用脚本节点需要一个具有更高资源要求的编译器。
在系统最终委员会草案(文档ISO/IEC JTC1/SC29/WG11 N2201)[1]中,赋值器节点被定义使得一节点的输出值路由到不同数据类型的另一节点的输出值。例如,布尔数据类型的输出值(TRUE/FALSE)可以通过利用赋值器节点连接到浮点数据类型的输出值。但是,MPEG系统委员会草案定义赋值器节点的输出值为一常数,这严重地限制了赋值器节点用于类型变型的目的,这在创建更加复杂的场景中造成极度的困难。事实上,许多赋值器节点和工作区需要采用均匀简单的场景。
当前的现有技术具有如下缺点:
(1)从一个节点通过路由连接到另一个节点属性的数据类型必须相同。
(2)类型变型仅能够由称为赋值器节点的特殊节点来执行。
(3)赋值器节点的输出总是一个常数。
特别是在属性具有不同的数据类型时而要使一个节点的属性影响一个节点的属性的情况下,这会造成严重的问题。
首先,由于路由不具有改变属性的数据类型的能力,不同数据类型的属性不能够连接。该理所当然的通常解法是用路由来处理数据类型变型。但是,这增加了路由应用的复杂度,在多数情况下,不需要数据类型变型。
因此,需要赋值器节点来执行数据类型变型的功能。但是,赋值器具有另一个局限性。它的输出是常数而不能改变。因此,为了使一个节点的属性影响另一个节点的属性,需要多个赋值器。
由于上文指出的局限性,不可能通过两个分别具有不同常数值的赋值器在多个节点的相同字段之间路由,如图3中所示。由于最后的路由将改定以前路由的所有信息。但是,这种情况实际上是很常见的。在该现有技术中,尝试根据节点1的输出字段301改变节点1的输入字段308。节点1的输出字段通过路由302连接到赋值器1,304。赋值器1的输出接着通过路由306连接到节点2的输入字段。类似地,节点1的相同输出也通过路由303连接到赋值器2,305。赋值器2的输出接着通过路由307连接到节点2的输入字段。但是,由于第二路由307总是改写第一路由306的数值,因此这不能得到所需的结果。
如果节点2的输入属性与节点1的输出属性是不同数据类型的,则不可能使节点2的输入属性的数值决定于节点1的输出属性。由于许多情况需要这种类型变型功能,例如双状态按钮(称为例子1),因此需要一种方法来克服这种问题。
发明内容
我们对该问题的解决方案是通过消除赋值器节点的输出值为常数的限制,扩展和增加在MPEG-4系统委员会草案中规定的赋值器节点的功能。取而代之的是,使输出值是输入值的一个函数。这在图4中示出。节点1的字段401通过路由402连接到赋值器节点403的输入字段。赋值器节点接着通过其后跟随着数据类型变型程序的转换程序把输入字段转换为输出字段。输出字段接着通过路由404连接到节点2的输入字段405。
由此,我们消除了把多个赋值器节点连接到相同目的字段的需要。
本发明的一个具体方框在图5中示出。为了说明本发明,在此提出如下所示形式的简单线性函数。
f(x)=factor×x+offset                 (1)
其中:
factor=用户指定数值,在用于下文的赋值器的语义表中所示的其中一个exposedField因子数值。
offset=一个常数值,在用于下文的赋值器的语义表中所示的其中一个exposedField偏移量数值。
因子参数可以按比例改变输入数值。例如,整数值可以通过以232作为因子按比例变为0与1之间的浮点数值。
偏移量参数在输入值中导入一个偏移量。当用于TimeSensor节点时,这可以用于执行对特定行为的延迟。请注意这是对原始赋值器节点的扩展,大多数原始功能通过把因子的数值设为0并且把偏移量设为所需输出值而得到保留。这将使得新的赋值器作为当前指定的赋值器节点而工作。
根据本发明的第一个方面,一种用于链接在场景的空间的时间描述的表示中的不同数据类型的信息的方法,其中该场景中的空间和时间关系由一个包括多个描述对象的属性的节点和把一个节点的字段通过赋值器节点连接到另一个节点的字段的路由所构成的场景树描述所表示,该方法包括如下步骤:
把赋值器节点输入数值设置为源节点的输出数值;
确定源节点的输出和目的节点的输入的数据类型;
根据所述字段的数据类型从一组预定程序或函数选择所需要操作和类型变型;
通过所述选择的程序或函数改变所述输入以形成赋值器节点的输出;
把赋值器节点的所述输出变型为目的节点的输入的所需数据类型;以及
把目的节点的输入的数值设置为赋值器节点的输出的数值。
根据第二个方面,一种如第一方面中所述的链接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中该赋值器的输入和输出字段包括如下数据类型中的一种,但不限于这些数据类型,这些数据类型是:整数数字、浮点数字或布尔数值。
根据第三个方面,一种如第一方面中所述的链接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中通过预定程序或函数改变所述输入数值以形成输出数值的方法包括把该输入字段乘以一个常数然后加上第二常数数值以获得用于输出字段的最终数值的步骤。
根据本发明的第四个方面,一种用于链接在场景的空间的时间描述的表示中的不同数据类型的信息的方法,其中该场景中的空间和时间关系由一个包括多个描述对象的属性的节点和把一个节点的字段通过赋值器节点连接到另一个节点的字段的路由所构成的场景树描述所表示,该方法包括如下步骤:
把赋值器节点输入矢量的数值设置为源节点的输出矢量的字段的数值;
确定源节点输出矢量和目的节点的输入矢量的字段的数据类型;
根据所述字段的数据类型从一组预定程序或函数选择所需要操作和类型变型;
通过所述选择的程序或函数改变所述输入矢量以形成赋值器节点的输出矢量;
把赋值器节点的所述输出矢量变型为目的节点的输入矢量的所需数据类型;以及
把目的节点的输入矢量的数值设置为赋值器节点的输出矢量的数值。
根据第五个方面,一种如在第一方面中所述的连接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中该输入和输出矢量包括多个元素,并且这些元素包括如下数据类型中的一种,但不限于这些数据类型,这些数据类型是:整数数字、浮点数字或布尔数值。
根据第六个方面,一种如第四方面中所述的链接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中通过预定程序或函数改变所述输入矢量以形成输出矢量的方法包括如下步骤:
把输入矢量的每个元素乘以一个常数以获得换算值;以及
把该换算值加上第二常数数值以获得偏移量数值;以及
把输出矢量的每个元素设置为相应的偏移量数值。
根据第七个方面,一种如第四方面中所述的链接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中通过预定程序或函数改变所述输入矢量以形成输出矢量的方法包括如下步骤:
把输入矢量的每个元素乘以一个常数以获得换算值;
把该换算值加上第二常数数值以获得偏移量数值;
把从输入矢量得出的所有偏移位数值求和;以及
把输出矢量的每个元素设置为所述和。
根据第八个方面,一种如第四、第六或第七个方面中所述的链接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中赋值器节点包括一个控制选择该输出作为第六个方面或第七个方面中的输出矢量的选择过程的附加输入字段。
根据第九个方面,一种如第六个方面中所述的通过预定程序和函数改变所述输入矢量以形成输出值的方法,其中该赋值器节点包括一个附加输入字段,并且仅仅当一控制信号由所述输入字段所接收或者所述输入字段被设为预定数值时才能够把输出矢量的每个元素设置为相应的偏移量数值。
根据第十个方面,一种如第六个方面中所述的通过预定程序和函数改变所述输入矢量以形成输出值的方法,其中该赋值器节点包括一个附加输入字段,并且仅仅当一控制信号由所述输入字段所接收或者所述输入字段被设为预定数值时才能够把输出矢量的每个元素设置为所述求出的和。
根据第十一个方面,一种如第一、第二、第四、第六、第七或第八个方面中所述的链接在场景的空间和时间描述的表示中的不同数据类型的信息的方法,其中该常数是用户在内容产生时或在内容的执行过程中定义的。
附图说明
图1为示出由节点和路由表示场景描述的空间和时间信息的方法的
现有技术的示意图。
图2为示出赋值器节点被按照1998年5月15日的当前MPEG-4系统最终委员会草案而使用的方框图。
图3为示出不多于一个路由可以从一个节点的相同字段路由到另一个节点的相同字段而与所用的赋值器的数目无关的问题的方框图。
图4为示出如何用赋值器节点连接于输出和输入字段为不同数据类型的两个节点之间的方框图,其中该连接通过路由实现。
图5为示出根据本发明的赋值器节点的具体操作的方框图。
具体实施方式
本发明主要用于促进节点之间的信息交换。信息交换的方式是很重要的。仔细地定义数据类型变型操作也是重要的。
图5示出如何把输入数值改变以产生输出数值。输入数值的数目取决于输入数据类型。例如,SFFloat类型的数据仅仅具有单个数值,而SFRotation类型的数据具有多到四个数值。每个输入数值(401)将进行方程(1)中所述并在图5中示出的数学运算。
首先,输入数据被类型变型为等效的浮点值数值(402)。然后乘以一个用户预定数值(403)Factor1,并且加到另一个用户预定数值(404)Offset1,这两个数值都为浮点数字。然后根据该求和标记(412)是否置位而确定输出值(405)。如果求和标记置位,则所有数值(408、409、410、411)将求和并输出。然后把输出数值(405)类型变型(406)为输出数据类型,以获得最终输出数值(407)。最终输出数值将仅在其被触发(413)时发送。也就是,把该输入字段乘以一个常数然后加上第二常数数值以获得用于输出字段的最终数值。其中输入和输出矢量包括多个元素,并且这些元素包括至少如下数据类型中的一种:整数数字、浮点数字或布尔数值。
通过预定程序改变所述输入矢量以形成输出矢量的方法包括如下步骤:把输入矢量的每个元素乘以一个常数以获得换算值;以及把该换算值加上第二常数数值以获得偏移量数值;以及把输出矢量的每个元素设置为相应的偏移量数值。在上一段中描述的步骤类似地对其他可用输入值(414、415、416)执行。其中,也可以把从输入矢量得出的所有偏移位数值求和;以及把输出矢量的每个元素设置为所述和。
所建议的用于赋值器节点的语义表如下:Valuator{eventln              SFBool        inSFBool         NULLeventln              SFColor       inSFColor        NULLeventln              MFColor       inMFColor        NULLeventln              SFFloat       inSFFloat        NULLeventln              MFFloat       inMFFloat        NULLeventln              SFlnt32       inSFlnt32        NULLeventln              MFlnt32       inMFlnt32        NULLeventln              SFRotation    inSFRotation     NULLeventln              MFRotation    inMFRotation     NULLeventln              SFString      inSFString       NULLeventln              MFString      inMFString       NULLeventln              SFTime        inSFTime         NULLeventln              SFVec2f       inSFVec2f        NULLeventln              MFVec2f       inMFVec2f        NULLeventln              SFVec3f       inSFVec3f        NULLeventln              MFVec3f       inMFVec3f        NULLeventOut             SFBool        outSFBool        FALSEeventOut             SFColor       outSFColor       0,0,0eventOut             MFColor       outMFColor       NULLeventOut             SFFloat       outSFFloat       0eventOut             MFFloat       outMFFloat       NULLeventOut             SFlnt32       outSFlnt32       0eventOut             MFlnt32       outMFlnt32       NULLeventOut             SFRotation    outSFRotation    NULLeventOut             MFRotation    outMFRotation    NULLeventOut             SFString      outSFString     “”eventOut             MFString      outMFString      NULLeventOut             SFTime        outSFTime        0eventOut             SFVec2f       outSFVec2f       0,0eventOut             MFVec2f       outMFVec2f       NULLeventOut             SFVec3f       outSFVec3f       0,0,0eventOut             MFVec3f       OutMFVec3f       NULLexposedField         SFFloat       Factor1          1exposedField         SFFloat       Factor2          1exposedField         SFFloat       Factor3          1exposedField    SFFloat      Factor4        1exposedField    MFFloat      Offset1        0exposedField    SFFloat      Offset2        0exposedField    SFFloat      Offset3        0exposedField    SFFloat      Offset4        0exposedField    SFBool       Sum            FALSEexposedField    SFBool       Trigger        FALSE}
这对赋值器的增强使得它能够更好地响应场景中的动态环境。对于执行改变节点的特定字段和相同任务来说,它也能够消除对更多赋值器的需要(参见下文的实施例)。其中赋值器节点可以包括一个附加输入字段,以控制选择该输出矢量的选择过程,或当一控制信号由输入字段所接收时,才能够把输出矢量的每个元素设置为相应的偏移量数值或把输出矢量的每个元素设置为求出的和。
实施例-双状态按钮
该实施例示出是输出数值为输入数值的一个函数的优点。在MPEG-4系统最终委员会草案[1]的子条款9.5.1.2.11.2中所引用的双状态按钮实施例中,如果我们希望根据滑鼠的敲击来改变对象(一种为观察者提供敲击键的通常方法)。我们可以有如下结构。
DEF TS TouchSensor{}

    DEF MySwitch Switch2D{

        Which Choice 0

        choice[ 

            Shape{

                geometry Circle{

                    radius 0.5

                }
        <!-- SIPO <DP n="9"> -->
        <dp n="d9"/>
         }

                  Shape{

     geometry Rectangle{

                         size 0.5,0.5

                       }
     }

          ]

     }

     DEF VL Valuator{

          SFlnt32Factor 1.0

          outSFlnt32 0.0

     }
输入TRUE(1)的数值将导致输出值为:
(1.0)×1.0+0.0=1(32位整数)
输入FALSE(0)的数值将导致输出值为:
(1.0)×0.0+0.0=0(32位整数)
上述实施例仅用一个赋值器根据滑鼠的敲击动作把形状对象在圆形和矩形之间改变。这是合理、直观并且易于使用的。这与需要多个赋值器来获得相同效果的常量输出赋值器相反。其中常数是用户在内容产生时或在内容的执行过程中定义的。
从一个节点到另一个节点的数值路由是BIFS场景的一个基本操作。如果没有路由,则在节点之间没有交互作用,这导致不随时间改变并且不能与环境交互作用的静态场景。
本发明使得MPEG4 BIFS场景具有在两个节点的字段之间路由数值的更好的方式。在路由的两端处的两个数值可以是从属和动态的。这与当前的MPEG-4系统委员会草案中规定的固定值赋值器相反。
如果没有本发明,由于不同数据类型的有用字段不能够被连接,因此仅仅能够创建通常的场景。由于赋值器的静态特性,因此数据类型变型不能够用当前规定的赋值器实现。

Claims (12)

1.一种用于链接在场景的空间的时间描述的表示中的不同数据类型的信息的方法,其中该场景中的空间和时间关系由一个包括多个描述对象的属性的节点和把一个节点的字段通过赋值器节点连接到另一个节点的字段的路由所构成的场景树描述所表示,其特征在于,该方法包括如下步骤:
把输入字段类型变型为等效的输出数据类型的数值;
所述输出数据类型的数值乘以一个预定数值,并且加到第二预定数值,其中所述的一个常数和所述第二常数是输出数据类型的;
判断求和标记是否置位;
如果求和标记置位,则把相加得到的数值求和并输出;
把输出的数值类型变换为输出数值类型,获得最终输出数值。
2.根据权利要求1所述的方法,其特征在于,该赋值器的输入和输出字段至少包括如下数据类型中的一种:整数数字、浮点数字和布尔数值。
3.根据权利要求1所述的方法,其特征在于,通过预定程序改变所述输入数值以形成输出数值的方法包括把该输入字段乘以一个常数然后加上第二常数数值以获得用于输出字段的最终数值的步骤。
4.一种用于链接在场景的空间的时间描述的表示中的不同数据类型的信息的方法,其中该场景中的空间和时间关系由一个包括多个描述对象的属性的节点和把一个节点的字段通过赋值器节点连接到另一个节点的字段的路由所构成的场景树描述所表示,该方法包括如下步骤:
把输入矢量的数值类型变型为等效的输出矢量的字段的数据类型;
所述输出矢量的每个元素乘以一个预定数值,并且加到第二预定数值,其中所述的一个常数和所述第二常数是输出矢量的字段的数据类型的;
判断求和标记是否置位;
如果求和标记置位,则把相加得到的数值求和并输出矢量;
把输出矢量的字段的数值类型变换为输出数值类型,获得最终输出矢量。
5.根据权利要求4所述的方法,其特征在于,该输入和输出矢量包括多个元素,并且这些元素包括至少如下数据类型中的一种:整数数字、浮点数字或布尔数值。
6.根据权利要求4所述的方法,其特征在于,通过预定程序改变所述输入矢量以形成输出矢量的方法包括如下步骤:
把输入矢量的每个元素乘以一个常数以获得换算值;以及
把该换算值加上第二常数数值以获得偏移量数值;以及
把输出矢量的每个元素设置为相应的偏移量数值。
7.根据权利要求4所述的方法,其特征在于,通过预定程序改变所述输入矢量以形成输出矢量的方法包括如下步骤:
把输入矢量的每个元素乘以一个常数以获得换算值;
把该换算值加上第二常数数值以获得偏移量数值;
把从输入矢量得出的所有偏移位数值求和;以及
把输出矢量的每个元素设置为所述和。
8.根据权利要求6所述的方法,其特征在于,该赋值器节点包括一个附加输入字段,以控制选择该输出矢量的选择过程。
9.根据权利要求6所述的方法,其特征在于,该赋值器节点包括一个附加输入字段,并且当一控制信号由所述输入字段所接收时才能够把输出矢量的每个元素设置为相应的偏移量数值。
10.根据权利要求6所述的方法,其特征在于,该赋值器节点包括一个附加输入字段,并且仅仅当一控制信号由所述输入字段所接收时才能够把输出矢量的每个元素设置为所述和。
11.根据权利要求1所述的方法,其特征在于,所述常数是用户在内容产生时或在内容的执行过程中定义的。
12.根据权利要求7所述的方法,其特征在于,该赋值器节点包括一个附加输入字段,以控制选择该输出矢量的选择过程。
CN99121626A 1998-10-09 1999-10-09 在场景描述中用于数据类型变型和代数操作的方法 Expired - Fee Related CN1133273C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP287663/1998 1998-10-09
JP28766398A JP4159673B2 (ja) 1998-10-09 1998-10-09 オーディオ−ビジュアル・オブジェクトのシーン記述におけるデータ型キャスティングおよび代数処理のための方法

Publications (2)

Publication Number Publication Date
CN1250978A CN1250978A (zh) 2000-04-19
CN1133273C true CN1133273C (zh) 2003-12-31

Family

ID=17720127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN99121626A Expired - Fee Related CN1133273C (zh) 1998-10-09 1999-10-09 在场景描述中用于数据类型变型和代数操作的方法

Country Status (6)

Country Link
US (1) US6381273B1 (zh)
EP (1) EP0996290B1 (zh)
JP (1) JP4159673B2 (zh)
KR (1) KR100316752B1 (zh)
CN (1) CN1133273C (zh)
DE (1) DE69940006D1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1158420A1 (en) * 2000-05-24 2001-11-28 Robert Bosch Gmbh Method for a description of audio-visual data content in a multimedia environment
FR2819669B1 (fr) * 2001-01-15 2003-04-04 Get Int Procede et equipement pour la gestion des interactions entre un peripherique de commande et une application multimedia exploitant la norme mpeg-4
FR2819604B3 (fr) * 2001-01-15 2003-03-14 Get Int Procede et equipement pour la gestion des interactions multimedias mono-ou multi-uitilisateurs entre des peripheriques de commande et des applications multimedias exploitant la norme mpeg-4
US7251277B2 (en) * 2002-12-04 2007-07-31 International Business Machines Corporation Efficient means for creating MPEG-4 textual representation from MPEG-4 intermedia format
US20040111677A1 (en) * 2002-12-04 2004-06-10 International Business Machines Corporation Efficient means for creating MPEG-4 intermedia format from MPEG-4 textual representation
EP1594287B1 (en) 2004-04-12 2008-06-25 Industry Academic Cooperation Foundation Kyunghee University Method, apparatus and medium for providing multimedia service considering terminal capability
US8166364B2 (en) * 2008-08-04 2012-04-24 Seagate Technology Llc Low density parity check decoder using multiple variable node degree distribution codes

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708845A (en) * 1995-09-29 1998-01-13 Wistendahl; Douglass A. System for mapping hot spots in media content for interactive digital media program
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
JPH104539A (ja) * 1996-06-18 1998-01-06 Matsushita Electric Ind Co Ltd データ多重化方法及び多重データ再生装置
KR19980025576A (ko) * 1996-10-02 1998-07-15 양승택 동영상의 내용기반 부호화시 영상객체의 움직임 특성을 이용한 데이타 압축장치 및 데이타 감축방법
US6130670A (en) * 1997-02-20 2000-10-10 Netscape Communications Corporation Method and apparatus for providing simple generalized conservative visibility
US6295380B1 (en) * 1997-02-27 2001-09-25 Matsushita Electric Industrial Co., Ltd. Object data processing apparatus, object data recording apparatus, data storage media, data structure for transmission
US6801575B1 (en) * 1997-06-09 2004-10-05 Sharp Laboratories Of America, Inc. Audio/video system with auxiliary data
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6317131B2 (en) * 1997-07-15 2001-11-13 At&T Corp. Interaction modalities for multimedia delivery and presentation using nodes
US6272650B1 (en) * 1998-02-03 2001-08-07 Amazing Media, Inc. System and method for disambiguating scene graph loads
US6266053B1 (en) * 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content

Also Published As

Publication number Publication date
CN1250978A (zh) 2000-04-19
JP2000115807A (ja) 2000-04-21
EP0996290B1 (en) 2008-12-03
EP0996290A3 (en) 2000-05-17
EP0996290A2 (en) 2000-04-26
KR20000028940A (ko) 2000-05-25
JP4159673B2 (ja) 2008-10-01
KR100316752B1 (ko) 2001-12-12
US6381273B1 (en) 2002-04-30
DE69940006D1 (de) 2009-01-15

Similar Documents

Publication Publication Date Title
US7231394B2 (en) Incremental bottom-up construction of data documents
CN101401087B (zh) 交替图形集的高效编码
US7689901B2 (en) Multiple updates to content descriptions using a single command
US20060198438A1 (en) Scene description generating apparatus and method, scene description converting apparatus and method, scene description storing apparatus and method, scene description decoding apparatus and method, user interface system, recording medium, and transmission medium
CN1203454C (zh) 利用动态原型控制多媒体流的方法
US7356780B2 (en) User interface system, scene description generating device and method, scene description converting device and method, recording medium, and sending medium
CN1133273C (zh) 在场景描述中用于数据类型变型和代数操作的方法
CN1921610A (zh) 基于客户端的视频流互动处理方法及处理系统
JP4040577B2 (ja) スキーマ、構文解析法、およびスキーマに基づいてビットストリームを発生させる方法
EP2344951B1 (en) Conditional processing method and apparatus
CN1205539C (zh) 程控生成连续性媒体表示的系统和方法
US20020184336A1 (en) Occurrence description schemes for multimedia content
KR100882381B1 (ko) Mpeg-4 표준의 인터액션 관리 방법 및 관리 장치
CN115250352A (zh) 将astc纹理划分成子图像集
CN1205819C (zh) 用于从各种数据中合成视频景像的方法
KR20010021728A (ko) 양자화용 그래픽신을 위한 애니메이션 데이터 신호 그리고그에 상응하는 방법 및 장치
Daras et al. An MPEG-4 tool for composing 3D scenes
JP5553466B2 (ja) バイナリマルチメディアデータを含むビットストリームを生成するための方法
Timmerer et al. Digital item adaptation–coding format independence

Legal Events

Date Code Title Description
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C06 Publication
PB01 Publication
C14 Grant of patent or utility model
GR01 Patent grant
C19 Lapse of patent right due to non-payment of the annual fee
CF01 Termination of patent right due to non-payment of annual fee