JP2002094995A - Data processing method, data processing unit and data processing system - Google Patents

Data processing method, data processing unit and data processing system

Info

Publication number
JP2002094995A
JP2002094995A JP2000283404A JP2000283404A JP2002094995A JP 2002094995 A JP2002094995 A JP 2002094995A JP 2000283404 A JP2000283404 A JP 2000283404A JP 2000283404 A JP2000283404 A JP 2000283404A JP 2002094995 A JP2002094995 A JP 2002094995A
Authority
JP
Japan
Prior art keywords
stream
management information
time management
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000283404A
Other languages
Japanese (ja)
Inventor
Satoshi Wakao
聡 若尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000283404A priority Critical patent/JP2002094995A/en
Publication of JP2002094995A publication Critical patent/JP2002094995A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Communication Control (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely obtain time information required for reproduction from data streams including object streams without narrowing a frequency band of a transmission channel nor being affected by the protection of intellectual properties. SOLUTION: Time management information of other object is generated on the basis of time management information provided to a specific stream having a smaller information quantity than that of at least voice data or not being an object of protection of intellectual properties in the case of transmitting one data stream including streams each having prescribed information, and a receiver side separates each stream from the data stream and interprets the time management information of other object on the basis of the time management information extracted from the specific stream.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、データ処理方法、デ
ータ処理装置及びデータ処理システムに関し、特に、夫
々所定の情報を有する複数のオブジェクトストリームを
含む1つのデータストリームを取り扱うデータ処理方
法、データ処理装置及びデータ処理システムに関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing method, a data processing apparatus and a data processing system, and more particularly to a data processing method and a data processing method for handling one data stream including a plurality of object streams each having predetermined information. The present invention relates to an apparatus and a data processing system.

【0002】[0002]

【従来の技術】近年、動画像や音声などの各種データを
それぞれ符号化し、符号化された各データをオブジェク
トとして扱い、これらの所謂マルチメディアデータを組
み合わせて単一のビットストリームとする手法が様々に
検討されている。その中で、国際標準化団体であるIS
Oにおいて所謂MPEG−4(Moving Picture Experts
Group phase 4)が標準化されつつある。
2. Description of the Related Art In recent years, there have been various methods for encoding various data such as moving images and audio, treating each encoded data as an object, and combining these so-called multimedia data into a single bit stream. Is being considered. Among them, the international standardization organization IS
The so-called MPEG-4 (Moving Picture Experts)
Group phase 4) is being standardized.

【0003】このMPEG−4の受信側(再生側)にお
いては、例えば音声と動画シーンなどのオブジェクトを
関連付けて再生することになる。このようなMPEG−
4システムにおいては、データがオブジェクトとして扱
われるという特性のため、受信したビットストリーム
(データストリーム)をオブジェクトごとに個々に再編成
するといったことが容易に可能になる。
On the receiving side (reproducing side) of this MPEG-4, for example, audio and an object such as a moving image scene are reproduced in association with each other. Such MPEG-
In the 4 system, the received bit stream is used because of the property that data is treated as an object.
(Data stream) can be easily reorganized individually for each object.

【0004】上述の如きMPEG−4のデータストリー
ムにおいては、これまでの一般的なマルチメディアスト
リームとは異なり、幾つものビデオシーンやビデオオブ
ジェクトを単一のストリーム上で独立して送受信する機
能を有する。また、音声についても同様にいくつものオ
ブジェクトを単一のストリーム上で独立して送受信する
機能を有する。
[0004] The above-described MPEG-4 data stream has a function of transmitting and receiving several video scenes and video objects independently on a single stream, unlike conventional multimedia streams. . Similarly, audio has a function of independently transmitting and receiving several objects on a single stream.

【0005】ここで、図7及び図8を用いてMPEG−
4の再生(受信)装置とそのデータ処理の仕組みについ
て説明する。図7はMPEG−4のデータストリームに
おけるデータの構成を示す図であり、図8は一般的なM
PEG−4再生装置の概略構成を示すブロック図であ
る。
[0005] Here, referring to FIG. 7 and FIG.
No. 4 reproducing (receiving) apparatus and its data processing mechanism will be described. FIG. 7 is a diagram showing a data structure in an MPEG-4 data stream, and FIG.
FIG. 2 is a block diagram illustrating a schematic configuration of a PEG-4 playback device.

【0006】図7には、各オブジェクトのデータストリ
ーム(オブジェクトストリーム)が多重化されたMPE
G−4のデータストリーム(MPEG−4ストリーム)
201を示す。該MPEG−4ストリームは、図8にお
ける伝送路301からでマルチプレクサ302に入力さ
れ、該デマルチプレクサ302において各情報(オブジ
ェクト)の符号化ストリーム202に分離される。30
3,304,305,306はそれぞれ復号の時間管理
や同期の処理単位となるアクセスユニット203(図
7)単位でオブジェクト(本例では、音声、動画像、シ
ーン記述データ、オブジェクト記述データを含む例を示
している)毎に上記データストリームが入力されるデコ
ーダ用のバッファであり、該デコーダ用バッファ303
〜306では上記アクセスユニットを一時保持した後に
オブジェクトごとに設けられたデコーダ307,30
8,309,310にそれぞれ供給する。
FIG. 7 shows an MPE in which a data stream (object stream) of each object is multiplexed.
G-4 data stream (MPEG-4 stream)
201 is shown. The MPEG-4 stream is input to a multiplexer 302 via a transmission path 301 in FIG. 8, and is separated into an encoded stream 202 of each information (object) by the demultiplexer 302. 30
Reference numerals 3, 304, 305, and 306 denote objects (in this example, including audio, moving image, scene description data, and object description data) in units of the access unit 203 (FIG. 7), which is a unit of processing for decoding time management and synchronization. Is a buffer for a decoder to which the above data stream is input, and the buffer 303 for the decoder
In 306, decoders 307 and 30 provided for each object after temporarily holding the access unit
8, 309 and 310 respectively.

【0007】当該デコーダ307〜310では上記アク
セスユニットをそれぞれ復号して、合成の際の処理単位
となるコンポジションユニット205を合成用メモリ3
11,312,313,314にオブジェクト毎に供給
する。該合成用メモリ311〜314では、コンポジシ
ョンユニット205を一旦保持した後に合成器315に
出力する。当該合成器315では復号された各オブジェ
クト(各コンポジションユニット205)をメモリ31
3から得られるシーン記述データに基づいて合成して再
生シーン等のマルチメディア再生情報を出力する。
The decoders 307 to 310 decode the access units, respectively, and convert the composition unit 205, which is a processing unit at the time of synthesis, to the synthesis memory 3
11, 312, 313, 314 are supplied for each object. In the combining memories 311 to 314, the composition unit 205 is temporarily stored and then output to the combiner 315. The synthesizer 315 stores each decoded object (each composition unit 205) in the memory 31.
3 and outputs multimedia playback information such as a playback scene.

【0008】次に、再生装置における復号(デコード)
及び合成の処理タイミングと、その際の時間管理の仕組
みについて一例をもって簡単に説明する。
Next, decoding (decoding) in the reproducing apparatus
The processing timing of composition and the mechanism of time management at that time will be briefly described with an example.

【0009】図7における時間管理情報204はアクセ
スユニット203毎に付加される。該時間管理情報20
4はオブジェクトの時間基準を設定する元になるオブジ
ェクト参照クロック、復号のタイミングを示す復号時刻
スタンプ、更には合成のタイミングを示す合成時刻スタ
ンプを含む。ここで、オブジェクト時間基準とはオブジ
ェクト毎に設定された時間基準である。再生装置におい
てはアクセスユニットに付加されているオブジェクト参
照クロックを基にしてオブジェクト時間基準を設定す
る。
[0009] The time management information 204 in FIG. 7 is added for each access unit 203. The time management information 20
Reference numeral 4 includes an object reference clock from which a time reference of the object is set, a decoding time stamp indicating decoding timing, and a synthesis time stamp indicating synthesis timing. Here, the object time reference is a time reference set for each object. In the reproducing apparatus, the object time reference is set based on the object reference clock added to the access unit.

【0010】ここで、オブジェクト時間基準から再生装
置の基準時間であるシステム時間基準への対応つけを行
うためにマップを設定する。デコーダ用バッファ303
〜306に入力されて保持されているアクセスユニット
203はシステム時間基準上にマップされた復号時刻ス
タンプの時刻を参照し、その時刻に各オブジェクトが復
号される。このように復号されたオブジェクトはコンポ
ジションユニット205として合成用メモリ311〜3
14に出力され、一時記憶される。合成器315におい
てはメモリ311〜314に記憶されているコンポジシ
ョンユニットを、上記システム時間基準上にマップされ
た合成時刻スタンプの時刻を参照して当該時刻に合成
し、出力機器316に出力することになる。出力機器3
16中の表示装置には合成されたシーンが表示されるこ
とになる。
Here, a map is set for associating the object time reference with the system time reference which is the reference time of the reproducing apparatus. Decoder buffer 303
The access unit 203 inputted and held in 306 refers to the time of the decoding time stamp mapped on the system time reference, and each object is decoded at that time. The objects decoded in this way are used as composition units 205 as compositing memories 311 to 311.
14 and temporarily stored. In the synthesizer 315, the composition units stored in the memories 311 to 314 are synthesized at the time with reference to the time of the synthesis time stamp mapped on the system time reference, and output to the output device 316. become. Output device 3
The combined scene is displayed on the display device 16.

【0011】ここで、上述の如きシステムにおいて、複
数のオブジェクトストリームを有するデータストリーム
を処理する場合には、各オブジェクトに時間基準が存在
することになる。従って、このような場合にはコンポジ
ションユニットを合成する処理においてオブジェクト間
の同期が保証されないことになる。オブジェクト間の同
期が保証されていなければ当然表示タイミングなどにず
れが生じることになる。
Here, in the system as described above, when processing a data stream having a plurality of object streams, each object has a time reference. Therefore, in such a case, synchronization between objects is not guaranteed in the process of synthesizing the composition unit. If the synchronization between the objects is not guaranteed, the display timing or the like will naturally be shifted.

【0012】このような問題は、送信側の装置におい
て、MPEG−4ストリームを生成する際に、送信側装
置の時間基準であるシステム時間基準が存在したとして
も、該MPEG−4ストリームを構成するそれぞれのオ
ブジェクトのオブジェクト時間基準を当該システム時間
基準に一致又は同期させて、それぞれのオブジェクトの
復号時刻スタンプや合成時刻スタンプを生成したとして
も、再生側の装置において該システム時間基準を復元す
るために必要となるオブジェクト参照クロックを送信す
るための仕組みがないがゆえに発生する。
[0012] Such a problem arises when the transmitting apparatus generates an MPEG-4 stream, even if a system time reference which is a time reference of the transmitting apparatus exists, the MPEG-4 stream is configured. Even if the decoding time stamp and the synthesis time stamp of each object are generated by matching or synchronizing the object time reference of each object with the system time reference, it is necessary to restore the system time reference in the reproducing apparatus. This occurs because there is no mechanism for transmitting the required object reference clock.

【0013】そこで、一般的には送信側の装置において
音声のオブジェクトに時間基準を設定して、該音声オブ
ジェクト時間基準をシステムの時間基準に設定すること
により対応していた。つまり、音声以外の他のオブジェ
クトの復号時刻スタンプや合成時刻スタンプはこの音声
のオブジェクト時間基準(システム時間基準)に同期し
て生成し、アクセスユニットに付加していた。
[0013] To cope with this problem, generally, a time reference is set for a sound object in a transmitting apparatus, and the time reference for the sound object is set as a time reference of the system. That is, decoding time stamps and synthesis time stamps of objects other than voice are generated in synchronization with the object time reference (system time reference) of the voice and added to the access unit.

【0014】再生側装置においては音声オブジェクトの
参照クロックと基にして音声オブジェクト時間基準を復
元する。そして、この音声オブジェクト時間基準を再生
装置におけるシステム時間基準とし、上述した各オブジ
ェクトの復号時刻スタンプ及び合成時刻スタンプをこの
システム時間基準のもとで解釈することにより、マルチ
メディアストリーム全体の復号、シーンの復元及び合成
の同期などを確保していた。
In the reproducing apparatus, the audio object time reference is restored based on the audio object reference clock. The audio object time reference is used as the system time reference in the playback apparatus, and the decoding time stamp and the synthesis time stamp of each object described above are interpreted based on the system time reference to decode the entire multimedia stream, Restoration and synthesis synchronization were ensured.

【0015】[0015]

【発明が解決しようとする課題】このように、現在の一
般的な方法においては音声データの時間情報に基づい
て、復号及び再生(合成)の同期を保証しているため、
音声のオブジェクトストリームそのものが存在しない場
合もしくは何らかの原因で音声のオブジェクトストリー
ムを受信しないかできない場合には他のオブジェクトス
トリームを復号したり合成したりすること、即ちマルチ
メディアデータの復元自体が不可能になっていた。
As described above, in the current general method, synchronization of decoding and reproduction (synthesis) is guaranteed based on time information of audio data.
If the audio object stream itself does not exist, or if the audio object stream cannot be received or cannot be received for some reason, decoding or synthesizing another object stream, that is, it is impossible to restore the multimedia data itself Had become.

【0016】詳しくは、動画のみ、静止画のみといった
シーンで構成される番組が再生不能になったり、音声の
オブジェクトストリームの受信に失敗したり何らかの理
由で音声オブジェクトストリームを受信できない場合に
おいてマルチメディアシーン全体が再生不能になること
を意味する。
More specifically, when a program composed of a scene such as a moving image only or a still image becomes unreproducible, an audio object stream fails to be received, or an audio object stream cannot be received for any reason, the multimedia scene It means that the whole becomes unreproducible.

【0017】上記問題を解決するためには、シーンに関
係のない音声オブジェクトストリームを強制的に付加す
ることなどが考えられる。この場合にはこの音声オブジ
ェクトストリームの時間情報を用いてアクセスユニット
の復号やコンポジションユニットの合成の時間管理を行
うことができ、その時間管理に用いる音声オブジェクト
の再生レベルを低く抑えれば再生そのものは可能とな
る。
To solve the above problem, it is conceivable to forcibly add an audio object stream irrelevant to a scene. In this case, it is possible to use the time information of the audio object stream to perform time management of decoding of the access unit and composition of the composition unit. If the reproduction level of the audio object used for the time management is suppressed to a low level, the reproduction itself is performed. Becomes possible.

【0018】しかしながら、上記方法では、音声という
比較的大きなデータ量を有するデータストリームを、本
来のシーン記述に対しては無関係であるにもかかわらず
伝送路上に流さなければならず、伝送路上の他の本来必
要なオブジェクトの伝送容量(帯域)を低下させなけれ
ばならなくなる。
However, in the above-mentioned method, a data stream having a relatively large data amount, ie, audio, has to be transmitted on a transmission path regardless of the original scene description. , The transmission capacity (bandwidth) of the originally required object must be reduced.

【0019】従来から行われているデータの圧縮(高能
率符号化)のアルゴリズムは全て、このように貴重な伝
送容量を以下に有効に活用するかを目的としてなされた
ものであり、上述のような無用の音声オブジェクトの伝
送そのものが好ましいものではない。
All the conventional data compression (high-efficiency coding) algorithms have been made in order to effectively use such precious transmission capacity as described below. The transmission of unnecessary useless audio objects is not preferable.

【0020】本発明は上述の如き背景下になされ、伝送
路の帯域を狭めることなく、しかも、確実に複数のオブ
ジェクトのストリームを含むデータストリームから各オ
ブジェクトストリームを分離して、復号、再生を行う際
に必要となる時間情報をデータストリームから得ること
のできるデータ処理方法、データ処理装置、及びデータ
処理システムを提供することを目的とする。
The present invention has been made in view of the above background, and performs decoding and reproduction by separating each object stream from a data stream including a plurality of object streams without narrowing the bandwidth of a transmission path. It is an object of the present invention to provide a data processing method, a data processing device, and a data processing system capable of obtaining time information required at the time from a data stream.

【0021】[0021]

【課題を解決するための手段】かかる課題を解決するた
めに、本発明のデータ処理方法及びデータ処理装置は、
その1つの態様として、夫々所定の情報を有する複数の
オブジェクトストリームから1つのデータストリームを
生成するに際し、少なくとも音声に比し小なる情報量を
有する特定のオブジェクトストリームに時間管理情報を
付与し、当該特定のオブジェクトストリームに付与され
た時間管理情報を基準として他のオブジェクトの時間管
理情報を生成することを特徴とする。
In order to solve such a problem, a data processing method and a data processing apparatus according to the present invention are provided.
As one aspect, when one data stream is generated from a plurality of object streams each having predetermined information, time management information is added to at least a specific object stream having an information amount smaller than audio, It is characterized in that time management information of another object is generated based on time management information given to a specific object stream.

【0022】また、本発明のデータ処理方法及びデータ
処理装置は、その1つの態様として、夫々所定の情報を
有する複数のオブジェクトストリームを含むデータスト
リームから各オブジェクトストリームを分離し、これら
各オブジェクトを合成した合成情報を再生するに際し、
前記データストリーム中、少なくとも音声に比し小なる
情報量を有する特定のオブジェクトストリームからの時
間管理情報を抽出し、当該特定のオブジェクトストリー
ムから抽出した時間管理情報を基準として他のオブジェ
クトの時間管理情報を解釈することを特徴とする。
In one aspect of the data processing method and data processing apparatus of the present invention, each object stream is separated from a data stream including a plurality of object streams each having predetermined information, and these objects are combined. When reproducing the synthesized information,
In the data stream, at least time management information from a specific object stream having a smaller amount of information than audio is extracted, and time management information of another object is extracted based on the time management information extracted from the specific object stream. Is interpreted.

【0023】上述の如くすることにより、伝送路の帯域
を狭めることなく、上記時間管理情報を常に付与するこ
とができ、当該特定のオブジェクトストリームを受信側
で復元できれば、確実に各オブジェクトストリームを分
離して、復号、再生を行う際に必要となる時間情報を得
て、本来の時間に忠実なオブジェクトのデータストリー
ムから得ることができるようになった。
In the above manner, the time management information can always be added without narrowing the bandwidth of the transmission path, and if the specific object stream can be restored on the receiving side, each object stream can be reliably separated. As a result, time information necessary for decoding and reproduction can be obtained, and the time information can be obtained from the data stream of the object faithful to the original time.

【0024】また、本発明のデータ処理方法及びデータ
処理装置は、他の態様として、夫々所定の情報を有する
複数のオブジェクトストリームから1つのデータストリ
ームを生成するに際し、知的財産の保護の対象とならな
いオブジェクトを対象とした特定のオブジェクトストリ
ームに時間管理情報を付与し、当該特定のオブジェクト
ストリームに付与された時間管理情報を基準として他の
オブジェクトの時間管理情報を生成することを特徴とす
る。
According to another aspect of the data processing method and the data processing apparatus of the present invention, when one data stream is generated from a plurality of object streams each having predetermined information, the object is protected by intellectual property. The present invention is characterized in that time management information is added to a specific object stream for an object to be changed and time management information of another object is generated based on the time management information added to the specific object stream.

【0025】更に、本発明のデータ処理方法及びデータ
処理装置は、他の態様として、夫々所定の情報を有する
複数のオブジェクトストリーム及び知的財産管理情報を
含むデータストリームから各オブジェクトストリームを
分離し、これら各オブジェクトを合成した合成情報を再
生するに際し、前記知的財産管理情報に基いて、前記複
数のオブジェクトストリームの少なくとも一部の再生を
制御するとともに、前記データストリーム中、知的財産
の保護の対象とならないオブジェクトを対象とした特定
のオブジェクトストリームからの時間管理情報を抽出
し、当該特定のオブジェクトストリームから抽出した時
間管理情報を基準として他のオブジェクトの時間管理情
報を解釈することを特徴とする。
Further, as another aspect, the data processing method and the data processing apparatus of the present invention separate each object stream from a plurality of object streams each having predetermined information and a data stream including intellectual property management information, When reproducing the synthesized information obtained by synthesizing each of these objects, based on the intellectual property management information, at least a part of the plurality of object streams is controlled to be reproduced, and in the data stream, protection of intellectual property is protected. Extracting time management information from a specific object stream for an object that is not a target and interpreting time management information of another object based on the time management information extracted from the specific object stream; .

【0026】上述の如くすることにより、知的財産保護
の観点からオブジェクトのいくつかが再生不能となった
としても、上記時間管理情報を常に付与することがで
き、当該特定のオブジェクトストリームを受信側で復元
できれば、確実に各オブジェクトストリームを分離し
て、復号、再生を行う際に必要となる時間情報を得て、
本来の時間に忠実なオブジェクトのデータストリームか
ら得ることができるようになった。
With the above arrangement, even if some of the objects become unreproducible from the viewpoint of intellectual property protection, the time management information can always be added, and the specific object stream is transmitted to the receiving side. If it can be restored with, each object stream is surely separated, and time information necessary for decoding and playback is obtained,
It can be obtained from the data stream of the object that is true to the original time.

【0027】本件発明の多の目的並びに、その特徴とす
るところは以下に続く「発明の実施の形態」の欄に詳細
に記載した。
The various objects and features of the present invention are described in detail in the following “Embodiments of the invention”.

【0028】[0028]

【発明の実施の形態】以下、本件発明の実施の一形態に
ついて、図面を参照して詳細に説明する。図1は本発明
の一実施例のデータ処理装置、データ処理システムを構
成する送信装置であり、MPEG−4データストリーム
を出力する装置である。図中101,102,103は
それぞれ動画像信号、静止画像信号、音声信号などの入
力端子であり、これらは夫々動画像エンコーダ部10
4、静止画像エンコーダ部105、音声エンコーダ部1
06に供給され、オブジェクト毎に最適な符号化方法で
高能率(圧縮)符号化される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a data processing apparatus and a transmission apparatus constituting a data processing system according to an embodiment of the present invention, which is an apparatus for outputting an MPEG-4 data stream. In the figure, reference numerals 101, 102, and 103 denote input terminals for a moving image signal, a still image signal, an audio signal, and the like.
4. Still image encoder 105, audio encoder 1
06, and is subjected to high-efficiency (compression) encoding by an optimal encoding method for each object.

【0029】ここで、動画像は例えば周知のMPEG2
方式やH263方式に従って高能率符号化され、静止画
像については例えば周知の離散ウエーブレット変換を施
した後に量子化及び算術符号化などのエントロピー符号
化を施して高能率符号化され、更に、音声については周
知のCELP(Code Excited Linear Prediction)符号
化や、変換領域重み付けインターリーブベクトル量子化
(TWINVQ)符号化などにより高能率符号化され
る。
Here, the moving image is, for example, a well-known MPEG2
Method and H263 method, a still image is subjected to a well-known discrete wavelet transform, and then subjected to entropy coding such as quantization and arithmetic coding to perform high-efficiency coding. Is highly efficient coded by well-known CELP (Code Excited Linear Prediction) coding, transform domain weighted interleave vector quantization (TWINVQ) coding, or the like.

【0030】107はオブジェクト記述データエンコー
ダであって、例えば3Dグラフィックなどのアニメーシ
ョン等のオブジェクト記述データを各記述データの形式
に適した符号化によって符号化し、出力する。また、1
08はシーン記述データのエンコーダであり、上記数々
のオブジェクトからシーンを合成するための情報(シー
ン記述情報)として、周知のVRMLを修正したBIF
S(Binary Format for Scenes)を出力する。後述のよ
うに再生側ではこのBIFSの記述に基づいてオブジェ
クトの合成を行い、シーンを復元することになる。
Reference numeral 107 denotes an object description data encoder, which encodes object description data such as animation such as 3D graphics by encoding suitable for each description data format and outputs it. Also, 1
Reference numeral 08 denotes an encoder for scene description data, which is a BIF obtained by modifying a well-known VRML as information (scene description information) for synthesizing a scene from the above objects.
Output S (Binary Format for Scenes). As will be described later, the reproduction side synthesizes objects based on the BIFS description and restores the scene.

【0031】動画像エンコーダ部104、静止画像エン
コーダ部105、音声エンコーダ部106、オブジェク
ト記述データエンコーダ107、シーン記述データエン
コーダ108が出力する各データストリームは、夫々バ
ッファ111,112,113,114,115に入力
され、マルチプレクサ131により1つのデータストリ
ームに合成されることになる。ここで、各オブジェクト
基準の時間基準に基づいて表される復号時刻スタンプ及
び合成時間スタンプは各エンコーダ104〜108にて
発生され、アクセスユニット単位でバッファ111〜1
15に一旦格納される。
The data streams output by the moving picture encoder 104, the still picture encoder 105, the audio encoder 106, the object description data encoder 107, and the scene description data encoder 108 are buffers 111, 112, 113, 114 and 115, respectively. To be combined into one data stream by the multiplexer 131. Here, the decoding time stamp and the composite time stamp represented based on the time reference of each object reference are generated by each of the encoders 104 to 108, and are stored in the buffers 111 to 1 on an access unit basis.
15 once.

【0032】時間情報データ発生部128は、この送信
側装置のシステム時間基準を設定し、オブジェクト毎に
設けられた時刻スタンプの変換回路121,122,1
23,124,125に供給される。各変換回路121
〜125は先の説明から明らかなように、各オブジェク
トの時間基準に基づいて各バッファ111〜115に格
納されている時刻スタンプ(復号時刻スタンプ及び合成
時間スタンプ)をシステム時間基準上にマップされた合
成時刻スタンプの時刻を参照して変換し、各バッファ1
11〜115に格納されているアクセスユニットの時刻
スタンプ上に上書きする。
The time information data generator 128 sets a system time reference of the transmitting apparatus, and converts time stamp conversion circuits 121, 122, 1 provided for each object.
23, 124, and 125. Each conversion circuit 121
As is clear from the above description, the time stamps (decoding time stamp and composite time stamp) stored in the buffers 111 to 115 are mapped on the system time reference based on the time reference of each object. Each buffer 1 is converted by referring to the time of the synthesis time stamp.
Overwrite on the time stamp of the access unit stored in 11-115.

【0033】図2はこの図1の送信側装置が行うデータ
変換を説明する図であり、図示の通り各オブジェクトの
時間基準上に設定された復号時刻スタンプ(DTS)及
び合成時刻スタンプ(CTS)は時間情報データ発生部
128からのシステム時間基準上に対応つけられること
になる。
FIG. 2 is a diagram for explaining the data conversion performed by the transmitting side apparatus in FIG. 1. As shown, a decoding time stamp (DTS) and a combining time stamp (CTS) set on the time reference of each object are shown. Is associated with the system time reference from the time information data generator 128.

【0034】一方、時間情報データ発生部128では、
後述するような時間情報のみを提供するオブジェクトス
トリームを形成して、バッファ130に供給する。マル
チプレクサ131は、このバッファ130を介して得ら
れる時間情報専用のオブジェクトストリームに各バッフ
ァ111〜115を介して得られる各オブジェクトスト
リームを適宜時分割で重畳し、MPEG−4ストリーム
を出力する。
On the other hand, the time information data generation unit 128
An object stream providing only time information as described later is formed and supplied to the buffer 130. The multiplexer 131 appropriately superimposes the object streams obtained through the buffers 111 to 115 on the object stream dedicated to time information obtained through the buffer 130 in a time-division manner, and outputs an MPEG-4 stream.

【0035】このMPEG4ストリームは、出力インタ
ーフェース(出力IF)に供給され、伝送路133によ
って最適なデータフォーマットに変換した後に伝送路1
33に出力する。ここで、伝送路133は各種ネットワ
ーク、コンピュータバスなどのデータの径路であり、本
実施例においてはMPEG−4ストリームが入力される
ネットワーク等である。勿論、ここでいう伝送路とは、
通信路の意味の他にCD−ROM、DVD−ROM、D
VD−RAMといった記録媒体、及びそれら記録媒体と
のインターフェースなども含む。
The MPEG4 stream is supplied to an output interface (output IF), and after being converted into an optimal data format by a transmission line 133, the transmission line 1
33. Here, the transmission path 133 is a data path such as various networks and a computer bus. In the present embodiment, the transmission path 133 is a network to which an MPEG-4 stream is input. Of course, the transmission path here is
CD-ROM, DVD-ROM, D
It also includes a recording medium such as a VD-RAM and an interface with the recording medium.

【0036】次に、本実施例で使用される時間情報のみ
を提供するオブジェクトストリームのデータ構成につい
て、図3を用いて説明する。なお、該データ構成そのも
のはISO/IEC 14966−1 MPEG-4 Systemsにおいて規定さ
れている。
Next, the data structure of an object stream that provides only time information used in this embodiment will be described with reference to FIG. The data structure itself is defined in ISO / IEC 14966-1 MPEG-4 Systems.

【0037】エレメンタリーストリーム601は、先に
図7にて説明したアクセスユニットレイヤーにおいて、
アクセスユニット602に分割されて、夫々SL−PD
U(Sync Layer Protocol Data Unit)としてパケット
化される。SL−PDUはSL−PDUヘッダ603と
SL−PDUペイロード604で構成されており、該S
L−PDUヘッダ603内に時間管理情報をはじめとす
る様々な情報が存在する。
The elementary stream 601 is transmitted in the access unit layer described above with reference to FIG.
The access unit 602 is divided into SL-PD
It is packetized as U (Sync Layer Protocol Data Unit). The SL-PDU includes an SL-PDU header 603 and an SL-PDU payload 604.
Various information including time management information exists in the L-PDU header 603.

【0038】各アクセスユニット602は複数のパケッ
トに分割することが可能であるが、各アクセスユニット
602の先頭は必ずSL−PDUペイロード604の先
頭に置かれる。SL−PDUヘッダ603、SL−PD
Uペイロード604共にパケット長には制限内が8ビッ
トの整数倍に規定されている。SL−PDUヘッダ60
3のパケット長が8ビットの倍数にならない場合には
“0”をパディングする。SL−PDUペイロード60
4のパケット長が8ビットの整数倍にならない場合にお
いても“0”によるパディングを行い、SL−PDUヘ
ッダ603にその情報を記述する。
Each access unit 602 can be divided into a plurality of packets, but the head of each access unit 602 is always placed at the head of the SL-PDU payload 604. SL-PDU header 603, SL-PD
For the U payload 604, the packet length is specified to be an integral multiple of 8 bits within the limit. SL-PDU header 60
If the packet length of 3 is not a multiple of 8 bits, "0" is padded. SL-PDU payload 60
Even when the packet length of 4 does not become an integral multiple of 8 bits, padding with "0" is performed, and the information is described in the SL-PDU header 603.

【0039】ここで、SL−PDUペイロード604の
パケット長は規定されていない。そこで、時間情報のみ
を提供するオブジェクトストリームは時間情報のみを再
生機に提供できればいいことを考えペイロードのデータ
量は最小に設定する。このようにすることで、使用しな
い音声のオブジェクトストリームを使用して該ストリー
ムの時間情報を用いる場合に比べ、その音声データの
分、伝送路に負担をかけない効果的なシステムを構成す
ることができる。
Here, the packet length of the SL-PDU payload 604 is not specified. Therefore, the data amount of the payload is set to the minimum in consideration of the object stream that provides only the time information as long as only the time information can be provided to the playback device. By doing so, it is possible to configure an effective system that does not impose a load on the transmission path by the amount of the audio data as compared with the case where the time information of the unused audio object stream is used. it can.

【0040】なお、この実施例では、時間情報専用のデ
ータストリームのみを説明しているが、音声データに比
しデータ量が少ない他のデータと共にこの時間情報をス
トリーム化することによっても同様の効果が得られるの
はいうまでもない。従って、時間情報専用のデータスト
リームを設けることによって、より大きな効果が得られ
るものの、本件発明は様々なオブジェクトの中で比較的
データ量の少ない音声データよりも更にデータ量の少な
い情報と共に時間情報をストリーム化して別オブジェク
トで送るものであると理解されるべきであろう。
Although only a data stream dedicated to time information is described in this embodiment, the same effect can be obtained by streaming this time information together with other data having a smaller data amount than audio data. Needless to say, this is obtained. Therefore, although a greater effect can be obtained by providing a data stream dedicated to time information, the present invention uses time information together with information having a smaller data amount than audio data having a relatively small data amount in various objects. It should be understood that they are streamed and sent in another object.

【0041】以下に、図3におけるSL−PDUヘッダ
603に含まれる情報のうち、主たるものを説明する。
The main information included in the SL-PDU header 603 in FIG. 3 will be described below.

【0042】まず、図3におけるaccess Unit start Fl
ag605はアクセスユニットの先頭データがペイロード
の先頭にあることを示すデータである。access Unit en
d Flag606はアクセスユニットの最終データがペイロ
ードにあることを示すデータである。OCR Flag607は
オブジェクト参照クロックの有無を示すデータである。
padding Flag608はペイロードのパディングの有無を
示すデータである。padding Bits609は上記のパディ
ングのビット数を示すデータである。Packet Sequence N
umber610はSL−PDUの廃棄、順序制御に使用さ
れるSL−PDU毎に増えるカウンタ値である。object
Clock Reference611はオブジェクト参照クロックの
データである。decoding Time Stamp Flag612は復号
時刻スタンプの有無を示すデータである。composition T
ime Stamp613は合成時刻スタンプの有無を示すデー
タである。decoding Time Stamp614は復号時刻スタン
プのデータである。composition Time Stamp615は合
成時刻スタンプのデータである。access Unit Lengthは
バイト単位のアクセスユニットのデータ長を示すデータ
である。degradation Priority617は当該SL−PD
Uの優先度を示すデータである。
First, the access unit start Fl in FIG.
ag 605 is data indicating that the head data of the access unit is at the head of the payload. access Unit en
d Flag 606 is data indicating that the last data of the access unit is present in the payload. The OCR Flag 607 is data indicating the presence or absence of an object reference clock.
The padding Flag 608 is data indicating the presence or absence of padding of the payload. padding Bits 609 is data indicating the number of bits of the padding. Packet Sequence N
umber 610 is a counter value that increases for each SL-PDU used for discarding and controlling the order of the SL-PDU. object
Clock Reference 611 is data of an object reference clock. The decoding time stamp flag 612 is data indicating the presence or absence of a decoding time stamp. composition T
The ime Stamp 613 is data indicating the presence or absence of a synthesis time stamp. The decoding time stamp 614 is data of a decoding time stamp. The composition time stamp 615 is data of a composition time stamp. The access unit length is data indicating the data length of the access unit in bytes. degradation Priority 617 is the SL-PD
This is data indicating the priority of U.

【0043】図4は本発明の一実施例のデータ処理装
置、データ処理システムを構成し、上述の送信側装置で
送信されたMPEG−4データストリームを受信し、再
生する再生装置(復号装置)の構成を示すブロック図で
あり、伝送路135から入力されたデータストリーム
を、入力インターフェース(入力IF)136により、
処理可能なデータフォーマットに変換し、MPEG−4
ストリームとしてデマルチプレクサ138に入力する。
FIG. 4 shows a data processing apparatus and a data processing system according to an embodiment of the present invention, and a reproducing apparatus (decoding apparatus) for receiving and reproducing the MPEG-4 data stream transmitted by the above-mentioned transmitting apparatus. Is a block diagram showing a configuration of the data transmission device. A data stream input from a transmission line 135 is converted by an input interface (input IF)
Converted to a data format that can be processed, MPEG-4
The data is input to the demultiplexer 138 as a stream.

【0044】該デマルチプレクサ138においては、M
PEG−4ストリームを各オブジェクト(動画像、静止
画像、音声、オブジェクト記述データ、シーン記述デー
タ、時間情報専用オブジェクト)の符号化ストリームに
分離し、該符号化ストリームは各ストリーム毎にアクセ
スユニット単位で、オブジェクト毎に設けられたデコー
ダ用バッファ141,142,143,144,145
に入力される。
In the demultiplexer 138, M
The PEG-4 stream is separated into encoded streams of each object (moving image, still image, audio, object description data, scene description data, object dedicated to time information), and the encoded stream is divided into access units for each stream. , Decoder buffers 141, 142, 143, 144, 145 provided for each object
Is input to

【0045】ここで、時間情報専用オブジェクトストリ
ームは同様にアクセスユニット毎に時間情報バッファ1
40に供給され、該アクセスユニットに付加されている
オブジェクト参照クロックが抽出される。当該時間情報
専用ストリームのアクセスユニットはオブジェクト参照
クロックと共に、システム時間基準制御部150に供給
される。該制御部150においては、入力されたオブジ
ェクト参照クロックを基に当該時間情報専用オブジェク
トの時間基準を設定する。次に、該オブジェクト時間基
準を再生装置の時間基準であるシステム時間基準に一致
させる。そして、これ以降の処理においては当該システ
ム時間基準が唯一の時間基準となり、全ての処理はシス
テム時間基準制御部150によりこの時間基準に従って
行われることになる。
Here, the time information dedicated object stream is similarly stored in the time information buffer 1 for each access unit.
The object reference clock supplied to the access unit and added to the access unit is extracted. The access unit of the stream dedicated to time information is supplied to the system time reference control unit 150 together with the object reference clock. The control unit 150 sets a time reference for the time information-dedicated object based on the input object reference clock. Next, the object time reference is made to match the system time reference which is the time reference of the playback device. In the subsequent processing, the system time reference becomes the only time reference, and all processing is performed by the system time reference control unit 150 according to this time reference.

【0046】制御部150は、デコーダ用バッファ14
1,142,143,144,145に格納されている
各アクセスユニットに付加されている各オブジェクトの
復号時刻スタンプと合成時刻スタンプを抽出する。そし
て、抽出した復号時刻スタンプに従った時刻に、デコー
ダ用バッファ141,142,143,144,145
に格納されている各アクセスユニットを各デコーダ部1
51,152,153,154,155において復号さ
せ、各デコーダ部151,152,153,154,1
55からは各オブジェクト毎のコンポジションユニット
が出力される。
The control unit 150 controls the decoder buffer 14
The decoding time stamp and the combined time stamp of each object added to each access unit stored in 1, 142, 143, 144, and 145 are extracted. Then, at the time according to the extracted decoding time stamp, the decoder buffers 141, 142, 143, 144, 145
Each access unit stored in the decoder unit 1
51, 152, 153, 154, and 155, and each decoder section 151, 152, 153, 154, 1
From 55, a composition unit for each object is output.

【0047】各コンポジションユニットは、夫々合成用
バッファ161,162,163,164,165に格
納されることになるが、この一連の動作は全て制御部1
50がシステム時間基準の下に上記復号タイムスタンプ
に基づいてバッファ141〜145、デコーダ部151
〜155、更にはバッファ161〜165を制御するこ
とによって実行される。
Each composition unit is stored in the synthesizing buffers 161, 162, 163, 164, 165, respectively.
Reference numeral 50 denotes buffers 141 to 145 and a decoder 151 based on the decoding time stamp based on the system time reference.
155, and further, by controlling the buffers 161 to 165.

【0048】制御部150は、同様に上記抽出した合成
タイムスタンプに従った時刻に、合成用バッファ16
1,162,163,164,165に格納されている
各コンポジションユニットを合成部171にて合成する
べく、バッファ161〜165及び合成部171を制御
する。
The control unit 150 similarly sets the synthesizing buffer 16 at a time according to the extracted synthesizing time stamp.
The buffers 161 to 165 and the combining unit 171 are controlled so that the combining units 171, 163, 164, and 165 combine the respective composition units.

【0049】出力インターフェース(IF)172にお
いては、復号されたシーン記述データに従って合成部1
71で合成されたオブジェクトを、ディスプレイ、スピ
ーカ、プリンタといった出力装置173に従ったデータ
フォーマットに変換する。上述のように、時間情報専用
のオブジェクトストリームからオブジェクト参照クロッ
クを抽出した後に、当該オブジェクト参照クロックから
オブジェクト時間基準を設定し、さらに該オブジェクト
時間基準を再生装置の基準時間であるシステム時間基準
に一致させて、他のオブジェクトの復号や合成のタイミ
ングを、このシステム時間基準の下で解釈することによ
り、動画や静止画のみといったシーンで構成される音声
のないマルチメディア情報であっても、時間のずれを全
く生じることなく出力装置で出力することが可能となっ
た。
In the output interface (IF) 172, the synthesizing unit 1 according to the decoded scene description data.
The object synthesized at 71 is converted into a data format according to an output device 173 such as a display, a speaker, and a printer. As described above, after extracting the object reference clock from the object stream dedicated to time information, an object time reference is set from the object reference clock, and the object time reference is matched with the system time reference which is the reference time of the playback device. By interpreting the decoding and synthesizing timings of other objects on the basis of this system time reference, even if the multimedia information without sound is composed of scenes such as moving images or still images only, it is possible to obtain the time The output can be performed by the output device without any deviation.

【0050】また、特にこのような音声のないマルチメ
ディア情報を時間ずれなく再生するに際しては、送信す
るMPEG−4ストリームのデータ量を従前に比して小
ならしめることが可能となった。
In particular, when reproducing such multimedia information without sound without time lag, the data amount of the MPEG-4 stream to be transmitted can be made smaller than before.

【0051】次に、図4に示す再生装置において、シス
テム時間基準制御部150を含む殆どの部分をソフトウ
エアで構成することも可能である。以下、図5のフロー
チャートを用いて、当該再生装置におけるソフトウエア
による処理を説明する。
Next, in the reproducing apparatus shown in FIG. 4, most parts including the system time reference control unit 150 can be constituted by software. Hereinafter, processing by software in the playback device will be described with reference to the flowchart in FIG.

【0052】図5のステップ701にて示すように、再
生装置が時間情報専用オブジェクトストリームを含むM
PEG−4ストリームを受信すると、これを各オブジェ
クトストリームに分解し、アクセスユニット単位で各デ
コーダ用バッファに格納する。
As shown in step 701 of FIG. 5, the playback device determines whether the M containing the time information-dedicated object stream
When the PEG-4 stream is received, it is decomposed into each object stream and stored in each decoder buffer for each access unit.

【0053】ついで、ステップ702においては、これ
らのデコーダ用バッファ内にデータが存在するか否かを
チェックして、存在する場合にはステップ703に進
み、存在しあい場合には処理を終了する。ステップ70
3においては、時間情報専用オブジェクトストリームの
アクセスユニット(AU)からオブジェクト参照クロッ
ク(OCR)を取得して、ステップ704において該オ
ブジェクト参照クロックからオブジェクト時間基準(O
TB)を設定する。
Next, at step 702, it is checked whether or not data exists in these decoder buffers. If data exists, the process proceeds to step 703. If data exists, the process ends. Step 70
In step 3, the object reference clock (OCR) is obtained from the access unit (AU) of the time information-dedicated object stream, and in step 704, the object time reference (OCR) is obtained from the object reference clock.
TB) is set.

【0054】ステップ705においては、該オブジェク
ト時間基準を、再生装置の時間基準であるシステム時間
基準(STB)に一致させる。ステップ706において
は、デコーダ用バッファに格納されている各オブジェク
トのアクセスユニットの復号時刻スタンプ(DTS)に
従って該アクセスユニットを復号し、コンポジションユ
ニット(CU)を生成し、これを合成用バッファに格納
する。
In step 705, the object time reference is made to match the system time reference (STB) which is the time reference of the playback device. In step 706, the access unit is decoded according to the decoding time stamp (DTS) of the access unit of each object stored in the decoder buffer, a composition unit (CU) is generated, and this is stored in the synthesis buffer. I do.

【0055】ステップ707においては、アクセスユニ
ットの合成時刻スタンプに従って、合成用バッファに格
納されている各オブジェクトのコンポジションユニット
を合成して、出力する。このステップ707の処理が終
了するとステップ702に戻り、デコーダ用バッファに
データが存在するかどうかを再度判断する。上述の如き
ルーチンを実行することにより、先に説明したように再
生装置における時間ずれのない各オブジェクトの再生が
可能となる。
In step 707, the composition units of the objects stored in the combining buffer are combined and output according to the combining time stamp of the access unit. When the processing in step 707 ends, the flow returns to step 702, and it is determined again whether or not data exists in the decoder buffer. By executing the routine as described above, it is possible to reproduce each object without time lag in the reproducing apparatus as described above.

【0056】図6は本発明の他の実施例のデータ処理装
置、データ処理システムを構成し、図1の送信装置から
のMPEG−4ストリームを受信し再生する再生装置の
他の例を示すブロック図であり、MPEG−4ストリー
ムとして、上述の各オブジェクトストリーム(時間情報
専用オブジェクトストリームを含む)に加え、さらに本
出願人が先に出願したとく願平10−295937号に
も記載されているような知的財産管理(IPMP:Inte
llectual Property Management and Protection)情報
を含むものを前提とする。
FIG. 6 is a block diagram showing another example of a reproducing apparatus which constitutes a data processing apparatus and a data processing system according to another embodiment of the present invention and receives and reproduces an MPEG-4 stream from the transmitting apparatus shown in FIG. It is a diagram, as described in Japanese Patent Application No. 10-295937, filed by the present applicant, in addition to the above-described object streams (including an object stream dedicated to time information) as an MPEG-4 stream. Intellectual Property Management (IPMP: Inte
(Llectual Property Management and Protection) information.

【0057】図6において、図4と同様の動作をするブ
ロックについては同一番号を付し、詳細な説明は省略す
るが、デマルチプレクサ139においては、MPEG−
4ストリームから各オブジェクトをアクセスユニット単
位で各デコーダ用バッファ141〜145及び時間情報
バッファ140に供給するとともに、IPMPストリー
ム中に含まれる各オブジェクトのIPMP情報をIPM
P制御部180に供給する。
In FIG. 6, blocks having the same operations as those in FIG. 4 are denoted by the same reference numerals, and a detailed description thereof will be omitted.
Each object from the four streams is supplied to each of the decoder buffers 141 to 145 and the time information buffer 140 on an access unit basis, and the IPMP information of each object included in the IPMP stream is transmitted to the IPM stream.
This is supplied to the P control unit 180.

【0058】IPMP制御部180は抽出したIPMP
情報を基に、各オブジェクトが知的財産上再生しても問
題がないオブジェクトかどうかを判断する。また、知的
財産で保護されているオブジェクトの場合にはバックチ
ャンネルを用いて当該再生装置がその知的財産のライセ
ンスを受けているかどうかを確認(認証)し、知的財産
上問題がないかもしくは知的財産がライセンスされてい
る場合にのみ、デコーダ用バッファ141〜145よ
り、デコーダ部151〜155へのデータ(アクセスユ
ニット)の出力を許諾する。知的財産がライセンスされ
ていに場合には、デコーダ用バッファ141〜145よ
りデコーダ部151〜155へのデータの転送を禁止す
る。
The IPMP control unit 180 extracts the extracted IPMP
Based on the information, it is determined whether or not each object is an object that can be reproduced in terms of intellectual property. In the case of an object protected by intellectual property, the playback device checks (authenticates) whether or not the playback device is licensed for the intellectual property using a back channel, and checks whether there is any problem in intellectual property. Alternatively, only when the intellectual property is licensed, the output of data (access unit) from the decoder buffers 141 to 145 to the decoder units 151 to 155 is permitted. If the intellectual property is licensed, transfer of data from the decoder buffers 141 to 145 to the decoder units 151 to 155 is prohibited.

【0059】この様に、アクセスユニットを格納し、各
アクセスユニットの復号時刻スタンプや合成時刻スタン
プなどの時間管理情報を抽出するデコーダ用バッファ1
41〜145の制御を、IPMP制御部180及びシス
テム時間基準制御部150とで行うことにより、特にI
PMP用に別途制御対象を設けることなく、IPMP制
御が可能となる。
As described above, the decoder buffer 1 for storing the access units and extracting the time management information such as the decoding time stamp and the synthesis time stamp of each access unit.
By performing the control of 41 to 145 by the IPMP control unit 180 and the system time reference control unit 150, especially
IPMP control can be performed without providing a separate control target for PMP.

【0060】また、上記実施例においてはIPMP制御
部150により音声のオブジェクトストリームのアクセ
スユニットがデコーダ用音声バッファ143において廃
棄されたとしても、時間情報専用オブジェクトストリー
ムのアクセスユニットからオブジェクト参照クロック、
オブジェクト時間基準を取得し、これよりシステム時間
基準を得ることが出来るので、知的財産による規制によ
り再生装置における時間管理が破綻する事はない。すな
わち、本実施例においては音声や画像のように知的財産
の保護を受けうるオブジェクト以外のオブジェクトに時
間情報をもたせ、送信側で当該時間情報をシステム時間
基準として各オブジェクトの時刻スタンプを生成し、再
生(受信)側では当該知的財産による保護を受けない時
間情報オブジェクトからシステム時間基準を生成する事
で各オブジェクトの再生時間を確実に管理再現すること
ができるようになった。
In the above embodiment, even if the access unit of the audio object stream is discarded by the IPMP control unit 150 in the audio buffer for decoder 143, the access unit of the object stream dedicated to the time information can be used to obtain the object reference clock,
Since the object time reference is obtained and the system time reference can be obtained from the object time reference, the time management in the playback device does not break down due to regulation by intellectual property. That is, in the present embodiment, an object other than an object that can be protected by intellectual property, such as a sound or an image, is provided with time information, and the transmitting side generates a time stamp of each object using the time information as a system time reference. On the reproduction (reception) side, the reproduction time of each object can be reliably managed and reproduced by generating a system time reference from a time information object that is not protected by the intellectual property.

【0061】[0061]

【発明の効果】以上説明したように、本発明のデータ処
理方法、データ処理装置、及びデータ処理システムによ
れば、伝送路の帯域を狭めることなく、もしくは、知的
財産の保護による影響を受けることなく、しかも、確実
に複数のオブジェクトのストリームを含むデータストリ
ームから各オブジェクトストリームを分離して、復号、
再生を行う際に必要となる時間情報をデータストリーム
から得ることが可能となった。
As described above, according to the data processing method, the data processing apparatus, and the data processing system of the present invention, the data processing method, the data processing apparatus, and the data processing system do not reduce the bandwidth of the transmission path or are affected by the protection of intellectual property. Without separating each object stream from a data stream containing a stream of multiple objects without fail.
Time information required for performing reproduction can be obtained from the data stream.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例のデータ処理装置、データ処
理システムを構成する送信装置を示すブロック図であ
る。
FIG. 1 is a block diagram showing a data processing device and a transmission device constituting a data processing system according to an embodiment of the present invention.

【図2】図1の送信側装置が行うデータ変換を説明する
図である。
FIG. 2 is a diagram for explaining data conversion performed by a transmission-side device in FIG. 1;

【図3】図1の装置で取り扱われる時間情報のみを提供
するオブジェクトストリームのデータ構成を示す図であ
る。
FIG. 3 is a diagram showing a data configuration of an object stream that provides only time information handled by the apparatus of FIG. 1;

【図4】本発明の一実施例のデータ処理装置、データ処
理システムを構成し、図1の送信側装置で送信されたデ
ータストリームを受信し、再生する再生装置の構成を示
すブロック図である。
FIG. 4 is a block diagram showing a configuration of a data processing apparatus and a data processing system according to an embodiment of the present invention, and a configuration of a reproducing apparatus which receives and reproduces a data stream transmitted by the transmitting apparatus of FIG. 1; .

【図5】図4の装置の大部分をソフトウエアにて実現し
た場合のソフトウエアによる処理を説明するフローチャ
ートである。
FIG. 5 is a flowchart illustrating processing by software when most of the device in FIG. 4 is realized by software;

【図6】本発明の他の実施例のデータ処理装置、データ
処理システムを構成し、図1の送信装置からのMPEG
−4ストリームを受信し再生する再生装置の他の例を示
す図。
FIG. 6 shows a data processing apparatus and a data processing system according to another embodiment of the present invention.
FIG. 4 is a diagram showing another example of a playback device that receives and plays back a-4 stream.

【図7】MPEG−4のデータストリームにおけるデー
タの構成を示す図である。
FIG. 7 is a diagram showing the structure of data in an MPEG-4 data stream.

【図8】一般的なMPEG−4再生装置の概略構成を示
すブロック図である。
FIG. 8 is a block diagram illustrating a schematic configuration of a general MPEG-4 playback device.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 MA00 MA24 MB27 ME11 PP01 PP04 RB06 RB09 RC04 RC11 RC32 RC33 SS13 SS30 UA02 UA05 5C063 AB03 AB07 AC10 CA16 5K034 HH05 HH12 HH15 HH18 HH65 MM01 MM15 MM39 PP05 QQ07 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 MA00 MA24 MB27 ME11 PP01 PP04 RB06 RB09 RC04 RC11 RC32 RC33 SS13 SS30 UA02 UA05 5C063 AB03 AB07 AC10 CA16 5K034 HH05 HH12 HH15 HH18 HH65 MM01 MM15 MM39 PP05 Q

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 夫々所定の情報を有する複数のオブジェ
クトストリームから1つのデータストリームを生成する
データ処理方法であって、少なくとも音声に比し小なる
情報量を有する特定のオブジェクトストリームに時間管
理情報を付与し、当該特定のオブジェクトストリームに
付与された時間管理情報を基準として他のオブジェクト
の時間管理情報を生成することを特徴とするデータ処理
方法。
1. A data processing method for generating one data stream from a plurality of object streams each having predetermined information, wherein time management information is added to a specific object stream having at least a smaller amount of information than audio. A data management method for generating time management information of another object based on the time management information attached to the specific object stream.
【請求項2】 夫々所定の情報を有する複数のオブジェ
クトストリームから1つのデータストリームを生成する
データ処理方法であって、知的財産の保護の対象となら
ないオブジェクトを対象とした特定のオブジェクトスト
リームに時間管理情報を付与し、 当該特定のオブジェクトストリームに付与された時間管
理情報を基準として他のオブジェクトの時間管理情報を
生成することを特徴とするデータ処理方法。
2. A data processing method for generating one data stream from a plurality of object streams each having predetermined information, the method comprising: providing a specific object stream for an object not subject to intellectual property protection; A data processing method comprising: adding management information; and generating time management information of another object based on the time management information assigned to the specific object stream.
【請求項3】 前記データストリームは知的財産管理情
報を含むことを特徴とする請求項2に記載のデータ処理
方法。
3. The data processing method according to claim 2, wherein the data stream includes intellectual property management information.
【請求項4】 前記特定のオブジェクトストリームは時
間管理情報専用のオブジェクトストリームであることを
特徴とする請求項1〜3の何れかに記載のデータ処理方
法。
4. The data processing method according to claim 1, wherein the specific object stream is an object stream dedicated to time management information.
【請求項5】 前記複数のオブジェクトストリームは、
動画オブジェクトストリーム、音声オブジェクトを少な
くとも含むことを特徴とする請求項1〜4の何れかに記
載のデータ処理方法。
5. The plurality of object streams,
5. The data processing method according to claim 1, wherein the data processing method includes at least a video object stream and an audio object.
【請求項6】 夫々所定の情報を有する複数のオブジェ
クトストリームを形成する手段と、 少なくとも音声に比し小なる情報量を有し、時間管理情
報を付与された特定のオブジェクトストリームを形成す
る手段と、 当該特定のオブジェクトストリームに付与された時間管
理情報を基準として他のオブジェクトの時間管理情報を
生成し、各オブジェクトストリームに付与する手段と、 時間管理情報が付与された前記複数のオブジェクトスト
リーム及び前記特定のオブジェクトストリームとを含む
1つのデータストリームを生成する手段とを具備するこ
とを特徴とするデータ処理装置。
6. A means for forming a plurality of object streams each having predetermined information, and a means for forming a specific object stream having at least a small amount of information compared to audio and to which time management information is added. Means for generating time management information of another object based on the time management information assigned to the specific object stream, and assigning the time management information to each object stream; and Means for generating one data stream including a specific object stream.
【請求項7】 夫々所定の情報を有する複数のオブジェ
クトストリームを形成する手段と、 知的財産の保護の対象とならないオブジェクトを対象と
し、時間管理情報を付与された特定のオブジェクトスト
リームを形成する手段と、 当該特定のオブジェクトストリームに付与された時間管
理情報を基準として他のオブジェクトの時間管理情報を
生成し、各オブジェクトストリームに付与する手段と、 時間管理情報が付与された前記複数のオブジェクトスト
リーム及び前記特定のオブジェクトストリームとを含む
1つのデータストリームを生成する手段とを具備するこ
とを特徴とするデータ処理装置。
7. A means for forming a plurality of object streams each having predetermined information, and a means for forming a specific object stream provided with time management information for objects which are not subject to protection of intellectual property Means for generating time management information of another object based on the time management information given to the specific object stream, and giving the time management information to each object stream; and Means for generating one data stream including the specific object stream.
【請求項8】 前記特定のオブジェクトストリームは時
間管理情報専用のオブジェクトストリームであることを
特徴とする請求項7もしくは8に記載のデータ処理装
置。
8. The data processing apparatus according to claim 7, wherein the specific object stream is an object stream dedicated to time management information.
【請求項9】 前記複数のオブジェクトを形成する手段
は、所定の情報を符号化する手段を含み、前記他のオブ
ジェクトストリームに付与された時間管理情報は当該情
報を復号する時刻を示す情報を含むことを特徴とする請
求項6〜8何れかに記載のデータ処理装置。
9. The means for forming the plurality of objects includes means for encoding predetermined information, and the time management information given to the other object stream includes information indicating a time at which the information is decoded. 9. The data processing device according to claim 6, wherein
【請求項10】 前記他のオブジェクトストリームに付
与された時間管理情報は当該情報を他の情報に合成する
時刻を示す情報を含むことを特徴とする請求項9に記載
のデータ処理装置。
10. The data processing apparatus according to claim 9, wherein the time management information added to the other object stream includes information indicating a time at which the information is combined with the other information.
【請求項11】 夫々所定の情報を有する複数のオブジ
ェクトストリームを含むデータストリームから各オブジ
ェクトストリームを分離し、これら各オブジェクトを合
成した合成情報を再生するデータ処理方法であって、 前記データストリーム中、少なくとも音声に比し小なる
情報量を有する特定のオブジェクトストリームからの時
間管理情報を抽出し、 当該特定のオブジェクトストリームから抽出した時間管
理情報を基準として他のオブジェクトの時間管理情報を
解釈することを特徴とするデータ処理方法。
11. A data processing method for separating each object stream from a data stream including a plurality of object streams each having predetermined information and reproducing synthesized information obtained by synthesizing each of the objects, wherein: Extracting time management information from a specific object stream having at least a smaller amount of information than audio, and interpreting time management information of other objects based on the time management information extracted from the specific object stream. Characteristic data processing method.
【請求項12】 夫々所定の情報を有する複数のオブジ
ェクトストリーム及び知的財産管理情報を含むデータス
トリームから各オブジェクトストリームを分離し、これ
ら各オブジェクトを合成した合成情報を再生するデータ
処理方法であって、 前記知的財産管理情報に基いて、前記複数のオブジェク
トストリームの少なくとも一部の再生を制御するととも
に、 前記データストリーム中、知的財産の保護の対象となら
ないオブジェクトを対象とした特定のオブジェクトスト
リームからの時間管理情報を抽出し、 当該特定のオブジェクトストリームから抽出した時間管
理情報を基準として他のオブジェクトの時間管理情報を
解釈することを特徴とするデータ処理方法。
12. A data processing method for separating each object stream from a plurality of object streams each having predetermined information and a data stream containing intellectual property management information, and reproducing combined information obtained by combining these objects. Controlling a reproduction of at least a part of the plurality of object streams based on the intellectual property management information, and a specific object stream targeted at an object that is not a target of intellectual property protection in the data stream. A time management information extracted from the specific object stream and interpreting time management information of another object based on the time management information extracted from the specific object stream.
【請求項13】 前記特定のオブジェクトストリームは
時間管理情報専用のオブジェクトストリームであること
を特徴とする請求項11もしくは12に記載のデータ処
理方法。
13. The data processing method according to claim 11, wherein the specific object stream is an object stream dedicated to time management information.
【請求項14】 前記複数のオブジェクトストリーム
は、動画オブジェクトストリーム、音声オブジェクトを
少なくとも含むことを特徴とする請求項11〜13の何
れかに記載のデータ処理方法。
14. The data processing method according to claim 11, wherein the plurality of object streams include at least a moving image object stream and an audio object.
【請求項15】 夫々所定の情報を有する複数のオブジ
ェクトストリームを含むデータストリームを受信する手
段と、 当該受信されたデータストリームから各オブジェクトス
トリームを分離する手段と、 該各オブジェクトストリームから各オブジェクトを復元
する手段と、 該復元された各オブジェクトを合成した合成情報を再生
する手段と、 前記データストリーム中、少なくとも音声に比し小なる
情報量を有する特定のオブジェクトストリームからの時
間管理情報を抽出する手段と、 当該特定のオブジェクトストリームから抽出した時間管
理情報を基準として前記各オブジェクトの復元タイミン
グ及び各オブジェクトの合成タイミングを制御する手段
とを具備することを特徴とするデータ処理装置。
15. A means for receiving a data stream including a plurality of object streams each having predetermined information; a means for separating each object stream from the received data stream; and restoring each object from each object stream Means for reproducing synthesized information obtained by synthesizing the restored objects; and means for extracting time management information from a specific object stream having at least a smaller amount of information than audio in the data stream. And a means for controlling a restoration timing of each object and a synthesis timing of each object based on time management information extracted from the specific object stream.
【請求項16】 前記特定のオブジェクトストリームは
知的財産保護の対象とならないオブジェクトに関するス
トリームであることを特徴とする請求項15記載のデー
タ処理装置。
16. The data processing apparatus according to claim 15, wherein the specific object stream is a stream relating to an object that is not subject to intellectual property protection.
【請求項17】 前記データストリームは知的財産管理
情報を含み、更に前記知的財産管理情報に基いて、前記
複数のオブジェクトストリームの少なくとも一部からの
オブジェクトの再生を制御する手段を具備することを特
徴とする請求項15もしくは16記載のデータ処理装
置。
17. The data stream includes intellectual property management information, and further comprising means for controlling reproduction of an object from at least a part of the plurality of object streams based on the intellectual property management information. 17. The data processing device according to claim 15, wherein:
【請求項18】 前記各オブジェクトストリームの一部
を一時記憶するバッファを備え、前記知的財産管理情報
に基くオブジェクトの再生の制御は当該バッファに対す
るデータの書き込みもしくは読み出しを制御することを
特徴とする請求項17に記載のデータ処理装置。
18. A buffer for temporarily storing a part of each of the object streams, and control of reproduction of the object based on the intellectual property management information controls writing or reading of data to or from the buffer. The data processing device according to claim 17.
【請求項19】 前記バッファを用いて各オブジェクト
復元タイミングを制御することを特徴とする請求項18
に記載のデータ処理装置。
19. The apparatus according to claim 18, wherein each of the object restoration timings is controlled using the buffer.
A data processing device according to claim 1.
【請求項20】 夫々所定の情報を有する複数のオブジ
ェクトストリームを含む1つのデータストリームを送信
し、受信するシステムであって、 少なくとも音声に比し小なる情報量を有する特定のオブ
ジェクトストリームに時間管理情報を付与し、 当該特定のオブジェクトストリームに付与された時間管
理情報を基準として他のオブジェクトの時間管理情報を
生成すると共にデータストリームを伝送路に送信し、 受信側では、当該データストリームから各オブジェクト
ストリームを分離し、前記特定のオブジェクトストリー
ムからの時間管理情報を抽出し、 当該特定のオブジェクトストリームから抽出した時間管
理情報を基準として他のオブジェクトの時間管理情報を
解釈することを特徴とするデータ処理システム。
20. A system for transmitting and receiving one data stream including a plurality of object streams each having predetermined information, the system comprising: a time management unit for a specific object stream having at least a small amount of information compared to audio; Information, time management information of another object is generated based on the time management information given to the specific object stream, and the data stream is transmitted to the transmission path. Data processing, separating a stream, extracting time management information from the specific object stream, and interpreting time management information of another object based on the time management information extracted from the specific object stream. system.
【請求項21】 夫々所定の情報を有する複数のオブジ
ェクトストリームを含む1つのデータストリームを送信
し、受信するシステムであって、 知的財産保護の対象とならない特定のオブジェクトスト
リームに時間管理情報を付与し、 当該特定のオブジェクトストリームに付与された時間管
理情報を基準として他のオブジェクトの時間管理情報を
生成すると共にデータストリームを伝送路に送信し、 受信側では、当該データストリームから各オブジェクト
ストリームを分離し、前記複数のオブジェクトストリー
ムの1つから抽出された知的財産管理情報に基いて当該
複数のオブジェクトストリームの少なくとも一部の再生
を制御し、前記特定のオブジェクトストリームからの抽
出された時間管理情報を基準として他のオブジェクトの
時間管理情報を解釈することを特徴とするデータ処理シ
ステム。
21. A system for transmitting and receiving one data stream including a plurality of object streams each having predetermined information, wherein time management information is added to a specific object stream not subject to intellectual property protection. Then, time management information of another object is generated based on the time management information given to the specific object stream, and the data stream is transmitted to the transmission path. On the receiving side, each object stream is separated from the data stream. And controlling the reproduction of at least a part of the plurality of object streams based on the intellectual property management information extracted from one of the plurality of object streams, and extracting the time management information extracted from the specific object stream. Time management of other objects based on A data processing system characterized by interpreting information.
JP2000283404A 2000-09-19 2000-09-19 Data processing method, data processing unit and data processing system Withdrawn JP2002094995A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000283404A JP2002094995A (en) 2000-09-19 2000-09-19 Data processing method, data processing unit and data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000283404A JP2002094995A (en) 2000-09-19 2000-09-19 Data processing method, data processing unit and data processing system

Publications (1)

Publication Number Publication Date
JP2002094995A true JP2002094995A (en) 2002-03-29

Family

ID=18767771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000283404A Withdrawn JP2002094995A (en) 2000-09-19 2000-09-19 Data processing method, data processing unit and data processing system

Country Status (1)

Country Link
JP (1) JP2002094995A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507888A (en) * 2004-07-22 2008-03-13 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート SAF synchronization hierarchical packet structure and server system using the same
WO2013146571A1 (en) * 2012-03-28 2013-10-03 日本放送協会 Encoding device and decoding device and program for same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507888A (en) * 2004-07-22 2008-03-13 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート SAF synchronization hierarchical packet structure and server system using the same
JP4690400B2 (en) * 2004-07-22 2011-06-01 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート SAF synchronization hierarchical packet structure and server system using the same
WO2013146571A1 (en) * 2012-03-28 2013-10-03 日本放送協会 Encoding device and decoding device and program for same
KR101620776B1 (en) 2012-03-28 2016-05-12 닛폰 호소 교카이 Encoding device and decoding device and program for same
US9628590B2 (en) 2012-03-28 2017-04-18 Nippon Hoso Kyokai Method for encoding and decoding scheme using time stamp
US9942364B2 (en) 2012-03-28 2018-04-10 Nippon Hoso Kyokai Method for encoding and decoding scheme using time stamp

Similar Documents

Publication Publication Date Title
US6404818B1 (en) Video transmission device and its method
JP4389883B2 (en) Encoding apparatus, encoding method, encoding method program, and recording medium recording the encoding method program
JPH11340938A (en) Data multiplexer and its method
WO2009093292A1 (en) Dynamic image transmission/reception system
JP7067653B2 (en) Decoding device
US8117634B2 (en) Media data processing apparatus and media data processing method
JPH08237650A (en) Synchronizing system for data buffer
WO2003092208A1 (en) Encoded packet transmission/reception method, device thereof, and program
JP2010212996A (en) Information processing apparatus and multiplexing processing method
US6940901B2 (en) Apparatus and method for information processing
KR100483814B1 (en) Method and apparatus for coding moving picture image
JP2002521882A (en) Device for separating and multiplexing encoded data
JPH11341450A (en) Electronic watermark embedding device and electronic watermark extraction device
US20020080399A1 (en) Data processing apparatus, data processing method, data processing program, and computer-readable memory storing codes of data processing program
JPH10336625A (en) Video distribution method and system
JP3990813B2 (en) Encoding apparatus, encoding method, digital transmission apparatus, and digital transmission system
KR100864009B1 (en) Lip-synchronize method
JP2001148853A (en) Moving picture encoder and decoder
JP2002094995A (en) Data processing method, data processing unit and data processing system
US7269839B2 (en) Data distribution apparatus and method, and data distribution system
KR100760260B1 (en) Apparatus and Method for creating transport stream for efficient transmission of timing information, and DMB transmission system using it
JPH104539A (en) Data multiplexing method and multiplexed data reproduction device
US6970514B1 (en) Signal processing device, signal processing method, decoding device, decoding method and recording medium
JP7306527B2 (en) decoding device
US7949052B1 (en) Method and apparatus to deliver a DVB-ASI compressed video transport stream

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204