JP2002112149A - Data processing method and device, data transmission system, transmission medium - Google Patents

Data processing method and device, data transmission system, transmission medium

Info

Publication number
JP2002112149A
JP2002112149A JP2000301393A JP2000301393A JP2002112149A JP 2002112149 A JP2002112149 A JP 2002112149A JP 2000301393 A JP2000301393 A JP 2000301393A JP 2000301393 A JP2000301393 A JP 2000301393A JP 2002112149 A JP2002112149 A JP 2002112149A
Authority
JP
Japan
Prior art keywords
data
reproduction
time
coding unit
scene description
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000301393A
Other languages
Japanese (ja)
Other versions
JP4345217B2 (en
Inventor
Shinji Negishi
愼治 根岸
Hideki Koyanagi
秀樹 小柳
Yoichi Yagasaki
陽一 矢ケ崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000301393A priority Critical patent/JP4345217B2/en
Publication of JP2002112149A publication Critical patent/JP2002112149A/en
Application granted granted Critical
Publication of JP4345217B2 publication Critical patent/JP4345217B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data transmission system where a decoding terminal can decode and display data other than video data or the like, in the case of special reproduction so as to realize distribution and decoding of scene description data, synchronization relations between the data are maintained, and the data satisfying evaluation criteria, such as a transmission bit rate, are distributed. SOLUTION: A data conversion section 7 of a server 10 outputs data used for normal reproduction, when the decoding terminal 12 makes the usual reproduction and the data conversion section 7 rewrites time information relating to the reproduction, such as a display start time and a display time or a display end time for data AU used for the normal reproduction depending on special reproduction and encodes the data and outputs the encoded data, when the decoding terminal 12 makes the special reproduction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、静止画像や動画像
等のビデオデータ、オーディオデータ、テキストデータ
やグラフィックデータなどから成るマルチメディアデー
タと共に、それらマルチメディアデータを用いてシーン
を構成するためのシーン記述データをネットワークを用
いて配信し、その配信されたマルチメディアデータ及び
シーン記述データを復号端末において受信し、当該復号
端末にて復号して表示するようなデータ配信システムに
おいて特殊再生を行う場合に用いて最適な、データ処理
方法及び装置、データ伝送システム、伝送媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to multimedia data including video data, audio data, text data, graphic data and the like such as still images and moving images, and a scene for constructing a scene using the multimedia data. When special reproduction is performed in a data distribution system in which scene description data is distributed using a network, and the distributed multimedia data and scene description data are received by a decoding terminal and decoded and displayed by the decoding terminal. The present invention relates to a data processing method and apparatus, a data transmission system, and a transmission medium that are optimal for use in the present invention.

【0002】[0002]

【従来の技術】静止画像や動画像の画像信号を圧縮して
蓄積したビデオデータ等を、伝送媒体を介して配信し、
復号端末において受信し、復号して表示するような従来
のデータ配信システムの構成例を図39に示す。なお、
図39では、説明を簡略化するためにビデオデータの経
路のみについて説明している。また、以下の説明では、
ビデオデータを例えばISO(Internatioal Organizat
ion for Standardization)/IEC(International E
lectrotechnical Comission)13818−1(いわゆ
るMPEG2 Systems)で規定されているトランスポー
トストリーム(Transport stream、以下、単にTSとす
る)へパケット化して配信する場合を例に挙げている。
2. Description of the Related Art Video data and the like obtained by compressing image signals of still images and moving images are distributed via a transmission medium.
FIG. 39 shows a configuration example of a conventional data distribution system in which a decoding terminal receives, decodes, and displays the data. In addition,
In FIG. 39, only the path of the video data is described to simplify the description. Also, in the following description,
Video data can be transferred to, for example, an ISO (Internatioal Organizat
ion for Standardization / IEC (International E)
In this example, a packet is distributed to a transport stream (Transport stream, hereinafter simply referred to as TS) defined by 13818-1 (so-called MPEG2 Systems).

【0003】図39において、サーバ200は、ビデオ
データを記憶する記憶部209を備えている。上記記憶
部209から読み出されたビデオデータは、多重化部2
04にてTSへパケット化され、さらに送信部205に
て配信データ211となされて伝送媒体210へ出力さ
れ、例えば復号端末212へ配信される。このとき、上
記TSの配信データ211は、伝送媒体210で使用さ
れるプロトコルを使用して伝送されることになる。例え
ばISO/IEC13818−1の規定を満たすTS
は、IEC61883の「Digital Interface for cons
umer audio/videoequipment」に定められた方法で、例
えばIEEE(Institute of Electricaland Electroni
cs Engineers)1394規格の伝送媒体を使用して伝送
することが可能である。なお、多重化部204と送信部
205は一体の構成であっても構わない。
[0003] In FIG. 39, a server 200 includes a storage unit 209 for storing video data. The video data read from the storage unit 209 is
At 04, the packet is packetized into a TS, and is further formed as distribution data 211 by the transmission unit 205, output to the transmission medium 210, and distributed to, for example, the decoding terminal 212. At this time, the TS distribution data 211 is transmitted using the protocol used in the transmission medium 210. For example, a TS that satisfies the provisions of ISO / IEC13818-1
IEC61883 "Digital Interface for cons
umer audio / video equipment, for example, IEEE (Institute of Electrical and Electron
cs Engineers) It is possible to transmit using a 1394 standard transmission medium. Note that the multiplexing unit 204 and the transmitting unit 205 may be integrated.

【0004】復号端末212では、受信部213により
上記配信データ211を受信し、分離部214に送る。
分離部214では、上記TSのパケットからビデオデー
タを分離し、復号部215に送る。復号部215では、
符号化されているビデオデータを復号する。この復号さ
れたビデオデータは、例えば図示していない表示装置等
に送られ、ビデオ画像として表示されることになる。
[0004] In the decoding terminal 212, the distribution data 211 is received by the reception unit 213 and sent to the separation unit 214.
The separating unit 214 separates the video data from the TS packet and sends the video data to the decoding unit 215. In the decoding unit 215,
Decode the encoded video data. The decoded video data is sent to, for example, a display device (not shown) and displayed as a video image.

【0005】このようなデータ配信システムにおいて、
例えば早送り再生やコマ送り再生、一時停止などの特殊
再生表示を行う場合には、例えばユーザによる端末フロ
ントパネル或いはリモートコントローラ等の操作に応じ
た特殊再生指定信号(早送り再生やコマ送り再生などの
指示信号)206が、当該復号端末212の特殊再生制
御部216へ入力されることになる。このときの復号端
末212の特殊再生制御部216は、特殊再生指定信号
206にて指定された種類の特殊再生用のビデオデータ
をサーバ200に対して要求するための特殊再生要求信
号220を発生し、その特殊再生要求信号220を前記
伝送媒体210を介してサーバ200の特殊再生制御部
201へ送信する。
In such a data distribution system,
For example, when performing special playback display such as fast-forward playback, frame-by-frame playback, and pause, for example, a special playback designation signal (instruction such as fast-forward playback or frame-by-frame playback) according to the operation of the terminal front panel or the remote controller by the user The signal 206 is input to the special reproduction control unit 216 of the decoding terminal 212. At this time, the special reproduction control unit 216 of the decoding terminal 212 generates a special reproduction request signal 220 for requesting the server 200 for special reproduction video data of the type specified by the special reproduction specification signal 206. The special reproduction request signal 220 is transmitted to the special reproduction control unit 201 of the server 200 via the transmission medium 210.

【0006】この特殊再生要求信号220を受け取った
サーバ200の特殊再生制御部201は、その要求に応
じたコントロール信号202a,202bを発生し、そ
れぞれ対応する多重化部204と送信部205へ送る。
多重化部204は、コントロール信号202bによる特
殊再生制御部201の制御の元で、記憶部209から、
上記ユーザが指定した種類の特殊再生を復号端末212
にて可能とするための特殊再生用のビデオデータを読み
出す。また、多重化部204では、その当該特殊再生用
のビデオデータをTSへパケット化し、送信部205へ
送る。送信部205は、コントロール信号202aによ
る特殊再生制御部201の制御の元で、その特殊再生用
のビデオデータのパケットを配信データ211として復
号端末212に配信する。
[0006] Upon receiving the special reproduction request signal 220, the special reproduction control unit 201 of the server 200 generates control signals 202a and 202b corresponding to the request and sends them to the corresponding multiplexing unit 204 and transmission unit 205, respectively.
The multiplexing unit 204 reads data from the storage unit 209 under the control of the trick play control unit 201 based on the control signal 202b.
The special reproduction of the type specified by the user is performed by the decoding terminal 212.
Reads out video data for special reproduction to enable. The multiplexing unit 204 packetizes the special reproduction video data into a TS and sends the packet to the transmission unit 205. The transmission unit 205 distributes the packet of the special reproduction video data to the decoding terminal 212 as distribution data 211 under the control of the special reproduction control unit 201 by the control signal 202a.

【0007】当該特殊再生用のビデオデータからなる配
信データ211が供給されたときの復号端末212で
は、上記特殊再生指定信号206に応じた特殊再生制御
を行うためのコントロール信号217a,217bが上
記特殊再生制御部216から出力され、それぞれ対応す
る受信部213と復号部215へ送られる。受信部21
3は、このコントロール信号217bによる特殊再生制
御部216の制御の元で、上記特殊再生用のビデオデー
タからなる配信データ211を受信し、分離部214へ
送る。分離部214では、上記TSのパケットから上記
特殊再生用のビデオデータを分離し、復号部215へ送
る。復号部215では、コントロール信号217aによ
る特殊再生制御部216の制御の元で、特殊再生用のビ
デオデータの復号を行う。これにより、図示しない表示
装置等には、早送り再生やコマ送り再生などの特殊再生
表示がなされることになる。
At the decoding terminal 212 when the distribution data 211 composed of the special reproduction video data is supplied, the control signals 217a and 217b for performing the special reproduction control according to the special reproduction designation signal 206 are transmitted to the decoding terminal 212. The data is output from the reproduction control unit 216 and sent to the corresponding receiving unit 213 and decoding unit 215, respectively. Receiver 21
3 receives the distribution data 211 composed of the video data for the special reproduction under the control of the special reproduction control unit 216 based on the control signal 217b, and sends it to the separation unit 214. The separation unit 214 separates the special reproduction video data from the TS packet and sends the special reproduction video data to the decoding unit 215. The decoding unit 215 decodes video data for trick play under the control of the trick play control unit 216 based on the control signal 217a. As a result, a special playback display such as fast-forward playback or frame-forward playback is performed on a display device (not shown).

【0008】なお、ISO/IEC13818−2に規
定されているビデオフレームの符号化方法には、フレー
ム内データのみから符号化するIピクチャ(Intra-code
d picture:イントラ符号化画像)と、フレーム間の予
測を利用して符号化するBピクチャ(Bidirectionally
predictive-coded picture:両方向予測符号化画像)お
よびPピクチャ(Predictive-coded picture:前方予測
符号化画像)があり、前述の図39に示したデータ配信
システムでは、上記記憶部209から読み出される上記
特殊再生用のビデオデータとして、上記ビデオフレーム
間の予測処理を使用しないIピクチャが用いられてい
る。すなわち、通常再生用のビデオデータ中にはランダ
ムアクセスを可能にするために定期的にIピクチャが含
まれおり、そのIピクチャを抽出して特殊再生用のビデ
オデータを構成している。このように、図39に示した
従来のデータ配信システムでは、復号端末212におい
て例えば早送り等の特殊再生が行われる場合、ISO/
IEC13818−2のIピクチャのみからなるビデオ
データのような特殊再生用のビデオデータを、サーバ2
00から復号端末212へ配信するようになされてい
る。
[0008] The video frame encoding method specified in ISO / IEC 13818-2 includes an I-picture (Intra-code) encoding from only intra-frame data.
d picture: an intra-coded image and a B picture (Bidirectionally) to be coded using inter-frame prediction
There are a predictive-coded picture: a bidirectional predictive coded image) and a P picture (Predictive-coded picture: a forward predictive coded image). In the data distribution system shown in FIG. As the video data for reproduction, an I picture that does not use the above-described prediction processing between video frames is used. That is, I-pictures are regularly included in video data for normal reproduction to enable random access, and the I-pictures are extracted to form video data for special reproduction. As described above, in the conventional data distribution system shown in FIG. 39, when special decoding such as fast-forwarding is performed in the decoding terminal 212, the ISO /
Video data for special reproduction, such as video data consisting of only IEC13818-2 I pictures, is
From 00, it is distributed to the decoding terminal 212.

【0009】その一方で、上述したデータ配信システム
のように、例えばISO/IEC13818−2(いわ
ゆるMPEG2 video)に準拠した圧縮ビデオデータを
配信する場合、当該ISO/IEC13818−2に規
定される圧縮ビデオデータは、デコーダバッファをオー
バーフローおよびアンダーフローしないように符号化さ
れていなければならない。なお、デコーダバッファと
は、復号部215が備える図示しない入力バッファに相
当するものである。このISO/IEC13818−2
に規定されているバッファのサイズを超えてデータを入
力すると、上記デコーダバッファはオーバーフローとな
り、一方、復号すべき時刻において復号に必要なデータ
が到着していなければアンダーフローとなる。
On the other hand, when the compressed video data conforming to, for example, ISO / IEC13818-2 (so-called MPEG2 video) is distributed as in the data distribution system described above, the compressed video data specified in the ISO / IEC13818-2 is used. The data must be encoded so as not to overflow and underflow the decoder buffer. The decoder buffer corresponds to an input buffer (not shown) provided in the decoding unit 215. This ISO / IEC13818-2
When data exceeds the size of the buffer specified in the above, the decoder buffer overflows, and on the other hand, if data necessary for decoding has not arrived at the time to decode, the decoder buffer underflows.

【0010】しかしながら、上述の特殊再生用のビデオ
データのように、Iピクチャのみからなるビデオデータ
はデータ量が多くなり、デコーダバッファをオーバーフ
ローもしくはアンダーフローさせてしまうことがある。
このため、従来のデータ配信システムでは、デコーダバ
ッファをオーバーフロー若しくはアンダーフローさせる
ことなく、且つ特殊再生をも可能とするような、通常再
生用とは異なる特殊再生用の特別なデータを予め用意し
ておき、復号端末において特殊再生を行う際に、その特
殊再生用の特別なデータを配信する必要がある。また、
復号端末側においても、その特殊再生用の特別なデータ
に対応した、通常の特殊再生処理とは異なる特別な特殊
再生処理が行えるような、特別な端末が必要となってい
る。
However, like the above-mentioned video data for special reproduction, video data consisting of only I-pictures has a large data amount, and may cause the decoder buffer to overflow or underflow.
For this reason, in the conventional data distribution system, special data for special reproduction different from that for normal reproduction is prepared in advance so as to enable special reproduction without overflowing or underflowing the decoder buffer. When performing special reproduction in the decoding terminal, it is necessary to deliver special data for the special reproduction. Also,
The decoding terminal also needs a special terminal capable of performing special trick-play processing different from normal trick-play processing corresponding to the special data for trick-play.

【0011】すなわち、従来のデータ配信システムによ
れば、デコーダバッファをオーバーフローもしくはアン
ダーフローさせることなく、特殊再生を実現するため
に、上述したIピクチャのみからなる特殊再生用のビデ
オデータとは異なる特殊再生用の特別なデータを予め用
意し、特殊再生時にその特別なデータを配信しなければ
ならない。同じく、復号端末は、その特殊再生用の特別
なデータに対応可能な特別な各復号部215を備えた端
末が必要となり、また、特殊再生制御部216では、受
信部213、分離部214、復号部215を、特殊再生
用データ処理のためのコントロールが必要となってい
る。
That is, according to the conventional data distribution system, in order to realize the special reproduction without causing the decoder buffer to overflow or underflow, the special data different from the special reproduction video data consisting of only the I picture described above is used. Special data for reproduction must be prepared in advance, and the special data must be distributed during special reproduction. Similarly, a decoding terminal requires a terminal having special decoding units 215 capable of handling special data for special reproduction, and a special reproduction control unit 216 includes a reception unit 213, a separation unit 214, and a decoding unit. The unit 215 needs control for data processing for special reproduction.

【0012】このようなことから、本件出願人は、特許
願2000−178999号や特許願2000−179
000号により、サーバにおいて、記憶部から読み出さ
れた通常再生用ビデオデータを用い、ユーザから指定さ
れた種類の特殊再生を行った結果のデータをISO/I
EC13818−2の規定を満足するビデオデータへ変
換し、その変換後のビデオデータを復号端末へ配信する
ことにより、前述したような特殊再生用の特別な配信デ
ータを使用及び予め用意する必要が無く、また、その特
殊再生用の特別な配信データに対応可能な特別な復号端
末を必要としない簡易な構成とする技術について提案し
ている。
[0012] Under such circumstances, the present applicant has filed a patent application No. 2000-178999 and a patent application No. 2000-179.
No. 000, the server uses the video data for normal reproduction read from the storage unit and converts the data resulting from the special reproduction of the type specified by the user into an ISO / I
By converting the video data that satisfies the regulation of EC13818-2 and delivering the converted video data to the decoding terminal, it is not necessary to use and prepare in advance the special distribution data for the special reproduction as described above. Also, a technique has been proposed which has a simple configuration that does not require a special decoding terminal capable of handling special distribution data for the special reproduction.

【0013】図40には、通常再生用のビデオデータを
用いて特殊再生を行った結果のデータを、例えばISO
/IEC13818−2の規定を満足するビデオデータ
へ変換して出力することを実現する、データ配信システ
ムの概略構成を示す。なお、この図40の例では、例え
ばビデオデータ等をISO(Internatioal Organizatio
n for Standardization)/IEC(International Ele
ctrotechnical Comission)13818−1(いわゆる
MPEG2 Systems)で規定されているトランスポート
ストリーム(Transport stream:TS)へパケット化し
て配信する場合を挙げている。
FIG. 40 shows data obtained as a result of performing special reproduction using video data for normal reproduction, for example, according to the ISO standard.
1 shows a schematic configuration of a data distribution system that realizes conversion and output to video data satisfying the regulations of / IEC13818-2. In the example of FIG. 40, for example, video data and the like are stored in an ISO (International Organizatio).
n for Standardization) / IEC (International Ele)
In this case, a packet is distributed to a transport stream (Transport stream: TS) defined in 13818-1 (so-called MPEG2 Systems).

【0014】図40において、サーバ220は、静止画
像や動画像等のビデオデータ、オーディオデータ、テキ
ストデータ、グラフィックデータ等のマルチメディアデ
ータを記憶する記憶部229を備えている。上記記憶部
229からは例えばビデオデータが読み出され、そのビ
デオデータは例えば後述するデータ変換部223を介し
て多重化部224へ送られる。多重化部224では、デ
ータ変換部223から出力されたデータをTSへパケッ
ト化する。このTSパケットは、さらに送信部225に
て配信データ231となされて伝送媒体230へ出力さ
れ、例えば復号端末232へ配信される。このとき、上
記TSの配信データ231は、伝送媒体230で使用さ
れるプロトコルを使用して伝送されることになる。例え
ばISO/IEC13818−1の規定を満たすTS
は、IEC61883の「DigitalInterface for consu
mer audio/video equipment」に定められた方法で、例
えばIEEE(Institute of Electrical and Electron
ics Engineers)1394規格の伝送媒体を使用して伝
送することが可能である。
In FIG. 40, the server 220 has a storage unit 229 for storing multimedia data such as video data such as still images and moving images, audio data, text data, and graphic data. For example, video data is read from the storage unit 229, and the video data is sent to the multiplexing unit 224 via, for example, a data conversion unit 223 described later. The multiplexing unit 224 packetizes the data output from the data conversion unit 223 into a TS. The TS packet is further formed into distribution data 231 by the transmission unit 225, output to the transmission medium 230, and distributed to, for example, the decoding terminal 232. At this time, the distribution data 231 of the TS is transmitted using the protocol used in the transmission medium 230. For example, a TS that satisfies the provisions of ISO / IEC13818-1
IEC61883 "DigitalInterface for consu
mer audio / video equipment ”, for example, IEEE (Institute of Electrical and Electron
ics Engineers) can be transmitted using a 1394 standard transmission medium.

【0015】復号端末232では、受信部233により
上記配信データ231を受信し、分離部234に送る。
分離部234では、上記TSのパケットからビデオデー
タを分離し、復号部235に送る。復号部235では、
供給されたデータを復号、すなわち符号化されているビ
デオデータを復号する。この復号されたビデオデータ
は、例えば図示していない表示装置等に送られ、ビデオ
画像として表示されることになる。
[0015] In the decoding terminal 232, the distribution data 231 is received by the reception unit 233 and sent to the separation unit 234.
The separating unit 234 separates video data from the TS packet and sends the video data to the decoding unit 235. In the decoding unit 235,
The supplied data is decoded, that is, the encoded video data is decoded. The decoded video data is sent to, for example, a display device (not shown) and displayed as a video image.

【0016】このデータ配信システムの復号端末232
において、特殊再生表示が行われる場合は、例えば、復
号端末232のユーザによる操作に応じた特殊再生指定
信号226が、当該復号端末232内の図示しない伝送
媒体インターフェイス部などから伝送媒体230を介し
てサーバ220へ送信される。この特殊再生指定信号2
26は、例えば早送り再生や巻き戻し再生、コマ送り再
生などの特殊再生の種類と、記憶部229に格納されて
いるビデオデータ等の指定を含む信号である。なお、サ
ーバ220と復号端末232が例えば家庭用ネットワー
クのように近距離にて接続され、ユーザがサーバ220
のフロントパネルやリモートコントローラ等を操作可能
な環境である場合には、当該サーバ220のフロントパ
ネルやリモートコントローラ等をユーザが操作すること
により、サーバ220に対して直接に特殊再生指定信号
226を入力することも可能である。
The decoding terminal 232 of the data distribution system
In the case where the special reproduction display is performed, for example, a special reproduction designation signal 226 corresponding to an operation by the user of the decoding terminal 232 is transmitted from the transmission medium interface unit (not shown) in the decoding terminal 232 via the transmission medium 230. Sent to server 220. This special reproduction designation signal 2
Reference numeral 26 denotes a signal including the type of special playback such as fast forward playback, rewind playback, and frame forward playback, and designation of video data and the like stored in the storage unit 229. Note that the server 220 and the decoding terminal 232 are connected to each other at a short distance, such as a home network, and the user
When the user can operate the front panel, the remote controller, and the like of the server 220, the special reproduction designation signal 226 is directly input to the server 220 by operating the front panel, the remote controller, and the like of the server 220. It is also possible.

【0017】サーバ220へ入力された特殊再生指定信
号226は、当該サーバ220内に設けられている特殊
再生制御部221へ入力する。この特殊再生制御部22
1は、特殊再生指定信号226に応じて、特殊再生の種
類、ビデオデータの指定を含む特殊再生制御用のコント
ロール信号222を発生し、データ変換部223へ送
る。
The special reproduction designation signal 226 input to the server 220 is input to a special reproduction control unit 221 provided in the server 220. This special reproduction control unit 22
1 generates a control signal 222 for trick play control including a trick play type and video data designation in response to the trick play designation signal 226, and sends it to the data converter 223.

【0018】データ変換部223は、コントロール信号
222による特殊再生制御部221の制御の元で、記憶
部229からビデオデータを読み出す。さらに、データ
変換部223は、記憶部229から読み出したビデオデ
ータを用い、コントロール信号222にて指定される種
類の特殊再生を行った結果のデータを、例えばISO/
IEC13818−2の規定を満足するビデオデータへ
変換して出力する。すなわち、このときデータ変換部2
23は、復号端末232の復号部235において通常再
生時と同様に復号を行った時に、早送り再生や巻き戻し
再生、コマ送り再生等の特殊再生(ユーザにより指定さ
れた特殊再生)が実現されるビデオデータへ、記憶部2
29から読み出したビデオデータを変換する。
The data conversion section 223 reads video data from the storage section 229 under the control of the special reproduction control section 221 based on the control signal 222. Further, the data conversion unit 223 uses the video data read from the storage unit 229 to convert the data resulting from the special reproduction of the type specified by the control signal 222 into, for example, an ISO /
The video data is converted into video data satisfying the requirements of IEC13818-2 and output. That is, at this time, the data conversion unit 2
When the decoding is performed by the decoding unit 235 of the decoding terminal 232 in the same manner as in the normal reproduction, special reproduction (special reproduction specified by the user) such as fast-forward reproduction, rewind reproduction, or frame-forward reproduction is realized. Storage unit 2 for video data
29 is converted.

【0019】ここで、図41及び図42を用いて、上記
データ変換部223におけるデータ変換処理について簡
単に説明する。
Here, the data conversion processing in the data conversion section 223 will be briefly described with reference to FIGS. 41 and 42.

【0020】図41には、MPEG2 videoで符号化さ
れている通常再生用のビデオデータ(記憶部229から
読み出されたビデオデータ)を、上記データ変換部22
3において、特殊再生処理の一例としての早送り再生を
実現し且つISO/IEC13818−2の規定を満足
するビデオデータへ変換する際の、データ変換処理の概
略を示す。なお、図中のIはIピクチャ、PはPピクチ
ャ、BはBピクチャを表している。また、MPEG2 v
ideoの規定では、ピクチャ間の予測を使用して符号化を
行う関係上、符号化順(データがビットストリーム中に
符号化される順番)と実際の表示順が異なる場合がある
ため、図41では符号化順と表示順を併記して示してい
る。図41の(a)には、通常再生用ビデオデータの符
号化順を示し、図41の(b)には、通常再生用ビデオ
データを復号して表示する際の表示順を示している。図
41の(c)には、通常再生区間USの次に早送り再生
区間FSへ移行し、その後通常再生区間USへ戻される
ような特殊再生のための変換処理が行われる場合の符号
化順を示し、図41の(d)には、図41の(c)のよ
うな特殊再生のための変換処理が行われる場合の表示順
を示している。
In FIG. 41, video data for normal reproduction (video data read from the storage unit 229) encoded by MPEG2 video is converted to the data conversion unit 22.
3 shows an outline of a data conversion process for realizing fast-forward playback as an example of the special playback process and converting the video data to video data satisfying the provisions of ISO / IEC13818-2. In the figure, I represents an I picture, P represents a P picture, and B represents a B picture. Also, MPEG2 v
According to the definition of “ideo”, the encoding order (the order in which data is encoded in a bit stream) and the actual display order may differ from each other due to the fact that encoding is performed using prediction between pictures. Shows the encoding order and the display order together. FIG. 41 (a) shows the encoding order of the video data for normal reproduction, and FIG. 41 (b) shows the display order when decoding and displaying the video data for normal reproduction. FIG. 41C shows the encoding order in the case where a conversion process for special reproduction is performed such that a transition is made to the fast-forward reproduction section FS after the normal reproduction section US, and then to the normal reproduction section US. FIG. 41D shows the display order when the conversion process for the special reproduction as shown in FIG. 41C is performed.

【0021】データ変換部223では、特殊再生が行わ
れる早送り再生区間FSについて、図中Ek、Em、En
に示すように、図41の(a)の通常再生用ビデオデー
タ中のIピクチャ(Ik、Im、In)を抜き出して使用
し、さらに、デコーダバッファを破綻させないために、
それらIピクチャの間にリピートピクチャBRを挿入す
るようなデータ変換処理を行う。なお、上記リピートピ
クチャBRとは、予測元画像を繰り返すピクチャであ
り、復号の際にはBピクチャとして扱われるピクチャで
ある。また、リピートピクチャBRの挿入は、早送り再
生の速度を調節する効果もある。
[0021] The data conversion unit 223, the fast-forward reproduction interval FS for the special playback is performed, in the drawing E k, E m, E n
As shown in, I picture during normal playback video data (a) of FIG. 41 (I k, I m, I n) using an extracted, further, in order not to collapse the decoder buffer,
Performs data conversion processing to insert a repeat pictures B R therebetween I picture. Incidentally, the above repeat pictures B R, a picture of repeating the predicted original image, when the decoding is a picture is treated as B-picture. The insertion of the repeat pictures B R is also effective for adjusting the speed of the fast forward playback.

【0022】図42には、図41と同様に、MPEG2
videoで符号化されている通常再生用のビデオデータ
(記憶部229から読み出されたビデオデータ)を、上
記データ変換部223において、特殊再生処理の一例と
しての巻き戻し再生を実現し且つISO/IEC138
18−2の規定を満足するビデオデータへ変換する際
の、データ変換処理の概略を示す。図42の(a)に
は、通常再生用ビデオデータの符号化順を示し、図42
の(b)には、通常再生用ビデオデータを復号して表示
する際の表示順を示している。図42の(c)には、通
常再生区間USの次に巻き戻し再生区間BSへ移行し、
その後通常再生区間USに戻されるような特殊再生のた
めの変換処理が行われる場合の符号化順を示し、図42
の(d)には、図42の(c)のような特殊再生のため
の変換処理が行われる場合の表示順を示している。
In FIG. 42, as in FIG.
In the data conversion unit 223, rewind reproduction as an example of special reproduction processing is realized by using the video data for normal reproduction (video data read from the storage unit 229) encoded by video, and IEC138
The outline of data conversion processing when converting into video data satisfying the rule of 18-2 will be described. FIG. 42A shows the encoding order of the video data for normal reproduction.
(B) shows the display order when the video data for normal reproduction is decoded and displayed. In (c) of FIG. 42, the process proceeds to the rewind playback section BS after the normal playback section US,
FIG. 42 shows the encoding order in the case where a conversion process for special reproduction is performed so as to return to the normal reproduction section US.
(D) shows the display order when the conversion process for the special reproduction as shown in (c) of FIG. 42 is performed.

【0023】データ変換部223では、特殊再生が行わ
れる巻き戻し再生区間BSについて、図中Ek、Em、E
nに示すように、図42の(a)の通常再生用ビデオデ
ータ中のIピクチャ(Ik、Im、In)を抜き出し且つ
それらの順序を入れ替え、さらにデコーダバッファを破
綻させないために、それらIピクチャの間にリピートピ
クチャBRを挿入するようなデータ変換処理を行う。
In the data conversion section 223, E k , E m , E E
As shown in FIG. 42, in order to extract the I pictures (I k , I m , and I n ) from the video data for normal reproduction in FIG. 42A and change the order of the I pictures, performs data conversion processing to insert a repeat pictures B R therebetween I picture.

【0024】このように、データ変換部223にて変換
処理された特殊再生用のビデオデータは、前述同様に多
重化部224以降の構成を介して復号端末232へ配信
されることになる。
As described above, the special reproduction video data converted by the data conversion unit 223 is distributed to the decoding terminal 232 through the configuration of the multiplexing unit 224 and thereafter as described above.

【0025】[0025]

【発明が解決しようとする課題】ところで、従来のテレ
ビジョン放送では、1つの画像信号を画像表示装置の画
面上に表示し、1つの音声信号のみがスピーカから出力
されるようになされているが、近年は、静止画や動画等
のビデオデータ、オーディオデータ、テキストデータや
グラフィックデータなどから成るマルチメディアデータ
を用いて1つのシーンを構成するようなことも考えられ
ている。なお、それらマルチメディアデータを用いてシ
ーンの構成を記述する方法としては、いわゆるインター
ネットのホームページ等で用いられているHTML(Hy
perText Markup Language)、ISO/IEC1449
6−1に規定されたシーン記述方式であるMPEG4
BIFS(Binary Format for the Scene)、ISO/
IEC14772に規定されたVRML(Virtual Real
ity Modeling Language)、Java(商標)などがあ
る。以下、シーンの構成を記述したデータをシーン記述
と呼ぶことにする。
By the way, in a conventional television broadcast, one image signal is displayed on a screen of an image display device, and only one audio signal is output from a speaker. In recent years, it has been considered that one scene is configured using multimedia data including video data such as still images and moving images, audio data, text data, graphic data, and the like. Note that as a method of describing the configuration of a scene using the multimedia data, there is an HTML (Hybrid) used on a so-called Internet homepage or the like.
perText Markup Language), ISO / IEC1449
MPEG4 which is a scene description method specified in 6-1
BIFS (Binary Format for the Scene), ISO /
VRML (Virtual Reality) defined in IEC14772
ity Modeling Language) and Java (trademark). Hereinafter, data describing the configuration of a scene will be referred to as a scene description.

【0026】VRMLおよびMPEG4 BIFSを用
いたシーン記述の例を、図43を用いて説明する。な
お、図43にはシーン記述の内容が示されている。VR
MLでは、図43のようなテキストデータによりシーン
記述が行われ、MPEG4 BIFSではこのテキスト
データをバイナリに符号化したものによりシーン記述が
行われる。
An example of a scene description using VRML and MPEG4 BIFS will be described with reference to FIG. FIG. 43 shows the contents of the scene description. VR
In the ML, a scene description is performed using text data as shown in FIG. 43. In the MPEG4 BIFS, a scene description is performed using a binary coded version of this text data.

【0027】VRMLおよびMPEG4 BIFSのシ
ーン記述は、ノードと呼ばれる基本的な記述単位により
表現され、図43の例ではノードを太線斜体文字にて表
している。ノードは、表示される物体や物体同士の結合
関係等を記述する単位であり、ノードの特性や属性を示
すためにフィールドと呼ばれるデータを含んでいる。例
えば、図43中のTransformノードは、三次元の座標変
換を指定可能なノードであり、そのノード中のtranslat
ionフィールドにて座標原点の平行移動量が指定されて
いる。また、フィールドには他のノードを指定可能なフ
ィールドも存在する。例えば図43中のTransformノー
ドは、Transformノードにより座標変換される子ノード
群を示すChildrenフィールドがあり、このChildrenフィ
ールドにより例えばShapeノード等がグルーピングされ
ている。表示する物体をシーン中に配置するには、物体
を表すノードを、属性を表すノードと共にグループ化
し、さらに、配置位置を示すノードによってそれらノー
ドをグループ化する。例えば、図43中のShapeノード
が表している物体は、その親ノードであるTransformノ
ードによって指定された平行移動を適用されて、シーン
中に配置されることになる。
A scene description of VRML and MPEG4 BIFS is expressed by a basic description unit called a node. In the example of FIG. 43, the node is represented by a bold italic character. A node is a unit that describes an object to be displayed, a connection relationship between the objects, and the like, and includes data called a field to indicate characteristics and attributes of the node. For example, the Transform node in FIG. 43 is a node that can specify a three-dimensional coordinate transformation, and
The translation amount of the coordinate origin is specified in the ion field. There is also a field in which another node can be specified. For example, the Transform node in FIG. 43 has a Children field indicating a group of child nodes to be coordinate-transformed by the Transform node. For example, Shape nodes and the like are grouped by the Children field. To arrange the objects to be displayed in the scene, the nodes representing the objects are grouped together with the nodes representing the attributes, and the nodes are further grouped by the nodes representing the arrangement positions. For example, the object represented by the Shape node in FIG. 43 is arranged in the scene by applying the translation specified by the parent Transform node.

【0028】前記ビデオデータやオーディオデータなど
は、上記シーン記述により空間的および時間的に配置さ
れて表示される。例えば、図43中のMovieTextureノー
ドは、3というIDで指定される動画像を、立方体の表
面に貼り付けて表示することを指定している。
The video data and audio data are spatially and temporally arranged and displayed according to the scene description. For example, the MovieTexture node in FIG. 43 specifies that a moving image specified by ID 3 is to be pasted and displayed on the surface of a cube.

【0029】[0029]

【発明が解決しようとする課題】上述のように、近年
は、ビデオデータ、オーディオデータ、キストデータや
グラフィックデータなどから成るマルチメディアデータ
を用いて1つのシーンを構成するようなことが考えられ
ているが、従来のデータ配信システムでは、特殊再生中
にはビデオデータのみしか復号および表示等されない。
As described above, in recent years, it has been considered that one scene is formed using multimedia data including video data, audio data, text data, graphic data, and the like. However, in the conventional data distribution system, only the video data is decoded and displayed during the trick play.

【0030】このため、例えばビデオデータ、オーディ
オデータ、テキストデータやグラフィックデータなどか
ら成るマルチメディアデータを配信するようにしたとし
ても、特殊再生中にはビデオデータのみしか復号および
表示等されず、例えばオーディオデータや字幕用テキス
ト等のビデオ以外のデータを含むデータが配信されたと
しても、従来のデータ配信システムでは、特殊再生中に
それらビデオ以外のデータの復号及び表示等は行われな
い。
For this reason, even if multimedia data composed of, for example, video data, audio data, text data, graphic data, and the like is distributed, only video data is decoded and displayed during special reproduction. Even if data including data other than video such as audio data and subtitle text is distributed, the conventional data distribution system does not decode or display such data other than the video during special reproduction.

【0031】このようなことから、早送り再生や巻き戻
し再生等の特殊再生中にも、オーディオデータや字幕用
テキストデータなどのビデオデータ以外のデータの復号
及び表示等を可能とすることが望まれている。
In view of the above, it is desired to be able to decode and display data other than video data such as audio data and subtitle text data even during special playback such as fast forward playback and rewind playback. ing.

【0032】また、現在のところ、上述のようなシーン
を構成するためのシーン記述データを、特殊再生中にも
配信し、復号等するための手法及び手段は実現されてい
ない。このため、従来のデータ配信システムでは、例え
ば上述のマルチメディアデータを用いて1つのシーンを
構成し、そのマルチメディアデータを配信するようにし
たとしても、特殊再生中にはシーンの構成が行えず、そ
の結果、例えば特殊再生の開始時及び終了時に表示され
るシーンが不連続となってしまうような問題が発生す
る。
At present, no technique or means has been realized for distributing, decoding, etc., the scene description data for constructing the scene as described above even during trick play. For this reason, in the conventional data distribution system, for example, even if one scene is configured using the above-described multimedia data and the multimedia data is distributed, the scene cannot be configured during the special reproduction. As a result, for example, a problem occurs that scenes displayed at the time of starting and ending the special reproduction are discontinuous.

【0033】このようなことから、上記シーン記述デー
タを、特殊再生中にも配信し、復号等するための手法及
び手段の実現が望まれている。
In view of the above, it is desired to realize a technique and means for distributing and decoding the scene description data even during special reproduction, and decoding the scene description data.

【0034】さらに、特殊再生中にも上述のマルチメデ
ィアデータとシーン記述データを配信し、復号し、表示
等することを実現する上では、それらのデータ間の同期
関係を保持して表示等がなされるようにする必要があ
り、また、伝送ビットレートなどの評価基準(デコーダ
バッファを破綻させない等の基準)を満たすデータとし
て配信する必要もある。
Further, in order to distribute, decode, and display the multimedia data and the scene description data even during the trick play, the display and the like are performed while maintaining the synchronous relationship between the data. In addition, it is necessary to distribute the data as data that satisfies evaluation criteria such as a transmission bit rate (criterion for preventing the decoder buffer from being broken).

【0035】そこで、本発明はこのような実情に鑑みて
なされたものであり、特殊再生を行う場合において、ビ
デオ以外のデータの復号及び表示等を可能とし、また、
シーン記述データを配信、復号等するための手法及び手
段を実現し、さらに、データ間の同期関係を保持し、伝
送ビットレートなどの評価基準を満たすデータとして配
信することを可能とする、データ処理方法及び装置、デ
ータ伝送システム、伝送媒体を提供することを目的とす
る。
Accordingly, the present invention has been made in view of such circumstances, and enables decoding and display of data other than video data when performing special reproduction.
A data processing that realizes a method and means for distributing and decoding scene description data, and further retains a synchronization relationship between the data and distributes the data as data satisfying evaluation criteria such as a transmission bit rate. It is an object to provide a method and apparatus, a data transmission system, and a transmission medium.

【0036】[0036]

【課題を解決するための手段】本発明のデータ処理方法
は、所定の符号化単位毎に符号化したデータを受信側に
伝送する際のデータ処理方法であり、上記受信側にて通
常再生を行うときには、当該通常再生に使用するデータ
を出力し、上記受信側にて特殊再生を行うときには、上
記通常再生に使用するデータの上記符号化単位の再生に
関連する時間情報を上記特殊再生に応じて変換して出力
することにより、上述した課題を解決する。
A data processing method according to the present invention is a data processing method for transmitting data coded for each predetermined coding unit to a receiving side. When performing, the data used for the normal reproduction is output, and when performing the special reproduction on the receiving side, the time information related to the reproduction of the coding unit of the data used for the normal reproduction is performed according to the special reproduction. The above-mentioned problem is solved by converting and outputting.

【0037】また、本発明のデータ処理装置は、所定の
符号化単位毎に符号化したデータを受信側に伝送する際
のデータ処理装置であり、上記受信側にて通常再生を行
うときには、当該通常再生に使用するデータを出力し、
上記受信側にて特殊再生を行うときには、上記通常再生
に使用するデータの上記符号化単位の再生に関連する時
間情報を上記特殊再生に応じて変換して出力するデータ
変換手段を備えることにより、上述した課題を解決す
る。
Further, the data processing device of the present invention is a data processing device for transmitting data coded for each predetermined coding unit to a receiving side. Output the data used for normal playback,
When performing the special reproduction on the receiving side, by including data conversion means for converting and outputting time information related to the reproduction of the encoding unit of the data used for the normal reproduction according to the special reproduction, The above-mentioned problem is solved.

【0038】次に、本発明のデータ伝送システムは、所
定の符号化単位毎に符号化したデータを送信する送信装
置と、上記データを受信する受信装置とからなるデータ
伝送システムであり、上記送信装置は、上記受信装置に
て通常再生を行うときには、当該通常再生に使用するデ
ータを出力し、上記受信装置にて特殊再生を行うときに
は、上記通常再生に使用するデータの上記符号化単位の
再生に関連する時間情報を上記特殊再生に応じて変換し
て出力するデータ変換手段を備えることにより、上述し
た課題を解決する。
Next, a data transmission system according to the present invention is a data transmission system comprising a transmitting device for transmitting data encoded for each predetermined coding unit and a receiving device for receiving the data. The apparatus outputs data used for the normal reproduction when performing the normal reproduction in the receiving apparatus, and reproduces the coding unit of the data used for the normal reproduction when performing the special reproduction in the receiving apparatus. The above-mentioned problem is solved by providing data conversion means for converting and outputting time information related to the special reproduction according to the special reproduction.

【0039】さらに、本発明の伝送媒体は、送信装置に
て所定の符号化単位毎に符号化したデータを、受信装置
に伝送する伝送媒体であり、上記受信装置にて通常再生
を行うときには、当該通常再生に使用するデータが伝送
され、上記受信装置にて通常再生を行うときには、当該
通常再生に使用するデータが伝送され、上記受信装置に
て特殊再生を行うときには、上記通常再生に使用するデ
ータの上記符号化単位の再生に関連する時間情報を上記
特殊再生に応じて変換されたデータが伝送されることに
より、上述した課題を解決する。
Further, the transmission medium of the present invention is a transmission medium for transmitting data coded for each predetermined coding unit by the transmitting device to the receiving device. When the receiving device performs normal reproduction, The data used for the normal reproduction is transmitted, and when the normal reproduction is performed by the receiving device, the data used for the normal reproduction is transmitted. When the special reproduction is performed by the receiving device, the data is used for the normal reproduction. The above-mentioned problem is solved by transmitting data obtained by converting time information related to reproduction of the above-mentioned coding unit of data according to the above-mentioned special reproduction.

【0040】すなわち、本発明によれば、例えば通常再
生用データの表示単位の表示時刻および表示時間もしく
は表示終了時刻を、特殊再生に応じて算出して書き換え
ることにより特殊再生用データへ変換することで、復号
端末において特殊再生中もデータ間の同期関係を保存し
て表示することを可能とする。また、本発明によれば、
例えばビットレートなどの評価基準を満たすように、通
常再生用データ中の表示単位を選択して配信することに
より、特殊再生中であってもビットレートなどの評価基
準を満たすデータの配信を可能とする。また、本発明に
よれば、ビットレートなどの評価基準を満たすように、
通常再生用データ中の表示単位を変換して出力すること
により、特殊再生中であってもビットレートなどの評価
基準を満たすデータの配信を可能とする。
That is, according to the present invention, for example, the display time and the display time or the display end time of the display unit of the normal reproduction data are converted into the special reproduction data by calculating and rewriting according to the special reproduction. Thus, it is possible to store and display the synchronization relationship between data even during trick play in the decoding terminal. According to the present invention,
For example, by selecting and distributing the display unit in the data for normal reproduction so as to satisfy the evaluation criteria such as the bit rate, it is possible to distribute data that satisfies the evaluation criteria such as the bit rate even during special reproduction. I do. Further, according to the present invention, to satisfy evaluation criteria such as a bit rate,
By converting and outputting the display unit in the data for normal reproduction, it is possible to distribute data that satisfies evaluation criteria such as a bit rate even during special reproduction.

【0041】[0041]

【発明の実施の形態】以下、本発明の好ましい実施の形
態について、図面を参照しながら説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0042】静止画像や動画像等のビデオデータ、オー
ディオデータ、テキストデータやグラフィックデータな
どのマルチメディアデータ、及び、シーン記述データ等
を、伝送媒体を介して配信し、復号端末において受信
し、復号して表示するような、本発明実施の形態のデー
タ配信システムの構成例を図1に示す。なお、以下の説
明では、例えばビデオデータ等をISO(Internatioal
Organization for Standardization)/IEC(Inter
national Electrotechnical Comission)13818−
1(いわゆるMPEG2 Systems)で規定されているト
ランスポートストリーム(Transport stream:TS)へ
パケット化して配信する場合を例に挙げている。
Video data such as still images and moving images, audio data, multimedia data such as text data and graphic data, and scene description data are distributed via a transmission medium and received by a decoding terminal for decoding. FIG. 1 shows an example of a configuration of a data distribution system according to an embodiment of the present invention, which is displayed as an image. In the following description, for example, video data and the like are converted to an ISO (International
Organization for Standardization / IEC (Inter
national Electrotechnical Commission) 13818-
1 (so-called MPEG2 Systems) is described as an example in the case of packetizing a transport stream (Transport stream: TS) and distributing it.

【0043】図1において、サーバ10は、静止画像や
動画像等のビデオデータ、オーディオデータ、テキスト
データ、グラフィックデータ等のマルチメディアデー
タ、及びシーン記述データ等を記憶する記憶部9を備え
ている。上記記憶部9から読み出されたデータは、例え
ば後述するデータ変換部7を介して多重化部4へ送られ
る。多重化部4では、データ変換部7から出力されたデ
ータをTSへパケット化する。このTSパケットは、さ
らに送信部5にて配信データ22となされて伝送媒体2
1へ出力され、例えば復号端末12へ配信される。この
とき、上記TSの配信データ22は、伝送媒体21で使
用されるプロトコルを使用して伝送されることになる。
例えばISO/IEC13818−1の規定を満たすT
Sは、IEC61883の「Digital Interface for co
nsumer audio/video equipment」に定められた方法で、
例えばIEEE(Institute of Electrical and Electr
onics Engineers)1394規格の伝送媒体を使用して
伝送することが可能である。なお、多重化部4と送信部
5は一体の構成であっても構わない。
In FIG. 1, the server 10 includes a storage unit 9 for storing video data such as still images and moving images, audio data, multimedia data such as text data and graphic data, and scene description data. . The data read from the storage unit 9 is sent to the multiplexing unit 4 via, for example, a data conversion unit 7 described later. The multiplexing unit 4 packetizes the data output from the data conversion unit 7 into a TS. The TS packet is further formed into distribution data 22 by the transmission unit 5 and transmitted to the transmission medium 2.
1 and distributed to the decoding terminal 12, for example. At this time, the distribution data 22 of the TS is transmitted using the protocol used in the transmission medium 21.
For example, T that satisfies the provisions of ISO / IEC13818-1
S is “Digital Interface for co.
nsumer audio / video equipment "
For example, IEEE (Institute of Electrical and Electr)
onics Engineers) It is possible to transmit using a 1394 standard transmission medium. Note that the multiplexing unit 4 and the transmitting unit 5 may have an integrated configuration.

【0044】復号端末12では、受信部13により上記
配信データ22を受信し、分離部14に送る。分離部1
4では、上記TSのパケットからデータを分離し、複数
の復号部151〜15nのうちそれぞれ対応する復号部に
送る。復号部151〜15nでは、それぞれ供給されたデ
ータを復号、すなわち符号化されているデータを復号す
る。
In the decoding terminal 12, the distribution data 22 is received by the reception unit 13 and sent to the separation unit 14. Separation unit 1
In 4, it separates data from the packet of the TS, and sends the decoding unit corresponding each of the plurality of decoding units 15 1 to 15 n. The decoding unit 15 1 to 15 n, decoding the respective supplied data, i.e., decodes the data encoded.

【0045】シーンの構成を記述したシーン記述データ
が配信されている場合、シーン合成部16では、上記復
号部151〜15nより復号されたデータを上記シーン記
述データに従って合成する。当該シーン合成部16によ
りシーン合成された合成データは、例えば図示していな
い表示装置やスピーカ等に送られ、シーン画像及び音声
として表示・放音等されることになる。なお、復号端末
12は複数接続されていても良い。
[0045] If the scene description data describe the configuration of the scene are being delivered, the scene synthesis unit 16 synthesizes the decoded data from the decoding unit 15 1 to 15 n according to the scene description data. The combined data subjected to the scene combining by the scene combining unit 16 is sent to, for example, a display device or a speaker (not shown), and is displayed and emitted as a scene image and a sound. Note that a plurality of decoding terminals 12 may be connected.

【0046】また、このデータ配信システムの復号端末
12において、特殊再生表示が行われる場合は、例え
ば、復号端末12のユーザによる操作に応じた特殊再生
指定信号6が、当該復号端末12内の図示しない伝送媒
体インターフェイス部などから伝送媒体21を介してサ
ーバ10へ送信される。この特殊再生指定信号6は、例
えば早送り再生や巻き戻し再生、コマ送り再生、スロー
再生などの特殊再生の種類と、記憶部9に格納されてい
るデータの指定を含む信号である。なお、サーバ10と
復号端末12が例えば家庭用ネットワークのように近距
離にて接続され、ユーザがサーバ10のフロントパネル
やリモートコントローラ等を操作可能な環境である場合
には、当該サーバ10のフロントパネルやリモートコン
トローラ等をユーザが操作することにより、サーバ10
に対して直接に特殊再生指定信号6を入力することも可
能である。
In the case where the special reproduction display is performed at the decoding terminal 12 of the data distribution system, for example, a special reproduction designation signal 6 corresponding to an operation by the user of the decoding terminal 12 is transmitted to the decoding terminal 12 shown in FIG. It is transmitted to the server 10 via the transmission medium 21 from a transmission medium interface unit or the like that does not. The special reproduction designation signal 6 is a signal including a type of special reproduction such as fast-forward reproduction, rewind reproduction, frame-forward reproduction, and slow reproduction, and designation of data stored in the storage unit 9. If the server 10 and the decoding terminal 12 are connected in a short distance like a home network, for example, and the user can operate a front panel or a remote controller of the server 10, the front of the server 10 When a user operates a panel or a remote controller, the server 10
It is also possible to directly input the special reproduction designating signal 6 to.

【0047】サーバ10へ入力された特殊再生指定信号
6は、当該サーバ10内に設けられている特殊再生制御
部1へ入力する。この特殊再生制御部1は、特殊再生指
定信号6に応じて、特殊再生の種類、データの指定を含
む特殊再生制御用のコントロール信号2を発生し、デー
タ変換部7へ送る。なお、データ変換部7は、配信する
データの数に応じて任意個存在してよい。
The special reproduction designating signal 6 input to the server 10 is input to the special reproduction control unit 1 provided in the server 10. The trick play control unit 1 generates a trick play control signal 2 including a trick play type and data designation according to the trick play designation signal 6 and sends it to the data conversion unit 7. It should be noted that any number of data conversion units 7 may exist according to the number of data to be distributed.

【0048】データ変換部7は、コントロール信号2に
よる特殊再生制御部1の制御の元で、記憶部9からデー
タを読み出し、そのデータを、コントロール信号2にて
指定される種類の特殊再生を実現する特殊再生用データ
へ変換する。
The data conversion section 7 reads out data from the storage section 9 under the control of the special reproduction control section 1 by the control signal 2 and realizes the special reproduction of the type specified by the control signal 2. To the special reproduction data to be reproduced.

【0049】以下、本発明実施の形態のデータ配信シス
テムにおけるデータ変換部7の詳細な構成及び動作につ
いて説明する。
Hereinafter, the detailed configuration and operation of the data converter 7 in the data distribution system according to the embodiment of the present invention will be described.

【0050】図2には、本発明の第1の実施の形態にか
かるデータ変換部7を備えたデータ配信システムのサー
バ10の詳細な構成を示す。なお、データ変換部7以外
の各構成要素の動作は前述同様であるため、それらの詳
細な説明は省略する。
FIG. 2 shows a detailed configuration of the server 10 of the data distribution system including the data conversion unit 7 according to the first embodiment of the present invention. The operation of each component other than the data conversion unit 7 is the same as described above, and a detailed description thereof will be omitted.

【0051】この図2において、第1の実施の形態のデ
ータ変換部7は、上記特殊再生制御部1からのコントロ
ール信号2の制御の元で上記記憶部9からデータを読み
出す読み出し部17と、出力データ中に符号化される時
刻情報を特殊再生に応じて書き換える時間情報書き換え
部19とを備える。なお、データ変換部7が複数在る場
合、データ変換部7中の読み出し部17は、全てのデー
タ変換部7で共通の構成としても良い。
In FIG. 2, a data conversion section 7 of the first embodiment includes a reading section 17 for reading data from the storage section 9 under the control of the control signal 2 from the special reproduction control section 1; A time information rewriting unit for rewriting time information encoded in the output data in accordance with special reproduction; When there are a plurality of data conversion units 7, the reading unit 17 in the data conversion unit 7 may have a common configuration for all the data conversion units 7.

【0052】上記読み出し部17は、上記特殊再生制御
部1からのコントロール信号2により指定される通常再
生用のデータを、上記記憶部9から読み出し、時間情報
書き換え部19へ送る。
The reading section 17 reads the data for normal reproduction specified by the control signal 2 from the special reproduction control section 1 from the storage section 9 and sends it to the time information rewriting section 19.

【0053】時間情報書き換え部16は、上記読み出し
部17により記憶部9から読み出された通常再生用デー
タの時間情報を、上記特殊再生に応じて変換がなされた
後のデータの時間情報へ変換し、出力されるデータ中に
符号化する。なお、上記データの時間情報とは、データ
到着時間、表示開始時刻、表示終了時刻、表示時間もし
くは復号時刻等である。なお、オーディオデータの場
合、これら各時間情報は、実際には放音に関する時間で
あるが、画像の表示と音声の放音は関連しているため、
上述のように表示開始時刻、表示終了時刻、表示時間等
の表現を用いている。以下の説明でも同様である。当該
第1の実施の形態では、この時間情報書き換え部16に
より時間情報の書き換えがなされたデータが、前記多重
化部4へ送られる。
The time information rewriting section 16 converts the time information of the data for normal reproduction read from the storage section 9 by the reading section 17 into the time information of the data converted according to the special reproduction. And encodes it in the output data. The time information of the data is a data arrival time, a display start time, a display end time, a display time or a decoding time. In the case of audio data, each of these time information is actually a time related to sound emission, but since image display and sound emission are related,
Expressions such as the display start time, the display end time, and the display time are used as described above. The same applies to the following description. In the first embodiment, the data whose time information has been rewritten by the time information rewriting unit 16 is sent to the multiplexing unit 4.

【0054】図3を用いて、データ変換部7の時間情報
書き換え部19における時間情報の変換処理について説
明する。なお、図3の例では、早送り再生を実現する場
合の時間情報の変換処理例を示している。
The conversion process of the time information in the time information rewriting unit 19 of the data conversion unit 7 will be described with reference to FIG. Note that the example of FIG. 3 shows an example of a conversion process of time information when fast-forward playback is realized.

【0055】図3の(a)は、上記記憶部9から読み出
された通常再生用データについて、上記時間情報書き換
え部16による特殊再生のための時間情報変換処理を行
わない場合(すなわち復号端末12にて通常再生が行わ
れる場合)のデータの表示タイミングを表している。な
お、MPEG2 video等の一部の符号化方法では、実際
の表示順番と符号化順番(データがビットストリーム中
に符号化される順番)とが異なる場合があるが、図3の
例では説明を分かり易くするため表示順番に合わせて示
している。図3中のAU30,AU31,AU32等は
それぞれデータの1表示単位を表し、ビデオデータの場
合にはピクチャに相当する。データの符号化は通常、こ
の表示単位毎に行われる。この表示単位すなわち符号化
単位を、以下AU(アクセスユニット)と呼ぶ。1AU
は、表示開始時間Tsから表示を開始し、表示時間ΔT
後の表示終了時刻Teにおいて表示を終了する。なお、
1AUの表示時間Δは、一般に符号化方法によって異な
る。
FIG. 3A shows a case where the time information conversion processing for the special reproduction by the time information rewriting section 16 is not performed on the normal reproduction data read from the storage section 9 (ie, the decoding terminal). 12 when normal reproduction is performed). In some encoding methods such as MPEG2 video, the actual display order and the encoding order (the order in which data is encoded in the bit stream) may be different. In order to make it easy to understand, they are shown according to the display order. AU30, AU31, AU32, and the like in FIG. 3 each represent one display unit of data, and correspond to a picture in the case of video data. Data encoding is usually performed for each display unit. This display unit, that is, the coding unit, is hereinafter referred to as an AU (access unit). 1 AU
Starts the display from the display start time Ts, and the display time ΔT
The display ends at a later display end time Te. In addition,
The display time Δ of one AU generally differs depending on the encoding method.

【0056】一方、図3の(b)は、上記記憶部9から
読み出された通常再生用データについて、上記時間情報
書き換え部16による特殊再生(この場合は早送り再
生)のための時間情報変換処理を行った場合、つまり復
号端末12にて特殊再生が行われる場合の変換済みデー
タの表示タイミングを表している。すなわち、この図3
の(b)には、通常再生区間内のAU30’の途中から
早送り再生区間(特殊再生区間)となり、AU31’は
早送り再生区間、当該AU31’の後のAU32’は通
常再生区間となるような場合の表示タイミングを表して
いる。
On the other hand, FIG. 3B shows the time information conversion for the special reproduction (fast forward reproduction in this case) by the time information rewriting section 16 for the normal reproduction data read from the storage section 9. This indicates the display timing of the converted data when the process is performed, that is, when the trick play is performed in the decoding terminal 12. That is, FIG.
(B) shows that a fast forward playback section (special playback section) starts from the middle of the AU 30 'in the normal playback section, the AU 31' becomes a fast forward playback section, and the AU 32 'after the AU 31' becomes a normal playback section. It shows the display timing in the case.

【0057】ここで、特殊再生として図3の例のように
早送り再生が行われた場合、上記特殊再生のための変換
処理がなされていないときの時間t(以下、変換前の時
間tとする)上の時刻Tと、当該特殊再生のための変換
処理がなされたときの時間t’(以下、変換後の出力の
時間t’とする)上の時刻T’との関係は、当該特殊再
生を行う度に変化することになる。
Here, when fast forward reproduction is performed as special reproduction as shown in FIG. 3, the time t when the conversion processing for the special reproduction is not performed (hereinafter referred to as the time t before conversion). The relationship between the above time T and the time T ′ on the time t ′ when the conversion processing for the special reproduction is performed (hereinafter referred to as the output time t ′ after the conversion) is Will change each time you do.

【0058】このため、本発明実施の形態のデータ変換
部7(時間情報書き換え部19)では、上記変換後の出
力の時間t’上の時刻T'を、当該変換後の出力の時間
t’上の特殊再生開始時刻To’と、上記変換前の時間
t上における特殊再生開始時刻To(特殊再生開始時刻
To’に対応する変換前の時間t上の開始時刻)とを用
いて、式(1)のように算出する。 T’=To’+ (T−To)/n (1) ただし、式(1)中のnは特殊再生中の再生速度を表
し、倍速再生ならばnの値は2であり、巻き戻し再生で
は負の値とする。
For this reason, the data conversion unit 7 (time information rewriting unit 19) of the embodiment of the present invention sets the time T ′ on the time t ′ of the converted output to the time t ′ of the converted output. Using the above special reproduction start time To 'and the special reproduction start time To on the time t before the conversion (the start time on the time t before the conversion corresponding to the special reproduction start time To'), the expression ( It is calculated as in 1). T ′ = To ′ + (T−To) / n (1) where n in the expression (1) represents a reproduction speed during special reproduction, and the value of n is 2 for double-speed reproduction, and rewind reproduction. Let it be a negative value.

【0059】一方、通常再生中は、上記変換後の出力の
時間t’上の時刻T’を、当該変換後の出力の時間t’
上の特殊再生終了時刻Ti’と、上記変換前の時間t上
における特殊再生終了時刻Ti(特殊再生開始時刻T
i’に対応する変換前の時間t上の終了時刻)とを用い
て、式(2)のように算出する。 T’=Ti’+(T−Ti) (2) また、通常再生中は、その直前の特殊再生終了時刻は変
わらないため、次の特殊再生開始時における特殊再生開
始時刻は、式(2)を用いて、式(3)のように求めら
れる。 To’=Ti’+(To−Ti) (3) 上記の式(2)〜(3)に基づいて、上記データ変換部
7は、通常再生中も特殊再生中も、変換後の出力の時間
t’上におけるAUの表示開始時刻Ts’および表示終
了時刻Te’を、変換前の時間t上でのAUの表示開始
時刻Tsおよび表示終了時刻Teに基づいて算出するこ
とが可能となる。また、表示時間ΔT’は、変換前の時
間t上での表示時間ΔTを1/n倍(nは再生速度)す
るか、もしくは上記表示終了時刻Te’から表示時刻T
s’を減算することにより算出する。
On the other hand, during normal reproduction, the time T ′ on the time t ′ of the converted output is changed to the time t ′ of the converted output.
The special reproduction end time Ti ′ above and the special reproduction end time Ti (special reproduction start time T
(end time on the time t before conversion corresponding to i ′), and is calculated as in equation (2). T ′ = Ti ′ + (T−Ti) (2) Also, during normal reproduction, the last special reproduction end time does not change, so that the special reproduction start time at the start of the next special reproduction is given by equation (2). Is obtained by using Equation (3). To ′ = Ti ′ + (To−Ti) (3) Based on the above equations (2) to (3), the data conversion unit 7 outputs the converted output time during normal reproduction and special reproduction. The AU display start time Ts' and display end time Te 'on t' can be calculated based on the AU display start time Ts and display end time Te on time t before conversion. Further, the display time ΔT ′ is obtained by multiplying the display time ΔT on the time t before conversion by 1 / n (n is the reproduction speed), or the display time T ′ from the display end time Te ′.
It is calculated by subtracting s'.

【0060】また、本実施の形態において、上記特殊再
生開始時刻、特殊再生終了時刻及び特殊再生速度nは、
上記コントロール信号2と共に特殊再生制御部1から、
データ変換部7へ指定される。なお、これら特殊再生開
始時刻、特殊再生終了時刻及び特殊再生速度nは、図示
しない他のデータ変換部から指定される場合もある。す
なわち例えば、本実施の形態のデータ配信システムが、
前述の特許願2000−178999号や特許願200
0−179000号の図40に示したようにビデオデー
タを特殊再生用に変換するデータ変換部223を備え、
このデータ変換部223にてビデオデータの表示タイミ
ングに合わせて特殊再生終了時刻、特殊再生開始時刻及
び特殊再生速度が決定されるような場合には、当該デー
タ変換部223からそれら特殊再生終了時刻、特殊再生
開始時刻及び特殊再生速度が、本実施の形態のデータ変
換部7に直接指定される場合もある。
In this embodiment, the special reproduction start time, the special reproduction end time, and the special reproduction speed n are:
From the special reproduction control unit 1 together with the control signal 2,
It is specified to the data converter 7. The special reproduction start time, the special reproduction end time, and the special reproduction speed n may be specified by another data conversion unit (not shown). That is, for example, the data distribution system of the present embodiment
The aforementioned Patent Application No. 2000-178999 and Patent Application 200
As shown in FIG. 40 of No. 0-179000, a data conversion unit 223 for converting video data for special reproduction is provided.
When the data conversion unit 223 determines the special reproduction end time, the special reproduction start time, and the special reproduction speed in accordance with the display timing of the video data, the data conversion unit 223 transmits the special reproduction end time, The special reproduction start time and the special reproduction speed may be directly specified to the data conversion unit 7 of the present embodiment.

【0061】本実施の形態のデータ配信システムによれ
ば、上述したようにして、通常再生中も特殊再生中も、
変換後の出力の時間t’上におけるAUの表示開始時刻
Ts’および表示終了時刻Te’を算出し、また、表示
時間ΔT’を算出することにより、時間情報書き換え部
19では、出力データ中に符号化される表示時刻、表示
終了時刻、表示時間を、特殊再生に応じて書き換えるこ
とができる。また、復号時刻やデータ到着時刻などの時
間情報もデータ中に符号化されている場合、時間情報書
き換え部19では、それらの時間情報も式(1)および
式(2)に基づいて変換後の時間t’上の時間情報へ変
換して出力することができる。
According to the data distribution system of the present embodiment, as described above, during normal reproduction and during special reproduction,
By calculating the display start time Ts 'and the display end time Te' of the AU on the converted output time t 'and calculating the display time ΔT', the time information rewriting unit 19 allows The display time, display end time, and display time to be encoded can be rewritten according to the special reproduction. When time information such as a decoding time and a data arrival time is also encoded in the data, the time information rewriting unit 19 also converts the time information based on the equations (1) and (2). It can be converted into time information on time t 'and output.

【0062】以上のように、本実施の形態によれば、復
号端末12にて特殊再生が実行される際に、通常再生用
データの時間情報が、上記特殊再生に応じて変換された
後のデータの時間情報へ変換され、その時間情報がデー
タへ符号化されてサーバ10から配信されるようになさ
れている。すなわち、本実施の形態のデータ配信システ
ムによれば、復号端末12が受信する配信データは、サ
ーバ10において既に特殊再生用に時間情報を変換済み
であるため、復号端末12では特殊再生のための特別な
処理は不要であり、通常再生中と同様に表示時間などの
時間情報に基づいたタイミングで復号及び表示等を行え
ば、自動的に特殊再生を行った結果の表示結果が得られ
る。つまり、本実施の形態の場合の復号端末12は、特
殊再生用に特別な処理を行うこと無く、特殊再生用の特
別な配信データに対応可能な特別な端末である必要もな
い。さらに、本実施の形態によれば、配信される複数の
データが等しい再生速度に合わせて変換されているた
め、それら複数のデータ間の同期にずれは発生せず、ま
たズレが蓄積することも無い。
As described above, according to the present embodiment, when the trick play is executed in the decoding terminal 12, the time information of the normal playback data is converted after the conversion in accordance with the trick play. The data is converted into time information, and the time information is encoded into data and distributed from the server 10. That is, according to the data distribution system of the present embodiment, the distribution data received by decoding terminal 12 has already been converted to time information for special reproduction in server 10, and thus decoding terminal 12 performs decoding for special reproduction. No special processing is required, and if decoding and display are performed at a timing based on time information such as display time as in normal reproduction, a display result of the result of special reproduction is automatically obtained. That is, the decoding terminal 12 in the present embodiment does not need to be a special terminal capable of handling special distribution data for special reproduction without performing special processing for special reproduction. Furthermore, according to the present embodiment, since a plurality of data to be distributed are converted in accordance with the same playback speed, there is no deviation in synchronization between the plurality of data, and deviations may accumulate. There is no.

【0063】次に、図3と同様に表される図4を用い、
特殊再生としてスロー再生を行う場合の時間情報書き換
え部19における時間情報の変換処理について説明す
る。
Next, referring to FIG. 4, which is represented in the same manner as in FIG.
A description will be given of a process of converting time information in the time information rewriting unit 19 when performing slow reproduction as special reproduction.

【0064】図4の(a)は、図3の(a)と同様に、
変換前の時間t上の通常再生用データの表示タイミング
を表している。図4中のAU40,AU41,AU42
等はそれぞれデータの1表示単位を表している。また、
図4の(b)は、図3の(b)と同様に、上記時間情報
書き換え部16による特殊再生(この場合はスロー再
生)のための時間情報変換処理を行った場合の変換済み
データの表示タイミングを表している。すなわち、この
図4の(b)には、通常再生区間内のAU40’の途中
からスロー再生区間となり、AU41’はスロー再生区
間、当該AU41’の後のAU42’は通常再生区間と
なるような場合の表示タイミングを表している。
FIG. 4A is similar to FIG. 3A.
This shows the display timing of the data for normal reproduction on the time t before the conversion. AU40, AU41, AU42 in FIG.
Etc. each represent one display unit of data. Also,
FIG. 4B shows the converted data when the time information conversion processing for the special reproduction (in this case, slow reproduction) by the time information rewriting unit 16 is performed, similarly to FIG. 3B. This shows the display timing. That is, in FIG. 4 (b), the AU 40 'in the normal playback section becomes a slow playback section, the AU 41' becomes a slow playback section, and the AU 42 'after the AU 41' becomes a normal playback section. It shows the display timing in the case.

【0065】ここで、特殊再生として例えば0.5倍速
再生を行う場合、本発明実施の形態のデータ変換部7
(時間情報書き換え部19)では、再生速度nの値を
0.5として前記式(1)の演算が行われる。
Here, when, for example, 0.5 × speed reproduction is performed as the special reproduction, the data conversion unit 7 according to the embodiment of the present invention is used.
In the (time information rewriting unit 19), the value of the reproduction speed n is set to 0.5, and the calculation of the expression (1) is performed.

【0066】この図4の例のように、再生速度が等倍速
よりも低速の特殊再生を行う場合においても、本実施の
形態のデータ変換部7での時間情報の変換処理は前述同
様に有効でありしたがって、復号端末12においてはス
ロー再生用に特別な処理無しに、通常再生時と同様の復
号及び表示等を行えば、スロー再生を行った結果の表示
結果等を得ることができる。
As in the example of FIG. 4, even in the case of performing special reproduction at a reproduction speed lower than the unit speed, the time information conversion processing in the data conversion unit 7 of the present embodiment is effective as described above. Therefore, in the decoding terminal 12, if the same decoding and display as in normal reproduction is performed without special processing for slow reproduction, a display result or the like as a result of performing slow reproduction can be obtained.

【0067】次に、図3と同様に表される図5を用い、
時間的に非連続な表示単位へ再生位置を移動するジャン
プ等の特殊再生を行う場合の時間情報書き換え部19に
おける時間情報の変換処理について説明する。
Next, referring to FIG. 5, which is represented similarly to FIG.
A description will be given of a process of converting time information in the time information rewriting unit 19 when performing special reproduction such as a jump for moving a reproduction position to a temporally discontinuous display unit.

【0068】図5の(a)は、図3の(a)と同様に、
変換前の時間t上の通常再生用データの表示タイミング
を表している。図5中のAU50,AU51,AU52
等はそれぞれデータの1表示単位を表している。また、
図5の(b)は、図3の(b)と同様に、上記時間情報
書き換え部16による特殊再生(この場合はジャンプ)
のための時間情報変換処理を行った場合の変換済みデー
タの表示タイミングを表している。すなわち、この図5
の(b)には、通常再生区間内のAU50’の途中から
ジャンプが行われ、ジャンプの開始時刻である特殊再生
開始時刻To’とジャンプの終了時刻である特殊再生終
了時刻Ti’の間のAU51が出力されず、上記AU5
0’上の特殊再生開始時刻To’に続けて、特殊再生終
了時刻Ti’以降のAU51’が出力されるような場合
の表示タイミングを表している。
FIG. 5A is similar to FIG. 3A.
This shows the display timing of the data for normal reproduction on the time t before the conversion. AU50, AU51, AU52 in FIG.
Etc. each represent one display unit of data. Also,
FIG. 5B shows a trick play (jump in this case) by the time information rewriting unit 16 as in FIG. 3B.
Shows the display timing of the converted data when the time information conversion process is performed. That is, FIG.
In (b), the jump is performed from the middle of the AU 50 'in the normal playback section, and the special playback start time To' which is the start time of the jump and the special playback end time Ti 'which is the end time of the jump are performed. AU51 is not output, and AU5
This shows the display timing when the AU 51 ′ after the special reproduction end time Ti ′ is output following the special reproduction start time To ′ on 0 ′.

【0069】ここで、ジャンプの場合は、特殊再生中の
再生速度が存在しないため、特殊再生制御部1からはデ
ータ変換部7に対して特殊再生開始時刻および特殊再生
終了時刻が指定される。特殊再生開始時刻は、前記式
(3)により変換前の時間t上における特殊再生開始時
刻Toと、変換後の時間t’上における特殊再生開始時
刻To’間の換算が可能であるため、それら変換前後の
どちらの時間上で指定しても構わない。また、特殊再生
終了時刻は、変換前後の双方の時間上における特殊再生
終了時刻TiおよびTi’を指定する。但し、変換後の
時間t’上における特殊再生終了時刻To’が、特殊再
生開始時刻Ti’と等しい場合には、Ti’を指定しな
くとも良い。
Here, in the case of a jump, since there is no reproduction speed during the special reproduction, the special reproduction control unit 1 specifies the special reproduction start time and the special reproduction end time to the data conversion unit 7. The trick play start time can be converted between the trick play start time To on the time t before the conversion and the trick play start time To 'on the time t' after the conversion by the equation (3). It can be specified either before or after conversion. The trick play end time designates the trick play end times Ti and Ti 'both before and after the conversion. However, when the trick play end time To 'on the converted time t' is equal to the trick play start time Ti ', Ti' need not be specified.

【0070】当該図5の例の場合、データ変換部7は、
ジャンプの開始時刻To’と終了時刻Ti’の間のAU
51を出力せず、また、ジャンプの開始時刻To’をま
たいで表示されるAU50は、表示終了時刻がTo’と
なるように時間情報を変更して出力するか、若しくは出
力しない。さらに、ジャンプの終了時刻Ti’をまたい
で表示されるAU52は、表示時刻がTi’となるよう
に時間情報を変更して出力するか、若しくは出力しな
い。
In the case of the example of FIG. 5, the data conversion unit 7
AU between jump start time To 'and end time Ti'
The AU 50 which does not output 51 and is displayed across the jump start time To 'changes or outputs the time information so that the display end time becomes To', or does not output it. Further, the AU 52 displayed across the jump end time Ti 'changes or outputs the time information so that the display time becomes Ti', or does not output it.

【0071】この図5の例のように、時間的に非連続な
表示単位へ再生位置を移動するジャンプ等の特殊再生を
行う場合においても、本実施の形態のデータ変換部7で
の時間情報の変換処理は前述同様に有効でありしたがっ
て、復号端末12においてはジャンプのための特別な処
理無しに、通常再生時と同様の復号及び表示等を行え
ば、ジャンプを行った結果の表示結果等を得ることがで
きる。
As in the example of FIG. 5, even in the case of performing special reproduction such as a jump for moving a reproduction position to a temporally non-continuous display unit, the time information in the data conversion unit 7 of the present embodiment is also used. Is effective in the same manner as described above. Therefore, if the decoding and display are performed in the decoding terminal 12 in the same manner as in the normal reproduction without any special processing for jumping, the display result of the result of the jump is obtained. Can be obtained.

【0072】また、本発明によれば、シーンの構成を記
述したシーン記述データを、特殊再生に応じて変換する
ことにより、シーン記述データを特殊再生中においても
配信し、復号等することが可能となり、したがって、特
殊再生の開始時終了時に表示されるシーンが例えば不連
続となるような不都合を回避可能となる。
Further, according to the present invention, scene description data describing the configuration of a scene is converted according to special reproduction, so that the scene description data can be distributed and decoded even during special reproduction. Therefore, it is possible to avoid such a disadvantage that the scene displayed at the start and end of the special reproduction is discontinuous, for example.

【0073】なお、上述した例では、表示時刻や復号時
刻等の時間情報がデータ自体に符号化されて付加されて
いる場合、データ変換部7の時間情報書き換え部19
が、それら時間情報を書き換えて出力する例を挙げてい
るが、その他に、例えば、時間情報が多重化部4により
データへ付加される場合には、データ変換部7から多重
化部4へ時間情報の変更を通知し、多重化部4がその変
更後の時間情報をデータへ付加する。或いは、時間情報
が送信部5によりデータへ付加される場合には、同様に
データ変換部7からそれら時間情報の変更を送信部5へ
通知し、送信部5が当該変更後の時間情報を付加する。
このことは、後述する他の各実施の形態においても同様
に適用できる。
In the above example, when time information such as display time and decoding time is encoded and added to the data itself, the time information rewriting unit 19 of the data conversion unit 7
However, in the case where the time information is rewritten and output, for example, when the time information is added to the data by the multiplexing unit 4, the time is transmitted from the data conversion unit 7 to the multiplexing unit 4. The change of information is notified, and the multiplexing unit 4 adds the changed time information to the data. Alternatively, when the time information is added to the data by the transmission unit 5, the data conversion unit 7 similarly notifies the transmission unit 5 of the change in the time information, and the transmission unit 5 adds the time information after the change. I do.
This can be similarly applied to other embodiments described later.

【0074】ところで、ビデオデータ、オーディオデー
タ、テキストデータ、グラフィックデータ等のマルチメ
ディアデータ及びシーン記述データを配信し、復号して
表示等するデータ配信システムにおいて、例え特殊再生
中であっても、ビットレートなどの評価基準を満たすデ
ータとして配信したいと云う要求がある。
By the way, in a data distribution system that distributes multimedia data such as video data, audio data, text data, and graphic data and scene description data, and decodes and displays the data, even if special reproduction is performed, the There is a demand that data be distributed as data that satisfies evaluation criteria such as a rate.

【0075】すなわち、前記図3の例のような早送り再
生中の配信データは、通常再生時の配信データに比べて
時間軸上で圧縮されており、その平均ビットレートは通
常再生時のものに比べて高くなり、その一方で、本実施
の形態のように伝送媒体を介してデータを配信するシス
テムの場合は、伝送媒体の伝送容量や復号端末の能力に
応じて配信時に許されるビットレートの上限が決まって
おり、例えば配信データのビットレートが上記配信に許
されるビットレートの上限を超えてしまうと、データの
遅延や損失が生してしまう。このような場合、例えば、
上記配信データのビットレートに制限を加えれば、配信
データのビットレートが上記配信時に許される上限ビッ
トレートを超えてしまうことを防止できると考えられ
る。
That is, the delivery data during fast-forward playback as in the example of FIG. 3 is compressed on the time axis as compared with the delivery data during normal playback, and the average bit rate is the same as that during normal playback. On the other hand, in the case of a system that distributes data via a transmission medium as in the present embodiment, the bit rate allowed during distribution depends on the transmission capacity of the transmission medium and the capability of the decoding terminal. The upper limit is determined. For example, if the bit rate of the distribution data exceeds the upper limit of the bit rate permitted for the distribution, data delay or loss occurs. In such a case, for example,
It is considered that if the bit rate of the distribution data is restricted, it is possible to prevent the bit rate of the distribution data from exceeding the upper limit bit rate permitted at the time of the distribution.

【0076】また例えば、一定時間内の配信データ中に
含まれるデータが相対的に増加すると、復号やシーン合
成および表示の難易度が高くなるため、復号端末におい
て正しく表示されなくなる危険性がある。このような場
合、例えば上記配信データの復号、シーン合成、表示の
難易度に制限を加えれば、復号端末において正しく表示
されなくなる危険性を減らすことができると考えられ
る。
Further, for example, if the data included in the distribution data within a certain period of time relatively increases, the difficulty of decoding, scene synthesis, and display increases, and there is a risk that the display may not be correctly displayed on the decoding terminal. In such a case, it is considered that, for example, by limiting the difficulty of decoding, synthesizing, and displaying the distribution data, it is possible to reduce the risk of incorrect display at the decoding terminal.

【0077】そこで、本発明の第2の実施の形態では、
特殊再生中であってもビットレート等の評価基準を満た
すようなデータを配信可能とすることにより、データの
遅延や損失の発生を防止し、また、復号端末においてシ
ーンを正しく表示可能としている。
Therefore, in the second embodiment of the present invention,
By making it possible to distribute data that satisfies evaluation criteria such as a bit rate even during trick play, data delay and loss are prevented, and a decoding terminal can correctly display a scene.

【0078】図6には、本発明の第2の実施の形態にか
かるデータ変換部7を備えたデータ配信システムのサー
バ10の詳細な構成を示す。
FIG. 6 shows a detailed configuration of the server 10 of the data distribution system provided with the data converter 7 according to the second embodiment of the present invention.

【0079】この図6において、データ変換部7は、上
記特殊再生制御部1からのコントロール信号2の制御の
元で上記記憶部9からデータを読み出す読み出し部17
と、出力データ中に符号化される時刻情報を特殊再生に
応じて書き換える時間情報書き換え部19の他に、ビッ
トレートなどの評価基準に基づいて出力するAUを選択
するスケジューラ18を備える。なお、当該データ変換
部7において、変換前の通常再生用データの時間から変
換後の時間へ時間情報の変換を行い、その時間情報をデ
ータ中に符号化して出力する処理は、第1の実施の形態
の場合と同様である。
In FIG. 6, a data conversion unit 7 reads out data from the storage unit 9 under the control of the control signal 2 from the special reproduction control unit 1 and reads out the data from the read unit 17.
And a time information rewriting unit 19 for rewriting time information encoded in output data according to special reproduction, and a scheduler 18 for selecting an AU to be output based on an evaluation criterion such as a bit rate. Note that the data conversion unit 7 converts the time information from the time of the normal reproduction data before the conversion to the time after the conversion, encodes the time information into the data, and outputs the data. This is the same as the case of the embodiment.

【0080】図7及び図8を用いて、第2の実施の形態
の場合のデータ変換部7のスケジューラ18における変
換処理について説明する。
The conversion processing in the scheduler 18 of the data conversion unit 7 in the second embodiment will be described with reference to FIGS.

【0081】図7は図3と同様に表され、図7の(a)
は、図3の(a)と同様に、変換前の時間t上の通常再
生用データの表示タイミングを表している。図7中のA
U70,AU71,AU72,AU73等はそれぞれデ
ータの1表示単位を表している。また、図7の(b),
(c),(d)は、図3の(b)と同様に、上記時間情
報書き換え部16による特殊再生(この場合はジャン
プ)のための時間情報変換処理が行われると共に、本実
施の形態のスケジューラ18によって、配信時に許容さ
れるビットレートに応じてAUが選択された場合の、変
換済みデータの表示タイミングを表している。すなわ
ち、この図7の(b)には、早送り再生区間(特殊再生
区間)においてスケジューラ18によりAU71とAU
72が選択されると共に、それらAU71,72が時間
情報書き換え部16により時間情報変換処理されてAU
71’,AU72’となされ、その後のAU73’は通
常再生区間となされた場合の表示タイミングを表してい
る。また、図7の(c)には、早送り再生区間において
スケジューラ18によりAU71のみが選択されると共
に、そのAU71が時間情報書き換え部16により変換
処理されてAU71’となされ、一方AU72は出力さ
れず、その後のAU73’は通常再生区間となされた場
合の表示タイミングを表している。また、図7の(d)
には、早送り再生区間においてスケジューラ18により
AU71とAU72の何れも選択されず、その後のAU
73’が通常再生区間となされた場合の表示タイミング
を表している。
FIG. 7 is represented in the same manner as FIG. 3, and FIG.
Represents the display timing of the data for normal reproduction on the time t before the conversion, as in FIG. A in FIG.
U70, AU71, AU72, AU73, etc. each represent one display unit of data. In addition, FIG.
3C and 3D, as in FIG. 3B, the time information conversion processing for the special reproduction (jump in this case) by the time information rewriting unit 16 is performed, and the present embodiment is used. 4 shows the display timing of the converted data when the AU is selected by the scheduler 18 according to the bit rate allowed at the time of distribution. That is, in FIG. 7 (b), the AU 71 and the AU 71 are set by the scheduler 18 in the fast-forward playback section (special playback section).
72, and the AUs 71 and 72 are subjected to time information conversion processing by the
71 ′ and AU72 ′, and the subsequent AU73 ′ indicates the display timing when a normal playback section is set. In FIG. 7C, only the AU 71 is selected by the scheduler 18 in the fast-forward playback section, and the AU 71 is converted by the time information rewriting unit 16 into an AU 71 ′, while the AU 72 is not output. , AU73 'thereafter indicates the display timing when a normal playback section is set. In addition, FIG.
In the fast-forward playback section, neither AU71 nor AU72 is selected by the scheduler 18;
Reference numeral 73 'indicates a display timing when a normal reproduction section is set.

【0082】ここで、図7の(a)に示す変換前の時間
t上での特殊再生区間(早送り再生区間)には、AU7
1とAU72の2つのAUが存在し、前述の第1の実施
の形態の場合は、それらAU71,AU72の時間情報
を特殊再生速度に応じて変換し、AU71’,U72’
として出力する。しかし、例えば図8に示すように、特
殊再生(図7および8の例では早送り再生)を行うと、
その再生速度に応じて配信データのビットレートが変化
することになる。このように変化したビットレートが、
伝送媒体や復号端末の許容ビットレートを超えると、デ
ータの遅延や損失等が発生することになる。
The special playback section (fast-forward playback section) on the time t before the conversion shown in FIG.
There are two AUs, AU1 and AU72. In the case of the first embodiment, the time information of the AU71 and AU72 is converted according to the special reproduction speed, and AU71 'and U72'.
Output as However, for example, as shown in FIG. 8, when performing special reproduction (fast-forward reproduction in the examples of FIGS. 7 and 8),
The bit rate of the distribution data changes according to the reproduction speed. The bit rate changed in this way is
Exceeding the permissible bit rates of the transmission medium and the decoding terminal will cause data delays and losses.

【0083】そこで、本実施の形態のデータ変換部7が
備えるスケジューラ18は、配信データに許されるビッ
トレートを満足するように、出力するAUと出力しない
AUを選択する。例えば配信データに許されるビットレ
ートが、AU71のみを出力しAU72を出力しない場
合のビットレートBR81以上で且つAU71およびA
U2の双方を出力した場合のビットレートBR80未満
である場合、スケジューラ18は、AU72を出力しな
いことを決定する。この場合の変換出力は、図7の
(c)に示すようになる。また、配信データに許される
ビットレートが、AU71のみを出力しAU72を出力
しない場合のビットレートBR81未満である場合、ス
ケジューラ18は、AU71およびAU72の双方とも
出力しないことを決定する。この場合の変換出力は、図
7の(d)に示すようになる。一方、配信データに許さ
れるビットレートが、AU71およびAU72の双方を
出力した場合のビットレートBR80以上である場合、
スケジューラ18は、AU71およびAU72の双方と
も出力することを決定する。この場合の変換出力は、図
7の(a)に示すようになる。このようにしてスケジュ
ーラ18により選択されて出力されたAUは、その後、
時間情報書き換え部19により、前述したように特殊再
生の再生速度に基づいて時間情報が変換される。
Therefore, the scheduler 18 provided in the data converter 7 of the present embodiment selects AUs to be output and AUs not to be output so as to satisfy the bit rate allowed for the distribution data. For example, the bit rate allowed for distribution data is equal to or higher than the bit rate BR81 when only AU71 is output and AU72 is not output, and AU71 and A
If the bit rate BR80 when both U2 are output is less than BR80, the scheduler 18 determines not to output the AU72. The converted output in this case is as shown in FIG. When the bit rate allowed for the distribution data is lower than the bit rate BR81 when only the AU71 is output and the AU72 is not output, the scheduler 18 determines that neither the AU71 nor the AU72 is output. The converted output in this case is as shown in FIG. On the other hand, if the bit rate allowed for the distribution data is equal to or higher than the bit rate BR80 when both AU71 and AU72 are output,
The scheduler 18 determines to output both the AU 71 and the AU 72. The converted output in this case is as shown in FIG. The AU selected and output by the scheduler 18 in this manner is thereafter
The time information rewriting unit 19 converts the time information based on the reproduction speed of the special reproduction as described above.

【0084】以上のように、第2の実施の形態によれ
ば、ビットレートなどの評価基準を満たすように、通常
再生用データ中の表示単位(AU)を選択して出力する
ことにより、特殊再生中であってもビットレートなどの
評価基準を満たすデータの配信が可能となっている。な
お、評価基準はビットレートに限らない。例えば、一定
時間に許されるポリゴン数やシーン記述データにおける
ノードの数等の、データの復号やシーン合成,表示等の
難易度を表す評価基準でも良い。また、テキストデータ
における文字数等、一定時間に出力可能なデータを制限
可能な評価基準であっても良い。
As described above, according to the second embodiment, the display unit (AU) in the normal reproduction data is selected and output so as to satisfy the evaluation criterion such as the bit rate. Even during reproduction, data that satisfies evaluation criteria such as a bit rate can be distributed. The evaluation criterion is not limited to the bit rate. For example, an evaluation criterion representing the degree of difficulty in decoding data, synthesizing a scene, displaying data, or the like, such as the number of polygons allowed in a given time or the number of nodes in scene description data may be used. Alternatively, an evaluation criterion that can limit data that can be output in a certain time, such as the number of characters in text data, may be used.

【0085】さらに、本発明の第2の実施の形態のデー
タ変換部7は、上記のように出力する表示単位(AU)
と出力しない表示単位を選択する際に、データが表示単
位間の予測を用いずに符号化されている表示単位を優先
して出力し、予測を用いて符号化されている表示単位を
出力しないよう選択することもできる。これにより、復
号端末では、上記予測を用いずに符号化されている表示
単位を予測元とした予測復号が可能となる。
Further, the data conversion unit 7 according to the second embodiment of the present invention outputs the display unit (AU) output as described above.
When selecting a display unit that is not output, the display unit in which data is encoded without using prediction between display units is output with priority, and the display unit that is encoded using prediction is not output. You can also choose to As a result, the decoding terminal can perform predictive decoding using the display unit encoded as the prediction source without using the prediction.

【0086】上記第2の実施の形態では、AUを選択し
て出力するか否かにより、ビットレートなどの評価基準
を満たす配信データを出力可能とする例を挙げたが、以
下に説明する第3の実施の形態のように、AUの内容自
体を変換することにより、ビットレートなどの評価基準
を満たす配信データを出力するようなことも可能であ
る。
In the second embodiment, an example has been described in which distribution data satisfying an evaluation criterion such as a bit rate can be output depending on whether an AU is selected and output. As in the third embodiment, by converting the content of the AU itself, it is possible to output distribution data that satisfies evaluation criteria such as a bit rate.

【0087】図9には、本発明の第3の実施の形態にか
かるデータ配信システムのサーバ10の詳細な構成を示
す。
FIG. 9 shows a detailed configuration of the server 10 of the data distribution system according to the third embodiment of the present invention.

【0088】この図9において、サーバ10は、前述の
各実施の形態の何れかに対応するデータ変換部7の出力
段に、フィルタ23を備えること以外は、前記第1,第
2の実施の形態と共通である。
In FIG. 9, the server 10 has the same configuration as the first and second embodiments except that a filter 23 is provided at the output stage of the data converter 7 corresponding to any of the above-described embodiments. It is common with the form.

【0089】上記フィルタ23は、前述の第1又は第2
の実施の形態のデータ変換部7によって特殊再生用に変
換済みのデータ、すなわちAU自体を、ビットレートな
どの評価基準を満たすように変換する。なお、データ変
換部7およびフィルタ23は、複数存在しても構わな
い。すなわち、この第3の実施の形態のフィルタ23
は、第2の実施の形態のデータ変換部7のように、出力
するAUと出力しないAUを選択するだけではなく、A
U自体を変換することにより、ビットレートなどの評価
基準を満たすデータを出力する。例えばテキストデータ
の場合、1つのAUに含まれる文字数を減じることによ
り、配信するデータ量を減じ、所望のビットレートを満
足するデータへ変換して出力する。
The filter 23 is provided with the first or second filter.
The data converted by the data conversion unit 7 of the embodiment for special reproduction, that is, the AU itself is converted so as to satisfy an evaluation criterion such as a bit rate. Note that a plurality of data conversion units 7 and filters 23 may exist. That is, the filter 23 of the third embodiment
Is not limited to selecting AUs to be output and AUs not to be output, as in the data conversion unit 7 of the second embodiment.
By converting U itself, data that satisfies evaluation criteria such as a bit rate is output. For example, in the case of text data, the amount of data to be distributed is reduced by reducing the number of characters included in one AU, and the data is converted into data satisfying a desired bit rate and output.

【0090】本実施の形態によれば、AU自体を変換す
ることにより、特殊再生中であってもビットレートなど
の評価基準を満たすデータの配信が可能となっている。
また、フィルタ23に入力するAUは、第1又は第2の
実施の形態のデータ変換部7により、既に特殊再生に応
じて時間情報が変換済みであるため、復号端末12側で
は特殊再生用に特別な処理を必要とせず、且つ、復号端
末12において特殊再生用の特別な処理無しに通常再生
時と同様の復号及び表示等の処理を行っていれば、自動
的に特殊再生用の表示等が実現できる。
According to the present embodiment, by converting the AU itself, it is possible to distribute data that satisfies evaluation criteria such as a bit rate even during special reproduction.
The AU input to the filter 23 has already been converted into time information according to the special reproduction by the data conversion unit 7 of the first or second embodiment. If no special processing is required and the decoding terminal 12 performs the same decoding and display processing as during normal reproduction without special processing for special reproduction, display for special reproduction is automatically performed. Can be realized.

【0091】以下に、上記フィルタ23の具体例を説明
する。
Hereinafter, a specific example of the filter 23 will be described.

【0092】上記フィルタ23の第1の具体例として、
例えば、シーン記述中のデータを分割単位毎に扱い、伝
送容量などの評価基準を満たすように分割単位毎にシー
ン記述を変換して出力するものを挙げることができる。
当該第1の具体例のフィルタ23を、本発明の第1又は
第2の実施の形態のデータ変換部7と組み合わせて使用
することにより、特殊再生中であってもビットレートな
どの評価基準を満たすデータの配信が可能となる。
As a first specific example of the filter 23,
For example, data in a scene description is handled for each division unit, and a scene description is converted and output for each division unit so as to satisfy an evaluation criterion such as a transmission capacity.
By using the filter 23 of the first specific example in combination with the data conversion unit 7 of the first or second embodiment of the present invention, evaluation criteria such as a bit rate can be set even during trick play. Delivery of data that satisfies is enabled.

【0093】以下、本発明の第3の実施の形態に適用さ
れる上記第1の具体例のフィルタ23の動作について説
明する。
The operation of the filter 23 of the first specific example applied to the third embodiment of the present invention will be described below.

【0094】上記第1の具体例のフィルタ23は、入力
されたシーン記述を階層化情報に基づいて変換するもの
である。当該フィルタ23は、シーン記述を出力する際
に、復号端末12の復号及び表示能力を示す復号端末情
報を得る。上記復号端末情報とは、復号端末12がシー
ン記述を表示する際の画枠や、ノード数の上限、ポリゴ
ン数の上限、含まれるオーディオやビデオなどのマルチ
メディアデータの上限など、復号端末12の復号及び表
示能力を示す情報である。また、フィルタ23には、復
号端末情報の他に、シーン記述の配信に使用する伝送媒
体22の伝送容量を表す情報を加えた階層化情報が入力
される。フィルタ23は、上記階層化情報に基づいて、
シーン記述入力を、階層構造を成すシーン記述データへ
変換する。
The filter 23 of the first specific example converts the input scene description based on the hierarchical information. When outputting the scene description, the filter 23 obtains decoding terminal information indicating the decoding and display capabilities of the decoding terminal 12. The decoding terminal information includes the image frame when the decoding terminal 12 displays the scene description, the upper limit of the number of nodes, the upper limit of the number of polygons, and the upper limit of multimedia data such as audio and video included therein. This is information indicating decoding and display capabilities. The filter 23 receives, in addition to the decoding terminal information, hierarchical information to which information indicating the transmission capacity of the transmission medium 22 used for distributing the scene description is added. The filter 23, based on the hierarchical information,
The scene description input is converted into scene description data having a hierarchical structure.

【0095】第1の具体例のフィルタ23を備えた第3
の実施の形態のデータ配信システムによれば、上述のよ
うに、階層化情報に基づいてシーン記述を変換すること
により、配信に使用される伝送媒体22に適したシーン
記述データを配信することが可能となり、また、復号端
末12の性能に合せたシーン記述を配信することが可能
となる。
The third embodiment provided with the filter 23 of the first specific example
According to the data distribution system of the embodiment, as described above, by converting the scene description based on the hierarchical information, the scene description data suitable for the transmission medium 22 used for distribution can be distributed. This makes it possible to distribute a scene description that matches the performance of the decoding terminal 12.

【0096】以下、フィルタ23におけるシーン記述変
換処理の手順を図10に示す。
FIG. 10 shows the procedure of the scene description conversion process in the filter 23.

【0097】図10において、フィルタ23は、先ず、
ステップS200として、シーン記述を後述するような
分割候補単位に分割する。図10においては、分割候補
の番号をnで表す。また、入力されたシーン記述を複数
の階層から成るシーン記述データへ変換するため、出力
となるシーン記述データの階層をmで表す。階層の番号
mは0から開始し、番号が小さいほど基本的な階層を表
すものとする。
In FIG. 10, the filter 23 first
In step S200, the scene description is divided into division candidate units as described later. In FIG. 10, the number of the division candidate is represented by n. Also, in order to convert the input scene description into scene description data composed of a plurality of layers, the layer of the scene description data to be output is represented by m. The layer number m starts from 0, and the smaller the number is, the more basic the layer is.

【0098】次に、フィルタ23は、ステップS201
として、階層化情報に基づいて、分割候補nを現在の階
層として出力可能であるか判断する。例えば、階層化情
報によって現在の階層に許されるデータのバイト数が制
限される場合には、分割候補nを加えても現在の階層の
出力シーン記述が、上記制限されるバイト数以下である
かを調べる。このステップS201において、分割候補
nを現在の階層に出力不可と判断された場合にはステッ
プS202へ進み、一方、出力可能ならばステップS2
03へ進む。
Next, the filter 23 determines in step S201
It is determined whether the division candidate n can be output as the current layer based on the layering information. For example, when the number of bytes of data allowed in the current layer is limited by the layering information, whether the output scene description of the current layer is equal to or less than the limited number of bytes even if the division candidate n is added. Find out. In step S201, when it is determined that the division candidate n cannot be output to the current layer, the process proceeds to step S202.
Go to 03.

【0099】ステップS202へ進むと、フィルタ23
は、階層の番号mを1進める。つまり、現在の階層mへ
の出力を終了し、以降は新しい階層のシーン記述データ
へ出力することとする。そして、ステップS203へ進
む。
At step S202, the filter 23
Advances the layer number m by one. That is, the output to the current layer m is ended, and thereafter, the output to the scene description data of the new layer is performed. Then, the process proceeds to step S203.

【0100】ステップS203に進むと、フィルタ23
は、現在の階層mへ、分割候補nを出力する。そして、
ステップS204へ進む。
At step S203, the filter 23
Outputs the division candidate n to the current hierarchy m. And
Proceed to step S204.

【0101】ステップS204へ進むと、フィルタ23
は、全ての分割候補を処理したか否か判断し、処理した
ならば、変換処理を終了する。一方、まだ分割候補が残
っているならば、ステップS205へ進む。
At step S204, the filter 23
Determines whether all division candidates have been processed, and if so, terminates the conversion process. On the other hand, if there are still division candidates, the process proceeds to step S205.

【0102】ステップS205に進むと、フィルタ23
は、分割候補の番号nを1進める。つまり、次の分割候
補を処理対象とする。そして、ステップS201から処
理を繰り返す。
At step S205, the filter 23
Advances the division candidate number n by one. That is, the next division candidate is set as a processing target. Then, the processing is repeated from step S201.

【0103】ここで、MPEG4 BIFSを例に取
り、図10に示したフィルタ23でのシーン記述変換処
理における分割について、図11を用いて説明する。
Here, taking the MPEG4 BIFS as an example, division in the scene description conversion processing by the filter 23 shown in FIG. 10 will be described with reference to FIG.

【0104】先ず、図11のシーン記述データの内容か
ら説明し、その後に、フィルタ23でのシーン記述処理
における分割の説明を行う。
First, the content of the scene description data shown in FIG. 11 will be described, and then the division in the scene description processing by the filter 23 will be described.

【0105】図11において、ransformノード302
は、三次元の座標変換を指定可能なノードで、そのtran
slationフィールド303に座標原点の平行移動量を指
定できる。フィールドには他のノードを指定可能なフィ
ールドも存在し、シーン記述の構成は図12のようなツ
リー構造を成す。図12中の楕円はノードを表し、ノー
ド間の破線はイベントの伝播経路を表し、ノード間の実
線はノードの親子関係を表す。親ノードに対して、その
親ノードのフィールドを表すノードを子ノードと呼ぶこ
ととする。例えば図11中のTransformノード302
は、Transformノードにより座標変換される子ノード群
を示すChildrenフィールド304があり、TouchSensor
ノード305およびShapeノード306が子ノードとし
てグルーピングされている。このようにChildrenフィー
ルドに子ノードをグルーピングするノードを、グルーピ
ングノードと呼ぶ。グルーピングノードとは、ISO/
IES14772−1の4.6.5章に定義されている
ノードで、ノードのリストから成るフィールドを持つノ
ードを指す。ISO/IES14772−1の4.6.
5章に定義されているように、フィールド名がChildren
ではない特別な例外もあるが、以下、Childrenフィール
ドは、このような例外も含むものとして説明する。
In FIG. 11, the ransform node 302
Is a node whose 3D coordinate transformation can be specified.
In the slation field 303, the translation amount of the coordinate origin can be specified. Some fields can specify other nodes, and the structure of the scene description has a tree structure as shown in FIG. In FIG. 12, ellipses represent nodes, broken lines between nodes represent event propagation paths, and solid lines between nodes represent parent-child relationships of the nodes. For a parent node, a node representing a field of the parent node is called a child node. For example, the Transform node 302 in FIG.
Has a Children field 304 that indicates a group of child nodes whose coordinates are transformed by the Transform node.
The node 305 and the Shape node 306 are grouped as child nodes. A node that groups child nodes in the Children field in this way is called a grouping node. Grouping nodes are ISO /
Refers to a node defined in Chapter 4.6.5 of IES 14772-1, which has a field consisting of a list of nodes. 4.6 of ISO / IES14772-1.
The field name is Children, as defined in Chapter 5.
Although there are special exceptions, the Children field will be described below as including such exceptions.

【0106】表示する物体をシーン中に配置するには、
物体を表すノードを、属性を表すノードと共にグループ
化し、配置位置を示すノードによりさらにグループ化す
る。図11中のShapeノード306が表している物体
は、その親ノードであるTransformノード302によっ
て指定された平行移動を適用されて、シーン中に配置さ
れる。図11のシーン記述は、球体を表すSphereノード
307、立方体を表すBoxノード312、円錐を表すCon
eノード317および円柱を表すCylinderノード322
を含んでおり、この例のシーン記述を復号及び表示した
結果は図13に示すようになる。
To place an object to be displayed in a scene,
The node representing the object is grouped together with the node representing the attribute, and further grouped by the node representing the arrangement position. The object represented by the Shape node 306 in FIG. 11 is arranged in the scene by applying the translation specified by the parent Transform node 302. The scene description in FIG. 11 includes a Sphere node 307 representing a sphere, a Box node 312 representing a cube, and a Con representing a cone.
e node 317 and Cylinder node 322 representing a cylinder
FIG. 13 shows a result of decoding and displaying the scene description of this example.

【0107】シーン記述は、ユーザインタラクションを
含むことも出来る。図11中のROUTEは、イベントの伝
播を表している。ROUTE323は、2という識別子を割
り当てられたTouchSensorノード305のtouchTimeフィ
ールドが変化した場合に、その値がイベントとして5と
いう識別子を割り当てられたTimeSensorノード318の
startTimeフィールドへ伝播する、ということを示して
いる。VRMLではDEFというキーワードに続く任意
の文字列により識別子を表し、MPEG4 BIFSで
は、ノードID(nodeID)と呼ばれる数値が識別子とし
て用いられる。TouchSensorノード305は、その親ノ
ードであるTransformノード302のChildrenフィール
ド304にグルーピングされているShapeノード306
をユーザが選択した場合に、選択した時刻をtouchTime
イベントとして出力する。このようにグルーピングノー
ドによって付随したShapeノードと共にグルーピングさ
れて働くセンサーを、以下、Sensorノードと呼ぶ。VR
MLにおけるSensorノードとは、ISO/IEC147
72−1の4.6.7.3章に定義されているPointing
-device sensorsであり、付随したShapeノードとは、Se
nsorノードの親ノードにグルーピングされているShape
ノードを指す。一方、TimeSensorノード318は、star
tTimeから1秒間の間、経過時間をfraction_changedベ
ントとして出力する。
A scene description can include user interaction. ROUTE in FIG. 11 represents the propagation of an event. When the touchTime field of the TouchSensor node 305 assigned the identifier 2 changes, the ROUTE 323 changes the value of the TouchSensor node 318 assigned the identifier 5 as an event.
It indicates that it propagates to the startTime field. In VRML, an identifier is represented by an arbitrary character string following the keyword DEF, and in MPEG4 BIFS, a numerical value called a node ID (nodeID) is used as the identifier. TouchSensor node 305 is a Shape node 306 grouped in Children field 304 of Transform node 302 as its parent node.
If the user selects, touchTime
Output as an event. Sensors that work in this way together with the Shape node attached by the grouping node are hereinafter referred to as Sensor nodes. VR
Sensor node in ML is ISO / IEC147
Pointing defined in Section 4.6.7.3 of 72-1
-device sensors and the accompanying Shape node is Se
Shape grouped to parent node of nsor node
Refers to a node. On the other hand, the TimeSensor node 318
Output elapsed time as fraction_changed event for 1 second from tTime.

【0108】ROUTE324により、TimeSensorノード3
18から出力された経過時間を表すfraction_changedイ
ベントは、6という識別子を割り当てられたColorInter
polatorノード319のset_fractionフィールドへ伝播
される。ColorInterpolatorノード319は、RGB色
空間の値を線形補間する機能を持つ。ColorInterpolato
rノード319のkeyとkeyValueフィールドは、入力とな
るset_fractionフィールドの値が0の場合にはvalue_ch
angedとしてRGBの値[000]をイベント出力し、
入力となるset_fractionフィールドの値が1の場合には
value_changedとしてRGBの値[111]をイベント
出力することを表している。入力となるset_fractionフ
ィールドの値が0と1の間の場合には、value_changed
としてRGBの値[000]と[111]の間を線形補
完した値をイベント出力する。つまり、入力となるset_
fractionフィールドの値が0.2の場合にはvalue_chan
gedとしてRGBの値[0.2 0.2 0.2]をイベント出力す
る。
The ROUTE 324 causes the TimeSensor node 3
The fraction_changed event representing the elapsed time output from 18 is a ColorInter with the identifier 6
Propagated to the set_fraction field of the polator node 319. The ColorInterpolator node 319 has a function of linearly interpolating values in the RGB color space. ColorInterpolato
The key and keyValue fields of the r node 319 are value_ch when the value of the input set_fraction field is 0.
An RGB value [000] is output as an anged event,
If the value of the input set_fraction field is 1,
This indicates that an RGB value [111] is output as an event as value_changed. If the value of the input set_fraction field is between 0 and 1, value_changed
And outputs a value obtained by linearly complementing the RGB values [000] and [111] as an event. In other words, set_
value_chan if the value of the fraction field is 0.2
An event value of RGB value [0.2 0.2 0.2] is output as ged.

【0109】ROUTE325により、線形補間結果の値val
ue_changedは、4という識別子を割り当てられたMateri
alノード314のdiffuseColorフィールドへ伝播され
る。diffuseColorは、Materialノード314が属してい
るShapeノード311が表す物体表面の拡散色を表して
いる。上記のROUTE323、ROUTE324およびROUTE3
25によるイベント伝播により、ユーザが表示されてい
る球体を選択した直後から1秒の間、表示されている立
方体のRGB値が、[000]から[111]まで変化
するというユーザインタラクションが実現される。この
ユーザインタラクションは、ROUTE323,ROUTE32
4,ROUTE325と、図12中の太線枠で示したイベン
トの伝播に関連するノードにより表されており、このよ
うにユーザインタラクションに必要なシーン記述中のデ
ータを、以下、イベント伝播に必要なデータ、と呼ぶこ
ととする。なお、太線枠で示した以外は、イベントに関
連しないノードである。
According to ROUTE 325, the value val of the linear interpolation result
ue_changed is the Materi assigned the identifier 4
Propagated to the diffuseColor field of al node 314. diffuseColor represents the diffuse color of the object surface represented by the Shape node 311 to which the Material node 314 belongs. ROUTE323, ROUTE324 and ROUTE3 above
By the event propagation by 25, a user interaction is realized in which the RGB value of the displayed cube changes from [000] to [111] for one second immediately after the user selects the displayed sphere. . This user interaction is ROUTE323, ROUTE32
4, ROUTE 325, and nodes related to the propagation of the event indicated by the thick line frame in FIG. 12, and data in the scene description necessary for user interaction is hereinafter referred to as data necessary for the event propagation. , Will be called. Note that the nodes other than those indicated by the thick line frame are not related to the event.

【0110】以上のように一例として挙げた図11のシ
ーン記述データについて、本実施の形態の第1の具体例
のフィルタ23では、図10のステップS200におい
て、シーン記述を分割候補単位へ分割する。
With respect to the scene description data of FIG. 11 given as an example as described above, the filter 23 of the first specific example of the present embodiment divides the scene description into division candidate units in step S200 of FIG. .

【0111】ここで、いわゆるNode Insertion command
を用いるために、グルーピングノードのChildrenフィー
ルドを分割単位とする。ただし、ユーザインタラクショ
ンのためのイベント伝播に必要なデータは分割しないと
すると、図11に示す3つの分割候補D0,D1,D2
となる。
Here, the so-called Node Insertion command
Is used, the Children field of the grouping node is used as a division unit. However, assuming that data necessary for event propagation for user interaction is not divided, three division candidates D0, D1, D2 shown in FIG.
Becomes

【0112】入力シーン記述中の最上位ノードであるGr
oupノード300を含む分割単位を、n=0の分割候補
D0とする。Transformノード315以下のノードをn
=1の分割候補D1とする。n=1の分割候補D1中の
Shapeノード316は、グルーピングノードであるTrans
formノード315のChildrenフィールドであるため、別
個の分割候補とすることも可能である。
Gr which is the highest node in the input scene description
The division unit including the oup node 300 is a division candidate D0 where n = 0. Transform node 315 or lower node is n
= 1 as a division candidate D1. n = 1 in the division candidate D1
Shape node 316 is a grouping node Trans
Since this is a Children field of the form node 315, it can be a separate division candidate.

【0113】ただし、この例ではTransformノード31
5がShapeノード316以外のChildrenフィールドを持
たないことから、Shapeノード316を別の分割候補に
はしていない。Transformノード320以下のノードを
n=2の分割候補D2とする。同様に、Shapeノード3
21以下を別の分割候補としても良い。
However, in this example, the Transform node 31
Since No. 5 has no Children field other than the Shape node 316, the Shape node 316 is not set as another division candidate. Nodes below the Transform node 320 are set as n = 2 division candidates D2. Similarly, Shape node 3
21 or less may be used as another division candidate.

【0114】n=0の分割候補D0は、階層m=0へ必
ず出力される。n=1の分割候補D1は、図10のステ
ップS201により、階層化情報に基づいて、m=0の
階層へ出力可能であるか判断される。
The division candidate D0 with n = 0 is always output to the hierarchy m = 0. In step S201 of FIG. 10, it is determined whether the division candidate D1 of n = 1 can be output to the layer of m = 0 based on the layering information.

【0115】次に、図14には、階層化情報により、出
力するシーン記述データの階層に許されるデータ量が指
定される場合の判断例を示す。図14中のAの例では、
階層m=0にn=1の分割候補D1も出力したとする
と、階層m=0に許されているデータ量を上回ってしま
うことから、n=1の分割候補D1を階層m=0へ出力
不可と判断する。
Next, FIG. 14 shows an example of determination in the case where the data amount allowed for the hierarchy of the scene description data to be output is designated by the hierarchy information. In the example of A in FIG. 14,
If the division candidate D1 of n = 1 is also output to the layer m = 0, the data amount exceeds the data amount permitted for the layer m = 0, so the division candidate D1 of n = 1 is output to the layer m = 0. Judge as impossible.

【0116】従って、図10のステップS202の手順
により、図14中のBに示す階層m=0の出力はn=0
の分割候補D0のみを含むと決定され、以降は階層m=
1に出力することとする。ステップS203の手順によ
り、階層m=1へn=1の分割候補D1を出力する。
Therefore, according to the procedure of step S202 in FIG. 10, the output of the hierarchy m = 0 shown in B in FIG.
Is determined to include only the division candidate D0 of
1 is output. According to the procedure of step S203, the division candidate D1 of n = 1 is output to the hierarchy m = 1.

【0117】次のn=2の分割候補D2についても同様
の手順を行うと、図14中のAに示すように、階層m=
1にn=2の分割候補D2を出力しても、階層m=0と
階層m=1の合計に許されるデータ量を超過しないた
め、図14中のCに示すように、n=2の分割候補D2
は、n=1の分割候補D1と同じ階層m=1へ出力する
ことが決定される。
When the same procedure is performed for the next division candidate D2 of n = 2, as shown at A in FIG.
Even if the division candidate D2 of n = 2 is output to 1, the data amount allowed for the sum of the hierarchy m = 0 and the hierarchy m = 1 is not exceeded. Therefore, as shown in C in FIG. Division candidate D2
Is output to the same level m = 1 as the division candidate D1 with n = 1.

【0118】上記の手順により、フィルタ23は、入力
のシーン記述を、図14中のBに示す階層m=0の変換
済みシーン記述データ出力と図14中のCに示す階層m
=1の変換済みシーン記述データ出力との2階層から成
るシーン記述データ出力へと変換する。
According to the above procedure, the filter 23 converts the input scene description into the converted scene description data output of the layer m = 0 shown in B of FIG. 14 and the layer m shown in C of FIG.
= 1 is converted to a scene description data output consisting of two layers.

【0119】また、図15中のAに示すシーン記述の変
換例は、図14のAと同様のシーン記述入力に対して、
異なる階層化情報に基づいて変換を行った結果、3階層
から成るシーン記述データ出力へと変換された例を示し
ている。
Further, the conversion example of the scene description indicated by A in FIG. 15 is obtained by inputting the same scene description as in FIG.
An example is shown in which conversion is performed on the basis of different hierarchical information and converted into a scene description data output composed of three layers.

【0120】すなわち、図15中のAに示したシーン記
述は、図14の場合と同様にして、図15中のBに示す
階層m=0の変換済みシーン記述データ出力、図15中
のCに示す階層m=1の変換済みシーン記述データ出
力、図15中のDに示す階層m=2の変換済みデータ出
力に変換される。
In other words, the scene description indicated by A in FIG. 15 is the same as the case of FIG. 14, and the converted scene description data output of layer m = 0 indicated by B in FIG. The converted scene description data output of the layer m = 1 shown in FIG. 15 and the converted data output of the layer m = 2 shown in D in FIG.

【0121】この変換結果例において、シーン記述の配
信に使用する伝送媒体の伝送容量が低く、階層m=0に
許されるデータ量までしか伝送できない伝送媒体に対し
ては、図15中のBに示す階層m=0のシーン記述デー
タのみを配信する。
In this example of the conversion result, the transmission medium of the transmission medium used for distributing the scene description has a low transmission capacity and can transmit only the data amount allowed for the layer m = 0. Only the scene description data of the indicated hierarchy m = 0 is distributed.

【0122】階層m=0のシーン記述のみであっても、
ユーザインタラクションのためのイベント伝播に必要な
データは分割されていないために、復号端末12におい
て、変換前と同様のユーザインタラクションが実現でき
る。
Even if there is only a scene description of the hierarchy m = 0,
Since data necessary for event propagation for user interaction is not divided, the same user interaction as before conversion can be realized in the decoding terminal 12.

【0123】また、伝送容量が、m=0およびm=1の
階層を合計したデータ量に対して充分である伝送媒体に
対しては、図15中のBに示したm=0およ図15中の
Cに示したびm=1双方の階層のシーン記述データを配
信する。
For a transmission medium whose transmission capacity is sufficient for the total data amount of the layers of m = 0 and m = 1, m = 0 and B shown in FIG. The scene description data of both hierarchies of m = 1 is distributed each time indicated by C in 15.

【0124】階層m=1のシーン記述データは、Node I
nsertion commandにより階層m=0のシーン記述に挿入
されるため、復号端末12においては変換前と同様のシ
ーン記述を復号し、表示することが可能である。
The scene description data of the layer m = 1 is the Node I
Since it is inserted into the scene description of the layer m = 0 by the nsertion command, the decoding terminal 12 can decode and display the same scene description as before conversion.

【0125】第1の具体例のフィルタ23は、時間変化
する階層化情報に基づいてシーン記述を変換することに
より、伝送媒体22の伝送容量が変化する場合にも適応
することが可能となった。なお、伝送媒体22に変換し
たシーン記述データを記録する場合にも同様の効果があ
る。
The filter 23 of the first specific example can adapt to the case where the transmission capacity of the transmission medium 22 changes by converting the scene description based on the time-varying hierarchical information. . Note that the same effect is obtained when the converted scene description data is recorded on the transmission medium 22.

【0126】また、図15の変換結果例において、シー
ン記述を受信して復号及び表示する復号端末12の復号
及び表示能力が低く、階層m=0に許されるデータ量ま
でしか復号及び表示できない復号端末12に対しては、
図15中のBに示した階層m=0のシーン記述データの
みを配信することができる。階層m=0のシーン記述の
みであっても、ユーザインタラクションのためのイベン
ト伝播に必要なデータは分割されていないために、復号
端末12において、変換前と同様のユーザインタラクシ
ョンが実現できる。
In the example of the conversion result shown in FIG. 15, the decoding terminal 12 that receives, decodes, and displays the scene description has low decoding and display capabilities, and can decode and display only the data amount allowed for the layer m = 0. For the terminal 12,
Only the scene description data of hierarchy m = 0 shown in B in FIG. 15 can be distributed. Even with only the scene description of the hierarchy m = 0, data necessary for event propagation for user interaction is not divided, so that the decoding terminal 12 can realize the same user interaction as before the conversion.

【0127】また、復号及び表示能力が、m=0および
m=1の階層を合計したデータ量に対して充分である復
号端末12に対しては、図15中のBに示したm=0お
よび図15中のCに示したm=1双方の階層のシーン記
述データを配信する。
Further, for the decoding terminal 12 whose decoding and display capability is sufficient for the total data amount of the layers of m = 0 and m = 1, m = 0 shown in B in FIG. And the scene description data of both the m = 1 levels shown in C in FIG.

【0128】階層m=1のシーン記述100データは、
Node Insertion commandにより階層m=0のシーン記述
に挿入されるため、復号端末12においては変換前と同
様のシーン記述を復号し、表示することが可能である。
The scene description 100 data of the hierarchy m = 1 is
Since it is inserted into the scene description of the hierarchy m = 0 by the Node Insertion command, the decoding terminal 12 can decode and display the same scene description as before conversion.

【0129】以上のように第1のフィルタ23によれ
ば、時間変化する復号端末情報に基づいてシーン記述を
変換することにより、復号端末12の復号および表示能
力が動的に変化したり、あらたな性能を持つ復号端末1
2が配信対象に加えられた場合にも適応することが可能
となった。
As described above, according to the first filter 23, the decoding and display capabilities of the decoding terminal 12 are dynamically changed or changed by converting the scene description based on the time-varying decoding terminal information. Terminal 1 with high performance
It becomes possible to adapt to the case where 2 is added to the distribution target.

【0130】なお、MPEG4 BIFSにおいては、
シーン記述を階層化するために、ノードを挿入するコマ
ンドを使用しても良いし、Inlineノードを使用しても良
い。また、ISO/IEC14772−1の4.9章に
記載のEXTERNPROTOを使用しても良い。EXTERNPROTOと
は、外部のシーン記述データ中でPROTOと呼ばれるノー
ド定義方法により定義したノードを参照する方法であ
り、MPEG4 BIFSにおいてもVRMLと同様に
EXTERNPROTOを使用することが出来る。
[0130] In MPEG4 BIFS,
In order to layer the scene description, a command for inserting a node may be used, or an Inline node may be used. In addition, EXTERNPROTO described in Chapter 4.9 of ISO / IEC14772-1 may be used. EXTERNPROTO is a method of referring to a node defined by a node definition method called PROTO in external scene description data. In MPEG4 BIFS, similarly to VRML,
EXTERNPROTO can be used.

【0131】また、ISO/IEC14772−1の
4.6.2章に記載のDEF/USEは、ノードにDE
Fにより名前を付け、シーン記述中の他の場所からUS
EによりDEFしたノードを参照することを可能として
いる。
The DEF / USE described in Chapter 4.6.2 of ISO / IEC14772-1 is a system in which the node
Name it with F and use US from other places in the scene description
E makes it possible to refer to the node defined by DEF.

【0132】MPEG4 BIFSにおいてもノードに
ノードIDと呼ばれる数値の識別子をDEFと同様に設
け、シーン記述中の他の場所からノードIDを指定する
ことによりUSEと同様に使用するというVRMLと同
様の参照が可能である。
Also in the MPEG4 BIFS, a numerical identifier called a node ID is provided in a node in the same manner as in the DEF, and the node ID is specified from another place in the scene description to use the node in the same manner as in the USE. Is possible.

【0133】従って、シーン記述を階層化する際に、I
SO/IEC14772−1の4.6.2章に記載のD
EF/USEを使用している部分を異なる分割候補に分
割しなければ、USEからDEFしたノードへの参照関
係を壊すこと無く、シーン記述変換を行うことが可能で
ある。
Accordingly, when the scene description is hierarchized, I
D described in Chapter 4.6.2 of SO / IEC14772-1
If the part using EF / USE is not divided into different division candidates, it is possible to perform the scene description conversion without breaking the reference relation from the USE to the DEFed node.

【0134】図14および図15では、階層化情報とし
て、各階層に許されるデータ量を用いた例を示したが、
階層化情報はシーン記述中の分割候補をある階層のシー
ン記述データに含めて良いか判断できる情報であれば良
く、例えば階層中に含まれるノード数の上限や、階層中
に含まれるコンピュータグラフィックスにおけるポリゴ
ンデータの数などでも良く、階層中に含まれるオーディ
オやビデオなどのメディアデータの制限でも良く、また
複数の階層化情報を組み合わせても良い。
FIGS. 14 and 15 show examples in which the data amount allowed for each layer is used as the layering information.
Hierarchical information may be information that can determine whether or not division candidates in a scene description can be included in scene description data of a certain layer. For example, the upper limit of the number of nodes included in the layer, or computer graphics included in the layer , The number of media data such as audio and video included in the hierarchy may be limited, and a plurality of pieces of hierarchical information may be combined.

【0135】以上のように、第1の具体例のフィルタ2
3によれば、入力のシーン記述を複数の階層構造を成す
シーン記述データに変換したことにより、シーン記述を
伝送する際に、伝送容量を節約する目的で、シーン記述
の階層構造を利用することが可能である。
As described above, the filter 2 of the first specific example
According to No. 3, since the input scene description is converted into scene description data having a plurality of hierarchical structures, when transmitting the scene description, the hierarchical structure of the scene description is used for the purpose of saving transmission capacity. Is possible.

【0136】また、第1の具体例のフィルタ23によれ
ば、シーン記述を複数の階層から成るシーン記述データ
に変換しておき、データを削除する際には、削除すきデ
ータ量に達するまでの階層のシーン記述データのみを削
除することにより、そのシーン記述が記述していたコン
テンツの情報の一部を保存しておくことが可能となる。
Further, according to the filter 23 of the first specific example, the scene description is converted into scene description data composed of a plurality of hierarchies. By deleting only the hierarchical scene description data, it is possible to save part of the information of the content described by the scene description.

【0137】その他、以上説明したことは、シーン記述
方法の種類に依存せず、分割可能なあらゆるシーン記述
方法において有効である。
In addition, what has been described above is effective in any scene description method that can be divided without depending on the type of the scene description method.

【0138】次に、本発明の第3の実施の形態に適用さ
れる前記第2の具体例のフィルタ23の動作について説
明する。
Next, the operation of the filter 23 of the second specific example applied to the third embodiment of the present invention will be described.

【0139】当該第2の具体例のフィルタ23は、図1
6に示すように、シーン記述処理部24とES(Elemen
tary Stream)処理部25、及びそれらの動作を制御す
る制御部26とを備え、シーン記述処理部24によりシ
ーン記述データを変更すると共に、シーン記述データ以
外のマルチメディアデータをES処理部25により変更
可能となものを挙げることができる。ES処理部25
は、伝送容量や復号端末の能力に合わせてデータを異な
るビットレートのデータへ再符号化するなどして変換を
行うものである。また、シーン記述処理部24は、例え
ば伝送媒体22の伝送容量や復号端末12の処理能力に
合わせてシーン記述の内容を変換することにより、デー
タ量の調節を行うものである。これらシーン記述処理部
24やES処理部25を備えたフィルタ23を、本発明
の第1又は第2の実施の形態のデータ変換部7と組み合
わせて使用することにより、特殊再生中であってもビッ
トレートなどの評価基準を満たすデータの配信が可能と
なる。なお、この例の場合、図示は省略するが、復号端
末12の復号部15には、ESを復号してビデオデータ
やオーディオデータ等を復元するES復号部と、シーン
記述を復号すると共にその復号されたシーン記述に基づ
いてビデオやオーディオデータ等を用いたシーンを構成
するESシーン記述復号部とを備えることになる。
[0139] The filter 23 of the second specific example is shown in FIG.
As shown in FIG. 6, the scene description processing unit 24 and the ES (Elemen
tary Stream) processing unit 25 and a control unit 26 for controlling the operation thereof. The scene description data is changed by the scene description processing unit 24, and multimedia data other than the scene description data is changed by the ES processing unit 25. Possible ones can be mentioned. ES processing unit 25
Performs conversion by, for example, re-encoding data into data having a different bit rate in accordance with the transmission capacity and the capability of the decoding terminal. Further, the scene description processing unit 24 adjusts the data amount by converting the contents of the scene description according to, for example, the transmission capacity of the transmission medium 22 and the processing capability of the decoding terminal 12. By using the filter 23 including the scene description processing unit 24 and the ES processing unit 25 in combination with the data conversion unit 7 according to the first or second embodiment of the present invention, even during special reproduction. It is possible to distribute data that satisfies evaluation criteria such as a bit rate. In this case, although not shown, the decoding unit 15 of the decoding terminal 12 includes an ES decoding unit that decodes the ES to restore video data and audio data, and a scene description and decodes the scene description. And an ES scene description decoding unit that forms a scene using video, audio data, and the like based on the scene description.

【0140】ここで、この第2の具体例のフィルタ23
を備えた第3の実施の形態のデータ配信システムは、伝
送媒体22の伝送可能帯域やトラフィックの混雑状態が
変化する場合に、伝送するデータに遅延や損失が生じて
しまうという問題に対処するために、以下のようなこと
を行うようになされている。
Here, the filter 23 of the second specific example is used.
The data distribution system according to the third embodiment is provided with a method for addressing the problem that, when the transmittable band of the transmission medium 22 or the traffic congestion state changes, delay or loss occurs in data to be transmitted. Then, the following is performed.

【0141】サーバ10の送信部5は、伝送路(伝送媒
体22)へ送出するデータのパケット毎に通し番号(符
号化した通し番号)を付加する機能を有し、一方、復号
端末12の受信部13は、受け取ったパケット毎に付加
されている通し番号(符号化された通し番号)の欠落を
監視することにより、データの損失(データ損失割合)
を検出する機能を備えている。或いは、サーバ10の送
信部5は、伝送路へ送出するデータに時刻情報(符号化
した時刻情報)を付加する機能を備え、一方、復号端末
12の受信部13は、伝送路から受け取ったデータに付
加されている時刻情報(符号化された時刻情報)を監視
し、その時刻情報により伝送遅延を検出する機能を備え
る。復号端末12の受信部13は、このようにして伝送
路のデータ損失割合、或いは伝送遅延等を検出すると、
その検出情報をサーバ10の送信部5へ送信(報告)す
る。
The transmitting section 5 of the server 10 has a function of adding a serial number (encoded serial number) to each packet of data to be transmitted to the transmission path (transmission medium 22). Monitors data loss (data loss ratio) by monitoring the loss of a serial number (encoded serial number) added to each received packet.
It has a function to detect Alternatively, the transmission unit 5 of the server 10 has a function of adding time information (encoded time information) to the data to be transmitted to the transmission path, while the reception unit 13 of the decoding terminal 12 transmits the data received from the transmission path. And a function for monitoring the time information (encoded time information) added to the information and detecting a transmission delay based on the time information. When the receiving unit 13 of the decoding terminal 12 detects the data loss ratio of the transmission path or the transmission delay in this way,
The detection information is transmitted (reported) to the transmission unit 5 of the server 10.

【0142】また、サーバ10の送信部5は、伝送状態
検出機能を備え、当該伝送状態機能では、復号端末12
の受信部13から送られてきた伝送路のデータ損失割
合、或いは伝送遅延等の情報により、伝送路の伝送可能
帯域やトラフィックの混雑状態を検出する。すなわち、
伝送状態検出機能は、データ損失が高ければ伝送路が混
雑していると判断し、或いは、伝送遅延が増加したなら
ば伝送路が混雑していると判断する。また、帯域予約型
の伝送路が使用されている場合、伝送状態検出機能は、
サーバ10が利用可能な空き帯域幅(伝送可能帯域)を
直接知ることが出来る。なお、伝送帯域については、気
象条件などに左右される電波などの伝送媒体が用いられ
た場合、気象条件などに応じてユーザが予め設定する場
合もある。当該伝送状態検出機能での伝送状態の検出情
報は、フィルタ23の制御部26へ送られる。
The transmitting section 5 of the server 10 has a transmission state detecting function.
The transmission band and traffic congestion state of the transmission line are detected based on information such as the data loss ratio or the transmission delay of the transmission line transmitted from the receiving unit 13 of FIG. That is,
The transmission state detection function determines that the transmission path is congested if the data loss is high, or determines that the transmission path is congested if the transmission delay increases. When a bandwidth reservation type transmission path is used, the transmission state detection function
It is possible to directly know the available bandwidth (transmittable bandwidth) available to the server 10. When a transmission medium such as a radio wave that depends on weather conditions is used, the user may set the transmission band in advance according to weather conditions. Transmission state detection information by the transmission state detection function is sent to the control unit 26 of the filter 23.

【0143】制御部26は、伝送路の伝送可能帯域やト
ラフィックの混雑状態の検出情報を元に、ES処理部2
5において例えばビットレートの異なるESが選択的に
切り替えられるような制御を行ったり、或いは、ES処
理部25にてISO/IEC13818(いわゆるMP
EG2)等の符号化が行われる場合にはその符号化ビッ
トレートを調整するなどの制御を行う。すなわち、例え
ば伝送路が混雑していると検出された場合に、ES処理
部25からビットレートの低いESを出力するようなこ
とを行えば、データの遅延を回避することが可能とな
る。
The control unit 26 controls the ES processing unit 2 on the basis of the information on the transmittable bandwidth of the transmission path and the traffic congestion state.
5, for example, control is performed such that ESs having different bit rates can be selectively switched, or the ES processing unit 25 performs ISO / IEC 13818 (so-called MP
When encoding such as EG2) is performed, control such as adjusting the encoding bit rate is performed. That is, for example, when it is detected that the transmission path is congested, if the ES processing unit 25 outputs an ES having a low bit rate, it is possible to avoid data delay.

【0144】また例えば、サーバ10に不特定多数の復
号端末12が接続されていて、それら復号端末12の仕
様が予め統一されておらず、様々な処理能力を持つ復号
端末12に向けて当該サーバ10からESを送信するよ
うなシステム構成の場合、これら復号端末12の受信部
13は伝送要求処理機能を備え、当該伝送要求処理機能
は、自己の復号端末12の処理能力に応じたESを要求
するための伝送要求信号をサーバ10へ送信する。この
伝送要求信号には、自己の復号端末12の能力を表す信
号も含まれる。当該伝送要求処理機能からサーバ10へ
渡される、自己の復号端末12の能力を表す信号として
は、例えばメモリサイズ、表示部の解像度、演算能力、
バッファサイズ、復号可能なESの符号化フォーマッ
ト、復号可能なESの数、復号可能なESのビットレー
トなどを挙げることができる。上記の伝送要求信号を受
け取った送信部5は、その伝送要求信号をフィルタ23
の制御部26へ送り、当該制御部26は、復号端末12
の性能に適合するようなESが送信されことになるよう
に、ES処理部25を制御する。なお、ES処理部25
が復号端末12の性能に適合するようにESを変換する
際の画像信号変換処理については、例えば、本件出願人
により既に提案がなされている画像信号変換処理方法が
ある。
Further, for example, an unspecified number of decoding terminals 12 are connected to the server 10, and the specifications of the decoding terminals 12 are not standardized in advance, and the server 10 is directed to the decoding terminals 12 having various processing capabilities. In the case of a system configuration in which the ES 10 transmits an ES, the receiving unit 13 of each of the decoding terminals 12 has a transmission request processing function, and the transmission request processing function requests the ES according to the processing capability of the decoding terminal 12 itself. To the server 10 for transmission. This transmission request signal also includes a signal indicating the capability of the decoding terminal 12 of itself. Examples of the signal that is transmitted from the transmission request processing function to the server 10 and that indicates the capability of the decoding terminal 12 itself include, for example, memory size, resolution of the display unit, computation capability
The buffer size, the encoding format of the decodable ES, the number of decodable ESs, the bit rate of the decodable ES, and the like can be cited. The transmitting unit 5 having received the transmission request signal converts the transmission request signal into the filter 23.
To the control unit 26, and the control unit 26
The ES processing unit 25 is controlled so that an ES that matches the performance of the ES is transmitted. The ES processing unit 25
As for the image signal conversion processing when the ES is converted so as to conform to the performance of the decoding terminal 12, there is, for example, an image signal conversion processing method already proposed by the present applicant.

【0145】さらに、上記制御部26は、送信部5の伝
送状態検出機能により検出された伝送路の状態に応じ
て、ES処理部25だけでなくシーン記述処理部24も
コントロールする。また、制御部26は、復号端末12
が自己の復号,表示性能に応じたシーン記述を要求する
復号端末である場合には、その復号端末12の受信部1
3の伝送要求処理機能から送られてきた当該復号端末自
身の能力を表す信号に応じて、ES処理部25およびシ
ーン記述処理部24をコントロールする。なお、制御部
26とシーン記述処理部24、ES処理部25は、一体
の構成であっても良い。
Further, the control unit 26 controls not only the ES processing unit 25 but also the scene description processing unit 24 in accordance with the state of the transmission path detected by the transmission state detecting function of the transmitting unit 5. The control unit 26 also controls the decryption terminal 12
Is a decoding terminal that requests a scene description according to its decoding and display performance, the receiving unit 1 of the decoding terminal 12
The ES control unit 25 and the scene description processing unit 24 are controlled in accordance with the signal indicating the capability of the decoding terminal itself transmitted from the transmission request processing function 3. Note that the control unit 26, the scene description processing unit 24, and the ES processing unit 25 may have an integrated configuration.

【0146】以下、制御部26の制御の元で、ES処理
部25が、複数のESの内から送信する特定のESを選
択する際の選択方法について説明する。
[0146] Hereinafter, a method of selecting a specific ES to be transmitted from the plurality of ESs by the ES processing unit 25 under the control of the control unit 26 will be described.

【0147】上記制御部26は、上記複数のESの各E
S毎に、伝送時の優先度を表す伝送優先度情報を保持し
ており、ESを送信する際の伝送路の状態若しくは復号
端末12からの要求に応じて、上記伝送優先度の高い順
に送信可能なESを決定する。すなわち、制御部26
は、ESを送信する際の伝送路の状態若しくは復号端末
12からの要求に応じて、上記伝送優先度の高い順に送
信可能なESが送信されるように、ES処理部25をコ
ントロールする。なおここでは、例えば制御部26が伝
送優先度情報を保持しているとして説明するが、記憶部
9に記憶させておいても良い。
The control unit 26 controls each E of the plurality of ESs.
For each S, transmission priority information indicating the priority at the time of transmission is held, and in accordance with the state of the transmission path at the time of transmitting the ES or a request from the decoding terminal 12, transmission is performed in the descending order of the transmission priority. Determine possible ESs. That is, the control unit 26
Controls the ES processing unit 25 so that the transmittable ESs are transmitted in descending order of the transmission priority in accordance with the state of the transmission path when transmitting the ES or a request from the decoding terminal 12. Here, for example, the description will be made assuming that the control unit 26 holds the transmission priority information, but it may be stored in the storage unit 9.

【0148】図17には、例えばESa、ESb、ES
cの3つのESが存在する場合の各ESの伝送優先度の
一例を示している。すなわち、図17の例では、ESa
の伝送優先度が「30」、ESbの伝送優先度が「2
0」、EScの伝送優先度が「10」となされている。
それら伝送優先度は、値が小さいほど、伝送時の優先度
が高いとする。また、図17中のRaはESaを伝送す
る際の伝送ビットレートであり、RbはESbを伝送す
る際の伝送ビットレートであり、RcはEScを伝送す
る際の伝送ビットレートである。
In FIG. 17, for example, ESa, ESb, ES
An example of the transmission priority of each ES when three ESs of c exist is shown. That is, in the example of FIG.
Transmission priority of “30” and ESb transmission priority of “2”
0 ", and the transmission priority of ESc is" 10 ".
It is assumed that the smaller the transmission priority, the higher the transmission priority. Also, Ra in FIG. 17 is a transmission bit rate when transmitting ESa, Rb is a transmission bit rate when transmitting ESb, and Rc is a transmission bit rate when transmitting ESc.

【0149】ここで、伝送路の状態や復号端末12から
の要求により、送信可能なビットレートRが定まった場
合、制御部26は、伝送優先度が高い順に、上記伝送可
能なビットレートRを超えない範囲でESが選択されて
送信されるように、ES処理部24をコントロールす
る。
Here, if the transmittable bit rate R is determined according to the state of the transmission path or a request from the decoding terminal 12, the control unit 26 sets the transmittable bit rate R in descending order of transmission priority. The ES processing unit 24 is controlled so that the ES is selected and transmitted within a range not exceeding.

【0150】すなわち例えば、伝送可能なビットレート
Rと、各ESの伝送ビットレートとの関係が式(4)で
表されるとき、制御部26は、最も伝送優先度が高いE
Scのみを選択して送信するように、ES処理部25を
コントロールする。
That is, for example, when the relationship between the transmittable bit rate R and the transmission bit rate of each ES is expressed by Equation (4), the control unit 26 sets the E to have the highest transmission priority.
The ES processing unit 25 is controlled so that only Sc is selected and transmitted.

【0151】 Rc≦R<(Rc+Rb) (4) また例えば、伝送可能なビットレートRと、各ESの伝
送ビットレートとの関係が式(5)で表されるとき、制
御部26は、最も伝送優先度が高いEScと次に(2番
目に)伝送優先度が高いESbを選択して送信するよう
に、ES処理部25をコントロールする。
Rc ≦ R <(Rc + Rb) (4) Also, for example, when the relationship between the transmittable bit rate R and the transmission bit rate of each ES is expressed by Expression (5), the control unit 26 The ES processing unit 25 is controlled so that the ESc having the highest transmission priority and the ESb having the second highest (second) transmission priority are selected and transmitted.

【0152】 (Rc+Rb)≦R<(Rc+Rb+Ra) (5) また例えば、伝送可能なビットレートRと、各ESの伝
送ビットレートとの関係が式(6)で表されるとき、制
御部26は、全てのESを選択して送信するように、E
S処理部25をコントロールする。
(Rc + Rb) ≦ R <(Rc + Rb + Ra) (5) Also, for example, when the relationship between the transmittable bit rate R and the transmission bit rate of each ES is expressed by Expression (6), the control unit 26 , So that all the ESs are selected and transmitted
It controls the S processing unit 25.

【0153】 (Rc+Rb+Ra)≦R (6) このように、第3の具体例のフィルタ23を備えた第3
の実施の形態のデータ配信システムによれば、制御部2
6がES毎に伝送優先度情報を保持し、ESを送信する
際の伝送路の状態や復号端末12からの要求に応じて、
その伝送優先度の高い順に送信可能なESを決定するこ
とにより、複数存在するESの内から重要なESを優先
して伝送することが可能となっている。
(Rc + Rb + Ra) ≦ R (6) As described above, the third example including the filter 23 of the third specific example
According to the data distribution system of the embodiment, the control unit 2
6 holds transmission priority information for each ES, and in accordance with the state of the transmission path when transmitting the ES and a request from the decoding terminal 12,
By determining the ESs that can be transmitted in descending order of transmission priority, it is possible to preferentially transmit an important ES from a plurality of ESs.

【0154】上述の説明では、予め設定された優先度に
基づいて、ESの選択やシーン記述の変換を行う例を挙
げているが、当該ESの変換に伴って優先度を変更する
ことも可能である。なお、ESの変換に伴って優先度を
変更する場合、当該優先度の変更は、例えばES処理部
25にて行う。
In the above description, an example is described in which the selection of the ES and the conversion of the scene description are performed based on the priority set in advance. However, the priority can be changed with the conversion of the ES. It is. When the priority is changed along with the conversion of the ES, the change of the priority is performed by, for example, the ES processing unit 25.

【0155】図18には、ESaのビットレートをR
a'になるよう変換したことに伴い、ES処理部25に
より変換された伝送優先度の一例を示す。なお、図18
は、ESaのビットレートを図17の例のビットレート
Raよりも低いビットレートRaとした場合を例に挙げ
ており、当該ビットレートを低くしたことに伴って、伝
送優先度を例えば高く変換(図17では「30」であっ
たものを図18では「15」に変換)している。
FIG. 18 shows that the bit rate of ESa is R
An example of the transmission priority converted by the ES processing unit 25 due to the conversion to a ′ is shown. Note that FIG.
Describes an example in which the bit rate of the ESa is set to a bit rate Ra lower than the bit rate Ra in the example of FIG. 17, and as the bit rate is lowered, the transmission priority is converted to, for example, higher ( What was “30” in FIG. 17 is converted to “15” in FIG.

【0156】さらに、上記伝送優先度は、予め設定した
値を制御部26が保持しておく場合の他に、例えば、E
Sのビットレートや画枠等の符号化パラメータに応じて
設定することができる。例えば図19に示すように、E
SのビットレートRと伝送優先度の関係Ps(R)を保
持しておくことにより、伝送優先度をESのビットレー
トに応じて設定することもできる。すなわち例えば、ビ
ットレートが高いほど伝送コストが高くなると考えられ
るため、図19の例のように、ESのビットレートが高
いほど伝送優先度を低く割り当てることにより、伝送コ
ストの低い(ビットレートの低い)ESを優先して送信
することが可能となる。
Further, the transmission priority is not limited to the case where the control unit 26 holds a preset value.
It can be set according to encoding parameters such as the bit rate of S and the image frame. For example, as shown in FIG.
By maintaining the relationship Ps (R) between the bit rate R of S and the transmission priority, the transmission priority can be set according to the bit rate of ES. That is, for example, it is considered that the higher the bit rate, the higher the transmission cost. Therefore, as shown in the example of FIG. 19, the higher the ES bit rate, the lower the transmission priority, and the lower the transmission cost (the lower the bit rate). ) It is possible to transmit with priority on ES.

【0157】また、画像データのようにES自体が明示
的な画枠を持っている場合は、その画枠に応じて伝送優
先度を設定することも可能である。例えば、図20に
は、ESの画枠領域Sと伝送優先度の関係Ps(S)の
例を示しており、この画枠領域Sと伝送優先度の関係P
s(S)を保持しておくことにより、伝送優先度をES
の画枠に応じて設定することが出来るようになる。すな
わち、一般に画枠が大きいほど伝送コストが高いと考え
られるため、図20の例のように、画枠が大きいほど伝
送優先度を低く割り当てることにより、伝送コストが低
くなると考えられるESを優先して送信するようなこと
が可能となる。
When the ES itself has an explicit frame such as image data, the transmission priority can be set according to the frame. For example, FIG. 20 shows an example of the relationship Ps (S) between the image frame area S of the ES and the transmission priority.
By holding s (S), the transmission priority is set to ES
Can be set in accordance with the image frame. That is, in general, it is considered that the transmission cost is higher as the image frame is larger. Therefore, as shown in the example of FIG. 20, by assigning a lower transmission priority as the image frame is larger, the ES which is considered to have a lower transmission cost is prioritized. Can be transmitted.

【0158】上述したように、ESのビットレートや画
枠などの符号化パラメータに応じて伝送優先度を設定す
る方法は、ES処理部25がESの変換に伴って伝送優
先度を変更する際にも使用できる。例えば、ES処理部
25がビットレートRaのESをビットレートRa’へ
変換したならば、図19に示すように伝送優先度をPs
(Ra’)へ変更することが出来る。
As described above, the method of setting the transmission priority according to the encoding parameters such as the bit rate and the picture frame of the ES is performed when the ES processing unit 25 changes the transmission priority with the conversion of the ES. Can also be used. For example, if the ES processing unit 25 converts the ES having the bit rate Ra into the bit rate Ra ′, the transmission priority is set to Ps as shown in FIG.
(Ra ').

【0159】また、伝送優先度は、動画像や静止画像、
テキスト等のESの種類や、ESの符号化フォーマット
毎に割り当てても良い。例えばテキストには常に最高の
伝送優先度を割り当てるとすれば、伝送路の状態や復号
端末からの要求によって伝送可能なビットレートが制限
される場合でも、テキストデータは常に優先して送信す
ることが可能となる。
The transmission priority is determined for moving images, still images,
It may be assigned for each type of ES such as text, or for each ES encoding format. For example, assuming that the highest transmission priority is always assigned to text, text data can always be transmitted with priority even if the transmittable bit rate is limited by the state of the transmission path or the request from the decoding terminal. It becomes possible.

【0160】また、伝送優先度は、ユーザの嗜好に基づ
いて決定することもできる。すなわち、サーバ10が、
ユーザが好む動画像や静止画像、テキスト等のESの種
類や、ESの符号化フォーマット、ESの符号化パラメ
ータ等の嗜好情報を保持しておくことにより、ユーザが
好むESの種類、符号化フォーマット、符号化パラメー
タを持つESに高い伝送優先度を割り当てることができ
る。これにより、伝送路の状態や復号端末からの要求に
応じて伝送可能なビットレートが制限される場合でも、
ユーザの嗜好に合ったESを優先的に送信し、高品質で
表示させることが可能となる。
Further, the transmission priority can be determined based on the user's preference. That is, the server 10
The type of the user's favorite ES and the encoding format are stored by retaining the type of the user's favorite ES such as moving images, still images, and text, and the preference information such as the ES encoding format and the ES encoding parameter. , A high transmission priority can be assigned to an ES having an encoding parameter. Thereby, even if the bit rate that can be transmitted is limited according to the state of the transmission path and the request from the decoding terminal,
It is possible to preferentially transmit an ES that matches the user's preference and display the ES with high quality.

【0161】上述したように、制御部26がES毎に伝
送優先度情報を保持し、送信する際の伝送路の状態若し
くは復号端末12からの要求に応じて、伝送優先度の高
い順に送信可能なESを決定することにより、重要なE
Sを優先して送信することが可能となっている。
As described above, the control unit 26 holds the transmission priority information for each ES, and can transmit the transmission priority information in the descending order of the transmission priority according to the state of the transmission path at the time of transmission or the request from the decoding terminal 12. Important ES by deciding important ES
S can be transmitted with priority.

【0162】また、本発明の第3の実施の形態に適用さ
れる前記第3の具体例のフィルタ23では、以下のよう
にして、特殊再生中であってもビットレートなどの評価
基準を満たすデータの配信を可能とする。すなわち、こ
の第3の具体例のフィルタ23に設けられるシーン記述
処理部24は、制御部26の制御の元で、以下に述べる
第1〜第5のシーン記述処理を行うことができる。
The filter 23 of the third specific example applied to the third embodiment of the present invention satisfies the evaluation criterion such as the bit rate even during special reproduction as follows. Enables data distribution. That is, the scene description processing unit 24 provided in the filter 23 of the third specific example can perform the following first to fifth scene description processes under the control of the control unit 26.

【0163】第1のシーン記述処理として、第3の具体
例のフィルタ23は、例えばES処理部25より出力さ
れるESに適したシーン記述を出力可能となっている。
すなわち、シーン記述処理部24は、制御部26の制御
の元で、ES処理部25より出力されるESに適したシ
ーン記述を出力可能となされている。以下、図21〜図
25を用いて第1のシーン記述処理を具体的に説明す
る。
As the first scene description processing, the filter 23 of the third specific example can output a scene description suitable for the ES output from the ES processing unit 25, for example.
That is, the scene description processing unit 24 can output a scene description suitable for ES output from the ES processing unit 25 under the control of the control unit 26. Hereinafter, the first scene description processing will be specifically described with reference to FIGS.

【0164】図21には、動画像ESと静止画像ESに
よって構成されたシーンの一表示例を示す。図21中の
Esiはシーン表示領域を示し、図中のEmvはシーン
表示領域Esi内の動画像ES表示領域を、図中のEs
vはシーン表示領域Esi内の静止画像ES表示領域を
示している。
FIG. 21 shows a display example of a scene composed of a moving image ES and a still image ES. Esi in FIG. 21 indicates a scene display area, Emv in the figure indicates a moving image ES display area in the scene display area Esi, and Es in the figure
v indicates the still image ES display area in the scene display area Esi.

【0165】また、図22には、図21のシーン表示領
域Esiに対応したシーン記述を、MPEG4 BIF
Sにて記述した場合の内容、テキストにて表す。
FIG. 22 shows a scene description corresponding to the scene display area Esi shown in FIG.
The content when described in S is represented by text.

【0166】この図22に示したシーン記述は、2つの
立方体を含み、それぞれの表面には、動画像と静止画像
をテクスチャとして貼り付けることが指定されている。
それぞれの物体は、Transformノードによって座標変換
指定されており、図中の#500と#502で示された
translationフィールドの値(ローカル座標の原点位
置)により、その物体が平行移動してシーン中に配置さ
れる。また、図中の#501と#503で示された値
(ローカル座標のスケーリング)により、Transformノ
ードに含まれる物体の拡大,縮小が指定されている。
The scene description shown in FIG. 22 includes two cubes, and on each surface, it is specified that a moving image and a still image are pasted as a texture.
Each object has been designated for coordinate transformation by a Transform node, and is indicated by # 500 and # 502 in the figure.
Depending on the value of the translation field (the origin position of the local coordinates), the object is translated and arranged in the scene. In addition, enlargement or reduction of the object included in the Transform node is specified by the values (scaling of the local coordinates) indicated by # 501 and # 503 in the figure.

【0167】ここで例えば、伝送路(伝送媒体22)の
状態若しくは復号端末12からの要求によって配信デー
タのビットレートを下げる必要が生じた場合において、
例えば伝送時に多くのデータ量が必要となる動画像ES
のビットレートを下げるようなESの変換処理を行った
とする。なお、この時点で静止画像については、例えば
高解像度の静止画像ESが既に伝送されており、復号端
末側に蓄積されているとする。
Here, for example, when it is necessary to reduce the bit rate of the distribution data due to the state of the transmission path (transmission medium 22) or a request from the decoding terminal 12,
For example, a moving image ES that requires a large amount of data during transmission
It is assumed that ES conversion processing has been performed to lower the bit rate of the ES. At this point, it is assumed that, for example, a high-resolution still image ES has already been transmitted and stored on the decoding terminal side.

【0168】この場合、従来のデータ配信システムで
は、ESのビットレート調整の有無に関わらず同一のシ
ーン構成で復号及び表示がなされるため、ビットレート
が下げられた動画像は画質等の劣化が目立つようにな
る。すなわち、図21の例を挙げて具体的に説明する
と、従来のデータ配信システムでは、図21中の動画像
ES表示領域Emvに表示されることになる動画像ES
のビットレートを下げるような調整が行われた場合であ
っても、その調整以前のものと同じシーン構成のままで
ESの復号及び表示(実際のビットレートに見合わない
広い動画像ES表示領域Emvへの表示)がなされるた
め、動画像が粗く(例えば空間解像度が粗く)なり、画
質の劣化が目立つようになる。
In this case, in the conventional data distribution system, decoding and display are performed in the same scene configuration regardless of whether the ES bit rate is adjusted or not. Become noticeable. That is, specifically explaining with reference to the example of FIG. 21, in the conventional data distribution system, the moving image ES to be displayed in the moving image ES display area Emv in FIG.
Decoding and display (with a wide moving image ES display area that does not match the actual bit rate) with the same scene configuration as before the adjustment even if the adjustment is made to lower the bit rate of the (Display on Emv), the moving image becomes coarse (for example, the spatial resolution is coarse), and the deterioration of the image quality becomes conspicuous.

【0169】これに対し、動画像ESのビットレートを
下げた場合に、例えば図23に示すように、動画像ES
表示領域Emvを狭くするようなことを行えば、当該動
画像ES表示領域Emvに表示される動画像の画質劣化
(この例の場合、空間解像度の劣化)を目立たなくする
ことが可能になると考えられる。また、本実施の形態の
場合、静止画像については、既に静止画像ESが伝送さ
れて復号端末に蓄積されているが、当該静止画像が例え
ば高解像度画像であり、図21中の静止画像ES表示領
域Esvが当該解像度には見合わない狭い領域であった
ような場合には、例えば図23に示すように静止画像E
S表示領域Esvを広くすれば、その解像度を十分に活
かすことができると考えられる。このように、動画像E
S表示領域Emvを狭くし、また、静止画像ES表示領
域Esvを広くするような対処は、シーン記述をそのよ
うな内容を表すシーン記述に変更しなければ実現できな
い。
On the other hand, when the bit rate of the moving image ES is reduced, for example, as shown in FIG.
If the display area Emv is narrowed, it is considered that deterioration of the image quality of the moving image displayed in the moving image ES display area Emv (in this case, deterioration of the spatial resolution) can be made inconspicuous. Can be In the case of the present embodiment, for a still image, the still image ES has already been transmitted and stored in the decoding terminal, but the still image is, for example, a high-resolution image, and the still image ES shown in FIG. In the case where the area Esv is a narrow area that does not match the resolution, for example, as shown in FIG.
It is considered that if the S display area Esv is widened, the resolution can be fully utilized. Thus, the moving image E
A measure to narrow the S display area Emv and widen the still image ES display area Esv cannot be realized unless the scene description is changed to a scene description representing such contents.

【0170】そこで、第3の具体例のフィルタ23に設
けられているシーン記述処理部24は、ES処理部25
におけるESのビットレート調整に応じて、シーン記述
を動的に変更して出力するようなことを行う。言い換え
ると、この第3の具体例における制御部26では、ES
処理部25を制御してESのビットレート調整を行わせ
た場合、そのES処理部25から出力されるESに適し
たシーン記述が出力されるようにシーン記述処理部24
を制御することをも行う。これにより、上述の例のよう
に動画像のビットレートを下げたときの画質の劣化を目
立たなくしている。なお、この例では、既に伝送済みの
静止画像の解像度を活かすために、図23に示すように
動画像ES表示領域Emvを狭くし、一方、静止画像E
S領域Esvを広くする、というような対応を実現して
いる。
Therefore, the scene description processing unit 24 provided in the filter 23 of the third specific example includes an ES processing unit 25
The scene description is dynamically changed and output in accordance with the bit rate adjustment of the ES in. In other words, the control unit 26 in the third specific example uses the ES
When the processing unit 25 is controlled to adjust the ES bit rate, the scene description processing unit 24 outputs a scene description suitable for the ES output from the ES processing unit 25.
It also controls the As a result, deterioration in image quality when the bit rate of a moving image is reduced as in the above-described example is made inconspicuous. In this example, in order to utilize the resolution of a still image that has already been transmitted, the moving image ES display area Emv is narrowed as shown in FIG.
A measure such as widening the S region Esv is realized.

【0171】図24を用いて、上述したことを実現する
制御部26の具体的な動作を説明する。
Referring to FIG. 24, a specific operation of control unit 26 for achieving the above will be described.

【0172】図24において、伝送路の状態若しくは復
号端末12からの要求によって配信データのビットレー
トを下げる必要が生じた場合、制御部26は、時刻Tに
おいて、動画像ES292よりもビットレートを下げた
動画像ES293が出力されるようにES処理部25を
制御する。
In FIG. 24, when it is necessary to lower the bit rate of the distribution data due to the state of the transmission path or a request from the decoding terminal 12, at time T, the control unit 26 lowers the bit rate than the moving image ES292. The ES processing unit 25 is controlled so that the output moving image ES293 is output.

【0173】また、制御部26は、時刻Tにおいて、図
21のシーン表示領域Esiに対応したシーン記述29
0を、図23のシーン表示領域Esiに対応したシーン
記述291へ変更するように、シーン記述処理部24を
制御する。すなわちこのときのシーン記述処理部24
は、制御部26の制御の元で、図21のシーン表示領域
Esiを表す前述の図22に示したシーン記述を、図2
3のシーン表示領域Esiを表す図25に示すようなシ
ーン記述へ変換する。なお、この図25のシーン記述も
図22の場合と同様に、MPEG4 BIFSにて記述
されるシーン記述の内容テキストで示している。
At time T, the control unit 26 sets the scene description 29 corresponding to the scene display area Esi in FIG.
The scene description processing unit 24 is controlled so that 0 is changed to the scene description 291 corresponding to the scene display area Esi in FIG. That is, the scene description processing unit 24 at this time
The scene description shown in FIG. 22 representing the scene display area Esi in FIG. 21 under the control of the control unit 26 is shown in FIG.
The scene description is converted into a scene description as shown in FIG. Note that the scene description in FIG. 25 is also indicated by the content text of the scene description described in MPEG4 BIFS, as in the case of FIG.

【0174】前述の図22のシーン記述と比較して、図
25に示したシーン記述では、図中#600と#602
で示されたtranslationフィールドの値(ローカル座標
の原点位置)が変更されていることにより、2つの立方
体を移動させ、図中#601と#603で示されたtran
slationフィールドの値(ローカル座標のスケーリン
グ)により、表面に動画像(図23のEmv)を貼り付
けた立方体を小さく変換し、代わりに表面に静止画像
(図23のEsv)を貼り付けた立方体を大きく変換し
ている。
Compared with the scene description shown in FIG. 22, the scene description shown in FIG.
Since the value of the translation field (origin position of the local coordinates) indicated by is changed, the two cubes are moved, and the transcripts indicated by # 601 and # 603 in the figure are displayed.
According to the value of the slation field (scaling of the local coordinates), the cube with the moving image (Emv in FIG. 23) attached to the surface is converted into a smaller one, and instead, the cube with the still image (Esv in FIG. 23) attached to the surface. The conversion is large.

【0175】この第1のシーン記述処理のように、例え
ば図22に示したシーン記述から図25に示したシーン
記述への変換処理は、シーン記述処理部24において、
予め記憶部9に記憶されている複数のシーン記述のなか
からES処理部25より出力されるESに対応したシー
ン記述(図25のシーン記述)を選択的に読み出して送
出する処理、若しくは、記憶部4から読み出されている
シーン記述(図22のシーン記述)を、ES処理部25
より出力されるESに対応したシーン記述(図25のシ
ーン記述)に変換して送出する処理、或いは、ES処理
部25が出力するESに対応するシーン記述データ(図
25のシーン記述)を生成若しくは符号化して送出する
処理などを行うことにより実現される。なお、シーン記
述の変化分のみを記述可能なシーン記述方法を用いてい
る場合には、その変化分のみを送信するようにしても構
わない。また、上述の例では、動画像ESのビットレー
トを下げたときにその動画像ES表示領域Emvを狭め
る場合について説明を行ったが、逆に、ビットレートを
上げたときに動画像ES表示領域Emvを広げるような
場合であっても当然に本発明にかかるシーン記述変換を
適用できる。さらに、上述の例では、高解像度の静止画
像ESが予め伝送されて蓄積されているとして説明を行
ったが、例えば、予め伝送されて蓄積されている静止画
像が低解像度のものであった場合、新たに高解像度の静
止画像ESを伝送し、且つ、それに対応するシーン記述
を伝送するようにしても良いことは言うまでもない。そ
の他、本実施の形態では動画像と静止画像を例に挙げた
が、本発明は他のマルチメディアデータのビットレート
調整に応じてシーン記述を変更する場合も含まれる。
As in the first scene description process, for example, the process of converting the scene description shown in FIG. 22 to the scene description shown in FIG.
A process of selectively reading and transmitting a scene description (scene description in FIG. 25) corresponding to the ES output from the ES processing unit 25 from among a plurality of scene descriptions stored in the storage unit 9 in advance, or storing The scene description (scene description in FIG. 22) read from the
The process of converting to a scene description corresponding to the ES output (scene description of FIG. 25) and transmitting the same, or generating the scene description data (scene description of FIG. 25) corresponding to the ES output by the ES processing unit 25 Alternatively, it is realized by performing a process of encoding and transmitting. When a scene description method capable of describing only a change in the scene description is used, only the change may be transmitted. Further, in the above-described example, the case has been described where the moving image ES display area Emv is narrowed when the bit rate of the moving image ES is reduced. Conversely, when the bit rate is increased, the moving image ES display area Emv is reduced. Even when Emv is expanded, the scene description conversion according to the present invention can be applied. Further, in the above example, the description has been given assuming that the high-resolution still images ES are transmitted and stored in advance, but, for example, when the still images transmitted and stored in advance are of low resolution. Needless to say, a new high-resolution still image ES may be transmitted, and a corresponding scene description may be transmitted. In this embodiment, a moving image and a still image have been described as examples. However, the present invention includes a case where a scene description is changed according to the bit rate adjustment of other multimedia data.

【0176】以上、図21〜図25を用いて説明した第
1のシーン記述処理によれば、シーンの構成情報を表す
シーン記述を変換処理することにより、伝送路の状態や
復号端末12からの要求に合わせたシーン記述を送信可
能となる上、例えばES処理部25にてESの変換が行
われた場合には、その変換後のESに最適なシーン記述
を送信することが可能となる。
According to the first scene description processing described with reference to FIGS. 21 to 25, the scene description representing the configuration information of the scene is converted, whereby the state of the transmission path and In addition to being able to transmit a scene description according to the request, for example, when the ES processing unit 25 converts the ES, it is possible to transmit a scene description that is optimal for the converted ES.

【0177】次に、第2のシーン記述処理について説明
する。
Next, the second scene description processing will be described.

【0178】例えば、伝送路や復号端末12の状態に応
じてES処理部25よりESのビットレートなどを変換
してESの復号に必要な情報が変化した場合、フィルタ
23は、第2のシーン記述処理として、そのESの復号
に必要な情報を含むシーン記述自体も変換して送信する
ことにより、復号端末側でESのデータ自体から復号に
必要な情報を抽出する必要性を無くしている。すなわ
ち、シーン記述処理部24は、制御部26の制御の元
で、ES処理部25でES変換処理が行われて当該ES
の復号に必要な情報が変化した場合、そのESの復号に
必要な情報を含むシーン記述を出力可能となされてい
る。なお、ESの復号に必要な情報とは、例えばESの
符号化フォーマット、復号に必要なバッファサイズ、ビ
ットレートなどである。以下、前述した各図と図26及
び図27を用いて、第2のシーン記述処理を具体的に説
明する。
For example, when information necessary for decoding the ES changes by converting the ES bit rate and the like from the ES processing unit 25 in accordance with the transmission path and the state of the decoding terminal 12, the filter 23 outputs the second scene. As the description processing, the scene description itself including the information necessary for decoding the ES is also converted and transmitted, so that the decoding terminal does not need to extract information necessary for decoding from the ES data itself. That is, under the control of the control unit 26, the scene description processing unit 24 performs the ES conversion process in the ES
When the information necessary for decoding the ES changes, a scene description including the information necessary for decoding the ES can be output. The information necessary for decoding the ES includes, for example, the encoding format of the ES, the buffer size required for decoding, and the bit rate. Hereinafter, the second scene description process will be specifically described with reference to the above-described drawings and FIGS. 26 and 27.

【0179】図26は、前述の図21及び図22にて説
明したようなシーンで使用されるESの復号に必要な情
報の例を、MPEG4で定められている記述子ObjectDe
scriptorで記述したものである。図22のシーン記述中
で、物体表面にテクスチャとしてマッピングする動画像
は3(=url3)という数値で指定されているが、これは図
26のObjectDescriptorの識別子であるODid=3に対応付
けられる。識別子ODid=3のObjectDescriptor内に含まれ
るES_Descriptorは、ESに関する情報を記述してい
る。また、図中のES_IDは、ESを一意に特定する識別
子である。この識別子ES_IDはさらに、例えばESを伝
送するために使用している伝送プロトコル中のヘッダの
識別子やポート番号等と関連付けることで、実際のES
に対応付けされる。
FIG. 26 shows an example of information necessary for decoding an ES used in a scene as described above with reference to FIGS. 21 and 22 by using a descriptor ObjectDescriptor defined by MPEG4.
It is described by scriptor. In the scene description in FIG. 22, the moving image to be mapped as a texture on the object surface is designated by a numerical value of 3 (= url3), which is associated with ODid = 3 which is the identifier of the ObjectDescriptor in FIG. The ES_Descriptor included in the ObjectDescriptor with the identifier ODid = 3 describes information about the ES. Further, ES_ID in the figure is an identifier for uniquely specifying an ES. This identifier ES_ID is further associated with, for example, an identifier of a header or a port number in a transmission protocol used for transmitting the ES, thereby realizing the actual ES.
Is associated with.

【0180】また、ES_Descriptorの記述中には、Decod
erConfigDescriptorというESの復号に必要な情報の記
述子が含まれる。当該記述子DecoderConfigDescriptor
の情報は、例えばESの復号に必要なバッファサイズや
最大ビットレート、平均ビットレートなどである。
In the description of ES_Descriptor, Decod
An erConfigDescriptor, which is a descriptor of information necessary for decoding the ES, is included. Descriptor DecoderConfigDescriptor
Is, for example, a buffer size, a maximum bit rate, and an average bit rate necessary for decoding the ES.

【0181】一方、図27は、前述の図23に示したシ
ーンに対応する、シーン記述処理部24での変換処理後
のシーン記述に付随するESの復号に必要な情報の例
を、MPEG4で定められている記述子ObjectDescript
orにより記述したものである。ESの変換によって変化
した動画像(ODidが3でシーン記述中から参照される)
の復号バッファサイズ(bufferSiseDB)、最大ビットレ
ート(maxBitRate)および平均ビットレート(avgBitRa
te)が、上記変換前の図26に示したObjectDescriptor
中の記述から図27のように変換されている。すなわ
ち、図26の例では、bufferSiseDB=4000、maxBitRate=
1000000、avgBitRate=1000000となっていたものが、図
27では、bufferSiseDB=2000、maxBitRate=5000000、a
vgBitRate=5000000に変換されている。
On the other hand, FIG. 27 shows an example of information necessary for decoding the ES accompanying the scene description after the conversion processing in the scene description processing unit 24 corresponding to the scene shown in FIG. Defined descriptor ObjectDescript
It is described by or. Moving image changed by ES conversion (ODid is 3 and referenced from scene description)
Decoding buffer size (bufferSiseDB), maximum bit rate (maxBitRate) and average bit rate (avgBitRa)
te) is the ObjectDescriptor shown in FIG. 26 before the conversion.
The description in FIG. 27 is converted as shown in FIG. That is, in the example of FIG. 26, bufferSiseDB = 4000, maxBitRate =
1000000, avgBitRate = 1000000, but in FIG. 27, bufferSiseDB = 2000, maxBitRate = 5000000, a
It has been converted to vgBitRate = 5000000.

【0182】この第2のシーン記述処理のように、シー
ン記述に付随するESの復号に必要な情報の変換処理
は、シーン記述処理部24において、予め記憶部9に記
憶されている複数のESの復号に必要な情報のなかか
ら、ES処理部25より出力されるESに対応した情報
(図27の情報)を選択的に読み出して送出する処理、
若しくは、記憶部9から読み出されているESの復号に
必要な情報(図26の情報)を、ES処理部25より出
力されるESの復号に必要な情報(図27の情報)に変
換して送出する処理、或いは、ES処理部25が出力す
るESの復号に必要な情報(図27の情報)を符号化し
て送出する処理などを行うことにより実現される。
As in the second scene description processing, the conversion processing of the information necessary for decoding the ES accompanying the scene description is performed by the scene description processing unit 24 using a plurality of ESs stored in the storage unit 9 in advance. A process of selectively reading and transmitting information (information in FIG. 27) corresponding to the ES output from the ES processing unit 25 from among information necessary for decoding the
Alternatively, information necessary for decoding an ES (information in FIG. 26) read from the storage unit 9 is converted into information (information in FIG. 27) output from the ES processing unit 25 and necessary for decoding the ES. This is realized by performing a process of transmitting the data, or a process of encoding and transmitting information (information in FIG. 27) necessary for decoding the ES output from the ES processing unit 25.

【0183】以上、説明した第2のシーン記述処理によ
れば、伝送路や復号端末12の状態に応じてESのビッ
トレートなどを変換することによりESの復号に必要な
情報が変化した場合、図27に示すように、シーン記述
中に含まるESの復号に必要な情報を変更して復号端末
12へ送信することにより、復号端末12側でESのデ
ータ自体からES復号に必要な情報を抽出する必要性を
無くすことが可能となっている。
According to the second scene description process described above, when the information necessary for decoding the ES changes by converting the bit rate of the ES according to the transmission path and the state of the decoding terminal 12, As shown in FIG. 27, by changing the information necessary for decoding the ES included in the scene description and transmitting the changed information to the decoding terminal 12, the decoding terminal 12 obtains information necessary for ES decoding from the ES data itself. It is possible to eliminate the need for extraction.

【0184】次に、第3のシーン記述処理について説明
する。
Next, the third scene description processing will be described.

【0185】第3のシーン記述処理として、フィルタ2
3は、シーンを構成するESの数を増減するように明示
的にシーン記述を変換して出力することにより、伝送帯
域に見合うESのみを送信可能にし、一方、復号端末1
2においては、表示等に必要なESをESデータの到着
遅れやデータの損失に依存せずに判断することを可能と
している。すなわち、この例のシーン記述処理部24
は、制御部26の制御の元で、ESの数を増減するよう
に明示的にシーン記述を変換して出力し、復号端末12
の復号部15に設けられるシーン記述復号機能は、表示
等に必要なESをESデータの到着遅れやデータの損失
に依存せずに判断する。以下、前述した各図と図28及
び図29を用いて第3のシーン記述処理を具体的に説明
する。
As a third scene description processing, a filter 2
3 explicitly converts and outputs a scene description so as to increase or decrease the number of ESs constituting a scene, thereby enabling transmission of only ESs corresponding to the transmission band.
In No. 2, it is possible to determine the ES required for display or the like without depending on the arrival delay of the ES data or the loss of the data. That is, the scene description processing unit 24 of this example
Under the control of the control unit 26, explicitly converts and outputs the scene description so as to increase or decrease the number of ESs,
The scene description decoding function provided in the decoding unit 15 determines the ES required for display or the like without depending on the arrival delay of ES data or loss of data. Hereinafter, the third scene description processing will be specifically described with reference to the above-described drawings and FIGS. 28 and 29.

【0186】図28は、前述の図21及び図22で説明
したようなシーンから、例えば、動画像のESを削除し
た場合のシーン記述を、MPEG4 BIFSで記述
(分かり易くテキストとして記述)したものである。ま
た、図29は、図28のシーン記述に基づいて表示され
るシーンの一例を表し、シーン表示領域Esiにはイメ
ージES表示領域(例えば静止画像ES表示領域)Ei
mのみが配されている。図28のシーン記述中で使用さ
れるESはODidが4のESのみであることがシーン記述
から判断可能であるため、復号端末12においては、OD
idが3の動画像ESデータが到着しなくとも、それがE
Sデータの到着遅れやデータの損失に依るものではない
と判断することが出来る。さらに、図26や図27の例
のようなODidが3のObjectDescriptorの記述を削除する
ことにより、ODidが3の動画像ESは不要となったと判
定することが出来る。
FIG. 28 shows a scene description in which, for example, the ES of a moving image is deleted from the scenes described with reference to FIGS. 21 and 22, the scene description is described in MPEG4 BIFS (written as text for easy understanding). It is. FIG. 29 shows an example of a scene displayed based on the scene description in FIG. 28. The image display area Esi includes an image ES display area (for example, a still image ES display area) Ei.
m only. Since it is possible to determine from the scene description that the ES used in the scene description in FIG. 28 is only the ES having the ODid of 4, the decoding terminal 12
Even if the video ES data with the id of 3 has not arrived,
It can be determined that it is not due to the arrival delay of S data or data loss. Furthermore, by deleting the description of the ObjectDescriptor with the ODid of 3 as in the examples of FIGS. 26 and 27, it can be determined that the moving image ES with the ODid of 3 is unnecessary.

【0187】また、この第3のシーン記述処理の例にお
いて、シーンを復号して構成するための処理負荷を一時
的に減じたいとの伝送要求が復号端末12から伝送され
た場合、フィルタ23では、例えば図22に示したシー
ン記述を図28に示したシーン記述に変更することによ
り、動画像をシーン中にテクスチャとしてマッピングす
る処理を明示的に不要とすることを復号端末12に知ら
せることが出来る。これにより、復号端末12では、シ
ーンを復号する処理負荷を減らすことが可能となる。
Also, in the example of the third scene description processing, when a transmission request for temporarily reducing the processing load for decoding and composing a scene is transmitted from the decoding terminal 12, the filter 23 For example, by changing the scene description shown in FIG. 22 to the scene description shown in FIG. 28, it is possible to notify the decoding terminal 12 that the process of mapping a moving image as a texture in a scene is not explicitly required. I can do it. This makes it possible for the decoding terminal 12 to reduce the processing load for decoding a scene.

【0188】この第3のシーン記述処理のように、前述
の図22に示したシーン記述から図28に示したシーン
記述への変換処理は、シーン記述処理部24において、
予め記憶部9に用意されている複数のシーン記述のなか
から、ES処理部25より出力されるES数に対応付け
られているシーン記述(図28のシーン記述)を選択的
に読み出して送出する処理、若しくは、記憶部9から読
み出されたシーン記述を入力とし、出力しないESに対
応する部分データ(シーン記述中のデータ)を削除した
シーン記述(図28のシーン記述)へ変換して出力する
処理、或いは、シーン記述を符号化出力する場合には、
出力しないESに対応する部分を符号化しない処理を行
うことにより実現できる。
As in the third scene description processing, the above-described conversion processing from the scene description shown in FIG. 22 to the scene description shown in FIG.
A scene description (scene description in FIG. 28) corresponding to the number of ESs output from the ES processing unit 25 is selectively read out from a plurality of scene descriptions prepared in the storage unit 9 in advance and transmitted. The processing or the scene description read from the storage unit 9 is input, and the partial data (data in the scene description) corresponding to the ES that is not output is converted into a deleted scene description (the scene description in FIG. 28) and output. Processing, or when encoding and outputting a scene description,
This can be realized by performing processing that does not encode a portion corresponding to an ES that is not output.

【0189】以上説明したように、第3のシーン記述処
理によれば、上述のようにシーン記述を変換することに
より、サーバ10側で意図した通りのシーンを、意図し
たタイミングにおいて復号端末12側で復元することが
可能となる。また、第3のシーン記述処理によれば、シ
ーン記述処理部24において、伝送帯域若しくは復号端
末12の処理性能に適合するまで、シーン記述中の重要
度の低い部分データから順に削除することが可能とな
る。また、第3のシーン記述処理によれば、復号端末1
2の処理性能に余裕が生じた場合には、より詳細なシー
ン記述を送信することが可能となり、それによって復号
端末12の処理性能に対して最適なシーンを復号、表示
等させることが可能となる。
As described above, according to the third scene description processing, by converting the scene description as described above, the scene intended on the server 10 side can be converted at the intended timing by the decoding terminal 12 side. Can be restored. Further, according to the third scene description processing, the scene description processing unit 24 can sequentially delete partial data having lower importance in the scene description until the data conforms to the transmission band or the processing performance of the decoding terminal 12. Becomes According to the third scene description processing, the decoding terminal 1
In the case where there is a margin in the processing performance of No. 2, it is possible to transmit a more detailed scene description, and thereby, it is possible to decode, display, etc. a scene optimal for the processing performance of the decoding terminal 12. Become.

【0190】次に、第4のシーン記述処理について説明
する。
Next, the fourth scene description processing will be described.

【0191】第4のシーン記述処理として、本実施の形
態のサーバ10側では、伝送路の状態や復号端末12か
らの要求に応じて、シーン記述の複雑さを変換すること
により、シーン記述のデータ量を調整し、かつ復号端末
12における処理負荷を調整可能としている。すなわち
この例のシーン記述処理部24は、制御部26の制御の
元、伝送路の状態や復号端末12からの要求に応じて、
シーン記述のデータ量を調整して出力する。以下、図3
0〜図33を用いて第4のシーン記述処理を具体的に説
明する。
As the fourth scene description processing, the server 10 of the present embodiment converts the complexity of the scene description in accordance with the state of the transmission path and the request from the decoding terminal 12 so as to convert the scene description. The data amount can be adjusted and the processing load on the decoding terminal 12 can be adjusted. That is, the scene description processing unit 24 of this example, under the control of the control unit 26, responds to the state of the transmission path and the request from the decoding terminal 12
The data amount of the scene description is adjusted and output. Hereinafter, FIG.
The fourth scene description processing will be specifically described with reference to FIGS.

【0192】図30は、ポリゴンで記述した物体を表示
するためのシーン記述を、MPEG4 BIFSで記述
(分かり易くテキストとして記述)したものである。な
お、図30の例では、簡略化のために、ポリゴンの座標
は省略している。なお、図30のシーン記述において、
IndexedFaceSetとは、Coordinate中のpointで指定した
頂点座標を、CoordIndexで指定した順番に接続してでき
る幾何物体を表している。また、図31は、図30のシ
ーン記述を復号することにより表示されるシーンの表示
例(ポリゴンの物体の表示例)を示す。
FIG. 30 shows a scene description for displaying an object described by a polygon described in MPEG4 BIFS (described as text for easy understanding). In the example of FIG. 30, the coordinates of the polygon are omitted for simplification. In the scene description of FIG. 30,
IndexedFaceSet represents a geometric object formed by connecting the vertex coordinates specified by point in Coordinate in the order specified by CoordIndex. FIG. 31 shows a display example of a scene (display example of a polygonal object) displayed by decoding the scene description of FIG.

【0193】この第4のシーン記述処理の例において、
伝送路の状態により、例えばサーバ10が送信するデー
タ量を減じたい場合、或いは、処理負荷を下げたいとの
伝送要求が復号端末12から伝送された場合、フィルタ
23のシーン記述処理部24では、シーン記述を、より
簡易なシーン記述へと変換する。例えば、図32に示す
シーン記述の例では、図31のようなポリゴンを表すIn
dexedFaceSetを、図33に示すような球体を表すSphere
で置き換えることにより、シーン記述のデータ量自体を
減じ、且つ復号端末12における復号処理とシーンの構
成を行うための処理の負荷を軽減可能となっている。す
なわち、図31のようなポリゴンの場合は、多面体を表
す各値が必要になるのに対し、図33に示すような球体
の場合には、それらが不要となるため、シーン記述のデ
ータ量を減らすことができる。また、復号端末12側で
は、多面体を表示するための複雑な処理が、球体を表示
するための簡単な処理になり、処理負担が軽減されてい
る。
In the fourth example of the scene description processing,
Depending on the state of the transmission path, for example, when it is desired to reduce the amount of data transmitted by the server 10 or when a transmission request to reduce the processing load is transmitted from the decoding terminal 12, the scene description processing unit 24 of the filter 23 Convert a scene description into a simpler scene description. For example, in the example of the scene description shown in FIG. 32, In represents a polygon as shown in FIG.
The dexedFaceSet is changed to a Sphere representing a sphere as shown in FIG.
Thus, the data amount itself of the scene description can be reduced, and the load of decoding processing and processing for performing scene configuration in the decoding terminal 12 can be reduced. That is, in the case of a polygon as shown in FIG. 31, each value representing a polyhedron is required, whereas in the case of a sphere as shown in FIG. 33, these values are not required. Can be reduced. On the decoding terminal 12 side, a complicated process for displaying a polyhedron becomes a simple process for displaying a sphere, and the processing load is reduced.

【0194】この第4のシーン記述処理のように、上記
図30に示したシーン記述から図32に示したシーン記
述への変換処理は、シーン記述処理部24において、例
えば予め記憶部9に用意されている複数のシーン記述の
なかから、伝送路の状態や復号端末12からの要求に適
した評価基準を満たすシーン記述を選択して出力するこ
と、或いは、記憶部9から読み出されたシーン記述を入
力とし、上記評価基準を満たすシーン記述へ変換した
り、或いは、上記評価基準を満たすシーン記述を符号化
出力することにより実現できる。なお、上記評価基準と
は、シーン記述のデータ量や、ノードやポリゴンの数な
どのシーン記述の複雑さを表す基準であれば良い。
As in the fourth scene description process, the process of converting the scene description shown in FIG. 30 into the scene description shown in FIG. 32 is prepared in the scene description processing unit 24, for example, in the storage unit 9 in advance. Selecting and outputting a scene description that satisfies an evaluation criterion suitable for the state of the transmission path or a request from the decoding terminal 12 from among a plurality of scene descriptions described above, or a scene read from the storage unit 9. It can be realized by inputting a description and converting it into a scene description that satisfies the evaluation criteria, or by encoding and outputting a scene description that satisfies the evaluation criterion. The evaluation criterion may be any criterion representing the complexity of the scene description, such as the data amount of the scene description and the number of nodes and polygons.

【0195】また、シーン記述処理部24におけるシー
ン記述の複雑さを変換する他の処理手法としては、図3
2のように複雑な部分データを簡易な部分データで置き
換える処理若しくはその逆の処理、或いは、部分データ
を取り除く処理若しくはその逆の処理、或いはシーン記
述を符号化する場合には量子化ステップを変更すること
によってシーン記述データのデータ量を調整するような
処理などであっても良い。なお、符号化時の量子化ステ
ップ調整によるシーン記述のデータ量制御は、例えば次
のようにして実現できる。例えばMPEG4 BIFS
では、座標や回転軸と角度、サイズ等の量子化カテゴリ
毎に、量子化の使用/不使用や使用ビット数を表す量子
化パラメータを設定することが可能であり、且つ1つの
シーン記述中でも量子化パラメータを変更することがで
きるとされているので、例えば量子化に使用するビット
数を小さくすれば、シーン記述のデータ量を減じること
が可能となる。
As another processing method for converting the complexity of the scene description in the scene description processing section 24, FIG.
(2) The process of replacing complicated partial data with simple partial data or the reverse process, or the process of removing the partial data or the reverse process, or changing the quantization step when encoding a scene description In such a case, the amount of scene description data may be adjusted. The data amount control of the scene description by the quantization step adjustment at the time of encoding can be realized, for example, as follows. For example, MPEG4 BIFS
In, it is possible to set quantization parameters indicating use / non-use of quantization and the number of bits used for each quantization category such as coordinates, rotation axis, angle, and size. Since the quantization parameter can be changed, for example, if the number of bits used for quantization is reduced, the data amount of the scene description can be reduced.

【0196】以上説明したように、第4のシーン記述処
理によれば、シーン記述を変換することにより、サーバ
10側で意図した通りに簡易化したシーンを、復号端末
12側で復元することが可能となる。また、第4のシー
ン記述処理によれば、シーン記述処理部24において、
伝送帯域若しくは復号端末12の処理性能に適合するま
で、シーン記述中の重要度の低い部分データから順に削
除することが可能となる。
As described above, according to the fourth scene description processing, by converting the scene description, the scene simplified as intended on the server 10 side can be restored on the decoding terminal 12 side. It becomes possible. According to the fourth scene description processing, the scene description processing unit 24
Until the transmission bandwidth or the processing performance of the decoding terminal 12 is satisfied, it is possible to delete partial data in the scene description in ascending order of importance.

【0197】次に、第5のシーン記述処理について説明
する。
Next, the fifth scene description processing will be described.

【0198】第5のシーン記述処理として、サーバ10
側では、伝送路の状態や復号端末12からの要求に応じ
て、シーン記述を複数の復号単位に分割することによ
り、シーン記述データのビットレートを調整し、且つ復
号端末12における局所的な処理負荷の集中を回避可能
としている。すなわち、この例のシーン記述処理部24
は、制御部26の制御の元、伝送路の状態や復号端末1
2からの要求に応じて、シーン記述を複数の復号単位に
分割し、それら分割した復号単位のシーン記述の送出タ
イミングを調整して出力する。なお、ある時刻に復号す
べきシーン記述の復号単位は前記符号化単位のAUと同
じである。以下、図34〜図38を用いて第5のシーン
記述処理を具体的に説明する。
As the fifth scene description processing, the server 10
The side adjusts the bit rate of the scene description data by dividing the scene description into a plurality of decoding units in accordance with the state of the transmission path and the request from the decoding terminal 12, and performs local processing in the decoding terminal 12. It is possible to avoid concentration of load. That is, the scene description processing unit 24 of this example
Under the control of the control unit 26, the state of the transmission path and the decoding terminal 1
2, the scene description is divided into a plurality of decoding units, the transmission timing of the scene description of the divided decoding units is adjusted and output. The decoding unit of the scene description to be decoded at a certain time is the same as the AU of the coding unit. Hereinafter, the fifth scene description processing will be specifically described with reference to FIGS.

【0199】図34には、例えば球体、立方体、円錐、
円柱の4つの物体を表すシーン記述を、MPEG4 B
IFSの1つのAUで記述したものである。また、図3
5は、図34のシーン記述を復号して表示されるシーン
の表示例を示し、球体41、立方体42、円錐44、円
柱43の4つの物体が表示されている。この図34に示
した1つのAUに記述されたシーンは、指定された復号
時刻において全て復号し、指定された表示時刻において
表示に反映しなければならない。なお、この復号時刻
(AUをデコードして有効にすべき時刻)は、MPEG
4においてはDTS(Decoding Time Stamp)と呼ばれ
ている。
In FIG. 34, for example, a sphere, a cube, a cone,
A scene description representing four objects in a cylinder is described in MPEG4 B
It is described in one AU of IFS. FIG.
5 shows a display example of a scene displayed by decoding the scene description of FIG. 34, in which four objects of a sphere 41, a cube 42, a cone 44, and a cylinder 43 are displayed. All the scenes described in one AU shown in FIG. 34 must be decoded at the designated decoding time and reflected on the display at the designated display time. Note that this decoding time (time at which the AU should be decoded and made valid) is determined by the MPEG
4 is called DTS (Decoding Time Stamp).

【0200】この第5のシーン記述処理の例において、
伝送路の状態若しくは復号端末12からの要求により、
例えば送信するデータのビットレートを減じたい場合、
或いは復号端末12における局所的な処理負荷を下げた
い場合、フィルタ23のシーン記述処理部24では、シ
ーン記述を複数のAUへ分割し、AU毎のDTSをずら
すことにより、シーン記述の局所的なビットレートを伝
送路の状態若しくは復号端末12からの要求に見合うビ
ットレートへ調整し、DTS毎の復号処理に必要な処理
量を復号端末12からの要求に見合う処理量へ調整す
る。
In the fifth example of the scene description processing,
Depending on the state of the transmission path or a request from the decoding terminal 12,
For example, if you want to reduce the bit rate of the transmitted data,
Alternatively, when it is desired to reduce the local processing load on the decoding terminal 12, the scene description processing unit 24 of the filter 23 divides the scene description into a plurality of AUs, and shifts the DTS for each AU to thereby reduce the local description of the scene description. The bit rate is adjusted to a bit rate that matches the state of the transmission path or the request from the decoding terminal 12, and the processing amount required for decoding processing for each DTS is adjusted to a processing amount that matches the request from the decoding terminal 12.

【0201】すなわち、シーン記述処理部24は、先ず
例えば図34に示したシーン記述を、図36に示すよう
に4つのAU1〜AU4に分割する。ここで、第1のA
U1は、グルーピングを行っているGroupノードに1と
いうIDを割り当て、後続のAUから参照することを可
能とすることが記述されている。MPEG4 BIFS
では、参照可能なグルーピングノードに対して、後から
部分シーンを追加していくことが可能となされている。
第2のAU2から第4のAU4は、部分シーンを第1の
AU1で定義されているIDが1のGroupノードのChild
renフィールドへ追加するコマンドが記述されている。
That is, the scene description processing section 24 first divides, for example, the scene description shown in FIG. 34 into four AU1 to AU4 as shown in FIG. Here, the first A
U1 describes that an ID of 1 is assigned to a group node that performs grouping, and that it can be referenced from a subsequent AU. MPEG4 BIFS
In this example, partial scenes can be added to grouping nodes that can be referred to later.
From the second AU2 to the fourth AU4, a partial scene is defined as a child of a Group node having an ID of 1 defined in the first AU1.
A command to be added to the ren field is described.

【0202】次に、シーン記述処理部24は、上述の第
1のAU1〜第4のAU4について、それぞれ図37に
示すようにDTSをずらして指定する。すなわち、第1
のAU1に対しては第1のDTS1を指定し、第2のA
U2に対しては第2のDTS2を、第3のAU3に対し
ては第3のDTS3を、第4のAU4に対しては第4の
DTS4を指定する。これにより、サーバ10から復号
端末12への局所的なシーン記述データのビットレート
は減じられ、且つ、復号端末12ではDTS毎に発生す
る局所的な復号処理の負荷が減じられる。
Next, the scene description processing unit 24 specifies the first AU1 to the fourth AU4 by shifting the DTS as shown in FIG. That is, the first
The first DTS1 is designated for the AU1 of the
The second DTS2 is designated for U2, the third DTS3 is designated for the third AU3, and the fourth DTS4 is designated for the fourth AU4. Thereby, the bit rate of the local scene description data from the server 10 to the decoding terminal 12 is reduced, and the load of the local decoding process generated for each DTS is reduced in the decoding terminal 12.

【0203】なお、図36のように4つに分割されたシ
ーン記述を、それぞれDTS1〜DTS4にて復号して
表示されるシーンは、図38に示すように、DTS毎に
物体が追加され、最後のDTS4において図35と同様
のシーンが得られることになる。すなわち、DTS1で
は球体41が表示され、DTS2ではさらに立方体42
が追加され、DTS3ではさらに円錐44が追加され、
DTS4ではさらに円柱43が追加されることで、最終
的に4つの物体が表示される。
As shown in FIG. 38, scenes divided into four parts as shown in FIG. 36 and decoded and displayed by DTS1 to DTS4 have objects added for each DTS as shown in FIG. In the last DTS4, a scene similar to that in FIG. 35 is obtained. That is, the sphere 41 is displayed in DTS1, and the cube 42 is further displayed in DTS2.
Is added, and a cone 44 is further added in DTS3,
In the DTS4, by further adding the cylinder 43, four objects are finally displayed.

【0204】この第5のシーン記述処理のように、上記
図34に示したシーン記述から図36に示したシーン記
述への変換処理は、シーン記述処理部24において、例
えば予め記憶部9に用意されている複数のシーン記述の
なかから、伝送路の状態や復号端末12からの要求に適
した評価基準を満たすシーン記述を選択して出力するこ
と、或いは、記憶部9から読み出されたシーン記述を入
力とし、上記評価基準を満たすまで分割したシーン記述
(AU1〜AU4)へ変換したり、或いは、上記評価基
準を満たすまで分割したシーン記述(AU1〜AU4)
をそのAU毎に符号化出力することにより実現できる。
なお、この第5のシーン記述処理における上記評価基準
とは、1つのAUのデータ量や、1つのAUに含まれる
ノードの数、物体の数、ポリゴン数等、1つのAUに含
めるシーンの限界を表す基準であれば良い。
As in the fifth scene description process, the process of converting the scene description shown in FIG. 34 into the scene description shown in FIG. 36 is prepared in the scene description processing unit 24, for example, in the storage unit 9 in advance. Selecting and outputting a scene description that satisfies an evaluation criterion suitable for the state of the transmission path or a request from the decoding terminal 12 from among a plurality of scene descriptions described above, or a scene read from the storage unit 9. The description is input and converted into scene descriptions (AU1 to AU4) divided until the above evaluation criteria are satisfied, or scene descriptions (AU1 to AU4) divided until the above evaluation criteria are satisfied
Is encoded and output for each AU.
The evaluation criterion in the fifth scene description processing includes the data amount of one AU, the number of nodes included in one AU, the number of objects, the number of polygons, and the like, and the limit of the scene included in one AU. Any standard may be used.

【0205】以上説明したように、当該第5のシーン記
述処理によれば、シーン記述を複数のAUへ分割し、A
U毎のDTSの間隔を調整することにより、シーン記述
の平均ビットレートを制御することが可能であり、ま
た、復号端末12の局所的な復号処理の負担を軽減可能
である。なお、平均ビットレートは、ある時間間隔中に
含まれるDTSを持つAUのデータ量の合計を、上記時
間間隔で除算することにより算出可能であるため、シー
ン記述処理部24では、伝送路の状態や復号端末12か
らの要求に適した平均ビットレートを実現するようにD
TSの間隔を調節することができる。なお、上述の例で
は、AUを分割する例を挙げたが、逆に複数のAUを結
合するようなことも可能である。
As described above, according to the fifth scene description processing, the scene description is divided into a plurality of AUs,
By adjusting the DTS interval for each U, it is possible to control the average bit rate of the scene description, and it is possible to reduce the load of the decoding terminal 12 on the local decoding process. The average bit rate can be calculated by dividing the total amount of data of the AU having DTS included in a certain time interval by the above time interval. And an average bit rate suitable for the request from the decoding terminal 12
The interval of TS can be adjusted. Note that, in the above example, an example in which an AU is divided is described, but a plurality of AUs can be combined.

【0206】上述の説明では、第1〜第5のシーン記述
処理を個々に行う例を挙げているが、それら各シーン記
述処理を任意に組み合わせて、複数個のシーン記述処理
を同時に行うことも可能である。この場合は、それら組
み合わせたシーン記述処理それぞれの前述した作用効果
を同時に実現することが可能となる。
In the above description, an example is described in which the first to fifth scene description processes are individually performed. However, a plurality of scene description processes may be simultaneously performed by arbitrarily combining the scene description processes. It is possible. In this case, it is possible to simultaneously realize the above-described effects of the combined scene description processes.

【0207】また、本実施の形態では、シーン記述の例
としてMPEG4 BIFSを挙げているが、本発明は
これに限定されるものではなく、あらゆるシーン記述方
法に対しても適用可能である。また例えば、シーン記述
の変化分のみを記述可能なシーン記述方法を用いている
場合には、その変化分のみを送信する場合も本発明は適
用可能である。
Further, in the present embodiment, MPEG4 BIFS is described as an example of a scene description, but the present invention is not limited to this, and can be applied to any scene description method. Further, for example, when a scene description method capable of describing only a change in a scene description is used, the present invention is also applicable to a case where only the change is transmitted.

【0208】さらに、上述した本発明実施の形態は、ハ
ードウェア構成によっても、また、ソフトウェアによっ
ても実現可能である。
Furthermore, the above-described embodiment of the present invention can be realized by a hardware configuration or by software.

【0209】また、上述の説明では、シーン記述の例と
してHTMLやMPEG4 BIFSを挙げているが、
その他にVRML、Java(商標)など、あらゆるシ
ーン記述方法に対しても適用可能である。
In the above description, HTML and MPEG4 BIFS are given as examples of scene descriptions.
In addition, the present invention can be applied to any scene description method such as VRML and Java (trademark).

【0210】また、本発明は、ビデオデータ、オーディ
オデータ、静止画像データ、テキストデータ、グラフィ
ックデータ、シーン記述データなどのデータのタイプに
依らず、かつあらゆるデータの符号化方法に対して有効
である。さらに、本発明は、ハードウェアによってもソ
フトウェアによっても実現可能である。
The present invention is effective for any data encoding method regardless of data types such as video data, audio data, still image data, text data, graphic data, and scene description data. . Further, the present invention can be realized by hardware or software.

【0211】[0211]

【発明の効果】本発明においては、受信側にて通常再生
を行うときには当該通常再生に使用するデータを出力
し、受信側にて特殊再生を行うときには通常再生に使用
するデータの符号化単位の再生に関連する時間情報を特
殊再生に応じて変換して出力することにより、受信側に
おいて特殊再生を行う場合に、例えばビデオ以外のデー
タの復号及び表示等が可能となり、また、シーン記述デ
ータを配信、復号等することができ、さらに、データ間
の同期関係を保持し、伝送ビットレートなどの評価基準
を満たすデータとして配信することが可能となってい
る。
According to the present invention, when the normal reproduction is performed on the receiving side, the data used for the normal reproduction is output, and when the special reproduction is performed on the receiving side, the encoding unit of the data used for the normal reproduction is output. By converting and outputting the time information related to the reproduction according to the special reproduction, when performing the special reproduction on the receiving side, for example, decoding and display of data other than the video can be performed, and the scene description data can be converted. The data can be distributed, decoded, etc., and the data can be distributed as data that satisfies evaluation criteria such as a transmission bit rate while maintaining a synchronous relationship between the data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明実施の形態のデータ配信システムの構成
例を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a data distribution system according to an embodiment of the present invention.

【図2】第1の実施の形態のデータ配信システムのサー
バの詳細な構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a detailed configuration of a server of the data distribution system according to the first embodiment.

【図3】第1の実施の形態において早送り再生を行う場
合の時間情報の変換処理の説明に用いる図である。
FIG. 3 is a diagram used for explaining a time information conversion process when fast-forward playback is performed in the first embodiment.

【図4】第1の実施の形態においてスロー再生を行う場
合の時間情報の変換処理の説明に用いる図である。
FIG. 4 is a diagram used to describe a process of converting time information when performing slow playback in the first embodiment.

【図5】第1の実施の形態においてジャンプを行う場合
の時間情報の変換処理の説明に用いる図である。
FIG. 5 is a diagram used to explain a process of converting time information when a jump is performed in the first embodiment.

【図6】第2の実施の形態のデータ配信システムのサー
バの詳細な構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a detailed configuration of a server of the data distribution system according to the second embodiment.

【図7】第2の実施の形態において早送り再生を行う場
合の時間情報の変換処理の説明に用いる図である。
FIG. 7 is a diagram used to describe a process of converting time information when fast-forward playback is performed in the second embodiment.

【図8】第2の実施の形態において早送り再生を行う場
合のビットレートの変化の説明に用いる図である。
FIG. 8 is a diagram used to explain a change in bit rate when performing fast-forward playback in the second embodiment.

【図9】第3の実施の形態のデータ配信システムのサー
バの詳細な構成を示すブロック図である。
FIG. 9 is a block diagram illustrating a detailed configuration of a server of the data distribution system according to the third embodiment.

【図10】第3の実施の形態の第1の具体例のフィルタ
における分割処理の流れを示すフローチャートである。
FIG. 10 is a flowchart illustrating a flow of a division process in a filter according to a first specific example of the third embodiment;

【図11】第1の具体例のフィルタにおいてMPEG4
BIFSによるシーン記述の分割候補の説明に用いる
図である。
FIG. 11 shows an MPEG4 filter in the filter of the first specific example.
FIG. 9 is a diagram used to explain a scene description division candidate by BIFS.

【図12】図11のシーン記述の構造説明に用いる図で
ある。
FIG. 12 is a diagram used for describing the structure of the scene description in FIG. 11;

【図13】図11のシーン記述の復号及び表示結果を表
す図である。
13 is a diagram illustrating decoding and display results of the scene description in FIG. 11;

【図14】図11のシーン記述の変換結果を表す図であ
る。
FIG. 14 is a diagram illustrating a conversion result of the scene description of FIG. 11;

【図15】図11のシーン記述の異なる変換候補を表す
図である。
FIG. 15 is a diagram illustrating conversion candidates having different scene descriptions in FIG. 11;

【図16】第3の実施の形態の第2の具体例のフィルタ
の詳細な構成を示すブロック図である。
FIG. 16 is a block diagram illustrating a detailed configuration of a filter according to a second specific example of the third embodiment.

【図17】第2の具体例のフィルタにおける伝送優先度
とビットレートと3つのESとの関係説明に用いる図で
ある。
FIG. 17 is a diagram used to explain the relationship between the transmission priority, the bit rate, and three ESs in the filter of the second specific example.

【図18】ビットレートの変更と伝送優先度の変更の説
明に用いる図である。
FIG. 18 is a diagram used to explain a change in bit rate and a change in transmission priority.

【図19】ESのビットレートRと伝送優先度の関係P
s(R)を示す図である。
FIG. 19 is a relationship P between the bit rate R of the ES and the transmission priority.
It is a figure showing s (R).

【図20】ESの画枠領域Sと伝送優先度の関係Ps
(S)を示す図である。
FIG. 20 is a relationship Ps between the image frame area S of the ES and the transmission priority.
It is a figure showing (S).

【図21】第1のシーン記述処理における変換前のシー
ン記述によるシーン表示結果を示す図である。
FIG. 21 is a diagram illustrating a scene display result by a scene description before conversion in the first scene description processing.

【図22】図21のシーンに対応したシーン記述(MPEG
4 BIFS)の例を表す図である。
FIG. 22 is a scene description (MPEG) corresponding to the scene of FIG. 21;
4 BIFS).

【図23】第1のシーン記述処理における変換後のシー
ン記述によるシーン表示結果を示す図である。
FIG. 23 is a diagram illustrating a scene display result by a converted scene description in the first scene description process.

【図24】第1のシーン記述処理におけるES変換とシ
ーン記述変換のタイミングの説明に用いる図である。
FIG. 24 is a diagram used to explain the timing of ES conversion and scene description conversion in the first scene description processing.

【図25】図23のシーンに対応したシーン記述(MPEG
4 BIFS)の例を表す図である。
25 is a scene description (MPEG) corresponding to the scene of FIG.
4 BIFS).

【図26】図21のシーンに対応するESの復号に必要
な、図22のシーン記述に付随する情報(MPEG4 Object
Descriptor)の例を表す図である。
26 shows information (MPEG4 Object) attached to the scene description in FIG. 22, which is necessary for decoding the ES corresponding to the scene in FIG. 21;
FIG. 7 is a diagram illustrating an example of a Descriptor.

【図27】図23のシーンに対応するESの復号に必要
な、図25のシーン記述に付随する情報(MPEG4 Object
Descriptor)の例を表す図である。
FIG. 27 shows information (MPEG4 Object) attached to the scene description of FIG. 25 necessary for decoding the ES corresponding to the scene of FIG.
FIG. 7 is a diagram illustrating an example of a Descriptor.

【図28】図21及び図22で説明したシーンから動画
像のESを削除した場合のシーン記述(MPEG4 BIFS)の
例を表す図である。
FIG. 28 is a diagram illustrating an example of a scene description (MPEG4 BIFS) when the ES of a moving image is deleted from the scenes described in FIGS. 21 and 22.

【図29】図28のシーン記述による表示結果を示す図
である。
FIG. 29 is a diagram showing a display result based on the scene description of FIG. 28.

【図30】ポリゴンで記述した物体を表示するためのシ
ーン記述(MPEG4 BIFS)の例を表す図である。
FIG. 30 is a diagram illustrating an example of a scene description (MPEG4 BIFS) for displaying an object described by a polygon.

【図31】図30に示すシーン記述による表示結果を示
す図である。
FIG. 31 is a diagram showing a display result by the scene description shown in FIG. 30;

【図32】ポリゴンで記述した物体を球体で置換したシ
ーン記述(MPEG4 BIFS)の例を表す図である。
FIG. 32 is a diagram illustrating an example of a scene description (MPEG4 BIFS) in which an object described by a polygon is replaced by a sphere.

【図33】図32に示すシーン記述による表示結果を示
す図である。
FIG. 33 is a diagram showing a display result based on the scene description shown in FIG. 32;

【図34】4つの物体からなるシーン記述(MPEG4 BIF
S)の例を表す図である。
FIG. 34 shows a scene description composed of four objects (MPEG4 BIF
It is a figure showing the example of S).

【図35】図34に示すシーン記述による表示結果を示
す図である。
FIG. 35 is a diagram showing a display result by the scene description shown in FIG. 34;

【図36】図34に示すシーン記述を4つのAUに分割
した各シーン記述(MPEG4 BIFS)の例を表す図である。
36 is a diagram illustrating an example of each scene description (MPEG4 BIFS) obtained by dividing the scene description illustrated in FIG. 34 into four AUs.

【図37】図36に示す各AUの復号タイミングの説明
に用いる図である。
FIG. 37 is a diagram used to explain the decoding timing of each AU shown in FIG. 36.

【図38】図36に示す各AUのシーン記述による表示
結果を示す図である。
FIG. 38 is a diagram showing a display result based on the scene description of each AU shown in FIG. 36;

【図39】従来のデータ配信システムの概略構成を示す
ブロック図である。
FIG. 39 is a block diagram showing a schematic configuration of a conventional data distribution system.

【図40】図39に示したデータ配信システムの欠点を
解消するデータ配信システムの概略構成を示すブロック
図である。
40 is a block diagram illustrating a schematic configuration of a data distribution system that solves a disadvantage of the data distribution system illustrated in FIG. 39.

【図41】図40のデータ配信システムにおけるビデオ
データ用のデータ変換部の動作の一例(早送り再生)の
簡単な説明に用いる図である。
FIG. 41 is a diagram used for a brief description of an example (fast-forward playback) of an operation of the data converter for video data in the data distribution system of FIG. 40;

【図42】図40のデータ配信システムにおけるビデオ
データ用のデータ変換部の動作の一例(巻き戻し再生)
の簡単な説明に用いる図である。
FIG. 42 shows an example of the operation of the data converter for video data in the data distribution system of FIG. 40 (rewind reproduction);
It is a figure used for brief explanation of.

【図43】VRMLおよびMPEG4 BIFSを用い
たシーン記述の説明に用いる図である。
FIG. 43 is a diagram used to describe a scene description using VRML and MPEG4 BIFS.

【符号の説明】[Explanation of symbols]

1 特殊再生制御部、 7 データ変換部、 4 多重
化部、 5 送信部、9 記憶部、 10 サーバ、
12 復号端末、 13 受信部、 14分離部、 1
5 復号部、 16 シーン合成部、 17 読み出し
部、 18スケジューラ、 19 時間情報書き換え
部、 23 フィルタ、 24 シーン記述処理部、
25 ES処理部、 26 制御部
1 trick play control section, 7 data conversion section, 4 multiplexing section, 5 transmission section, 9 storage section, 10 server,
12 decoding terminal, 13 receiving unit, 14 separating unit, 1
5 decoding section, 16 scene synthesizing section, 17 reading section, 18 scheduler, 19 time information rewriting section, 23 filter, 24 scene description processing section,
25 ES processing unit, 26 control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/92 H04N 5/91 L 5C064 7/025 5/92 H 7/03 7/08 A 7/035 7/13 Z 7/24 7/173 610 (72)発明者 矢ケ崎 陽一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C025 CA02 CA09 CA18 CB10 DA01 5C052 AC03 AC05 CC06 CC11 DD10 5C053 FA23 GB37 KA04 KA05 LA11 LA15 5C059 KK37 MB02 MB22 PP01 PP04 PP19 PP20 RB02 RC19 RC32 RC33 RC34 SS02 UA02 UA05 5C063 AA01 AB03 AB07 AC02 AC05 AC10 CA20 CA23 CA29 CA31 CA36 DA02 DA03 DA05 DA07 DA13 EB01 EB37 EB39 5C064 BA01 BA07 BB05 BC10 BC16 BC23 BC25 BD08 BD09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) H04N 5/92 H04N 5/91 L 5C064 7/025 5/92 H 7/03 7/08 A 7/035 7/13 Z 7/24 7/173 610 (72) Inventor Yoichi Yagasaki 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo F-term in Sony Corporation (reference) 5C025 CA02 CA09 CA18 CB10 DA01 5C052 AC03 AC05 CC06 CC11 DD10 5C053 FA23 GB37 KA04 KA05 LA11 LA15 5C059 KK37 MB02 MB22 PP01 PP04 PP19 PP20 RB02 RC19 RC32 RC33 RC34 SS02 UA02 UA05 5C063 AA01 AB03 AB07 AC02 AC05 AC10 CA20 CA23 CA29 CA31 CA36 DA02 DA03 DA01 DA07 BA07 EB01 BC16 BC23 BC25 BD08 BD09

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】 所定の符号化単位毎に符号化したデータ
を受信側に伝送する際のデータ処理方法において、 上記受信側にて通常再生を行うときには、当該通常再生
に使用するデータを出力し、 上記受信側にて特殊再生を行うときには、上記通常再生
に使用するデータの上記符号化単位の再生に関連する時
間情報を上記特殊再生に応じて変換して出力することを
特徴とするデータ処理方法。
In a data processing method for transmitting data encoded for each predetermined coding unit to a receiving side, when performing normal reproduction on the receiving side, data used for the normal reproduction is output. A data processing method for converting the time information related to the reproduction of the coding unit of the data used for the normal reproduction in accordance with the special reproduction and outputting the data when the special reproduction is performed on the receiving side. Method.
【請求項2】 上記受信側にて特殊再生を行うとき、一
定時間内に出力可能なデータの制限に関する評価基準を
満たすように、上記通常再生に使用するデータの出力時
の符号化単位を選択し、 上記選択した符号化単位の再生に関連する時間情報を上
記特殊再生に応じて変換して出力することを特徴とする
請求項1記載のデータ処理方法。
2. When performing the special reproduction on the receiving side, a coding unit at the time of outputting the data used for the normal reproduction is selected so as to satisfy an evaluation criterion regarding the restriction of data that can be output within a certain time. 2. The data processing method according to claim 1, wherein time information related to reproduction of the selected coding unit is converted and output according to the special reproduction.
【請求項3】 上記特殊再生に応じて上記時間情報が変
換された符号化単位を、一定時間内に出力可能なデータ
の制限に関する評価基準を満たすように変換して出力す
ることを特徴とする請求項1記載のデータ処理方法。
3. The encoding unit in which the time information is converted in accordance with the trick play is converted and output so as to satisfy an evaluation criterion relating to a limit on data that can be output within a predetermined time. The data processing method according to claim 1.
【請求項4】 上記符号化単位の再生に関連する時間情
報は、上記受信側にて上記符号化単位を再現する際の再
現開始時刻、再現時間、再現終了時刻、復号時刻、デー
タ到着時刻の何れか若しくは組み合わせを含むことを特
徴とする請求項1記載のデータ処理方法。
4. The time information related to the reproduction of the coding unit includes a reproduction start time, a reproduction time, a reproduction end time, a decoding time, and a data arrival time when the receiving unit reproduces the coding unit. 2. The data processing method according to claim 1, comprising any one or a combination.
【請求項5】 上記特殊再生の再生速度に応じて、上記
通常再生に使用するデータの上記符号化単位の再生に関
連する時間情報を変換することを特徴とする請求項1記
載のデータ処理方法。
5. The data processing method according to claim 1, wherein time information relating to reproduction of the coding unit of data used for the normal reproduction is converted according to a reproduction speed of the special reproduction. .
【請求項6】 上記特殊再生として、時間的に非連続な
符号化単位へ再生位置を移動させるジャンプ再生を行う
ときには、上記ジャンプ再生の開始時刻と終了時刻中に
相当する符号化単位の出力を停止することを特徴とする
請求項1記載のデータ処理方法。
6. When performing jump reproduction for moving a reproduction position to a temporally discontinuous encoding unit as the special reproduction, an output of the encoding unit corresponding to the start time and the end time of the jump reproduction is performed. 2. The data processing method according to claim 1, wherein the data processing is stopped.
【請求項7】 上記特殊再生の開始時刻をまたいで再現
される符号化単位の再現終了時刻を、上記特殊再生の開
始時刻となるよう上記時間情報を変更することを特徴と
する請求項1記載のデータ処理方法。
7. The time information is changed so that a reproduction end time of a coding unit reproduced over a start time of the trick play becomes a start time of the trick play. Data processing method.
【請求項8】 上記特殊再生の終了時刻をまたいで再現
される符号化単位の再現開始時刻を、上記特殊再生の終
了時刻となるよう上記時間情報を変更することを特徴と
する請求項1記載のデータ処理方法。
8. The time information is changed so that the reproduction start time of an encoding unit reproduced over the special reproduction end time becomes the special reproduction end time. Data processing method.
【請求項9】 上記特殊再生として、時間的に非連続な
符号化単位へ再生位置を移動させるジャンプ再生を行う
とき、上記ジャンプ再生の開始時刻若しくは終了時刻を
またいで再現される符号化単位の出力を停止することを
特徴とする請求項6記載のデータ処理方法。
9. When performing a jump playback for moving a playback position to a temporally non-continuous coding unit as the special playback, a coding unit reproduced over a start time or an end time of the jump playback. 7. The data processing method according to claim 6, wherein the output is stopped.
【請求項10】 上記符号化単位を選択する際に、上記
データが符号化単位間の予測を用いずに符号化されてい
る符号化単位を優先的に選択することを特徴とする請求
項2記載のデータ処理方法。
10. The coding unit according to claim 2, wherein, when selecting the coding unit, a coding unit in which the data is coded without using prediction between coding units is preferentially selected. Data processing method described.
【請求項11】 上記評価基準は、出力するデータのビ
ットレートであることを特徴とする請求項2記載のデー
タ処理方法。
11. The data processing method according to claim 2, wherein the evaluation criterion is a bit rate of output data.
【請求項12】 上記評価基準は、上記データからシー
ンを構成する際のシーン記述データの復号の難易度であ
ることを特徴とする請求項2記載のデータ処理方法。
12. The data processing method according to claim 2, wherein the evaluation criterion is a degree of difficulty in decoding scene description data when a scene is formed from the data.
【請求項13】 上記評価基準は、上記データからシー
ンを構成する際のシーン記述データのシーン合成及びシ
ーン再現の難易度であることを特徴とする請求項2記載
のデータ処理方法。
13. The data processing method according to claim 2, wherein the evaluation criterion is a degree of difficulty in scene synthesis and scene reproduction of scene description data when a scene is formed from the data.
【請求項14】 所定の符号化単位毎に符号化したデー
タを受信側に伝送する際のデータ処理装置において、 上記受信側にて通常再生を行うときには、当該通常再生
に使用するデータを出力し、上記受信側にて特殊再生を
行うときには、上記通常再生に使用するデータの上記符
号化単位の再生に関連する時間情報を上記特殊再生に応
じて変換して出力するデータ変換手段を備えることを特
徴とするデータ処理装置。
14. A data processing device for transmitting data encoded for each predetermined encoding unit to a receiving side, wherein when performing normal reproduction on the receiving side, data used for the normal reproduction is output. When performing special reproduction on the receiving side, the reception side may include data conversion means for converting and outputting time information related to reproduction of the coding unit of the data used for the normal reproduction in accordance with the special reproduction. Characteristic data processing device.
【請求項15】 上記データ変換手段は、上記受信側に
て特殊再生を行うとき、一定時間内に出力可能なデータ
の制限に関する評価基準を満たすように、上記通常再生
に使用するデータの出力時の符号化単位を選択し、上記
選択した符号化単位の再生に関連する時間情報を上記特
殊再生に応じて変換して出力することを特徴とする請求
項14記載のデータ処理装置。
15. The data conversion means according to claim 1, wherein when performing the special reproduction on the receiving side, the data conversion means is adapted to output the data used for the normal reproduction so as to satisfy an evaluation criterion relating to a restriction on data that can be output within a predetermined time. 15. The data processing apparatus according to claim 14, wherein the encoding unit is selected, and time information related to reproduction of the selected encoding unit is converted and output according to the special reproduction.
【請求項16】 上記データ変換手段は、上記特殊再生
に応じて上記時間情報が変換された符号化単位を、一定
時間内に出力可能なデータの制限に関する評価基準を満
たすように変換して出力することを特徴とする請求項1
4記載のデータ処理装置。
16. The data conversion means converts the coding unit obtained by converting the time information in response to the trick play so as to satisfy an evaluation criterion relating to a limit on data that can be output within a predetermined time, and outputs the converted coding unit. 2. The method according to claim 1, wherein
5. The data processing device according to 4.
【請求項17】 上記符号化単位の再生に関連する時間
情報は、上記受信側にて上記符号化単位を再現する際の
再現開始時刻、再現時間、再現終了時刻、復号時刻、デ
ータ到着時刻の何れか若しくは組み合わせを含むことを
特徴とする請求項14記載のデータ処理装置。
17. The time information related to the reproduction of the coding unit includes a reproduction start time, a reproduction time, a reproduction end time, a decoding time, and a data arrival time when the reception side reproduces the coding unit. 15. The data processing device according to claim 14, wherein the data processing device includes any one or a combination.
【請求項18】 上記データ変換手段は、上記特殊再生
の再生速度に応じて、上記通常再生に使用するデータの
上記符号化単位の再生に関連する時間情報を変換するこ
とを特徴とする請求項14記載のデータ処理装置。
18. The data conversion means according to claim 1, wherein said data conversion means converts time information relating to reproduction of said coding unit of data used for said normal reproduction according to a reproduction speed of said special reproduction. 15. The data processing device according to 14.
【請求項19】 上記データ変換手段は、上記特殊再生
として、時間的に非連続な符号化単位へ再生位置を移動
させるジャンプ再生を行うときには、上記ジャンプ再生
の開始時刻と終了時刻中に相当する符号化単位の出力を
停止することを特徴とする請求項14記載のデータ処理
装置。
19. The data conversion means, when performing the jump reproduction for moving the reproduction position to a temporally discontinuous coding unit as the special reproduction, corresponds to the start time and the end time of the jump reproduction. The data processing apparatus according to claim 14, wherein output of the coding unit is stopped.
【請求項20】 上記データ変換手段は、上記特殊再生
の開始時刻をまたいで再現される符号化単位の再現終了
時刻を、上記特殊再生の開始時刻となるよう上記時間情
報を変更することを特徴とする請求項14記載のデータ
処理装置。
20. The data conversion means, wherein the time information is changed so that the reproduction end time of the coding unit reproduced over the special reproduction start time becomes the special reproduction start time. The data processing device according to claim 14, wherein
【請求項21】 上記データ変換手段は、上記特殊再生
の終了時刻をまたいで再現される符号化単位の再現開始
時刻を、上記特殊再生の終了時刻となるよう上記時間情
報を変更することを特徴とする請求項14記載のデータ
処理装置。
21. The data conversion means, wherein the time information is changed so that the reproduction start time of a coding unit reproduced over the special reproduction end time becomes the special reproduction end time. The data processing device according to claim 14, wherein
【請求項22】 上記データ変換手段は、上記特殊再生
として、時間的に非連続な符号化単位へ再生位置を移動
させるジャンプ再生を行うとき、上記ジャンプ再生の開
始時刻若しくは終了時刻をまたいで再現される符号化単
位の出力を停止することを特徴とする請求項19記載の
データ処理装置。
22. The data conversion means, when performing a jump reproduction for moving a reproduction position to a temporally discontinuous coding unit as the special reproduction, reproducing the data over a start time or an end time of the jump reproduction. 20. The data processing apparatus according to claim 19, wherein output of the coding unit to be performed is stopped.
【請求項23】 上記データ変換手段は、上記符号化単
位を選択する際に、上記データが符号化単位間の予測を
用いずに符号化されている符号化単位を優先的に選択す
ることを特徴とする請求項15記載のデータ処理装置。
23. The data conversion means, when selecting the coding unit, preferentially selects a coding unit in which the data is coded without using prediction between coding units. The data processing device according to claim 15, wherein
【請求項24】 上記評価基準は、出力するデータのビ
ットレートであることを特徴とする請求項15記載のデ
ータ処理装置。
24. The data processing apparatus according to claim 15, wherein said evaluation criterion is a bit rate of output data.
【請求項25】 上記評価基準は、上記データからシー
ンを構成する際のシーン記述データの復号の難易度であ
ることを特徴とする請求項15記載のデータ処理装置。
25. The data processing apparatus according to claim 15, wherein the evaluation criterion is a degree of difficulty in decoding scene description data when constructing a scene from the data.
【請求項26】 上記評価基準は、上記データからシー
ンを構成する際のシーン記述データのシーン合成及びシ
ーン再現の難易度であることを特徴とする請求項15記
載のデータ処理装置。
26. The data processing apparatus according to claim 15, wherein the evaluation criterion is a difficulty level of scene synthesis and scene reproduction of scene description data when a scene is composed from the data.
【請求項27】 所定の符号化単位毎に符号化したデー
タを送信する送信装置と、上記データを受信する受信装
置とからなるデータ伝送システムにおいて、上記送信装
置は、上記受信装置にて通常再生を行うときには、当該
通常再生に使用するデータを出力し、上記受信装置にて
特殊再生を行うときには、上記通常再生に使用するデー
タの上記符号化単位の再生に関連する時間情報を上記特
殊再生に応じて変換して出力するデータ変換手段を備え
ることを特徴とするデータ伝送システム。
27. In a data transmission system including a transmitting device that transmits data encoded for each predetermined coding unit and a receiving device that receives the data, the transmitting device performs normal reproduction by the receiving device. When performing the special reproduction by the receiving device, the time information related to the reproduction of the coding unit of the data used for the normal reproduction is output to the special reproduction. A data transmission system comprising data conversion means for converting and outputting according to the data.
【請求項28】 上記データ変換手段は、上記受信装置
にて特殊再生を行うとき、一定時間内に出力可能なデー
タの制限に関する評価基準を満たすように、上記通常再
生に使用するデータの出力時の符号化単位を選択し、上
記選択した符号化単位の再生に関連する時間情報を上記
特殊再生に応じて変換して出力することを特徴とする請
求項27記載のデータ伝送システム。
28. The data conversion means, when performing special reproduction in the receiving device, outputs the data used for the normal reproduction so as to satisfy an evaluation criterion relating to a restriction on data that can be output within a certain period of time. 28. The data transmission system according to claim 27, wherein the encoding unit is selected, and time information related to reproduction of the selected encoding unit is converted and output according to the special reproduction.
【請求項29】 上記データ変換手段は、上記特殊再生
に応じて上記時間情報が変換された符号化単位を、一定
時間内に出力可能なデータの制限に関する評価基準を満
たすように変換して出力することを特徴とする請求項2
7記載のデータ伝送システム。
29. The data conversion means converts the coding unit obtained by converting the time information according to the special reproduction so as to satisfy an evaluation criterion relating to a restriction on data that can be output within a certain time, and outputs the converted coding unit. 3. The method according to claim 2, wherein
7. The data transmission system according to 7.
【請求項30】 上記符号化単位の再生に関連する時間
情報は、上記受信装置にて上記符号化単位を再現する際
の再現開始時刻、再現時間、再現終了時刻、復号時刻、
データ到着時刻の何れか若しくは組み合わせを含むこと
を特徴とする請求項27記載のデータ伝送システム。
30. The time information related to the reproduction of the coding unit includes a reproduction start time, a reproduction time, a reproduction end time, a decoding time, and a reproduction time when reproducing the coding unit in the receiving device.
28. The data transmission system according to claim 27, comprising any one or a combination of data arrival times.
【請求項31】 上記データ変換手段は、上記特殊再生
の再生速度に応じて、上記通常再生に使用するデータの
上記符号化単位の再生に関連する時間情報を変換するこ
とを特徴とする請求項27記載のデータ伝送システム。
31. The data conversion means, according to a reproduction speed of the special reproduction, converts time information relating to reproduction of the coding unit of data used for the normal reproduction. 28. The data transmission system according to 27.
【請求項32】 上記データ変換手段は、上記特殊再生
として、時間的に非連続な符号化単位へ再生位置を移動
させるジャンプ再生を行うときには、上記ジャンプ再生
の開始時刻と終了時刻中に相当する符号化単位の出力を
停止することを特徴とする請求項27記載のデータ伝送
システム。
32. When the data conversion means performs the jump reproduction for moving the reproduction position to a temporally discontinuous coding unit as the special reproduction, the data conversion means corresponds to the start time and the end time of the jump reproduction. The data transmission system according to claim 27, wherein output of the coding unit is stopped.
【請求項33】 上記データ変換手段は、上記特殊再生
の開始時刻をまたいで再現される符号化単位の再現終了
時刻を、上記特殊再生の開始時刻となるよう上記時間情
報を変更することを特徴とする請求項27記載のデータ
伝送システム。
33. The data conversion means, wherein the time information is changed so that the reproduction end time of a coding unit reproduced over the special reproduction start time becomes the special reproduction start time. 28. The data transmission system according to claim 27, wherein
【請求項34】 上記データ変換手段は、上記特殊再生
の終了時刻をまたいで再現される符号化単位の再現開始
時刻を、上記特殊再生の終了時刻となるよう上記時間情
報を変更することを特徴とする請求項27記載のデータ
伝送システム。
34. The data conversion means changes the time information so that the reproduction start time of the coding unit reproduced over the special reproduction end time becomes the special reproduction end time. 28. The data transmission system according to claim 27, wherein
【請求項35】 上記データ変換手段は、上記特殊再生
として、時間的に非連続な符号化単位へ再生位置を移動
させるジャンプ再生を行うとき、上記ジャンプ再生の開
始時刻若しくは終了時刻をまたいで再現される符号化単
位の出力を停止することを特徴とする請求項32記載の
データ伝送システム。
35. The data conversion means, when performing a jump reproduction for moving a reproduction position to a temporally discontinuous coding unit as the special reproduction, reproducing the data over a start time or an end time of the jump reproduction. 33. The data transmission system according to claim 32, wherein output of the coding unit to be performed is stopped.
【請求項36】 上記データ変換手段は、上記符号化単
位を選択する際に、上記データが符号化単位間の予測を
用いずに符号化されている符号化単位を優先的に選択す
ることを特徴とする請求項28記載のデータ伝送システ
ム。
36. The data conversion means, when selecting the coding unit, preferentially selects a coding unit in which the data is coded without using prediction between coding units. 29. The data transmission system according to claim 28, wherein:
【請求項37】 上記評価基準は、出力するデータのビ
ットレートであることを特徴とする請求項28記載のデ
ータ伝送システム。
37. The data transmission system according to claim 28, wherein the evaluation criterion is a bit rate of output data.
【請求項38】 上記評価基準は、上記データからシー
ンを構成する際のシーン記述データの復号の難易度であ
ることを特徴とする請求項28記載のデータ伝送システ
ム。
38. The data transmission system according to claim 28, wherein the evaluation criterion is a degree of difficulty in decoding scene description data when a scene is formed from the data.
【請求項39】 上記評価基準は、上記データからシー
ンを構成する際のシーン記述データのシーン合成及びシ
ーン再現の難易度であることを特徴とする請求項28記
載のデータ伝送システム。
39. The data transmission system according to claim 28, wherein the evaluation criterion is a degree of difficulty in scene synthesis and scene reproduction of scene description data when constructing a scene from the data.
【請求項40】 送信装置にて所定の符号化単位毎に符
号化したデータを、受信装置に伝送する伝送媒体におい
て、 上記受信装置にて通常再生を行うときには、当該通常再
生に使用するデータが伝送され、 上記受信装置にて通常再生を行うときには、当該通常再
生に使用するデータが伝送され、上記受信装置にて特殊
再生を行うときには、上記通常再生に使用するデータの
上記符号化単位の再生に関連する時間情報を上記特殊再
生に応じて変換されたデータが伝送されることを特徴と
する伝送媒体。
40. In a transmission medium for transmitting data coded for each predetermined coding unit by a transmitting device to a receiving device, when the receiving device performs normal reproduction, the data used for the normal reproduction is When the normal reproduction is performed by the receiving device, the data used for the normal reproduction is transmitted. When the special reproduction is performed by the receiving device, the reproduction of the coding unit of the data used for the normal reproduction is performed. A transmission medium, wherein data obtained by converting time information related to the special reproduction according to the special reproduction is transmitted.
JP2000301393A 2000-09-29 2000-09-29 Data processing method and apparatus Expired - Fee Related JP4345217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000301393A JP4345217B2 (en) 2000-09-29 2000-09-29 Data processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000301393A JP4345217B2 (en) 2000-09-29 2000-09-29 Data processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2002112149A true JP2002112149A (en) 2002-04-12
JP4345217B2 JP4345217B2 (en) 2009-10-14

Family

ID=18782934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000301393A Expired - Fee Related JP4345217B2 (en) 2000-09-29 2000-09-29 Data processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4345217B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092293A1 (en) * 2002-04-26 2003-11-06 Sony Corporation Encoding device and method, decoding device and method, edition device and method, recording medium, and program
JP2004192140A (en) * 2002-12-09 2004-07-08 Sony Corp Data communication system, data transmitting device, data receiving device and method, and computer program
JP2008538435A (en) * 2005-04-13 2008-10-23 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Apparatus and method for encoding and decoding three-dimensional mesh information
US7715402B2 (en) 2002-07-24 2010-05-11 Thomson Licensing Method and device for processing digital data
JP2010161670A (en) * 2009-01-09 2010-07-22 Canon Inc Image transmission device and image display system
CN113606752A (en) * 2021-06-29 2021-11-05 宁波德业日用电器科技有限公司 Dehumidifier humidity display method capable of avoiding jumping

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103796024B (en) * 2014-01-17 2017-05-03 西安空间无线电技术研究所 Method for transmitting multiple paths of images at the same time based on information hiding

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401088B2 (en) 2002-04-26 2013-03-19 Sony Corporation Encoding device and method, decoding device and method, edition device and method, recording medium, and program
US10602219B2 (en) 2002-04-26 2020-03-24 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US8537902B2 (en) 2002-04-26 2013-09-17 Sony Corporation Encoding device and method, decoding device and method, edition device and method, recording medium, and program
WO2003092293A1 (en) * 2002-04-26 2003-11-06 Sony Corporation Encoding device and method, decoding device and method, edition device and method, recording medium, and program
US10659839B2 (en) 2002-04-26 2020-05-19 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
CN101827262A (en) * 2002-04-26 2010-09-08 索尼株式会社 Decoding device and method
CN1650629B (en) * 2002-04-26 2010-10-06 索尼株式会社 Encoding device and method, edition device and method
US10609445B2 (en) 2002-04-26 2020-03-31 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US8571115B2 (en) 2002-04-26 2013-10-29 Sony Corporation Encoding device and method, decoding device and method, edition device and method, recording medium, and program
US8315313B2 (en) 2002-04-26 2012-11-20 Sony Corporation Encoding device and method, decoding device and method, edition device and method, recording medium, and program
US10602220B2 (en) 2002-04-26 2020-03-24 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US10602218B2 (en) 2002-04-26 2020-03-24 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US10595081B2 (en) 2002-04-26 2020-03-17 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US8767837B2 (en) 2002-04-26 2014-07-01 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US10477270B2 (en) 2002-04-26 2019-11-12 Sony Corporation Encoding device and method, decoding device and method, editing device and method, recording medium, and program
US7715402B2 (en) 2002-07-24 2010-05-11 Thomson Licensing Method and device for processing digital data
JP2004192140A (en) * 2002-12-09 2004-07-08 Sony Corp Data communication system, data transmitting device, data receiving device and method, and computer program
US8131094B2 (en) 2005-04-13 2012-03-06 Electronics And Telecommunications Research Institute Method and apparatus for encoding/decoding 3D mesh information
JP2008538435A (en) * 2005-04-13 2008-10-23 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Apparatus and method for encoding and decoding three-dimensional mesh information
JP4808771B2 (en) * 2005-04-13 2011-11-02 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Apparatus and method for encoding and decoding three-dimensional mesh information
JP2010161670A (en) * 2009-01-09 2010-07-22 Canon Inc Image transmission device and image display system
CN113606752A (en) * 2021-06-29 2021-11-05 宁波德业日用电器科技有限公司 Dehumidifier humidity display method capable of avoiding jumping

Also Published As

Publication number Publication date
JP4345217B2 (en) 2009-10-14

Similar Documents

Publication Publication Date Title
KR100476781B1 (en) Method for controlling a terminal of MPEG-4 system
US6327421B1 (en) Multiple speed fast forward/rewind compressed video delivery system
JP4118232B2 (en) Video data processing method and video data processing apparatus
US7610605B2 (en) Method and apparatus for conversion and distribution of data utilizing trick-play requests and meta-data information
JPH1075436A (en) System and method for setting index between trick reproduction stream and usual reproduction stream in video distribution system
JPH10200494A (en) Data transmission system and data transmitting method
US20060198438A1 (en) Scene description generating apparatus and method, scene description converting apparatus and method, scene description storing apparatus and method, scene description decoding apparatus and method, user interface system, recording medium, and transmission medium
US7280739B2 (en) Reproduced image transmitting apparatus
US20100166387A1 (en) Method and apparatus for playing video data of high bit rate format by a player capable of playing video data of low bit rate format
JPH11196411A (en) Device and method for picture encoding and device and method for picture decoding
JP3828053B2 (en) Multimedia data restoring apparatus and method capable of changing capacity of buffer for storing received multimedia data
JP2006203910A (en) Method for transmitting data with no jitter in synchronizing ethernet (r) system
US7690018B2 (en) Data processing apparatus and method
US7333711B2 (en) Data distribution apparatus and method, and data distribution system
US20020031188A1 (en) Data transmission system, data transmitting apparatus and method, and scene description processing unit and method
JP4345217B2 (en) Data processing method and apparatus
JP3072971B2 (en) Video-on-demand system, video server device and terminal device constituting the system
US7269839B2 (en) Data distribution apparatus and method, and data distribution system
US20090240848A1 (en) Method and Device for the Transfer of a Data Flow a Data Source to a Data Sink
JP5358916B2 (en) Content distribution apparatus and content distribution method
JP2002077811A (en) Method and device for data processing, data transmission system, and transmission medium
JP2002112194A (en) Data processing method and device, data transmission system, transmission medium
JP2002077827A (en) Data distributor and distributing method, data distribution system
JP2000041220A (en) Device and method for transmitting image data, device and method for receiving image data and providing medium
JP2005277803A (en) Motion picture reproducer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090706

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees