JP3536493B2 - Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams - Google Patents

Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams

Info

Publication number
JP3536493B2
JP3536493B2 JP32481795A JP32481795A JP3536493B2 JP 3536493 B2 JP3536493 B2 JP 3536493B2 JP 32481795 A JP32481795 A JP 32481795A JP 32481795 A JP32481795 A JP 32481795A JP 3536493 B2 JP3536493 B2 JP 3536493B2
Authority
JP
Japan
Prior art keywords
information
multiplexing
stream
encoding
intermediate file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32481795A
Other languages
Japanese (ja)
Other versions
JPH09162830A (en
Inventor
剛 小田
幹太 安田
義明 大石
勝己 田原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP32481795A priority Critical patent/JP3536493B2/en
Publication of JPH09162830A publication Critical patent/JPH09162830A/en
Application granted granted Critical
Publication of JP3536493B2 publication Critical patent/JP3536493B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Time-Division Multiplex Systems (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えばMPEG2
のようなディジタル動画像符号化標準に沿って多重ビッ
トストリームを生成して蓄積メディアに記録するための
オーサリングシステムに関し、並びにこのシステムで使
用される符号化装置及び多重化装置並びに多重ビットス
トリームを生成する方法に関する。
TECHNICAL FIELD The present invention relates to, for example, MPEG2.
, An authoring system for generating a multiplex bitstream according to a digital moving image coding standard and recording it on a storage medium, and an encoding device, a multiplexing device, and a multiplex bitstream used in this system On how to do.

【0002】更に具体的には、例えば映画ビデオ,音楽
ビデオ等のあらゆる種類のビデオ素材を対象にして、そ
のビデオ素材の映像及び映像に対応した背景音(所望に
より、サラウンドを含める。),複数の言語の吹き替
え,複数の言語の字幕等の関連情報をMPEG2標準,
MPEGオーディオ標準等に沿って夫々生成した個別符
号化ビットストリームを、多重化して多重ビットストリ
ーム形式に生成し、光ディスク,光磁気ディスク,磁気
テープ等の蓄積メディアに対してディジタル記録する際
に利用されるオーサリングシステム,このシステムで使
用される符号化装置及び多重化装置並びに多重ビットス
トリームを生成する方法に関する。
More specifically, for example, all kinds of video materials such as movie videos and music videos are targeted, and images of the video materials and background sounds (including surround, if desired) corresponding to the videos, and a plurality of background sounds. Related information such as dubbing of languages, subtitles in multiple languages, MPEG2 standard,
Individually encoded bitstreams generated in accordance with the MPEG audio standard, etc. are multiplexed and generated in a multiplex bitstream format, which is used when digitally recording on storage media such as optical discs, magneto-optical discs, and magnetic tapes. The present invention relates to an authoring system, a coding device and a multiplexing device used in this system, and a method for generating a multiple bit stream.

【0003】このようなオーサリングシステムは、概し
て、符号化装置,多重化装置等から構成されており、符
号化装置により映像,背景音,音声等のソースデータを
MPEG2に沿って夫々圧縮符号化し、多重化装置によ
りこれら圧縮符号化データを1本の多重ビットストリー
ムに生成して蓄積メディアに記録するものである。
Such an authoring system is generally composed of an encoding device, a multiplexing device, etc., and the encoding device compresses and encodes source data such as video, background sound, and audio according to MPEG2. This compression coded data is generated by a multiplexing device into one multiplexed bit stream and recorded in a storage medium.

【0004】[0004]

【従来の技術】〔マルチメディアを多重化するMPEG
システム〕最初に、本発明を容易に理解出来るようにす
るため、本発明に関連するマルチメディアを多重化する
MPEG2(Moving Picture Experts Group2)システ
ム及び最終的に生成される多重ビットストリームの概要
に関して説明する。このよな多重ビットストリームに関
する刊行物としては、安田浩編著:“マルチメディア符
号化の国際標準”,丸善株式会社(1991)、マルチ
メディア通信研究会編:“最新MPEG教科書”アスキ
ー出版局(1995)、テレビジョン学会編:“画像情
報圧縮”オーム社(1991)等があり、以下のMPE
Gシステムの説明に関してこれらを適宜引用している。
2. Description of the Related Art [MPEG for multiplexing multimedia]
System] First, in order to facilitate understanding of the present invention, an outline of an MPEG2 (Moving Picture Experts Group 2) system for multiplexing multimedia related to the present invention and a finally generated multiple bit stream will be described. To do. Publications related to such multiple bit streams include: Hiroshi Yasuda, "International Standards for Multimedia Coding," Maruzen Co., Ltd. (1991), Research Group for Multimedia Communications: "Latest MPEG Textbooks," ASCII Publishing (1995). ), The Television Society of Japan: “Image Information Compression” by Ohmsha (1991), etc.
These are appropriately cited with respect to the description of the G system.

【0005】(MPEGシステム)MPEGビデオやM
PEGオーディオの符号化されたストリーム(ビット
列)、更に他の符号化ストリームを、同期を含めて統合
し1本化すると共に、そのストリームを蓄積メディア等
がもつ固有のフォーマットに適合したデータ形式にする
必要がある。更に、アプリケーションで使用するデータ
を付加することも求められる。このように、ビデオ,オ
ーディオ等を同期化して多重化するのがMPEGシステ
ムの役割である。
(MPEG system) MPEG video and M
A coded stream (bit string) of PEG audio and further another coded stream are integrated into a single stream including synchronization, and the stream is converted into a data format suitable for the unique format of the storage medium. There is a need. Further, it is required to add data used by the application. Thus, the role of the MPEG system is to synchronize and multiplex video and audio.

【0006】MPEG標準には、主にCD−ROM等の
蓄積メディアのための標準であるMPEG1と、MPE
G1のアプリケーションも含む広い範囲のアプリケーシ
ョンのための標準であるMPEG2とがある。本発明
は、主にMPEG2を利用している。また、MPEG2
システムの多重化に関しては、一つのプログラム(番
組)を構成するプログラム・ストリーム(program stre
am、MPEG2−PS)と、複数プログラムを同時に構
成できるトランスポート・ストリーム(transportstrea
m、MPEG2−TS)の2種類の方式があるが、この
内、本発明は、主にMPEG2−PSを対象としてい
る。
The MPEG standards include MPEG1 which is a standard mainly for storage media such as CD-ROM and MPE.
There is MPEG2, which is a standard for a wide range of applications, including G1 applications. The present invention mainly uses MPEG2. Also, MPEG2
Regarding system multiplexing, a program stream (program stream) that constitutes one program (program) is
am, MPEG2-PS) and a transport stream that can configure multiple programs at the same time
m, MPEG2-TS), but of these, the present invention mainly targets MPEG2-PS.

【0007】図6に、本発明に関係するMPEG2シス
テムの基本的な機能を理解するためのシステム構成図を
示す。このシステムは、ビデオ符号器(エンコーダ)3
及びオーディオ符号器(エンコーダ)5からなる符号化
装置1と、ビデオ符号器及びオーディオ符号器の出力を
多重化する多重化装置(MUX Multiplexier)21
と、この多重化装置からの多重ビットストリームを記録
する蓄積メディア53と、蓄積メディアに記録された多
重ビットストリームを分離する分離装置(DMUX De
multiplexer )55と、分離された符号化データを夫々
復号するビデオ復号器57及びオーディオ復号器(デコ
ーダ)59からなる復号装置60とを備えている。
FIG. 6 is a system configuration diagram for understanding the basic functions of the MPEG2 system related to the present invention. This system uses a video encoder (encoder) 3
And an encoder 5 including an audio encoder (encoder) 5 and a multiplexer (MUX Multiplexer) 21 for multiplexing the outputs of the video encoder and the audio encoder.
And a storage medium 53 for recording the multiplex bitstream from this multiplexer and a demultiplexer (DMUX Demultiplexer) for separating the multiplex bitstream recorded on the storage medium.
multiplexer) 55, and a decoding device 60 including a video decoder 57 and an audio decoder (decoder) 59 for decoding the separated encoded data, respectively.

【0008】このシステムの動作に関しては、符号化装
置1のビデオ符号器3及びオーディオ符号器5は、ビデ
オ及びオーディオの個別素材を、例えばMPEG標準に
従って、夫々の連携を保ちながら個別に符号化圧縮す
る。符号化された各個別のストリーム(データ列)を多
重化装置21でアプリケーションに合わせて、ストリー
ムの蓄積メディアのフォーマットに適合した多重化を行
い、記録する。即ち、複数の個別符号化ストリームを時
分割多重して1本のストリームにする。
With regard to the operation of this system, the video encoder 3 and the audio encoder 5 of the encoding device 1 individually encode and compress individual video and audio materials in accordance with the MPEG standard, while maintaining their cooperation. To do. The individual encoded streams (data strings) are multiplexed by the multiplexing device 21 according to the application, multiplexed according to the format of the storage medium of the stream, and recorded. That is, a plurality of individual coded streams are time-division multiplexed into one stream.

【0009】多重ストリームが記録された蓄積メディア
53は、分離装置55で、ビデオ,オーディオ等の各個
別のストリーム(データ列)部分を分離して、夫々の復
号装置60に送る。復号装置60のビデオ復号器57,
オーディオ復号器59等は、多重化装置側で意図したよ
うに、復号装置側で個別ストリームを同期復号する。各
復号器57,59では個別に符号化ビットストリームを
復号して、出力装置(テレビ・モニタ,スピーカ等)に
出力する。
In the storage medium 53 in which the multiple streams are recorded, the separating device 55 separates each individual stream (data string) portion such as video and audio, and sends it to each decoding device 60. The video decoder 57 of the decoding device 60,
The audio decoder 59 and the like synchronously decode the individual stream on the decoding device side, as intended on the multiplexing device side. Each of the decoders 57 and 59 individually decodes the encoded bit stream and outputs it to an output device (television monitor, speaker, etc.).

【0010】近年、符号化・多重化装置1,21から分
離・復号化装置55,59に多重ビットストリームを伝
達する伝達メディア53として、記録媒体として光ディ
スク,光磁気ディスク等を利用したDVD(Digital Vi
deo Disc)が検討されている。本発明は、このDVDに
関連して成された発明である。
In recent years, a DVD (Digital) using an optical disk, a magneto-optical disk or the like as a recording medium as a transmission medium 53 for transmitting a multiple bit stream from the encoding / multiplexing devices 1, 21 to the demultiplexing / decoding devices 55, 59. Vi
deo Disc) is being considered. The present invention is an invention made in relation to this DVD.

【0011】(多重,分離及び同期の方式)次に、多
重,分離及び同期の方式に付いて概略的に説明する。多
くの時分割多重方式で用いられているパケット(Packe
t)による多重方式を、MPEG2システムでも取り入
れている。図7に、基本的なパケットによる1プログラ
ムの多重・分離方式を取り入れたMPEG2−PS(プ
ログラム・ストリーム)の基準復号器を示す。詳細に関
しては、後述する。
(Multiplexing / Demultiplexing / Synchronizing Method) Next, the multiplexing / demultiplexing / synchronizing method will be schematically described. Packets used in many time division multiplexing systems (Packe
The multiplex method by t) is also adopted in the MPEG2 system. FIG. 7 shows an MPEG2-PS (program stream) reference decoder incorporating a basic packet-based one-program multiplexing / demultiplexing method. Details will be described later.

【0012】このパケットによる多重化とは、例えば、
ビデオ,オーディオ等のデータを多重する場合、ビデ
オ,オーディオ等の夫々をパケットと呼ばれる適当な長
さのビットストリーム(ビット列)に分割し、ヘッダ等
の付加情報を付けて、適宜、ビデオ,オーディオ等のデ
ータのパケットを切り換えて時分割記録する方式であ
る。図8(1)に示すように、これらのパケットには、
ヘッダと称される先頭部分にビデオ,オーディオ等の属
性を識別する情報等がある。また、必要に応じて、最後
尾にビット・エラーを検出するためのCRC(Cyclic R
edundancy Check 、巡回冗長検査)と称される符号を追
加する。
[0012] The packet multiplexing is, for example,
When multiplexing data such as video and audio, divide each video and audio into bitstreams (bit strings) of appropriate length called packets, attach additional information such as headers, and add video and audio as appropriate. This is a method of switching the data packet of and recording in time division. As shown in FIG. 8 (1), these packets include
At the head part called a header, there is information for identifying attributes such as video and audio. Also, if necessary, a CRC (Cyclic R) for detecting a bit error at the end is provided.
edundancy Check) is added.

【0013】パケット長は、蓄積メディアに強く依存す
る。例えば、光ディスク・システムのように長い(40
96バイトのパケット長)ものもあり、MPEGでは上
限を約216(64Kバイト)とし、フレキシビリティを
もたせるために、各パケットは固定長でも可変長でも良
いことになっている。ヘッダ等の固定的に必要な部分
は、パケット長に依存しないため、短いパケットはオー
バヘッド(多重化のための追加データ)が大きく、記録
効率が低下するが、時分割多重の切替時間が短いため
に、多重に起因する遅延とバッファ・メモリ量が少なく
て済むというメリットもある。
The packet length strongly depends on the storage medium. For example, as long as the optical disk system (40
There is also a packet length of 96 bytes), and the upper limit is about 2 16 (64 Kbytes) in MPEG, and each packet may be fixed length or variable length in order to have flexibility. Since the fixedly required part such as the header does not depend on the packet length, the short packet has a large overhead (additional data for multiplexing) and the recording efficiency decreases, but the switching time of time division multiplexing is short. In addition, there is an advantage that the delay due to multiplexing and the buffer memory amount can be small.

【0014】図8(2)に示すように、MPEG2−P
S(プログラム・ストリーム)では、ビデオやオーディ
オやその他のデータのパケットの上位にパック・レイヤ
と称する階層がある。通常は複数個のパケットを束ねた
パック(Pack)と称される構成単位で取り扱われる。図
8(2)にパックの構成を示すが、パック・ヘッダ部分
に、後述する同期再生用の時間基準参照用の付加情報等
がある。パックの主目的は、ストリームの途中から復号
再生することを可能にすることにある。
As shown in FIG. 8 (2), MPEG2-P
In S (program stream), there is a layer called a pack layer above the packet of video, audio and other data. Normally, a plurality of packets are handled in a unit called a pack. FIG. 8B shows the structure of the pack. In the pack header portion, there is additional information for reference to a time reference for synchronous reproduction, which will be described later. The main purpose of the pack is to enable decoding and reproduction from the middle of the stream.

【0015】(タイムス・スタンプによるAV同期方
式)復号装置において、個別ストリームの復号は、アク
セク・ユニット単位で行われる。例えば、ビデオでは1
フレーム,オーディオでは1オーディオ・フレームが、
アクセス・ユニットとなる。MPEG2の同期方式に関
しては、ビデオ,オーディオ,他のデータの各アクセス
・ユニットに、何時復号再生すべきかを示すタイム・ス
タンプと称される情報が付加される。このタイム・スタ
ンプに対しては、SCR(System Clock Reference、シ
ステム時刻基準参照値)と称される情報によって時間基
準が与えられる。
(AV synchronization system by time stamp) In the decoding device, the individual stream is decoded in units of access units. For example, in the video 1
For frame and audio, one audio frame
Become an access unit. With regard to the MPEG2 synchronization method, information called a time stamp indicating when to decode and reproduce is added to each access unit of video, audio, and other data. For this time stamp, a time reference is given by information called SCR (System Clock Reference).

【0016】タイム・スタンプは、各アクセス・ユニッ
ト毎に付けられる復号再生処理の時刻管理のタグ(札)
に相当する。MPEGオーディオの符号化方式に起因し
て、2種類のタイム・スタンプがあり、一つはPTS
(Presentation Time Stamp )と称される「再生出力の
時刻管理情報」で、他方はDTS(Decoding Time Stam
p )と称される「復号の時刻管理情報」である。これら
のタイム・スタンプは、パケットの中にアクセス・ユニ
ットの先頭がある場合には、パケット・ヘッダに付加す
る。しかし、パケットの中にアクセス・ユニットの先頭
がない場合には、パケット・ヘッダにタイム・スタンプ
は付加しない。また、パケットの中に二つ以上のアクセ
ス・ユニットの先頭があっても、最初のアクセス・ユニ
ットに対応するタイム・スタンプだけをパケットヘッダ
に付加する。
The time stamp is a tag for managing the time of decoding / reproduction processing that is attached to each access unit.
Equivalent to. There are two types of time stamps due to the MPEG audio encoding method, one is PTS.
(Presentation Time Stamp) is the "time information of reproduction output management", and the other is DTS (Decoding Time Stamp).
This is "decoding time management information" called p). These time stamps are added to the packet header if the access unit is at the beginning of the packet. However, if there is no access unit at the beginning of the packet, no time stamp is added to the packet header. Also, even if there are two or more access units at the head of the packet, only the time stamp corresponding to the first access unit is added to the packet header.

【0017】図7に示すMPEG2−PS(プログラム
・ストリーム)の基準復号器に関して説明する。蓄積メ
ディアに記録された多重ビットストリームが、分離装置
55により個別ストリームに分離される。ビデオのビッ
トストリームは、ビデオのSTD(System Target Deco
der 、システムに対応したデコーダ)バッファ57′に
蓄積され、オーディオのビットストリームは、オーディ
オのSTDバッファ59′に蓄積される。タイム・スタ
ンプ(PTS,DTS)に時間基準を与えるSCR(シ
ステム時刻基準参照値)は、システム・デコーダ61に
蓄積される。
The MPEG2-PS (program stream) reference decoder shown in FIG. 7 will be described. The multiplex bitstream recorded on the storage medium is separated into individual streams by the separating device 55. The video bitstream is a video STD (System Target Deco
der, the decoder corresponding to the system) buffer 57 ', and the audio bit stream is stored in the audio STD buffer 59'. The SCR (system time reference reference value) that gives a time reference to the time stamps (PTS, DTS) is stored in the system decoder 61.

【0018】PTS(再生出力の時刻管理情報)は、図
7に示されたMPEG2−PSの基準復号器の内部のS
TC(System Time Clock 、基本となる同期信号。基本
的には、SCRと一致している。)がPTSに一致した
時に、そのアクセス・ユニット を再生出力する。PT
Sの精度は、90kHzのクロックで計測した値を33
ビ ット長で表す。90kHzの理由は、NTSC,P
AL両方のビデオ方式のフレ ーム周波数の公倍数であ
ることと、オーディオの1サンプル周期よりも高い精度
を得るためである。32ビット長の理由は、90kH
zのクロックの計測値で、 ビデオのSMPTE(Soci
ety of Motion Picture and TelevisionEngineers、
アメリカ映画・テレビ技術協会)タイム・コードと同様
に1日の24時間の範囲 を表現できるようにするため
である。
PTS (reproduction output time management information) is S in the MPEG2-PS reference decoder shown in FIG.
When TC (System Time Clock, a basic synchronization signal, which basically matches SCR) matches PTS, the access unit is reproduced and output. PT
The accuracy of S is 33 when the value measured with the clock of 90 kHz.
Expressed in bit length. The reason for 90 kHz is NTSC, P
This is because it is a common multiple of the frame frequency of both AL video systems, and is more accurate than one sample period of audio. The reason for the 32-bit length is 90 kHz
z SMPTE (Soci
ety of Motion Picture and Television Engineers,
This is because it is possible to express the range of 24 hours a day like the time code of the American Film and Television Engineering Association.

【0019】DTS(復号の時刻管理情報)は、MPE
G2ではビデオの特殊な符号化ストリームの送出順序が
あることから設けられている。即ち、Iピクチャ(Intr
a-Picture 、フレーム内符号化画像)とPピクチャ(Pr
edictive-Picture、フレーム間順方向予測符号化画像)
は、Bピクチャ(Bidirectinally Predictive-Picture
、双方向予測符号化画像)よりも先行して符号化スト
リームに送出するために、復号する順序と再生出力する
順序が異なることに対応したものである。PTSとDT
Sが異なる場合には、両方のタイム・スタンプを付け、
一致する場合にはPTSだけを付けることになってい
る。具体的には、Bピクチャのあるビデオ符号化ストリ
ームでは、IピクチャとPピクチャでPTS及びDTS
を付け、Bピクチャや、BピクチャのないIピクチャと
BピクチャではPTSだけでよいことになる。
DTS (decoding time management information) is MPE
G2 is provided because there is a special video encoded stream transmission order. That is, I picture (Intr
a-Picture, intra-frame coded image and P picture (Pr)
edictive-Picture, inter-frame forward prediction coded image)
Is a B-picture (Bidirectinally Predictive-Picture
, Bidirectional predictive coded image), the order of decoding is different from the order of reproduction and output in order to send it to the coded stream in advance. PTS and DT
If S is different, add both time stamps,
If they match, only the PTS is to be added. Specifically, in a video coded stream having B pictures, PTS and DTS are used for I pictures and P pictures.
For B pictures, I pictures without B pictures and B pictures, only PTS is required.

【0020】SCR(System Clock Referenceシステム
時刻基準参照値)は、ビデオ,オーディオの復号器を含
むMPEGシステム復号装置において、時刻基準となる
STC(基準となる同期情報)の値を符号器側で意図し
た値にセット・校正するための情報である。また、SC
Rの利用に際しては、単にSCRの値だけでは不十分
で、SCRの値を運んでいるストリーム中のバイトのタ
イミング(復号器への到達時刻)の精度が必要となる。
SCRは、MPEG2では6バイト(実データは42ビ
ット)で送られるが、復号器側では、その最終段の到達
の瞬間に、STCはSCRの値をセットすることが求め
られる。
SCR (System Clock Reference system time reference value) is intended for the encoder side with respect to the value of STC (reference synchronization information) which is the time reference in an MPEG system decoding device including video and audio decoders. This is information for setting / calibrating to the specified value. Also, SC
When using R, the SCR value alone is not sufficient, and the accuracy of the timing of the bytes (arrival time at the decoder) in the stream carrying the SCR value is required.
The SCR is sent in 6 bytes (actual data is 42 bits) in MPEG2, but on the decoder side, the STC is required to set the value of the SCR at the moment of reaching the final stage.

【0021】このSCRに対して、復号装置側はSTC
と一体になったPLL(位相ロック・ループ)を構成し
て、符号器のシステム・クロックと完全に周波数の一致
したSTCを復号器でもつことが出来る。
In response to this SCR, the decoder side STC
It is possible to construct a PLL (Phase Locked Loop) integrated with the STC and to have the STC whose frequency is completely matched with the system clock of the encoder in the decoder.

【0022】分離装置55及び復号装置60を更に説明
すると、分離装置55で多重ビットストリームを映像の
個別ストリーム,音声の個別ストリーム等に分離して、
夫々のSTDバッファ57′,59′に逐次記録され
る。夫々の復号器では、対応するSTDバッファから所
定のタイミングで1アクセス・ユニット分(ビデオでは
1フレーム分、オーディオでは1オーディオ・フレーム
分)のビットストリームを読み出し、復号化処理を行
う。
The separating device 55 and the decoding device 60 will be further described. The separating device 55 separates the multiplexed bit stream into individual video streams, individual audio streams, and the like.
The data is sequentially recorded in the respective STD buffers 57 'and 59'. Each decoder reads a bit stream of one access unit (one frame for video and one audio frame for audio) from a corresponding STD buffer at a predetermined timing and performs a decoding process.

【0023】図9は、STDバッファに蓄積される状態
及び所定のタイミングで読み出し、復号化するタイミン
グを説明する図である。最初、STDバッファは空であ
ったと仮定する。分離装置から個別ビットストリームが
順次蓄積される。1フレーム分蓄積された時、復号化装
置は蓄積されたビットストリームを1アクセス・ユニッ
ト分だけ一度に読み出し、読み出されたビットストリー
ムの復号化処理を開始する。読み出しタイミングが所定
のタイミングより遅れたり又はビットレートが早過ぎる
と、STDバッファはオーバフローを生ずる。所定のタ
イミングより早すぎたり又はビットレートが遅過ぎる
と、アンダーフローを生じて、いずれにしてもバッファ
は破綻する。
FIG. 9 is a diagram for explaining the state of being stored in the STD buffer and the timing of reading and decoding at a predetermined timing. Initially, assume that the STD buffer was empty. Individual bitstreams are sequentially accumulated from the separation device. When one frame has been accumulated, the decoding device reads the accumulated bitstream by one access unit at a time, and starts the decoding process of the read bitstream. If the read timing is delayed from the predetermined timing or the bit rate is too fast, the STD buffer overflows. If the timing is too early or the bit rate is too slow, the underflow will occur and the buffer will fail in any case.

【0024】更に、多重ビットストリームは、ビデオに
対し、対応するオーディオ等が適当な順序・割合で送ら
れて同期を取ることが必要である。例えば、ビデオのみ
送られて来てそれに対応するオーディオ等が送られて来
ないと、ビデオとオーディオ等の同期が取れず、再現で
きなくなる。
Further, in the multiple bit stream, it is necessary to synchronize the corresponding audio and the like with the video in an appropriate order and ratio. For example, if only the video is sent and the corresponding audio or the like is not sent, the video and the audio cannot be synchronized and cannot be reproduced.

【0025】従って、予め、多重化装置においてビデオ
データとオーディオデータ等とを多重化する際に、ST
Dバッファが破綻しないように、またビデオとオーディ
オ等の同期が取れて復号が行われるように、スケジュー
リングを行いながら多重ビットストリームを生成するこ
とが必要になる。
Therefore, when the video data and the audio data are multiplexed in advance by the multiplexer, the ST
It is necessary to generate a multiple bit stream while performing scheduling so that the D buffer does not break down and that video and audio are synchronized and decoded.

【0026】従来、図10に示すようなビデオCD等に
使用されるリアルタイム・オーサリングシステムが知ら
れている。図10のリアルタイム・オーサリングシステ
ムは符号化装置1と、多重化装置21からなり、符号化
装置1は、一般に、ディジタル・ビデオソース信号(個
別素材)を符号化するビデオ符号化器3と、ディジタル
・オーディオソース信号(個別素材)を符号化するオー
ディオ符号化器5とを有する。
Conventionally, a real-time authoring system used for a video CD as shown in FIG. 10 is known. The real-time authoring system of FIG. 10 comprises a coding device 1 and a multiplexing device 21. The coding device 1 generally comprises a video encoder 3 for coding a digital video source signal (individual material) and a digital encoder. An audio encoder 5 that encodes an audio source signal (individual material).

【0027】多重化装置21は、前段に、ビデオ符号化
器3に接続されたバッファメモリ65と、オーディオ符
号化器5に接続されたバッファメモリ67とを有し、更
に後段に、これらバッファメモリ65,67に接続され
た多重化器回路69とを有している。
The multiplexer 21 has a buffer memory 65 connected to the video encoder 3 and a buffer memory 67 connected to the audio encoder 5 in the front stage, and these buffer memories in the rear stage. And a multiplexer circuit 69 connected to 65 and 67.

【0028】図10のリアルタイム・オーサリングシス
テムの動作は、ビデオ符号化器3及びオーディオ符号化
器5は、ビデオソース信号,オーディオソース信号等の
個別素材を、夫々の連携を保ちながら、個別に圧縮符号
化する。符号化ビデオ・ビットストリームはバッファメ
モリ65に逐次蓄積され、同様に符号化オーディオ・ス
トリームはバッファメモリ67に逐次蓄積される。
In the operation of the real-time authoring system shown in FIG. 10, the video encoder 3 and the audio encoder 5 individually compress individual materials such as a video source signal and an audio source signal while maintaining their cooperation. Encode. The coded video bitstream is sequentially stored in the buffer memory 65, and similarly, the coded audio stream is sequentially stored in the buffer memory 67.

【0029】多重化回路69は、バッファメモリ65に
蓄積されたビデオデータと、バッファメモリ67に蓄積
されたオーディオデータとを、所定の順序で多重化し
て、ビデオビットストリームとオーディオビットストリ
ームが時分割多重化された多重ビットストリームを生成
する。多重ビットストリームは、適当な蓄積メディアに
記録される。
The multiplexing circuit 69 multiplexes the video data stored in the buffer memory 65 and the audio data stored in the buffer memory 67 in a predetermined order so that the video bit stream and the audio bit stream are time-divided. Generate a multiplexed multiple bitstream. The multiple bitstream is recorded on a suitable storage medium.

【0030】[0030]

【発明が解決しようとする課題】このような従来のリア
ルタイム・オーサリングシステムを使用して、多重ビッ
トストリームを生成する場合、大別して3つの問題が生
じてきた。即ち、多重化スケジューリングに関する問
題,同一エレメンタリー・ストリームを用いて複数回多
重化を行う場合の問題及び参照画像位置情報に関する問
題がある。
When a conventional multi-bitstream is generated using such a conventional real-time authoring system, there are three major problems. That is, there are problems regarding multiplexing scheduling, problems when multiple times multiplexing is performed using the same elementary stream, and problems regarding reference image position information.

【0031】(1)多重化スケジューリングに関する問
題 従来は個別素材としてビデオとオーディオのみを多重し
ていたが、適用範囲が拡大するにつれ、映画ソース,音
楽ビデオ等を含むあらゆるビデオソースが対象となって
いる。例えば、1つの映像に対応して、オーディオに関
してはサラウンドを付加して蓄積したり、数カ国の言語
で吹き替えし、また数カ国語の言語の字幕を含んだ多重
ビットストリームを生成し、蓄積メディアに記録したい
場合が生じる。
(1) Problems with Multiplexing Scheduling In the past, only video and audio were multiplexed as individual materials, but as the scope of application expands, all video sources including movie sources, music videos, etc. are targeted. There is. For example, corresponding to one video, audio is added with surround sound and accumulated, or dubbed in several languages, and a multiple bit stream including subtitles in several languages is generated to store the media. Occasionally you want to record.

【0032】この場合、動画像信号,音声信号,字幕信
号等を夫々の所定の符号化装置により圧縮して得られた
個別ビットストリームと、その他非圧縮のビットストリ
ーム等を多重化装置(MUX)で多重化し、1本のMP
EG2標準の多重ビットストリームとして所定の記録媒
体に記録する必要がある。
In this case, an individual bit stream obtained by compressing a moving image signal, an audio signal, a caption signal, etc. by a respective predetermined encoding device, and a non-compressed bit stream etc. are multiplexed (MUX). Multiplex with 1 MP
It is necessary to record it on a predetermined recording medium as an EG2 standard multiple bit stream.

【0033】MPEG2標準の多重ビットストリーム
は、分離・復号化装置の前段にある分離装置(DMU
X)により複数種の個別ビットストリームに分離され、
各個別ビットストリームはその後段にある各々の復号化
装置により復号・再生される。分離装置から分離・送出
された各個別ビットストリームは各々のSTDバッファ
に蓄積され、各々の復号化装置によりアクセス・ユニッ
ト分のビットストリームが読み出されてデコードされ
る。
The MPEG2 standard multi-bitstream is a demultiplexer (DMU) in the preceding stage of the demultiplexer / decoder.
X) separates into multiple types of individual bitstreams,
Each individual bit stream is decoded and reproduced by each decoding device in the subsequent stage. The individual bitstreams separated / sent from the separation device are accumulated in the respective STD buffers, and the bitstreams for access units are read and decoded by the respective decoding devices.

【0034】この場合に、分離装置から分離・送出され
る各エレメンタリー・ストリームは、そのSTDバッフ
ァをオーバフロー又はアンダフローして破綻させてはな
らない。また、ビデオに対してオーディオ等が同期が取
れた割合で組み合わせてあることが必要である。従っ
て、各復号化装置のSTDバッファが破綻しないよう
に、予め多重化装置において、個別ビットストリームを
多重化するに際して、個別ビットストリームの適切な組
み合わ及び適切な個別ビットストリーム長の決定等のス
ケジューリング処理を行わなければならない。
In this case, each elementary stream separated / sent from the separation device should not overflow or underflow its STD buffer and be destroyed. In addition, it is necessary that audio and the like are combined with the video in a synchronized ratio. Therefore, in order to prevent the STD buffer of each decoding device from failing, a scheduling process such as appropriate combination of individual bit streams and determination of an appropriate individual bit stream length is performed in advance when multiplexing individual bit streams in a multiplexing device. Must be done.

【0035】多重化のスケジューリング処理を行う場合
に、現在まさに多重化(パケット化)しようとする部分
の大きさを決めるために、多重化すべきエレメンタリー
・ストリーム(素ビット列)を先読みしてそれより先の
部分(DTSが遅い部分)のアクセス・ユニットの大き
さを観察することにより、現在の多重化を決定すること
が可能となる。
In order to determine the size of the portion to be multiplexed (packetized) at the time of performing the scheduling process of multiplexing, the elementary stream (prime bit string) to be multiplexed is prefetched and By observing the size of the access unit in the previous part (the part with the slower DTS), it is possible to determine the current multiplexing.

【0036】このため、従来のリアルタイム・オーサリ
ングシステムのように、符号化と多重化をリアルタイム
で実行する場合には、多重化スケジューリングの先読み
のために多重化装置にバッファメモリを備える必要があ
る。
Therefore, when the encoding and multiplexing are executed in real time as in the conventional real-time authoring system, it is necessary to equip the multiplexer with a buffer memory for pre-reading of the multiplexing scheduling.

【0037】このバッファメモリに関して、オーサリン
グシステムでは、適用範囲の拡大にともない多数のエレ
メンタリー・ストリームを多重化する場合が生じる。実
際、このような場合を想定して、MPEG2では音声は
最大32本のエレメンタリー・ストリームの多重化を許
容している。このような多数のエレメンタリー・ストリ
ームの多重化をリアルタイム処理するには、当然のよう
に、莫大な容量のバッファメモリが必要になる。
With respect to this buffer memory, in the authoring system, a large number of elementary streams may be multiplexed as the scope of application is expanded. In actuality, assuming such a case, MPEG2 permits multiplexing of a maximum of 32 elementary streams. In order to process the multiplexing of such a large number of elementary streams in real time, as a matter of course, a huge capacity of buffer memory is required.

【0038】また、そのように多重化するエレメンタリ
ー・ストリームの個数が多くなればなるほど、前述のよ
うに夫々の復号装置のSTDバッファの破綻が起こらな
いように多重化スケジューリングを行うために、先読み
の範囲を相当広げなければならなくなる。この点から
も、多重化装置には莫大な容量のバッファメモリが必要
とされる。
Further, as the number of elementary streams to be multiplexed increases, the pre-reading is performed in order to perform the multiplexing scheduling so that the STD buffer of each decoding device will not be broken as described above. The range of will have to be expanded considerably. From this point of view, the multiplexer requires a huge capacity of buffer memory.

【0039】更に、エレメンタリー・ストリームの個数
が増加する毎に、その分だけ解析の量も増加し、多重化
装置の負担が大きくなる。
Further, as the number of elementary streams increases, the amount of analysis also increases, and the load on the multiplexer increases.

【0040】(2)同じ映像のエレメンタリー・ストリ
ームを用いて、複数回多重化を繰り返す問題 MPEG2の多重化の仕様から、音声のエレメンタリー
・ストリームは最大32個まで多重化可能である。この
音声多重化の許容範囲を利用して、映画やビデオソース
に対し、1つの映像に対して多数国の言語で吹き替えし
たり、多数国の言語の字幕を挿入して多重ビットストリ
ームを生成し、これを蓄積した蓄積メディアを作成する
こと望まれる。
(2) Problem of Repeating Multiplexing Multiple Times Using Elementary Streams of the Same Video According to the MPEG2 multiplexing specification, up to 32 audio elementary streams can be multiplexed. Using this audio multiplexing tolerance range, a movie or video source can be dubbed in one language in multiple languages, or subtitles in multiple languages can be inserted to generate multiple bitstreams. , It is desirable to create a storage medium that stores this.

【0041】言い換えれば、1つのプログラム(番組)
の映像のエレメンタリー・ストリームに対して、複数個
の音声のエレメンタリー・ストリームと、複数の字幕の
エレメンタリー・ストリームとから、組み合わせを変え
た複数個の多重ビットストリームを作成したい場合であ
る。
In other words, one program (program)
This is a case where it is desired to create a plurality of multiplex bit streams in which the combination is changed from the plurality of audio elementary streams and the plurality of subtitle elementary streams for the video elementary stream of.

【0042】例えば、或る映画に対し、英語音声及び日
本語音声を多重化し、且つ英語字幕及び日本語字幕で多
重化したソフトウェアと、英語音声及びスペイン語音声
で且つ英語字幕及びスペイン語字幕で多重化したソフト
ウェアとの2種類のソフトウェアを作成したい場合があ
る。
For example, with respect to a certain movie, software in which English voice and Japanese voice are multiplexed and also with English subtitle and Japanese subtitle, and English voice and Spanish voice and English subtitle and Spanish subtitle are used. You may want to create two types of software, including multiplexed software.

【0043】このような場合、1つのプログラムに対し
異なる種類の多重ビットストリームを作成するために、
各多重ビットストリームを生成する毎に別個に、同一の
映像,音声,字幕を符号化してこれらのエレメンタリー
・ストリームを多重化スケジューリングのために解析を
行うことは、重複した作業が発生し、全体としては無駄
であり、非常に効率が悪い。
In such a case, in order to create different kinds of multiple bit streams for one program,
Encoding the same video, audio, and subtitles separately for each generation of each multiplex bitstream and analyzing these elementary streams for multiplex scheduling causes duplication of work and Is useless and very inefficient.

【0044】(3)参照画像位置情報に関する問題 MPEG2多重ストリームは、パック単位に、後で説明
するPSI(プログラム仕様情報)であるPSD(プロ
グラム・ストリーム・ディレクトリ)とPSM(プログ
ラム・ストリーム・マップ)と呼ぶ特別のパケットが、
パック・ヘッダの後に挿入される。PSDには、そのパ
ックの前後に位置する参照すべきIピクチャへのオフセ
ット値が入る。PSMには、主に多重化されているエレ
メンタリー・ストリームを説明し、またそれらの相互関
係を説明するものであるが、その他に自由に情報を織り
込むことが可能であり、例えば音楽ビデオや映画等にあ
るトラックの先頭のIピクチャへのオフセット値等が入
ることが出来る。
(3) Problems concerning reference image position information In the MPEG2 multiple stream, PSD (program stream directory) and PSM (program stream map) which are PSI (program specification information) described later are provided in pack units. A special packet called
Inserted after pack header. Offset values to I-pictures to be referenced before and after the pack are stored in PSD. The PSM mainly describes multiplexed elementary streams and their mutual relationships, but other information can be freely incorporated, such as music videos and movies. It is possible to enter an offset value or the like to the I picture at the beginning of the track in the same position.

【0045】PSDにおいて、過去に向かって参照する
より未来に向かって参照するIピクチャの範囲を拡大す
ると、その分だけエレメンタリー・ストリームの先読み
の範囲を広げなければ、PSDの内容を決定し多重ビッ
トストリームに対して書き込むことは出来ない。
In PSD, if the range of I-pictures to be referred to in the future is expanded to be referred to in the past, the contents of the PSD are determined and multiplexed unless the pre-reading range of the elementary stream is expanded accordingly. You cannot write to the bitstream.

【0046】トラックは、通常、数分〜数十分の時間単
位となるため、現実には、多重化しながらその莫大なデ
ータを先読みしてトラックの先頭のIピクチャのアドレ
ス等の情報を決定し、PSMのデータとして書き込むこ
とは不可能である。
Since a track is usually a time unit of several minutes to several tens of minutes, in reality, while multiplexing, a huge amount of data is prefetched to determine information such as the address of the I picture at the head of the track. , PSM data cannot be written.

【0047】本発明は、上述のような問題を解決し、且
つ多数の個別データを効率良く多重化するオーサリング
システムを提供することを目的とする。
An object of the present invention is to provide an authoring system which solves the above problems and efficiently multiplexes a large number of individual data.

【0048】更に本発明は、このようなオーサリングシ
ステムに使用される符号化手段と、多重化手段を提供す
るものである。
The present invention further provides an encoding means and a multiplexing means used in such an authoring system.

【0049】[0049]

【課題を解決するための手段】本発明にかかるオーサリ
ングシステムは、例えばMPEG2,MPEGオーディ
オ等に沿って、複数の個別ソース信号を夫々符号化して
得られた各エレメンタリー・ストリームとその他のディ
ジタル信号列とを多重化して多重ビットストリームを生
成するオーサリングシステムであって、前記符号化時に
各エレメンタリー・ストリームをファイルとして夫々生
成すると同時に符号化付随情報を中間ファイルとして夫
々生成する符号化装置と、前記各エレメンタリー・スト
リームのファイルと前記中間ファイルとから、前記エレ
メンタリー・ストリームを分析することなしに多重化の
スケジューリングを行って多重ビットストリームを生成
する多重化装置とを備えている。
SUMMARY OF THE INVENTION An authoring system according to the present invention comprises an elementary stream obtained by encoding a plurality of individual source signals in accordance with, for example, MPEG2 or MPEG audio, and other digital signals. An authoring system that multiplexes columns and generates a multiplex bitstream, and an encoding device that simultaneously generates each elementary stream as a file at the time of the encoding, and at the same time generates the associated auxiliary information as an intermediate file, respectively. A multiplexing device is provided which performs multiplexing scheduling from the files of each elementary stream and the intermediate file without analyzing the elementary streams to generate a multiplexed bitstream.

【0050】更に本発明にかかるオーサリングシステム
は、上述のオーサリングシステムにおいて、前記多重化
装置は、スケジューリング器と、参照画像位置情報生成
器と、多重ビットストリーム生成器とを有し、前記スケ
ジューリング器は、多重化を行う各エレメンタリー・ス
トリームのスケジューリングを行いその結果をスケジュ
ールデータの中間ファイルとして生成し、前記参照画像
位置情報生成器は、前記スケジュールデータの中間ファ
イルから多重ビットストリームを構成する全てのパック
毎に挿入する参照画像位置情報の中間ファイルを生成
し、前記多重ビットストリーム生成器は、前記スケジュ
ールデータの中間ファイル及び前記参照画像位置情報の
中間ファイルの情報に基づき各エレメンタリー・ストリ
ームから多重ビットストリームを生成している。
Further, in the authoring system according to the present invention, in the above-mentioned authoring system, the multiplexing device has a scheduling unit, a reference image position information generating unit, and a multiple bit stream generating unit, and the scheduling unit is , Scheduling each elementary stream to be multiplexed, and generating the result as an intermediate file of schedule data, the reference image position information generator, all the multiple bitstreams constituting the intermediate file of the schedule data. An intermediate file of reference image position information to be inserted for each pack is generated, and the multiplex bitstream generator multiplexes from each elementary stream based on the information of the intermediate file of the schedule data and the intermediate file of the reference image position information. bit It is generating the stream.

【0051】更に本発明にかかるオーサリングシステム
は、上述のオーサリングシステムにおいて、前記符号化
付随情報の中間ファイルに、少なくとも多重化の最小単
位であるアクセス・ユニット毎のサイズ,DTS及びP
TSが記述されている。
Further, in the authoring system according to the present invention, in the above-mentioned authoring system, the size of each access unit, which is at least the minimum unit of multiplexing, DTS and P in the intermediate file of the coded accompanying information.
TS is described.

【0052】更に本発明にかかる多重ビットストリーム
を生成する方法は、ビデオソース信号,オーディオソー
ス信号,字幕ソース信号を含む複数の個別ソース信号を
夫々符号化して得られた各々のエレメンタリー・ストリ
ームとその他のディジタル信号列とを多重化して多重ビ
ットストリームを生成する方法であって、前記符号化す
る段階において、各々のエレメンタリー・ストリームの
ファイルを生成すると同時に夫々の符号化付随情報を中
間ファイルとして生成し、前記多重化する段階におい
て、前記中間ファイルを取り込むことにより、前記エレ
メンタリー・ストリームを分析することなしに多重化ス
ケジューリングを行って多重化する。
Further, the method for generating a multiple bit stream according to the present invention is characterized in that each elementary stream obtained by encoding a plurality of individual source signals including a video source signal, an audio source signal, and a caption source signal, A method of generating a multiplex bit stream by multiplexing with other digital signal sequences, wherein, in the encoding step, each elementary stream file is generated and at the same time each encoded additional information is used as an intermediate file. In the step of generating and multiplexing, the intermediate file is fetched to perform multiplexing scheduling without performing analysis of the elementary stream, thereby performing multiplexing.

【0053】更に本発明にかかる多重ビットストリーム
を生成する方法は、上述の多重ビットストリームを生成
する方法において、前記多重化する段階は、スケジュー
リングする段階,参照画像位置情報を生成する段階及び
多重ビットストリーム生成する段階を有し、前記スケジ
ューリングする段階は、前記符号化付随情報の中間ファ
イルに基づき各エレメンタリー・ストリームのスケジュ
ーリングを行いその結果をスケジュールデータの中間フ
ァイルとして生成し、前記参照画像位置情報を生成する
段階は、前記スケジュールデータの中間ファイルから多
重ビットストリームを構成する全てのパック毎に挿入す
る参照画像位置情報の中間ファイルを生成し、前記多重
ビットストリームを生成する段階は、前記スケジュール
データの中間ファイル及び前記参照画像位置情報の中間
ファイルの情報に基づき各エレメンタリー・ストリーム
から多重ビットストリームを生成する。
Further, the method for generating a multiple bit stream according to the present invention is the above-described method for generating a multiple bit stream, wherein the multiplexing step includes a scheduling step, a reference image position information generating step, and a multiple bit step. And a step of generating a stream, wherein the step of scheduling schedules each elementary stream based on the intermediate file of the encoding accompanying information and generates the result as an intermediate file of schedule data, and the reference image position information. In the step of generating an intermediate file of reference image position information to be inserted for every pack forming a multiplex bitstream from the intermediate file of the schedule data, and in the step of generating the multiplex bitstream, The middle fa Generating multiple bit streams from each elementary stream based on the Le and information intermediate file of the reference image position information.

【0054】以上のような本発明にかかる符号化・多重
化装置及び多重ビットストリームを生成する方法によれ
ば、符号化処理段階と、スケジューリング処理段階と、
多重化処理段階に分離され、各エレメンタリ・ストリー
ムを分析すること無く、多重化処理できる。
According to the encoding / multiplexing apparatus and the method for generating a multiple bit stream according to the present invention as described above, an encoding processing step, a scheduling processing step,
It is separated into multiplex processing steps, and multiplex processing can be performed without analyzing each elementary stream.

【0055】また、各個別ソース信号の符号化処理にお
いて、各エレメンタリ・ストリーム・ファイルと各符号
化付随情報ファイルと生成してあるので、後で任意の組
み合わせの多重ビットストリームを生成出来る。
In addition, since each elementary stream file and each encoded incidental information file are generated in the encoding processing of each individual source signal, it is possible to generate an arbitrary combination of multiple bit streams later.

【0056】[0056]

【発明の実施の形態】以下、本発明にかかる実施例に関
し、添付の図面を参照しながら説明する。なお、同一要
素に付いては同一符号を付与して、説明の重複を省略す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that the same elements will be denoted by the same reference symbols and redundant description will be omitted.

【0057】〔MPEGシステムのデータ構造とビット
ス・トリーム構成〕最初に、本実施例のオーサリングシ
ステムにより生成される多重ビットストリームのデータ
構造に関して説明し、次にPSI(Program Specific I
nformation、プログラム仕様情報)に関して説明する。
[Data Structure and Bitstream Stream Structure of MPEG System] First, the data structure of a multiple bitstream generated by the authoring system of the present embodiment will be described, and then PSI (Program Specific I).
nformation, program specification information).

【0058】本実施例の多重ビットストリームのデータ
構造は、MPEG2−PS(Program Stream)に準じて
おり、そのデータ構造とビットストリームは、以下のよ
うに階層的構造になっている。このMPEGストリーム
は、1ビットのフラグ等も多数あるが、ヘッダ等の各単
位毎にバイト整列されたバイトス・トリームとなってい
て、固定長でないデータ部分には、長さを示す情報が先
行して置かれ、不要な場合はその部分をスキップしたり
出来るようになっている。
The data structure of the multiple bit stream of this embodiment conforms to MPEG2-PS (Program Stream), and the data structure and bit stream have a hierarchical structure as follows. Although this MPEG stream has a large number of 1-bit flags and the like, it is a byte stream that is byte-aligned for each unit such as a header, and information indicating the length precedes the data portion that is not fixed length. If you don't need it, you can skip that part.

【0059】(MPEG2−PSのデータ構造)多重ビ
ットストリーム(MPEG2−PS)のデータ構造を上
位レイヤ(パック・レイヤ)と下位レイヤ(パケット・
レイヤ)に分けて図1と図2に示す。図1に示す上位レ
イヤ(パック・レイヤ)に関して、1つのプログラム
は、シーケンスと称されることもあるが、先頭の「パッ
ク・ヘッダ」に始まり、「終了コード」で終わる。前述
のように、パックは、一般に複数個のパケットから構成
され、プログラムの先頭のパックには、「システム・ヘ
ッダ」と称されるストリーム全体の概要を記述(パラメ
ータ情報)した情報グループがある。このシステム・ヘ
ッダは、先頭のパックには、付加することが義務づけら
れているが、2番目以降のパックではオプションとなっ
ている。
(MPEG2-PS Data Structure) The data structure of the multiple bit stream (MPEG2-PS) has the upper layer (pack layer) and the lower layer (packet layer).
The layers are shown separately in FIG. 1 and FIG. Regarding the upper layer (pack layer) shown in FIG. 1, one program may be referred to as a sequence, but it starts at the top "pack header" and ends at "end code". As described above, the pack is generally composed of a plurality of packets, and the pack at the head of the program has an information group called "system header" that describes the outline of the entire stream (parameter information). This system header is required to be added to the first pack, but it is an option in the second and subsequent packs.

【0060】パック・ヘッダは、可変長で、32ビット
(4バイト)の「パック開始コード」の後に、「01」の
2ビットが続き、これがMPEG1との識別コードにな
っている。その後に、合計で6バイト長の前述の「SC
R(システム時刻基準参照値)」と、このストリームの
「プログラム多重化レート」(可変ビットレートの場合
は時々刻々の値)を50バイト/秒単位で表す情報が続
く。
The pack header has a variable length, which is a 32-bit (4 byte) "pack start code" followed by 2 bits "01", which is an identification code with MPEG1. After that, the above-mentioned "SC
R (system time reference value) "and information indicating the" program multiplexing rate "(incremental value in the case of variable bit rate) of this stream in units of 50 bytes / second.

【0061】最大7バイトまでのスタッフィング・バイ
トを置くことが出来るので、このスタッフィング・バイ
トに先行して「パック・スタッフィング・バイト長」で
長さを示す。これに続いて、Mバイト(最大7)の「パ
ック・スタッフィング・バイト」が置かれている(スタ
ッフィング・バイトに付いては、後で説明する。)。以
上のことから、パックヘッダ長は14バイト乃至21バ
イトの可変長となる。
Since up to 7 bytes of stuffing bytes can be placed, the length is indicated by "pack stuffing byte length" prior to this stuffing byte. Following this, there are M bytes (maximum 7) of "pack stuffing bytes" (the stuffing bytes will be explained later). From the above, the pack header length is variable from 14 bytes to 21 bytes.

【0062】システム・ヘッダには、32ビットの「シ
ステム・ヘッダ開始コード」に続いて、このシステム・
ヘッダ自身の長さを示す情報項目(フィールド)として
「ヘッダ長」が含まれる。実データ部分には、「ビット
・レート」,「オーディオ・チャネル数」,4種類の
「フラグ類」,「ビデオ・チャネル数」(1プログラム
でも複数個のビデオ,オーディオをもつことが出来
る。)と、そして各個別ストリム毎に必要なバッファ・
メモリ量を示すフィールド「P−STDバッファ領域ス
ケール」,「P−STDバッファ領域サイズ」が含まれ
る。フラグには、次の4つの項目がある。 「固定レート・フラグ」…一定ビット・レートであるこ
との識別。 「CSPSフラグ(Constrained System Parameter Str
eam 、制限的なシステム・パラメータ・ストリーム)」
…システム・ストリームのパラメータに制限を設けて、
実際の復号器での互換性を実現を意図したもの。 「オーディオ・ロック・フラグ」…システム・ストリー
ム中のオーディオがシステム・クロック(90kHz)
とフェイズ・ロックしているかどうかを示すフラグ。 「ビデオ・ロック・フラグ」…システム・ストリーム中
のビデオがシステム・クロック(90kHz)とフェイ
ズ・ロックしているかどうかを示すフラグ。
The system header contains a 32-bit "system header start code" followed by this system header.
“Header length” is included as an information item (field) indicating the length of the header itself. In the actual data portion, "bit rate", "number of audio channels", four types of "flags", "number of video channels" (even one program can have multiple videos and audios). And the buffer required for each individual trim.
The fields "P-STD buffer area scale" and "P-STD buffer area size" indicating the memory amount are included. The flag has the following four items. “Fixed rate flag”: Identification of a constant bit rate. "CSPS Flag (Constrained System Parameter Str
eam, restrictive system parameter stream) "
… By limiting the parameters of the system stream,
It is intended to achieve compatibility with actual decoders. "Audio lock flag" ... The audio in the system stream is the system clock (90 kHz)
And a flag indicating whether or not it is phase locked. "Video lock flag" ... A flag indicating whether the video in the system stream is phase-locked with the system clock (90 kHz).

【0063】次に、システム・ヘッダ中の「N回ルー
プ」中に示す「ストリームID」は、下表にその一例を
示すように、32ビットのパケット開始コードの最後の
8ビット部分である。この8ビットでストリームを区別
して、各個別ストリーム毎にパラメータ(必要なバッフ
ァ・メモリ容量)を示す。
Next, the "stream ID" shown in the "N times loop" in the system header is the last 8-bit portion of the 32-bit packet start code, as shown in the table below. Streams are distinguished by these 8 bits, and a parameter (required buffer memory capacity) is indicated for each individual stream.

【0064】 ストリームIDテーブル(一部) ストリームID ストリーム種別 1011 1100 プログラム・ストリーム・マップ(PSM) 1011 1101 プライベート・ストリーム1 1011 1110 パディング・ストリーム 1011 1111 プライベート・ストリーム2 110X XXXX MPEGオーディオ・ストリーム 1110 XXXX MPEGビデオ・ストリーム 1111 0010 DSM* コントロールコマンド 1111 1111 プログラム・ストリーム・ディレクトリ(PSD) (*)DSM:Digital Storage Media ,ディジタル蓄積メディアStream ID Table (Part) Stream ID Stream Type 1011 1100 Program Stream Map (PSM) 1011 1101 Private Stream 1 1011 1110 Padding Stream 1011 1111 Private Stream 2 110X XXXX MPEG Audio Stream 1110 XXXX MPEG Video stream 1111 0010 DSM * control command 1111 1111 Program stream directory (PSD) (*) DSM: Digital Storage Media

【0065】下位レイヤ(パケット・レイヤ) MPEGのパケットはPESパケット(Peckeized Elem
entary Stream Packet)と称され、この構造はMPEG
2−TSと共用して用いられるため、ヘッダの部分が複
雑になっているが、階層的に理解し易くなっている。最
初の部分にフラグ類がまとめて置かれ、それらのフラグ
に対応してオプション的に条件符号化された項目がそれ
に続いている。更にそのオプション項目に2次的なオプ
ション項目がある。
Lower Layer (Packet Layer) MPEG packets are PES packets (Peckeized Elem).
entary Stream Packet) and this structure is MPEG
Since it is used in common with 2-TS, the header part is complicated, but it is easy to understand hierarchically. Flags are put together in the first part, followed by optionally condition-coded items corresponding to those flags. Further, the option item has a secondary option item.

【0066】32ビットの「パケット開始コード」は、
24ビットの固定部分の「パケット開始プレフィック
ス」と8ビットの「ストリームID(識別)」部分から
なる。MPEG2−PSでは、最大で、ビデオ16チャ
ネル、オーディオ32チャネルまで可能となるようにス
トリームIDが定義されている。
The 32-bit "packet start code" is
It consists of a 24-bit fixed part "packet start prefix" and an 8-bit "stream ID (identification)" part. In MPEG2-PS, the stream ID is defined so that up to 16 channels of video and 32 channels of audio can be used.

【0067】「パケット長」は、このフィールドに続く
パケットのデータ長を示す。
The "packet length" indicates the data length of the packet following this field.

【0068】システム制御情報として、次のようなもの
がある。パケット長に続く2ビットの制御コード「10」
は、前述したようにMPEG1の“00”,“01”又は
“11”との識別用に利用されている。「スクランブル制
御フラグ」は、データにスクランブル(データ列の組み
替え等)をかけて、守秘情報や商用システムなどに用い
ることが出来る。通常、“00”とされている。「PES
優先度フラグ」は、重要なパケットと、そうでないパケ
ット(場合によっては捨て去ることが出来るパケット)
に区別出来るようにしている。通常、“0 ”とされてい
る。次に、「データ整列」が続き、「コピー・ライト」
は、ビデオやオーディオの符号化ストリームの著作権を
示す情報である。「オリジナル/コピー」は、原本か複
写かを示す。「PESヘッダ長」は、PESパケットの
ヘッダの長さを示す。
The system control information includes the following. 2-bit control code "10" following the packet length
Is used for distinguishing from "00", "01" or "11" of MPEG1 as described above. The “scramble control flag” can be used for confidential information, a commercial system, etc. by scrambling the data (recombining the data string, etc.). Usually, it is set to "00". "PES
"Priority flags" are important packets and those that are not (packets that can be discarded in some cases)
So that they can be distinguished. Usually, it is set to "0". Next, "data alignment" follows, and "copy / write"
Is information indicating the copyright of the encoded stream of video or audio. “Original / Copy” indicates whether it is an original or a copy. The “PES header length” indicates the length of the header of the PES packet.

【0069】「オプション・フィールド」として、次の
ものがある。 「PTS」…前述したPTS(Presentation Time Stam
p )と称される「再生出力の時刻管理情報」である。 「DTS」…前述したDTS(Decoding Time Stamp )
と称される「復号の時刻管理情報」である。 その他「ESCR」,「ESレート」等が続くが、本実
施例に直接関係が無いため省略する。
The "option field" includes the following. "PTS" ... PTS (Presentation Time Stam)
This is "playback output time management information" called p). "DTS" ... DTS (Decoding Time Stamp) described above
It is "decryption time management information". Others such as “ESCR” and “ES rate” follow, but they are omitted because they are not directly related to this embodiment.

【0070】最大7バイトまでの「スタッフィング・バ
イト」及び「パディング・バイト」は、ダミーのバイト
で、符号には意味の無いデータです。用途としては例え
ば、PTSやDTSの有無に拘らずパケット・データ長
を一定にするために、PTSやDTSが無いパケットに
おいて、これらの代わりにスタッフィング・バイトを置
くこと等がある。
"Stuffing byte" and "Padding byte" of up to 7 bytes are dummy bytes and have no meaning in the sign. As an application, for example, in order to make the packet data length constant regardless of the presence or absence of PTS or DTS, a stuffing byte is placed instead of these in a packet without PTS or DTS.

【0071】(PSI(プログラム仕様情報)のデータ
構造と)MPEG2−PSには、複数個のビデオ,オー
ディオ,その他のデータの個別ストリームを1本に多重
化しているため、分離・復号化装置においてどのパケッ
トを取り出して、どのように復号すればよいか等の情報
が必要になる。これらのプログラム仕様情報を総称して
PSI(Program Stream Information、プログラム仕様
情報)と称している。MPEG2−PSには、2つのP
SI(プログラム仕様情報)用パケットが定義されてい
る。一つはPSM(Program Stream Map)で、他の一つ
はPSD(Program Stream Directory)の各パケットで
ある。こら等のデータ構造を図11ー15に示し、前述
のPESパケットとの違いを解説する。
In MPEG2-PS (with the data structure of PSI (program specification information)), a plurality of individual streams of video, audio, and other data are multiplexed into one, so that in a demultiplexing / decoding device. Information such as which packet to take out and how to decode it is necessary. These program specification information are collectively referred to as PSI (Program Stream Information). MPEG2-PS has two P
A packet for SI (program specification information) is defined. One is a PSM (Program Stream Map), and the other is a PSD (Program Stream Directory) packet. Data structures such as these are shown in FIGS. 11 to 15 and the difference from the above-mentioned PES packet will be explained.

【0072】PSM(プログラム・ストリーム・マッ
プ)パケットは、プログラムの付加情報や各個別ストリ
ームの付加情報を記述するパケットである。例えば、ビ
デオのスケーラビリティ符号化に付いての情報やオーデ
ィオの言語識別情報などを記述できる。
A PSM (program stream map) packet is a packet describing additional information of a program and additional information of each individual stream. For example, information about video scalability encoding, audio language identification information, and the like can be described.

【0073】PSD(プログラム・ストリーム・ディレ
クトリ)パケットは、蓄積メディアで用いられるランダ
ム・アクセスのためのディレクトリ情報で、個別のスト
リーム毎にランダム・アクセスのためのエントリー・ポ
イント(例えば、ビデオならIピクチャの先頭アドレ
ス)を、ストリーム先頭からのバイト数表現で示してい
る。このパケットのデータ構造は、前半部分は通常のP
ESパケットと同じで、後半部分(オプション・データ
とパケット・データに相当する部分)が異なっている。
A PSD (program stream directory) packet is directory information for random access used in a storage medium, and is an entry point (for example, I picture for video) for random access for each individual stream. The leading address of the stream) is represented by the number of bytes from the beginning of the stream. The data structure of this packet is the normal P for the first half.
It is the same as the ES packet, but the latter half portion (the portion corresponding to the option data and the packet data) is different.

【0074】〔実施例1〕本オーサリングシステムが目
的としている映画やビデオを数カ国語の音声で、数カ国
語の字幕で、多重化されたソフトウェアを作成するよう
な場合、即ち多数のエレメンタリー・ストリームを符号
化し、これらを時分割多重化する場合に、符号化から多
重化までの処理をリアルタイムで行うことは、多重化の
スケジューリングや参照画像位置情報(PSM情報,P
SD情報)の生成に必要となる先読みのバッファメモリ
容量の問題で非現実的である。
[Embodiment 1] In the case of creating a software in which a movie or video intended by the authoring system is made up of audio in several languages and subtitles in several languages, that is, a large number of elementary When a stream is encoded and these are time-division-multiplexed, the processing from encoding to multiplexing is performed in real time by performing multiplexing scheduling and reference image position information (PSM information, PSM information, P
This is unrealistic due to the problem of the read-ahead buffer memory capacity required for the generation of SD information).

【0075】また、多重化する映像と音声と字幕の組み
合わせを変えて複数種類のソフトウェアを作成する場
合、その度毎に同じ符号化をし、且つそのエレメンタリ
ー・ストリームの多重化装置での解析を行うことは冗長
であり、効率が悪い。
When a plurality of types of software are created by changing the combination of video, audio, and subtitles to be multiplexed, the same encoding is performed each time, and the elementary stream is analyzed by the multiplexer. Is redundant and inefficient.

【0076】そこで、これらの問題を考慮して、本実施
例のオーサリングシステムでは、符号化処理と多重化処
理とを時間的に完全に分けるものとしている。
Therefore, in consideration of these problems, the authoring system of the present embodiment completely separates the encoding process and the multiplexing process in terms of time.

【0077】図4は、実施例1にかかるオーサリングシ
ステムのシステム構成を示す図であり、このオーサリン
グシステムにより上述のような多重ビットストリームが
生成され蓄積メディアに蓄積される。このオーサリング
システムは、基本的には、符号化装置1と、多重化装置
21とを備えている。しかし、従来技術に関連して説明
したリアルタイム・オーサリングシステムの構成と比較
すると、実施例1の構成はリアルタイム方式ではなく、
符号化処理と、スケジューリングに必要な情報の生成処
理と、多重化処理とを時間的に完全に分けるものとして
いる。
FIG. 4 is a diagram showing the system configuration of the authoring system according to the first embodiment. The authoring system generates the above-mentioned multiplex bitstream and stores it in the storage medium. This authoring system basically includes an encoding device 1 and a multiplexing device 21. However, in comparison with the configuration of the real-time authoring system described in connection with the related art, the configuration of the first embodiment is not the real-time method,
The encoding process, the process of generating information required for scheduling, and the multiplexing process are completely separated in time.

【0078】即ち、ビデオ,オーディオ及び字幕データ
を夫々の符号化装置で符号化して生成された各エレメン
タリー・ストリーム(素ビット列)のファイルと共に符
号化の過程で得られる符号化付随情報の中間ファイルを
生成し、次にこの符号化付随情報ファイルから多重化装
置のスケジューリング器で生成されたスケジュールデー
タの中間ファイルを生成し、更にこのスケジュールデー
タの中間ファイルから参照画像位置情報生成器で生成さ
れた参照画像位置情報の中間ファイルとを生成してお
き、その後、多重ビットストリーム生成器でこれら中間
ファイルを用いて多重ビットストリームを生成する。
That is, a file of each elementary stream (a raw bit string) generated by encoding video, audio, and caption data with each encoding device, and an intermediate file of encoding additional information obtained in the encoding process. Is generated, and then an intermediate file of the schedule data generated by the scheduling device of the multiplexer is generated from this encoding accompanying information file, and further generated by the reference image position information generator from the intermediate file of this schedule data. An intermediate file of reference image position information is generated in advance, and then a multiplex bitstream generator is used to generate multiplex bitstreams using these intermediate files.

【0079】(符号化装置)符号化装置1は、例えばビ
デオ符号化器3と、オーディオ符号化器5と、字幕デー
タ符号化器7とを有する。
(Encoder) The encoder 1 has, for example, a video encoder 3, an audio encoder 5, and a caption data encoder 7.

【0080】ビデオ符号化器3に対してビデオカメラ等
から出力されるディジタル形式のビデオソース信号が入
力され、ビデオ符号化器3はこのビデオソース信号を例
えばMPEG2システムのような動画像符号化標準を利
用して圧縮符号化する。このビデオ圧縮データはエレメ
ンタリー・ストリーム(素ビット列)として、ハードデ
ィスク等の蓄積メディアに蓄積され、ビデオ・エレメン
タリー・ストリーム・ファイル9が生成される。
A digital format video source signal output from a video camera or the like is input to the video encoder 3, and the video encoder 3 uses this video source signal as a moving image encoding standard such as the MPEG2 system. Is used for compression encoding. This video compressed data is accumulated in a storage medium such as a hard disk as an elementary stream (a raw bit string), and a video elementary stream file 9 is generated.

【0081】同時に、符号化工程で得られる符号化付随
情報が、ハードディスク等の記録メディアに蓄積され符
号化付随情報ファイル11が生成される。この符号化付
随情報ファイルは従来のオーサリングシステムでは使用
されていなかったものであり、本実施例において初めて
生成された新規なものである。符号化付随情報は、従来
技術で説明した後段の分離・復号装置で多重ビットスト
リームをビデオ,オーディオ,字幕データ等の個別のス
トリーム部分に分離する分離装置で必要とされる情報で
あり、多重化の最小単位であるアクセス・ユニットのサ
イズ,DTS(復号の時刻管理情報),PTS(再生出
力の時刻管理情報)からなる。
At the same time, the encoded incidental information obtained in the encoding step is accumulated in a recording medium such as a hard disk to generate the encoded incidental information file 11. This coded accompanying information file has not been used in the conventional authoring system, and is a new file created for the first time in this embodiment. The encoding incidental information is information required by a demultiplexing device that demultiplexes a multiplexed bitstream into individual stream parts such as video, audio, and caption data by the demultiplexing / decoding device in the subsequent stage described in the related art. Of the access unit, which is the minimum unit of DTS, DTS (decoding time management information), and PTS (reproduction output time management information).

【0082】同様に、オーディオ符号化装置5に対して
ディジタル形式のオーディオソース信号が入力され、オ
ーディオ符号化装置5はこのオーディオソース信号を例
えばMPEGオーディオシステムのようなオーディオ符
号化方式を利用して圧縮符号化する。このオーディオ圧
縮データはエレメンタリー・ストリーム(素ビット列)
として、ハードディスク等の蓄積メディアに蓄積され、
オーディオ・エレメンタリー・ストリーム・ファイル1
3が生成される。
Similarly, an audio source signal in digital format is input to the audio encoding device 5, and the audio encoding device 5 uses this audio source signal by using an audio encoding system such as the MPEG audio system. Compress and encode. This audio compressed data is an elementary stream (raw bit string)
Is stored in a storage medium such as a hard disk,
Audio Elementary Stream File 1
3 is generated.

【0083】同時に、符号化工程で得られる符号化付随
情報が、ハードディスク等の記録メディアに蓄積され、
符号化付随情報ファイル15が生成される。符号化付随
情報は、後段の分離・復号装置で多重ビットストリーム
をビデオ,オーディオ,字幕データ等の個別ビットスト
リームを分離する分離装置で必要とされる情報であり、
アクセス・ユニットのサイズ,PTSからなる。
At the same time, the encoded incidental information obtained in the encoding step is accumulated in a recording medium such as a hard disk,
The encoded accompanying information file 15 is generated. The encoding accompanying information is information required by a separating device that separates a multiple bitstream into individual bitstreams such as video, audio, and caption data in a separating / decoding device in a subsequent stage,
It consists of the access unit size and PTS.

【0084】同様に、字幕符号化装置7に対してディジ
タル形式の字幕ソース信号が入力され、字幕符号化装置
7はこの字幕ソース信号を符号化する。この字幕符号化
データはエレメンタリー・ストリーム(素ビット列)と
して、ハードディスク等の蓄積メディアに蓄積され、字
幕エレメンタリー・ストリーム・ファイル17が生成さ
れる。
Similarly, a subtitle source signal in digital format is input to the subtitle encoding device 7, and the subtitle encoding device 7 encodes this subtitle source signal. This subtitle coded data is accumulated as an elementary stream (a raw bit string) in a storage medium such as a hard disk, and a subtitle elementary stream file 17 is generated.

【0085】同時に、符号化工程で得られる符号化付随
情報が、ハードディスク等の記録メディアに蓄積され、
符号化付随情報ファイル19が生成される。符号化付随
情報は、後段の分離・復号部で多重ビットストリームを
ビデオ,オーディオ,字幕データ等の個別ビットストリ
ームを分離する分離装置で必要とされる情報であり、ア
クセス・ユニットのサイズ,PTS,表示終了時刻から
なる。
At the same time, the encoded incidental information obtained in the encoding step is accumulated in a recording medium such as a hard disk,
The encoded accompanying information file 19 is generated. The encoding accompanying information is information required by a separating device that separates a multiple bitstream into individual bitstreams such as video, audio, and caption data in a separating / decoding unit in a subsequent stage, and includes the access unit size, PTS, It consists of the display end time.

【0086】なお、図4は例示であり、オーディオソー
ス信号及び字幕ソース信号は夫々1個に限定されるもの
でなく、複数の言語による吹き替えのソース信号,複数
の言語による字幕ソース信号を追加することが出来、更
にこれ以外のソース信号も考えられる。これらのソース
信号に関し、夫々の符号化器によりエレメンタリー・ス
トリーム及び符号化付随情報ファイルが生成される。な
お、説明を簡単にするため、以下ビデオ,オーディオ,
字幕の3つの場合に付いて説明を続ける。
Note that FIG. 4 is an example, and the number of audio source signals and subtitle source signals is not limited to one each, and dubbing source signals in a plurality of languages and subtitle source signals in a plurality of languages are added. However, other source signals are possible. For these source signals, an elementary stream and an encoded ancillary information file are generated by the respective encoders. In order to simplify the explanation, the following video, audio,
I will continue to explain the three cases of subtitles.

【0087】ここで注意すべきことは、従来のオーサリ
ングシステムでは、上述のような符号化付随情報ファイ
ルの生成は行わず、各エレメンタリー・ストリームを先
読みして分析しながら多重化に必要な情報を集めて、ビ
デオ,オーディオ,字幕データの多重化が行われていた
ことである。しかし、本オーサリングシステムが目的と
しているように映画やビデオを数カ国語の音声で、数カ
国語の字幕で、多重化されたソフトウェアを作成するよ
うな場合、即ち多数のエレメンタリー・ストリームを符
号化し、多重化する場合に、符号化から多重化までの処
理をリアルタイムで行うことは、多重化のスケジューリ
ングや参照画像位置情報の生成に必要となる先読みのバ
ッファメモリの問題で非現実的である。
It should be noted here that the conventional authoring system does not generate the encoded accompanying information file as described above, but prefetches and analyzes each elementary stream to analyze the information necessary for multiplexing. That is, the video, audio, and subtitle data were multiplexed together. However, in the case where the authoring system is intended to make a movie or video with audio in several languages and subtitles in several languages to create multiplexed software, that is, to encode a large number of elementary streams. In the case of multiplexing and multiplexing, it is unrealistic to perform the processing from encoding to multiplexing in real time due to the problem of the read-ahead buffer memory required for scheduling of multiplexing and generation of reference image position information. .

【0088】そこで、本実施例においては、リアルタイ
ムの多重化作業は行わず、1プログラム(番組)のビデ
オ,オーディオ,字幕データを最後まで符号化して、各
エレメンタリー・ストリームを生成すると同時にこの過
程で収集される各符号化付随情報を符号化付随情報ファ
イルとして生成している。このような処理を行うことに
より、後で、1つのビデオ情報に対し、複数のオーディ
オ情報,字幕情報等の内から任意の組み合わせの多重化
処理が、既に生成済みの各エレメンタリ・ストリーム及
び符号化付随情報ファイルを利用することにより可能に
なる。
Therefore, in this embodiment, the real-time multiplexing work is not performed, and the video, audio, and subtitle data of one program (program) are encoded to the end to generate each elementary stream, and at the same time, this process is performed. Each of the coded incidental information collected in step 1 is generated as a coded incidental information file. By performing such processing, later, multiplexing processing of an arbitrary combination of a plurality of audio information, subtitle information, etc., for one video information is performed for each already-generated elementary stream and encoding. It becomes possible by using the accompanying information file.

【0089】(多重化装置)多重化装置21は、スケジ
ューリング器23と、参照画像位置情報生成器29と、
多重ビットストリーム生成器37とを有している。
(Multiplexing Device) The multiplexing device 21 includes a scheduling unit 23, a reference image position information generating unit 29,
It has a multi-bitstream generator 37.

【0090】(スケジューリング器)スケジューリング
器23は、符号化付随情報ファイル11,15,19を
読み込み、スケジューリング処理を行い、その結果をス
ケジュールデータ28の中間ファイルとして生成する。
このスケジュールデータ28は、主にパックに関するパ
ック情報ファイル25と、主にパケットに関するパケッ
ト情報27である。
(Scheduler) The scheduler 23 reads the coded incidental information files 11, 15, 19 and performs a scheduling process, and generates the result as an intermediate file of the schedule data 28.
The schedule data 28 is a pack information file 25 mainly relating to packs and packet information 27 mainly relating to packets.

【0091】スケジューリング器23に読み込まれる符
号化付随情報ファイル11,15,19には、スケジュ
ーリングに必要な情報であるアクセス・ユニットのサイ
ズ,PTS,また特にビデオではDTSが蓄積されてい
る。このため、スケジューリング器23は、各エレメン
タリー・ストリーム9,13,17を分析すること無し
に、ビデオ,オーディオ,字幕データのパックの長さ,
組み合わせ順序等のスケジューリン処理が可能になる。
The coded incidental information files 11, 15, and 19 read by the scheduling unit 23 store the size of the access unit, PTS, which is information necessary for scheduling, and in particular, DTS for video. Therefore, the scheduling unit 23 can analyze the lengths of packs of video, audio, and subtitle data without analyzing each elementary stream 9, 13, and 17.
Scheduled processing such as combination order becomes possible.

【0092】スケジューリング器23のスケジューリン
グ処理を通じて、これら符号化付随情報ファイル11,
15,19からスケジュールデータ28が生成される。
スケジュールデータ28としては、パック情報ファイル
25とパケット情報ファイル27がある。この内、パッ
ク情報ファイル25としては、各パックに関する「SC
R(システム時刻基準参照値)」,「プログラム多重化
レート」,「スタッフィングビット長」,「パック内の
パケット個数N」等の情報が記述される。上述したパッ
ク・レイヤのデータ構造のパック・ヘッダ,システム・
ヘッダの情報項目の内、これらが決定されると、他の情
報項目は基本的にはシステムの仕様により一義的に決定
される。
Through the scheduling process of the scheduling unit 23, these encoded accompanying information files 11,
Schedule data 28 is generated from 15, 19.
The schedule data 28 includes a pack information file 25 and a packet information file 27. Of these, the pack information file 25 is "SC
Information such as "R (system time reference value)", "program multiplexing rate", "stuffing bit length", and "packet number N in pack" is described. Pack header of the above-mentioned pack layer data structure, system
When these are determined among the information items of the header, other information items are basically uniquely determined by the system specifications.

【0093】これら符号化付随情報ファイル11,1
5,19から生成されるパケット情報ファイル27とし
ては、各パケットに関する「ストリームID」(ストリ
ーム・タイプ(エレメンタリー・ストリームの種類を表
す。)とバッファ・ナンバ(同じストリームタイプをも
つストリームが複数種ある時、夫々に付けられる番号)
からなる。),「パケット長」,「PESヘッダ長」,
「PTS(再生出力の時刻管理情報)」,「DTS(復
号の時刻管理情報)」等の情報が記述される。更に、字
幕に関しては、「PTS」とともに「表示終了時刻」の
情報が記述される。同様に、上述したPESパケット・
レイヤのデータ構造のパケット・ヘッダの情報項目の
内、これらが決定されると、他の情報項目は基本的には
システムの仕様により一義的に決定される。
These encoded accompanying information files 11 and 1
The packet information file 27 generated from Nos. 5 and 19 includes a “stream ID” (representing the type of elementary stream) and a buffer number (a plurality of streams having the same stream type) for each packet. (The number given to each one at one time)
Consists of. ), “Packet length”, “PES header length”,
Information such as “PTS (time management information for reproduction output)” and “DTS (time management information for decoding)” is described. Further, regarding the subtitles, information of "display end time" is described together with "PTS". Similarly, the PES packet
When the information items of the packet header of the layer data structure are determined, other information items are basically determined by the system specifications.

【0094】(参照画像位置情報生成器)参照位置情報
生成器29は、スケジューリング器23から出力される
スケジュールデータ28であるパック情報ファイル25
及びパケット情報ファイル27を読み込み、参照画像位
置情報32を生成する。参照画像位置情報32は、多重
ビットストリームを構成する全てのパック毎に挿入する
情報で、上述のPSI(プログラム仕様情報)であり、
参照画像位置情報ファイルも中間ファイルの1つであ
る。この参照画像位置情報ファイルは、PSD(プログ
ラム・ストリーム・ディレクトリ)情報ファイル33
と、PSM(プログラム・ストリーム・マップ)情報フ
ァイル35とからなる。PSD情報ファイル33は、上
述のPSDパケット生成に関する情報である。同様に、
PSM情報ファイル33は、上述のPSMパケット生成
に関する情報である。これにより、基本的に、PSDパ
ケット及びPSMパケットが決定される。
(Reference Image Position Information Generator) The reference position information generator 29 is a pack information file 25 which is schedule data 28 output from the scheduling unit 23.
Then, the packet information file 27 is read and the reference image position information 32 is generated. The reference image position information 32 is information to be inserted for every pack that forms a multiplex bit stream, and is the above-mentioned PSI (program specification information),
The reference image position information file is also one of the intermediate files. This reference image position information file is a PSD (program stream directory) information file 33.
And a PSM (program stream map) information file 35. The PSD information file 33 is information regarding the above-described PSD packet generation. Similarly,
The PSM information file 33 is information regarding the above-described PSM packet generation. This basically determines the PSD packet and the PSM packet.

【0095】(多重ビットストリーム生成器)多重ビッ
トストリーム生成器37は、ビデオ,オーディオ,字幕
データ等の各符号化装置3,5,7で生成された各エレ
メンタリー・ストリームのファイル9,13,17を、
多重化スケジューリング器23で生成されたスケジュー
ルデータの中間ファイルであるパック情報ファイル25
及びパケット情報ファイル27と、参照画像位置情報生
成器29で生成されたで中間ファイルであるPSD情報
ファイル33及びPSM情報ファイル35とを用いて組
み合わせ、1本の多重ビットストリームを生成する。
(Multiple Bitstream Generator) The multiple bitstream generator 37 includes the files 9, 13 of the elementary streams generated by the encoders 3, 5, 7 for video, audio, subtitle data, etc. 17,
Pack information file 25, which is an intermediate file of the schedule data generated by the multiplexing scheduler 23
And the packet information file 27 and the PSD information file 33 and the PSM information file 35, which are intermediate files generated by the reference image position information generator 29, are combined to generate one multiplexed bit stream.

【0096】なお、PSMパケットには、エレメンタリ
ー・ストリームの説明を与える記述や、例えば想定して
いるトラックの先頭アドレスやそれ以外に様々な情報を
記述できるが、そのために必要情報を多重ビットストリ
ーム生成器37に入力する必要があることを承知された
い。
In the PSM packet, a description giving a description of the elementary stream and various information other than the start address of the assumed track and other information can be described. Please note that it is necessary to input to the generator 37.

【0097】実施例1の動作をまとめて述べると、符号
化処理では、符号化を行いエレメンタリー・ストリーム
をファイル9,13,17として生成すると共にその後
段の多重化のスケジューリングに必要となるアクセス・
ユニットのサイズ,DTS(decoding time stamp 、復
号の時刻管理情報),またビデオの場合はPTS(pres
entation time stamp 、生出力の時刻管理情報)等の情
報を中間ファイル11,15,19として生成する。
The operation of the first embodiment will be summarized as follows. In the encoding process, the encoding is performed to generate the elementary streams as the files 9, 13 and 17, and the access required for the scheduling of the subsequent multiplexing is performed.・
Unit size, DTS (decoding time stamp, time management information for decoding), and PTS (pres for video)
The information such as the entation time stamp and the raw output time management information) is generated as the intermediate files 11, 15, and 19.

【0098】符号化処理段階が終わった後、多重化装置
21のスケジューリング器23はビデオや音声や文字の
各エレメンタリー・ストリームのアクセス・ユニット情
報の中間ファイル11,15,19からスケジューリン
グ処理を行い、その多重ビットストリームを構成するパ
ックやパケットのスケジュールデータ28の中間ファイ
ル25,27を生成する。
After the encoding process step is completed, the scheduling unit 23 of the multiplexer 21 performs the scheduling process from the intermediate files 11, 15 and 19 of the access unit information of each elementary stream of video, voice and character. The intermediate files 25 and 27 of the schedule data 28 of the packs and packets that form the multiplexed bitstream are generated.

【0099】スケジュールデータ28の中間ファイル2
5,27から参照画像位置情報生成器29が、多重ビッ
トストリームの全てのパックにおかれているPSD,P
SMに記述される参照画像位置情報を中間ファイル3
3,35として生成する。
Intermediate file 2 of schedule data 28
5 to 27, the reference image position information generator 29 outputs PSDs, Ps in all packs of the multiplex bitstream.
The reference image position information described in the SM is stored in the intermediate file 3
Generate as 3,35.

【0100】多重ビットストリーム生成器37は、これ
ら中間ファイル25,27,33,35の情報に基づ
き、パック,PESパケット,PSDパケット,PSM
パケットに情報を記述しながら、各エレメンタリ・スト
リームを所定の順序で組み合わせて時分割多重化処理を
行う。
The multiple bit stream generator 37, based on the information in these intermediate files 25, 27, 33, 35, packs, PES packets, PSD packets, PSM.
While describing information in the packet, each elementary stream is combined in a predetermined order to perform time division multiplexing processing.

【0101】実施例1によれば、各符号化装置でエレメ
ンタリ・ストリーム自体だけでなく、その全アクセス・
ユニットの情報を符号化付随情報ファイルとして別個に
生成することにより、多重化装置側では各エレメンタリ
・ストリームの解析をすることなく、アクセス・ユニッ
ト情報の中間ファイルからスケジューリング処理を行う
ことが出来る。
According to the first embodiment, not only the elementary stream itself but also all the access streams
By separately generating the unit information as an encoded accompanying information file, the scheduling process can be performed from the intermediate file of access unit information without analyzing each elementary stream on the multiplexing device side.

【0102】従って、多数のエレメンタリー・ストリー
ムを多重化する場合であっても、各符号化付随情報ファ
イルに個々のエレメンタリー・ストリームの先頭から最
後までのアクセス・ユニット情報が蓄積されているの
で、符号化付随情報ファイルのみでスケジューリング処
理が可能になり、スケジューリングが非常に容易にな
る。
Therefore, even when a large number of elementary streams are multiplexed, the access unit information from the beginning to the end of each elementary stream is stored in each encoded accompanying information file. , The scheduling process can be performed only with the encoded accompanying information file, and the scheduling becomes very easy.

【0103】〔実施例2〕次に、符号化装置で符号化し
たエレメンタリー・ストリームと、そのアクセス・ユニ
ットのサイズ,DTS,PTSを記述した符号化付随情
報を、夫々のファイルとして管理することにより、最初
の符号化のみで、それらのファイルを用いてその後は符
号化を繰り返さずに、所望により何度でも多重化のみを
行い多重ビットストリームを生成することが出来ること
になる。
[Embodiment 2] Next, the elementary streams encoded by the encoding device and the associated encoded information describing the access unit size, DTS and PTS are managed as respective files. Thus, it is possible to generate a multiple bit stream by performing only the initial encoding and using the files without repeating the encoding thereafter and performing the multiplexing as many times as desired.

【0104】図3に示すシステムは、1つのビデオ素材
に対して、オーディオソース信号として日本語音声と英
語音声がある場合を示している。最初に、ビデオと日本
語の音声と英語の音声の多重ビットストリームを作る。
その後に、必要に応じて、映像と日本語音声のみの多重
ビットストリームを作成したり、或いは映像と英語音声
のみの多重ビットストリームを作成する場合を示してい
る。
The system shown in FIG. 3 shows a case where Japanese audio and English audio are available as audio source signals for one video material. First, create a multiple bitstream of video, Japanese audio, and English audio.
After that, a case where a multiplex bitstream of only video and Japanese audio or a multiplex bitstream of only video and English audio is created is shown as needed.

【0105】図3に示す本実施例2にかかるオーサリン
グシステムのシステム構成図を示す図である。このオー
サリングシステムは、符号化装置1′と、2個の音声多
重化装置21-1,21-2とを備えている。
FIG. 8 is a diagram showing a system configuration diagram of an authoring system according to the second embodiment shown in FIG. 3. This authoring system includes a coding device 1'and two voice multiplexing devices 21-1 and 21-2.

【0106】符号化装置1′は、ビデオ符号化装3と、
音声符号化装置41,43とを有している。
The coding device 1'includes a video coding device 3 and
It has speech coding devices 41 and 43.

【0107】ビデオ符号化装置3に対してディジタル形
式のビデオソース信号が入力され、ビデオ符号化装置3
はこのビデオソース信号を例えばMPEG2システムを
利用して圧縮符号化する。このビデオ圧縮データはエレ
メンタリー・ストリームとして、ハードディスク等の蓄
積メディアに蓄積され、ビデオ・エレメンタリー・スト
リーム・ファイル9が生成される。
A video source signal in digital format is input to the video encoding device 3, and the video encoding device 3
Compresses and encodes this video source signal using, for example, the MPEG2 system. This video compressed data is accumulated as an elementary stream in a storage medium such as a hard disk to generate a video elementary stream file 9.

【0108】同時に、符号化工程で得られる符号化付随
情報が、ハードディスク等の記録メディアに蓄積され、
符号化付随情報ファイル11が生成される。符号化付随
情報は、後段の分離装置で多重ビットストリームから個
別のストリーム部分を分離する分離装置で必要とされる
情報であり、アクセス・ユニットのサイズ,DTS,ま
た特にビデオではPTSからなる。
At the same time, the coded incidental information obtained in the coding step is accumulated in a recording medium such as a hard disk,
The encoded accompanying information file 11 is generated. The coding incidental information is information required by the separating device that separates individual stream parts from the multiplex bit stream in the separating device in the subsequent stage, and includes the size of the access unit, the DTS, and particularly the PTS in the video.

【0109】音声符号化装置41に対してディジタル形
式の日本語音声ソース信号が入力され、音声符号化装置
41はこの日本語音声ソース信号をMPEGオーディオ
システムを利用して圧縮符号化する。この日本語音声圧
縮データはエレメンタリー・ストリーム(素ビット列)
として、ハードディスク等の蓄積メディアに蓄積され、
オーディオ・エレメンタリー・ストリーム・ファイル4
5が生成される。
A digital Japanese voice source signal is input to the voice encoding device 41, and the voice encoding device 41 compresses and encodes this Japanese voice source signal using an MPEG audio system. This Japanese audio compressed data is an elementary stream (raw bit string)
Is stored in a storage medium such as a hard disk,
Audio Elementary Stream File 4
5 is generated.

【0110】同時に、符号化工程で得られる符号化付随
情報が、ハードディスク等の記録メディアに蓄積され、
符号化付随情報ファイル47が生成される。
At the same time, the encoded incidental information obtained in the encoding step is accumulated in a recording medium such as a hard disk,
The encoded accompanying information file 47 is generated.

【0111】音声符号化装置43に対してディジタル形
式の英語音声ソース信号が入力され、音声符号化装置4
3はこの英語音声ソース信号をMPEGオーディオシス
テムを利用して圧縮符号化する。この英語音声圧縮デー
タはエレメンタリー・ストリーム(素ビット列)とし
て、ハードディスク等の蓄積メディアに蓄積され、字幕
・エレメンタリー・ストリーム・ファイル49が生成さ
れる。
The English speech source signal in digital format is input to the speech coder 43, and the speech coder 4
3 compresses and encodes this English audio source signal using the MPEG audio system. This English audio compressed data is stored in a storage medium such as a hard disk as an elementary stream (elementary bit string), and a subtitle / elementary stream file 49 is generated.

【0112】同時に、符号化工程で得られる符号化付随
情報が、ハードディスク等の記録メディアに蓄積され、
符号化付随情報ファイル51が生成される。
At the same time, the encoded incidental information obtained in the encoding step is accumulated in a recording medium such as a hard disk,
The encoded accompanying information file 51 is generated.

【0113】以上は例示であり、日本語音声,英語音声
の他に他の言語による吹き替え、更に他の言語による字
幕ソース信号等も用意できる。この場合、各個別ソース
信号に符号化器を用意し、各エレメンタリー・ストリー
ム及び符号化付随情報のファイルを生成する。以下、説
明を簡単にするため、図に示すビデオ,日本語音声,英
語音声に関して説明する。
The above is an example, and in addition to Japanese voice and English voice, dubbing in other languages, and subtitle source signals in other languages can be prepared. In this case, an encoder is prepared for each individual source signal, and a file of each elementary stream and encoding accompanying information is generated. To simplify the description, the video, Japanese voice, and English voice shown in the figure will be described below.

【0114】多重化装置21-1と21-2は、実施例1の
多重化装置21と実質的に同じである。多重化装置21
-1は、これら全ての情報を多重化し、映像・日本語音声
・英語音声の多重ビットストリームを生成する。即ち、
多重化装置21-1は、スケジューリング器,参照画像位
置情報生成器及び多重ビットストリーム生成器を有し、
スケジュールデータ及び参照画像位置情報を用いて、ビ
デオ・エレメンタリー・ストリーム,日本語エレメンタ
リー・ストリーム,英語エレメンタリー・ストリームを
多重化する。
The multiplexers 21-1 and 21-2 are substantially the same as the multiplexer 21 of the first embodiment. Multiplexer 21
-1 multiplexes all of this information to generate a multiplexed bitstream of video, Japanese audio, and English audio. That is,
The multiplexer 21-1 has a scheduling device, a reference image position information generator, and a multiple bitstream generator,
The video elementary stream, the Japanese elementary stream, and the English elementary stream are multiplexed using the schedule data and the reference image position information.

【0115】これとは別に、ビデオと日本語音声のみの
多重ビットストリームを生成することも出来る。この場
合には、既に符号化済みの映像と、日本語音声のファイ
ルとを使用して、多重化装置23-2で多重化すれば良
い。この多重化装置23-2も、実施例1で説明した多重
化装置と実質的に同じものであり、即ち多重化装置21
-1の入力を選択的に変更することにより、多重化装置2
3-2とすることが出来る。
Apart from this, it is also possible to generate a multiple bit stream of only video and Japanese audio. In this case, the already-encoded video and the Japanese audio file may be used for multiplexing by the multiplexer 23-2. This multiplexer 23-2 is also substantially the same as the multiplexer described in the first embodiment, that is, the multiplexer 21.
-1 by selectively changing the input
It can be 3-2.

【0116】従って、多重化装置23-2もスケジューリ
ング器,参照画像位置情報生成器及び多重ビットストリ
ーム生成器を有し、スケジュールデータ及び参照画像位
置情報生成器を用いて、ビデオ・エレメンタリー・スト
リーム及び日本語エレメンタリー・ストリームを多重化
する。
Therefore, the multiplexer 23-2 also has a scheduler, a reference image position information generator and a multiple bit stream generator, and uses the schedule data and the reference image position information generator to generate a video elementary stream. Also, the Japanese elementary streams are multiplexed.

【0117】このように、ここのエレメンタリー・スト
リームとアクセス・ユニット情報を中間ファイルとして
管理することにより、例えば1つの映画素材やビデオ素
材に対する複数のオーディオ,複数の言語による吹き替
え,複数の言語による字幕等を予め符号化して、各エレ
メンタリ・ストリームファイルと共に各符号化付随情報
ファイルを生成しておくことにより、後で任意の組み合
わせにより多重ビットストリームを生成することが出来
る。符号化処理の重複を避けることが出来、全体とし
て、非常に効率的になる。
By managing the elementary stream and access unit information as an intermediate file in this way, for example, a plurality of audio for one movie material or a video material, dubbing in a plurality of languages, a plurality of languages By previously encoding subtitles and the like and generating each coded accompanying information file together with each elementary stream file, it is possible to later generate a multiple bit stream by an arbitrary combination. Duplication of the encoding process can be avoided, and the whole becomes very efficient.

【0118】[0118]

【発明の効果】本発明によれば、多数の個別データを効
率良く多重化するオーサリングシステムを提供すること
が出来る。
According to the present invention, it is possible to provide an authoring system for efficiently multiplexing a large number of individual data.

【0119】更に本発明によれば、このようなオーサリ
ングシステムに使用される符号化手段と、多重化手段を
提供することが出来る。
Further, according to the present invention, it is possible to provide an encoding means and a multiplexing means used in such an authoring system.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例が準用しているMPEG2−PSのパ
ック(上位)レイヤのデータ構造を説明する図である。
FIG. 1 is a diagram illustrating a data structure of a pack (upper) layer of MPEG2-PS to which this embodiment applies.

【図2】本実施例が準用しているMPEG2−PSのP
ESパケット(下位)・レイヤのデータ構造を説明する
図である。
FIG. 2 is a P of MPEG2-PS to which this embodiment applies mutatis mutandis.
It is a figure explaining the data structure of an ES packet (lower) layer.

【図3】本実施例が参照画像位置情報ファイルとして使
用するMPEG2−PSのPSMパケット及びPSDパ
ケットのデータ構造を説明する図である。
FIG. 3 is a diagram illustrating a data structure of an MPEG2-PS PSM packet and a PSD packet used as a reference image position information file in the present embodiment.

【図4】実施例1にかかるオーサリングシステムの構成
を示す図である。
FIG. 4 is a diagram showing a configuration of an authoring system according to the first embodiment.

【図5】実施例2にかかるオーサリングシステムの構成
を示す図である。
FIG. 5 is a diagram showing a configuration of an authoring system according to a second embodiment.

【図6】本実施例に関連するMPEGシステムの基本シ
ステムの構成を説明する図である。
FIG. 6 is a diagram illustrating the configuration of a basic system of an MPEG system related to this embodiment.

【図7】MPEG2−PSの基準復号器を説明する図で
ある。
FIG. 7 is a diagram illustrating an MPEG2-PS reference decoder.

【図8】ビデオ及びオーディオ情報のパケットによる多
重化の状態並びにパックによるパケットのグループ化を
説明する図である。
[Fig. 8] Fig. 8 is a diagram for describing a multiplexing state of packets of video and audio information and packet grouping by packs.

【図9】復号装置のSTDバッファのデータ蓄積状態及
び読み出しタイミングを説明する図である。
FIG. 9 is a diagram illustrating a data storage state and a read timing of the STD buffer of the decoding device.

【図10】従来技術のリアルタイム・オーサリング・シ
ステムの構成を示す図である。
FIG. 10 is a diagram showing a configuration of a conventional real-time authoring system.

【符号の説明】[Explanation of symbols]

1,1′符号化装置 3 ビデオ符号器 5 オーディオ符号器 9,13,17 エレメンタリー・ストリーム・ファイ
ル 11,15,19, 47,51 符号化付随情報ファイ
ル 21,21-1,21-2 多重化装置(MUX) 23 スケジューリング器 25 パック情報 27 パケット情報 29 参照画像位置情報生成器 33 PSD情報ファイル 35 PSM情報ファイル 37 多重ビットストリーム生成器 51 蓄積メディア 55 分離装置(DMUX) 57′,59′ STDバッファ 57 ビデオ・デコーダ(復号器) 59 オーディオ・デコーダ(復号器) 60 復号装置 61 システム・デコーダ 63 ピクチャ遅延メモリ 65,67 バッファメモリ 69 多重化回路
1, 1'Encoding device 3 Video encoder 5 Audio encoder 9, 13, 17 Elementary stream file 11, 15, 19, 47, 51 Encoding additional information file 21, 21-1, 21-2 Multiplexing Device (MUX) 23 Scheduling device 25 Pack information 27 Packet information 29 Reference image position information generator 33 PSD information file 35 PSM information file 37 Multi-bitstream generator 51 Storage medium 55 Separation device (DMUX) 57 ', 59' STD Buffer 57 Video decoder (decoder) 59 Audio decoder (decoder) 60 Decoding device 61 System decoder 63 Picture delay memory 65, 67 Buffer memory 69 Multiplexing circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田原 勝己 東京都品川区北品川6丁目7番35号 ソ ニー株式会社内 (56)参考文献 特開 平5−236009(JP,A) 特開 平5−236466(JP,A) 特開 平6−252876(JP,A) 特開 平6−343065(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04J 3/00 H04N 7/025 H04N 7/03 H04N 7/035 H04N 7/24 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Katsumi Tahara 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Within Sony Corporation (56) Reference JP-A-5-236009 (JP, A) JP-A 5-236466 (JP, A) JP-A-6-252876 (JP, A) JP-A-6-343065 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04J 3/00 H04N 7/025 H04N 7/03 H04N 7/035 H04N 7/24

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 ディジタル符号化標準に沿って、複数の
個別ソース信号を夫々符号化して得られた各エレメンタ
リー・ストリームとその他のディジタル信号列とを多重
化して多重ビットストリームを生成するオーサリングシ
ステムにおいて、 前記符号化時に各エレメンタリー・ストリームをファイ
ルとして夫々生成すると同時に符号化付随情報を中間フ
ァイルとして夫々生成する符号化装置と、 前記各エレメンタリー・ストリームのファイルと前記中
間ファイルとから、前記エレメンタリー・ストリームを
分析することなしに多重化のスケジューリングを行って
多重ビットストリームを生成する多重化装置とを備えた
オーサリングシステム。
1. An authoring system that multiplexes each elementary stream obtained by individually coding a plurality of individual source signals in accordance with a digital coding standard with another digital signal sequence to generate a multiplex bitstream. In the above, at the time of encoding, each of the elementary streams is respectively generated as a file, and at the same time, an encoding device that simultaneously generates the associated information of encoding as an intermediate file, the file of each elementary stream and the intermediate file, An authoring system comprising: a multiplexer that schedules multiplexing without analyzing an elementary stream to generate a multiplexed bitstream.
【請求項2】 請求項1に記載のオーサリングシステム
において、 前記ディジタル符号化標準は、動画像に関してはMPE
G2システムであり、オーディオに関してはMPEGオ
ーディオであるオーサリングシステム。
2. The authoring system of claim 1, wherein the digital coding standard is MPE for moving images.
An authoring system that is a G2 system and is MPEG audio for audio.
【請求項3】 請求項1に記載のオーサリングシステム
において、 前記符号化装置は、少なくともビデオソース信号を受け
取りこれを符号化して、ビデオデータのエレメンタリー
・ストリームのファイル及び符号化付随情報の中間ファ
イルを生成するビデオ符号化器と、 複数のオーディオソース信号を夫々受け取ってこれを符
号化して、各々のオーディオデータのエレメンタリー・
ストリームのファイル及び符号化付随情報の中間ファイ
ルを生成する複数個のオーディオ符号化器とを有するオ
ーサリングシステム。
3. The authoring system according to claim 1, wherein the encoding device receives at least a video source signal and encodes the video source signal, thereby forming a file of an elementary stream of video data and an intermediate file of encoding accompanying information. And a video encoder for generating a plurality of audio source signals, each of which receives and encodes an audio source signal,
An authoring system having a stream file and a plurality of audio encoders for generating an intermediate file of encoded side information.
【請求項4】 請求項3に記載のオーサリングシステム
において、 前記符号化装置は、更に少なくとも1つの字幕ソース信
号を受け取ってこれを符号化して、字幕データのエレメ
ンタリー・ストリームのファイル及び符号化付随情報の
中間ファイルを生成する字幕符号化器とを有するオーサ
リングシステム。
4. The authoring system according to claim 3, wherein the encoding device further receives and encodes at least one subtitle source signal, and an elementary stream file of subtitle data and an accompanying encoding. An authoring system having a subtitle encoder for generating an intermediate file of information.
【請求項5】 請求項1に記載のオーサリングシステム
において、 前記多重化装置は、スケジューリング器と、参照画像位
置情報生成器と、多重ビットストリーム生成器とを有
し、 前記スケジューリング器は、多重化を行う各エレメンタ
リー・ストリームのスケジューリングを行いその結果を
スケジュールデータの中間ファイルとして生成し、 前記参照画像位置情報生成器は、前記スケジュールデー
タの中間ファイルから多重ビットストリームを構成する
全てのパック毎に挿入する参照画像位置情報の中間ファ
イルを生成し、 前記多重ビットストリーム生成器は、前記スケジュール
データの中間ファイル及び前記参照画像位置情報の中間
ファイルの情報に基づき各エレメンタリー・ストリーム
から多重ビットストリームを生成するオーサリングシス
テム。
5. The authoring system according to claim 1, wherein the multiplexer includes a scheduling unit, a reference image position information generator, and a multiple bit stream generator, and the scheduling unit performs multiplexing. Performing the scheduling of each elementary stream to generate the result as an intermediate file of the schedule data, the reference image position information generator, for each pack constituting a multiple bit stream from the intermediate file of the schedule data An intermediate file of reference image position information to be inserted is generated, and the multiplex bitstream generator generates multiplex bitstreams from each elementary stream based on the information of the intermediate file of the schedule data and the intermediate file of the reference image position information. The census to generate Gushisutemu.
【請求項6】 請求項5に記載のオーサリングシステム
において、 前記符号化付随情報の中間ファイルに、少なくとも多重
化の最小単位であるアクセス・ユニット毎のサイズ,D
TS及びPTSが記述されているオーサリングシステ
ム。
6. The authoring system according to claim 5, wherein the size of each access unit, which is at least a minimum unit of multiplexing, D in the intermediate file of the coded accompanying information.
An authoring system that describes TS and PTS.
【請求項7】 少なくともビデオソース信号,オーディ
オソース信号を含む複数の個別ソース信号を、ディジタ
ル動画像符号化標準に沿って夫々符号化して得られた各
エレメンタリー・ストリームを多重化して多重ビットス
トリームを生成するオーサリングシステムで使用される
符号化装置において、 前記複数の個別信号を夫々符号化する複数の符号化器を
有し、各々の該符号化器は個別信号を圧縮符号化してエ
レメンタリー・ストリームのファイルを生成すると共
に、対応する符号化付随情報のファイルを生成する符号
化装置。
7. A multiple bit stream obtained by multiplexing a plurality of individual source signals including at least a video source signal and an audio source signal in accordance with a digital moving image encoding standard and multiplexing the obtained elementary streams. A coding device used in an authoring system for generating a plurality of individual signals, each of which has a plurality of encoders, each encoder compressing and encoding the individual signal An encoding device that generates a file of a stream and a file of corresponding encoding accompanying information.
【請求項8】 少なくともビデオ信号,オーディオ信号
を含む複数の個別信号を夫々符号化して得られた各エレ
メンタリー・ストリームを多重化してディジタル動画像
符号化標準に沿って多重ビットストリームを生成するオ
ーサリングシステムで使用される多重化装置において、 多重化を行う各エレメンタリー・ストリームのスケジュ
ーリングを行いスケジュールデータの中間ファイルを生
成するスケジューリング器と、 前記スケジュールデータの中間ファイルから参照画像位
置情報の中間ファイルを生成する参照画像位置情報生成
器と、 前記参照画像位置情報の中間ファイル及び前記スケジュ
ールデータの中間ファイルの情報に基づき各エレメンタ
リー・ストリームから多重ビットストリームを生成する
ビットストリーム生成器とを備えた多重化装置。
8. Authoring for multiplexing each elementary stream obtained by encoding a plurality of individual signals including at least a video signal and an audio signal to generate a multiple bit stream according to a digital moving image encoding standard. In the multiplexing device used in the system, a scheduling device that schedules each elementary stream to be multiplexed and generates an intermediate file of schedule data, and an intermediate file of reference image position information from the intermediate file of the schedule data is generated. A reference image position information generator for generating, and a bitstream generator for generating a multiple bitstream from each elementary stream based on information of the intermediate file of the reference image position information and the intermediate file of the schedule data are provided. Multiplexer.
【請求項9】 個別ストリームを夫々符号化し、各符号
化ビットストリームを多重化して多重ビットストリーム
を生成するオーサリングシステムにおいて、該オーサリ
ングシステムは符号化装置及び多重化装置を備え、 前記符号化装置は、符号化時にエレメンタリー・ストリ
ームをファイルとして生成すると同時に符号化付随情報
を中間ファイルとして生成し、 前記多重化装置は、多重化スケジューリング器,参照画
像位置情報生成器及び多重ビットストリーム生成器とを
有し、 前記多重化スケジューリング器は、前記符号化付随情報
の中間ファイルから、前記エレメンタリー・ストリーム
を分析することなしに、多重化のスケジュールデータを
中間ファイルとして生成し、 前記参照画像位置情報生成器は、前記スケジュールデー
タの中間ファイルから参照画像位置情報を生成し、 前記多重ビットストリーム生成器は、該参照位置情報の
中間ファイル,前記スケジュールデータの中間ファイル
及び各エレメンタリー・ストリームから多重ビットスト
リームを生成するオーサリングシステム。
9. An authoring system for encoding an individual stream and multiplexing each encoded bitstream to generate a multiplexed bitstream, wherein the authoring system comprises an encoding device and a multiplexing device, wherein the encoding device is , At the same time as generating an elementary stream as a file at the time of encoding, simultaneously generating encoding accompanying information as an intermediate file, the multiplexing device includes a multiplex scheduling unit, a reference image position information generator, and a multiplex bitstream generator. The multiplexing scheduling device generates multiplexing schedule data as an intermediate file from the intermediate file of the encoding accompanying information without analyzing the elementary stream, and generates the reference image position information. Is the middle of the schedule data Authoring system generates the reference image position information from Airu, the multi-bit stream generator for generating a multi-bit stream intermediate file of the reference position information, from the intermediate file and each elementary stream of the schedule data.
【請求項10】 ビデオソース信号,オーディオソース
信号,字幕ソース信号を含む複数の個別ソース信号を夫
々符号化して得られた各々のエレメンタリー・ストリー
ムとその他のディジタル信号列とを多重化して多重ビッ
トストリームを生成する方法において、 前記符号化する段階において、各々のエレメンタリー・
ストリームのファイルを生成すると同時に夫々の符号化
付随情報を中間ファイルとして生成し、 前記多重化する段階において、前記中間ファイルを取り
込むことにより、前記エレメンタリー・ストリームを分
析することなしに多重化スケジューリングを行って多重
化する、多重ビットストリームを生成する方法。
10. A multi-bit by multiplexing each elementary stream obtained by encoding a plurality of individual source signals including a video source signal, an audio source signal, and a caption source signal, and another digital signal sequence. In the method for generating a stream, in the encoding step, each elementary
At the same time that the stream file is generated, each of the coded incidental information is generated as an intermediate file, and in the multiplexing step, the intermediate file is taken in to perform multiplexing scheduling without analyzing the elementary stream. A method of generating a multiplexed bitstream, which is performed and multiplexed.
【請求項11】 請求項10に記載の多重ビットストリ
ームを生成する方法において、 前記多重化する段階は、スケジューリングする段階,参
照画像位置情報を生成する段階及び多重ビットストリー
ム生成する段階を有し、 前記スケジューリングする段階は、前記符号化付随情報
の中間ファイルに基づき各エレメンタリー・ストリーム
のスケジューリングを行いその結果をスケジュールデー
タの中間ファイルとして生成し、 前記参照画像位置情報を生成する段階は、前記スケジュ
ールデータの中間ファイルから多重ビットストリームを
構成する全てのパック毎に挿入する参照画像位置情報の
中間ファイルを生成し、 前記多重ビットストリームを生成する段階は、前記スケ
ジュールデータの中間ファイル及び前記参照画像位置情
報の中間ファイルの情報に基づき各エレメンタリー・ス
トリームから多重ビットストリームを生成する多重ビッ
トストリームを生成する方法。
11. The method of generating a multi-bitstream according to claim 10, wherein the step of multiplexing includes a step of scheduling, a step of generating reference image position information, and a step of generating a multi-bitstream. In the scheduling step, each elementary stream is scheduled based on the intermediate file of the encoding accompanying information, and the result is generated as an intermediate file of schedule data, and the step of generating the reference image position information is performed in the schedule. The step of generating an intermediate file of reference image position information to be inserted for each pack forming a multiplex bitstream from the intermediate file of data and generating the multiplex bitstream includes Intermediate file of information Method for generating a multi-bit stream to generate a multiplexed bit stream from each elementary stream based on information Le.
【請求項12】 請求項11に記載の多重ビットストリ
ームを生成する方法において、 前記符号化付随情報の中間ファイルに、少なくとも多重
化の最小単位であるアクセス・ユニット毎のサイズ,D
TS及びPTSが記述される多重ビットストリームを生
成する方法。
12. The method for generating a multi-bitstream according to claim 11, wherein in the intermediate file of the coded ancillary information, at least a size of each access unit that is a minimum unit of multiplexing, D
A method for generating a multiple bitstream in which TS and PTS are described.
JP32481795A 1995-12-13 1995-12-13 Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams Expired - Fee Related JP3536493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32481795A JP3536493B2 (en) 1995-12-13 1995-12-13 Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32481795A JP3536493B2 (en) 1995-12-13 1995-12-13 Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams

Publications (2)

Publication Number Publication Date
JPH09162830A JPH09162830A (en) 1997-06-20
JP3536493B2 true JP3536493B2 (en) 2004-06-07

Family

ID=18170009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32481795A Expired - Fee Related JP3536493B2 (en) 1995-12-13 1995-12-13 Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams

Country Status (1)

Country Link
JP (1) JP3536493B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3185863B2 (en) 1997-09-22 2001-07-11 日本電気株式会社 Data multiplexing method and apparatus
EP1198132A4 (en) 2000-04-21 2010-07-28 Sony Corp Encoding device and method, recorded medium, and program
JP2002159004A (en) * 2000-04-21 2002-05-31 Sony Corp Device and method for encoding, recording medium, and program
JP4538908B2 (en) * 2000-06-14 2010-09-08 ソニー株式会社 Data conversion apparatus and method

Also Published As

Publication number Publication date
JPH09162830A (en) 1997-06-20

Similar Documents

Publication Publication Date Title
US8218582B2 (en) Method and apparatus for generating information signal to be recorded
US8886010B2 (en) Apparatus and method for decoding data for providing browsable slide show, and data storage medium therefor
US8233776B2 (en) After-recording apparatus
US8233780B2 (en) Reproducing apparatus and method, and recording medium
JP5052763B2 (en) Information storage medium in which video data is recorded, recording method, recording apparatus, reproducing method, and reproducing apparatus
US20070211718A1 (en) Method of and apparatus for converting data stream format and method of and apparatus for recording data stream using the method and apparatus
US20020034144A1 (en) Recording apparatus
JP3536493B2 (en) Authoring system, encoder and multiplexer used in the system, and method for generating multiple bit streams
CA2490879C (en) Reproducing apparatus and method, and recording medium
JPH0950673A (en) Data coding device and method, data recording medium, and data decoding device and method
KR0181082B1 (en) Pts coder of mpeg system
JP3531324B2 (en) Encoding / multiplexing apparatus, multiplexing preprocessing apparatus, and encoding / multiplexing method
CA2725179C (en) Reproducing apparatus and method, and recording medium
KR100336501B1 (en) A method and decoder for synchronizing textual data to MPEG-1 multimedia streams
JP2003274337A (en) Data recording device, data reproducing device, data recording and reproducing device, and data recording method
JP2005260979A (en) Method for transmitting after-recording signal
JP2005245006A (en) Postrecording signal reproducing apparatus
JP2005260978A (en) Program for generating after-recording signal
JP2005198347A (en) Method for generating after-recording signal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040308

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080326

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090326

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100326

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110326

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees